¿Cuál es el próximo gran salto para los gráficos 3D?



Puede recordar un video de YouTube de hace unos años que hace afirmaciones increíbles: que en este momento, en el hardware actual, podemos construir mundos de juego conilimitadodetalle. No hay recuento de polígonos porque no hay polígonos; hemos ido más allá de unir miles de formas planas para hacer modelos 3D y ahora todo se puede construir a partir de 'átomos' individuales. Y debido a que solo se renderizan los átomos visibles, es extremadamente rápido, y no hay límite para el tamaño de los datos de la nube de puntos. Incluso puede dejar cada grano de tierra en el suelo.



Ese video fue creado por Euclideon , una compañía de software australiana que promete que su algoritmo de búsqueda de nubes de puntos es revolucionario y se ve tremendamente impresionante. Pero desde entonces Euclideon se ha vuelto un poco notorio por hacer afirmaciones audaces y luego ignorar a los escépticos de la industria, y en los cinco años desde ese video todavía no hemos jugado un juego usando su tecnología supuestamente transformadora. Eso no significa necesariamente que no funcione, pero si realmente es el futuro del renderizado en tiempo real, ciertamente no ha sido probado; hasta ahora, Euclideon solo ha demostrado iluminación y animación rudimentarias .



Pero el futuro de los gráficos 3D en tiempo real puede ser más increíble de lo que sugieren incluso los videos publicitarios de Euclideon. Para encontrar algo de claridad sobre estas afirmaciones y otras ideas futuristas, hablé con líderes gráficos tanto en software como en hardware: el cofundador de Epic Games, Tim Sweeney, y el director de marketing técnico de Nvidia, Tom Petersen. Quería averiguar dónde se encuentran realmente los gráficos de los videojuegos ahora, qué tan cerca estamos de simular realmente el mundo real y cómo podría ser el futuro incluso más allá del fotorrealismo, o la próxima etapa de la humanidad, como dice Sweeney. En realidad, da un poco de miedo.

Los juegos se ven bastante bien estos días, pero ¿cómo podrían verse?



Los juegos se ven bastante bien estos días, pero ¿cómo podrían verse?



Simulando luz

El humilde polígono probablemente no será usurpado en el corto plazo, pero la idea de la representación no tradicional no carece de mérito. Si las resoluciones de los monitores no hubieran aumentado al ritmo que lo hicieron, dice Sweeney, el mundo del procesamiento de gráficos en tiempo real podría haber ido en otra dirección. Pero resultó que la eficiencia de la representación de polígonos era la mejor manera de mantenerse al día con las resoluciones crecientes, y debido a que nos hemos vuelto realmente buenos en la representación de polígonos en los últimos 10 años, otros métodos van a tener dificultades para entrar. Si se ganara algo más, no solo tendría que ser mejor que las herramientas disponibles para los desarrolladores de juegos ahora (herramientas para animación, construcción de mundos, simulación de fluidos y telas, etc.), sino que también debería hacerlo en desventaja porque la industria y todo el hardware está optimizado para rasterizar polígonos.

“El renderizado de micropolígono antialiasado analíticamente (del paradigma original de Pixar REYES) es una [técnica] prometedora, y la única opción que veo como un reemplazo plausible de toda la tubería para la rasterización tradicional, escribió Sweeney cuando más tarde le pedí que elaborara. Ganaría en un escenario donde los detalles finos como el cabello o la vegetación son esenciales, y el rendimiento de la GPU ha superado la densidad de píxeles. La primera condición se mantiene hoy en día, pero la última es todo lo contrario, ya que 4K y VR exigen resoluciones cada vez más altas.



En otras palabras, todavía no tenemos el poder de procesamiento para renderizar gráficos con calidad de película en tiempo real con las resoluciones que estamos tratando de lograr, pero no es imposible. Otros enfoques interesantes son el trazado de rayos, la representación de vóxeles, la representación del volumen del espacio de señal como se hace para las resonancias magnéticas médicas y las nubes de puntos, dijo Sweeney. Creo que cada uno de estos podría sobresalir para casos de uso y efectos particulares, pero soy escéptico de que sean un reemplazo para todo el proceso de renderizado tradicional '.

Para ofrecer un fotorrealismo que sea indiscutiblemente preciso de la vida real, creo que querrás tener una simulación de luz.



Tom Petersen



Arriba: Imagine un renderizado con calidad Pixar en tiempo real.

Petersen, de Nvidia, describe nuestras actuales capacidades de renderizado en tiempo real como aproximaciones de prestidigitación y ve las nuevas técnicas como parte de un futuro en el que esas aproximaciones se convertirán en verdaderas simulaciones. Para ofrecer un fotorrealismo que sea indiscutiblemente preciso de la vida real, creo que querrá tener una simulación de luz, dijo Petersen. Eso requerirá, hasta cierto punto, diferentes técnicas.

Para los juegos que luchan por el realismo sobre el estilo, Petersen prevé un enfoque menos artístico y más tecnológico de los gráficos. En lugar de que un artista pinte una textura, simplemente construye un modelo y dice: Oye, aquí hay un trozo de madera. Las propiedades de la madera se habrían capturado a partir de muestras reales y luego se enviarían a la GPU para convertirlas en imágenes.

Creo que hacer una simulación físicamente precisa de materiales para la luz se volverá cada vez más poderoso, dijo Petersen. No estamos cerca de eso hoy, pero esa podría ser la forma en que van las cosas. Me encanta la idea de tener una simulación de luz que use materiales y propiedades de los materiales en lugar de este tipo de texturas y propiedades simples representadas artísticamente.

Si bien eso está muy lejos, las nubes de puntos, los escaneos y fotogrametría ya tienen un lugar en los videojuegos. El mundo de La desaparición de Ethan Carter, por ejemplo, fue logrado al fotografiar objetos del mundo real , construyendo nubes de puntos y luego convirtiendo las nubes en polígonos y texturas. El resultado final funciona igual que otros juegos, pero parece mucho más convincente porque el detalle es real. Las piedras se usan como se desgastan las piedras en lugar de empapelarlas con una imagen similar a una piedra, y aunque no estamos mirando micropolígonos o nubes de puntos o la representación del volumen del espacio de señales, el efecto es notable.

Rompiendo la ley de Moore

A medida que aumenta la potencia de procesamiento de la GPU, la complejidad de las escenas poligonales, por supuesto, seguirá aumentando, ya sea que estén construidas a mano o escaneadas, y algunas de esas técnicas de renderización alternativas pueden ser posibles. Y en el futuro previsible, las GPU seguirán mejorando y son más rápidas.

Las GPU siguen avanzando más rápido que Ley de Moore , porque obviamente podemos ir en paralelo y cuando se hace en paralelo, realmente mejora el rendimiento de manera espectacular, dijo Petersen. Por lo tanto, espero que las GPU sigan siendo cada vez más rápidas y más rápidas aproximadamente al mismo ritmo a través de una combinación de mejoras de procesos y arquitectura.

¿Alguna vez se reducirá? Nunca se sabe, dice, pero normalmente la vida encuentra un camino. Cada vez que alguien dice que no se puede hacer, que no queda más procesamiento, la tecnología mejora de todos modos.

Sin embargo, la cantidad de polígonos que podemos renderizar no lo es todo. Más polígonos pueden hacer que los edificios se vean geniales y los árboles mejor que nunca, pero siempre me decepciono cuando miro el suelo, aparentemente está hecho de formas y texturas planas. No es polvo espeso o barro que absorbe la luz, moldeado por cada fuerza que alguna vez ha actuado sobre él. E incluso si pudiéramos renderizar cada partícula como en la demostración de Euclideon, todavía faltaría una parte vital de su fidelidad: se supone que la suciedad se esparce bajo nuestros pies y se derrama en las corrientes de viento, no se pega al lecho de roca.

El comportamiento es tan importante para la fidelidad como el policuento o la resolución de textura, y el 'fotorrealismo' es realmente una mala manera de describir hacia lo que nos estamos moviendo, que es algo más parecido a un video de alta definición, excepto que es aún mejor: un aspecto más real que un La lente de la cámara produce, además de dinámica y maleable.

El agua, el barro y otros elementos blandos, blandos y líquidos son difíciles de simular, pero las GPU se están volviendo mucho mejores. Ya no son solo máquinas de rasterización de polígonos, sino poderosos dispositivos de computación general que pueden procesar simulaciones de física e inteligencia artificial. Los resultados de los últimos años han sido asombrosos. Mira esto Demostración de Nvidia FleX de 2014 (incrustado arriba), por ejemplo.

Hay bastantes juegos que han hecho un buen uso de la simulación física acelerada por hardware. Golf peligroso utiliza fluidos FleX , por ejemplo, al igual que Killing Floor 2 para su sangre y sangre . Las demostraciones técnicas siempre me parecen un poco más emocionantes que los juegos en sí, pero todo lo que las demostraciones tienen que hacer es verse bien: los desarrolladores de juegos tienen muchas más preocupaciones más allá de llorar por la fidelidad de la leche derramada. Le pregunté a Petersen sobre mi suciedad, específicamente. ¿Cuándo será la suciedad en un juego?tierra?

Creo que verá que la tecnología de transmisión mejorará drásticamente en los próximos años, de modo que borrará la línea entre lo que es local y lo que está en la nube.

Tom Petersen

No sabemos cuándo va a suceder, y obviamente los avances ocurren todo el tiempo, en términos de, 'Oh, no tenemos que simular cada partícula [de suciedad] para obtener un gran efecto, podemos hacer copias de partículas y simplemente tenemos modelos de estas partículas esparcidos por todo el lugar ”, dijo Petersen. Pero sí creo que el desafío para Nvidia y el desafío para las empresas de gráficos será: ¿cómo se puede acercar más a lo que está diciendo, simulando todo y ofreciendo rendimiento en tiempo real? Y creo que verás aproximaciones a lo largo del camino. A medida que las GPU se vuelven cada vez más rápidas, vamos a querer dedicar nuestro esfuerzo de computación de GPU a cosas que son importantes para la vista.

Arriba: una presentación de SIGGRAPH 2015 que demuestra algunos de los problemas de simulación siendo abordado en la academia hoy.

Según Petersen, nuestras computadoras de escritorio se acercarán rápidamente a la calidad fotorrealista a medida que mejoren las GPU, y la simulación viene junto con eso, pero sus predicciones de futuro más azul cielo también incluyen la computación en la nube. Creo que verá que la tecnología de transmisión mejorará drásticamente en los próximos años, de modo que desdibuje la línea entre lo que es local y lo que está en la nube, dijo. Y aunque la realidad virtual necesitará un procesamiento local rápido para mantenerse al día con el seguimiento de la cabeza, Petersen imagina un modelo de computación híbrida que divide el trabajo entre un dispositivo liviano y procesadores remotos, liberando los cascos de realidad virtual.

La transmisión entre nuestros propios dispositivos es una cosa, pero la perspectiva de que las computadoras remotas simulen nuestros mundos de juego es emocionante y algo desagradable. Solíamos poseer software (o al menos esa era la ilusión), y ahora lo licenciamos, y en algún momento en el futuro cercano es posible que ni siquiera lo procesemos nosotros mismos. Pero como señala Petersen, hemos llegado a aceptar servicios como Netflix, por lo que no es exagerado pensar que la generación joven adoptará la tecnología de transmisión a medida que avanza. La buena noticia es que nuestro hardware local también será increíblemente poderoso.

¿Qué falta?

Para Sweeney, los problemas más interesantes son los que podemos resolver ahora mismo con software, y quizás se podrían haber resuelto hace cinco años si solo hubiéramos pensado en ellos. Tenemos esta tecnología de hardware muy poderosa aquí, dijo Sweeney, pero siento que apenas la estamos utilizando en términos de todo su potencial para la actividad humana. Señala que el modo multijugador no ha cambiado mucho en 20 años; todavía somos avatares sin emociones sin ninguna conexión con otras personas.

Siento que apenas estamos utilizando [el hardware actual] en términos de todo su potencial para la actividad humana.

Tim Sweeney

¿Qué sucede cuando puedes capturar de manera realista los rostros de las personas en tiempo real a través de cámaras orientadas hacia adentro mientras están en realidad virtual, y el movimiento de su cuerpo, y recrearlos como humanos digitales dentro de un entorno de realidad virtual? él pide.

Sweeney también considera que las herramientas de desarrollo son una parte vital del futuro: obtener mejores herramientas de creación de mundos en Unreal Engine, incluida la capacidad de crear en realidad virtual, y para usuarios que no son desarrolladores de juegos profesionales. Su visión del futuro incluye a una generación que creció en Minecraft y ahora construye entornos fotorrealistas en su tiempo libre.

Si pensamos en lo que podrían ser los juegos en 10 años, no solo vamos a jugar a un montón de juegos prediseñados para un jugador que las compañías hicieron que miles de personas construyeran con un presupuesto de mil millones de dólares, dijo Sweeney. Será impulsado por el usuario. Los usuarios van a crear cosas, van a crear entornos perfectos para la interacción social, para el juego. Todo se tratará de capacitar a los usuarios para que hagan que esto suceda por sí mismos. Verás a la comunidad indie de millones de indies contribuyendo a eso, en lugar de enviar 400.000 juegos en la App Store, que en su mayoría fracasan.

¿Los mundos virtuales del futuro serán crowdsourcing?

¿Los mundos virtuales del futuro serán crowdsourcing?

Eso trae un tema importante: ¿quién va a construir estos mundos absurdamente detallados? Los estudios más grandes ya utilizan a cientos o miles de personas para crear juegos, por lo que parece probable que la industria se vuelva aún más colaborativa. Y como dice Sweeney, además de los creadores de hardware, los titulares de estándares como Microsoft y los desarrolladores de motores y middleware, los usuarios también pueden convertirse en una parte más importante del proceso. Aunque la idea fue abandonada, cuando Daybreak Games era SOE, había planeado obtener entornos creados por el usuario de EverQuest Next Landmark para EverQuest Next. Quizás se adelantó a su tiempo.

También le pedí a Sweeney que hiciera una conjetura descabellada sobre un futuro más lejano, dentro de 20 años, y sus ideas son creíbles aunque audaces. Nos estamos acercando a la simulación de la realidad, dijo, y en 2036 tendremos una representación de objetos físicos tan perfeccionada que le resultará muy, muy difícil distinguir esos objetos de la realidad. También tendremos teléfonos inteligentes en nuestros bolsillos que convierten mundos hiperrealistas de realidad aumentada en dispositivos que no son más engorrosos que las gafas de sol.

Los teléfonos móviles han recorrido un largo camino en 20 años. (Por Oldmobil - Saját fotó, CC BY-SA 3.0)

Los teléfonos móviles han recorrido un largo camino en 20 años. (Por Oldmobil - Saját fotó, CC BY-SA 3.0)

En perspectiva, el Nokia 9000 Communicator, un teléfono móvil introducido hace 20 años en 1996, tenía un procesador de 33 MHz y 8 MB de memoria. El iPhone 6s de primer nivel tiene un procesador de 1,85 GHz, 2 GB de RAM y 128 GB de almacenamiento. Y en otros 20 años, Sweeney cree que será como tener una PC mejor de la que posiblemente puedas comprar hoy contigo dondequiera que vayas en todo momento, y gráficos mejores y más envolventes, incluso en un factor de forma móvil, que puedes comprar. por un millón de dólares hoy.

Y sí, creo que en 15 años mil millones de personas tendrán esto, dijo. Y eso realmente va a cambiar las cosas. Ya sabes, la siguiente etapa de la humanidad, básicamente. Será una superpotencia.

Es difícil contar con predicciones tan grandiosas. El presente tiene una forma de sentirse mundano, algo a lo que el pasado llegó a lo largo de un curso lento y obvio. La invención del microchip, la computadora personal, la GPU, todo es razonable, bien entendido y muy poco como una superpotencia. Pero si extraemos los hechos de la línea de tiempo, la historia reciente se convierte en una serie de imposibilidades: hace 10 años, la realidad virtual era ciencia ficción; Hace 20 años, Quake tenía los mejores gráficos que había visto; Hace 30 años, una computadora personal costaba tanto como un automóvil. En el gran esquema, realmente no importa si Euclideon o cualquier otra compañía de tecnología puede realmente hacer lo que dice: alguien va a simular el mundo de una forma u otra.