PDA

Ver la versión completa : Diseccionamos las capacidades gráficas de Wii U



Mew2Power
14th June 2011, 22:20
A falta de conocer los detalles técnicos de la consola, analizamos paso a paso la demostración técnica de Wii U para conocer sus secretos.

:: Artículo completo :: (http://www.revogamers.net/articulos/diseccionamos-capacidades-graficas-wii-u-802/1.html)

Edición de vídeo: Carlos García

Hugolink
14th June 2011, 22:44
Pues como bien decís, lo úncio que se demuestra es lo que todos sabemos, que como mínimo es tan potente como lo que llevamos viendo desde hace casi 6 años... a si que a esperar toca.

shezard
14th June 2011, 22:56
Muchas gracias por las explicaciones, Pedro, y a Carlos por el montaje. Es realmente curioso que tengamos que seguir especulando una y otra vez sobre lo que se puede y lo que no se puede conseguir. Tanto por la política de Nintendo como por las oleadas de desinformación que llegan incluso a decir que Wii U es menos potente que la competencia, cuando sería casi más complicado hacer un hardware menos potente porque la tecnología actual "normal" (y por tanto la barata porque es la que se produce en serie y tiene los costes fijos más amortizables) es precisamente esta.

Lo que me gustaría saber es qué es lo que viene después. Es decir, cuál es la siguiente generación en efectos gráficos. Desde luego que hay una generación más en Inteligencia Artificial, que no sé si será Nintendo, Sony o paquita flores quien llegue hasta ella, pero que creo que es la ahora mismo más puede revolucionar el panorama de los juegos. Tanto como pudo ser aquél efecto Shenmue en muchas de nuestras cabezas hace más de una de una década.

Wolf_Link
14th June 2011, 22:56
Yo a cuanto a potencia gráfica me espero algo superior a la 360 y PS3. No sé si Nintendo pretende jugar con las "grandes" (por llamarlas de algún modo) con esta nueva consola pero lo que casi seguro es que cuando Microsoft saque su XBOX 720 y Sony su PS4 es mas que probable que se quede desfasada, eso sin añadir que seguro que alguna de las dos copiará lo de la pantalla en el mando. Si a final hacen eso, veo.....un negro futuro para WiiU.

Otra tema es si las thirds quieran aprovechar esa potencia para sacar todo el jugo a la consola y que no pase con Wii en sus últimos años. El tiempo lo dirá.

Yo sigo cauto.....

Saludos

pd: Con que saquen un Zelda como en la demo tecnica ya me tienen XDDD

Mew2Power
14th June 2011, 23:26
Lo que me gustaría saber es qué es lo que viene después. Es decir, cuál es la siguiente generación en efectos gráficos. Desde luego que hay una generación más en Inteligencia Artificial, que no sé si será Nintendo, Sony o paquita flores quien llegue hasta ella, pero que creo que es la ahora mismo más puede revolucionar el panorama de los juegos. Tanto como pudo ser aquél efecto Shenmue en muchas de nuestras cabezas hace más de una de una década.

En una conferencia del Gamelab un experto en gráficos comentó que el futuro de los gráficos en tiempo real sería el ray-tracing ( http://en.wikipedia.org/wiki/Ray_tracing_%28graphics%29 ). Esta técnica es la que se usa en las pelis de animación actuales, pero actualmente es impracticable en tiempo real. Algún dia eso cambiará, y podremos usar ray-tracing en tiempo real. En su día era impensable usar técnicas avanzadas como deferred rendering o shadow mapping, y sin embargo aquí estamos usándolas a diario gracias a los super pepinos que tenemos por ordenador y consola.

Mew2Power
14th June 2011, 23:45
Editado el artículo: He cambiado el video del Unreal Engine 3 por otro más similar a la demo del pájaro. El otro pertenecía a la versión 3.9 presentada hace pocos meses que muestra un catálogo de efectos visuales totalmente distinto que no son posibles ni en PS3 y 360.

Ernestotaku
15th June 2011, 00:01
Aquí está el vídeo completo, por si queréis sacar algún efectillo más


http://www.youtube.com/watch?v=6OHUwDShrD4

También decir que la demo era un poco interactiva, amos, que al menos no era un vídeo pelao y mondao y como quién dice.

skywalker
15th June 2011, 00:18
Aquí está el vídeo completo, por si queréis sacar algún efectillo más


http://www.youtube.com/watch?v=6OHUwDShrD4

También decir que la demo era un poco interactiva, amos, que al menos no era un vídeo pelao y mondao y como quién dice.

http://desmotivaciones.es/demots/201011/flipando.jpg

Pero lo que yo no entiendo es por que no ponen para descargar ya en HD, este precioso video para disfrute y deleite del personal y para demostrar la capacidad de la máquina de Ninty.
El halcón posado,lloviendo.....el agua callendo por la roca,las salpicaduras del agua(ese efecto no lo he visto igual ni en PC),las sombras.....MADRE MIA!!

dnL7up
15th June 2011, 00:34
Cabe mencionar que la primera parte del video de Unreal Engine (la del tipo del cigarro) fue hecha con 3 GPU Nvidia GTX 580s por lo que no vale mucho pare hacer comparativas, pues es algo que no se va a ver en las consolas de la competencia, ni de actual ni de siguiente generación. Pues estamos hablando que tan solo una GPU de esas cuesta 500 dólares, 3 de ellas serán 1500 dólares y eso sin contar el CPU.


En una conferencia del Gamelab un experto en gráficos comentó que el futuro de los gráficos en tiempo real sería el ray-tracing ( http://en.wikipedia.org/wiki/Ray_tracing_%28graphics%29 ). Esta técnica es la que se usa en las pelis de animación actuales, pero actualmente es impracticable en tiempo real. Algún dia eso cambiará, y podremos usar ray-tracing en tiempo real. En su día era impensable usar técnicas avanzadas como deferred rendering o shadow mapping, y sin embargo aquí estamos usándolas a diario gracias a los super pepinos que tenemos por ordenador y consola.

Bueno aun hay muchisímas cosas que faltan por verse, estamos hablando de que en cine se renderiza con miles de servidores en granja y que en películas como Transformers hay escenas donde 1 solo fotograma se renderiza en más de 10 horas.
En realidad aun estamos en pañales para alcanzar la realidad en los videojuegos, lo que pasa yo creo que la gente entre más los mira, pierde la noción de la realidad. Aun recuerdo cuando se estrenó la primera película de Final Fantasy yo juraba para mis ojos que eso era hiper-realismo, y cuando le mostré una imagen a mi madre dijo que era una película de "caricaturas" lol.

Pero bueno les traigo unos ejemplos de lo que se puede venir a futuro, pero algunas cosas no creo que lleguen en las próximas dos generaciones.

Sobre el raytracing ciertamente ha sido la técnica más usada en animación y FX durante muchísimo tiempo. Pero hace algunos años surgió una técnica mucho más realista que usan los motores de render llamados "Ubiased" está revolución la empezó Maxwell Render (de una compañía que reside en España llamada NextLimit) y es literalmente una revolución por que cambia todo lo que se venía conociendo hasta ahora.

Me explicó, los motores ray-tracing (o motores Biased) no son muy diferentes a los actuales en videojuegos, más allá de que los videojuegos están limitados antes las APIS (Open CL/Direct X), pues todo funciona en base a trucos y efectos.

Por poner un ejemplo, en la vida real, todos los objetos son reflejantes y todo lo que vemos es la reflexión de la luz sobre estos.
En un motor de render Biased, los objetos no son reflejantes si no que tienen su propio color, y las sombras no aparecen donde no alcanza a llegar a luz, si no que se calculan después mediante algoritmos, esto crea muchos problemas, ya que por ejemplo este tipo de sombras al no comportarse como las reales, no se generan en ciertas "esquinas" dónde no alcanza a llegar la luz, así que se inventaron otros efectos como "la oclusión ambiental" para calcular esos lugares dónde la luz no llega, pero hay muchos otros problemas. En la vida real, como todos los objetos son reflejantes, si tu pones por un decir una pelota azul junto una roja, la azul se tiñe de rojo en las "caras" donde se junta con la roja, y viceversa, en los motores Biased como no son reflejantes (sino que tienen su propio color) esto no pasa, así que se tuvieron que inventar algoritmos de radiosidad para crear este efecto (como el que usa el motor Frostwire de Battlefield 3) solo por mencionar un par de ejemplos pero en realidad se usan cientos y cientos de trucos para falsear la realidad.

En un Motor Unbiased, no se usan trucos para nada, el comportamiento de la luz es físicamente perfecto. Es decir aquí todos los objetos si se tratan como reflejantes, aquí no hay trucos para calcular las sombras, si no que simplemente son la ausencia de luz, como pasa en la vida real, todo se ve hipe-realista sin que el "diseñador" tenga que añadir ningún efecto ó calculo y editar parámetros. Un ejemplo que me gusta mucho compartir sobre un motor Ubiased, es que Maxwell Render fue utilizado en la película de Benjamin Button. (A que muchos no se dieron cuenta que ganó el Oscar de Efectos Especiales pues no era un tipo maquillado si no una cabeza CG)


http://www.youtube.com/watch?v=Y9twsVqWRR8

Este tipo de motores, de hecho apenas están floreciendo en el cine, por ahora donde más se utilizan es en arquitectura, cuándo se buscar crear una imagen de una casa hiper-realista. En Avatar desarrollaron también su propio motor Ubiased, pero gracias a CUDA, éste estaba acelerado por GPU. Aun así se habla de que tuvieron que usar miles de servidores, y como en un motor Ubiased no puedes usar trucos para disminuir los tiempos, ni puedes eliminar efectos, para que se vea menos realista, en realidad falta muchos años para que los podamos ver en juegos de videojuegos.

Otra cosa son los motores de físicas, donde los videojuegos apenas están gateando. Cualquiera pensara hombre "he visto motores de física que hasta en Wii lucen de maravilla"
A lo que te contesto, sí pero es que solo los has visto en acción con objetos sólidos y algunas telas. ;-) Pero lejos de pensar que simular pelo es lo mas complejo, en realidad lo más complejo es simular fluidos de forma físicamente correcta.

Por ejemplo, actualmente los videojuegos para simular agua, utilizan una serie de Shaders, cosa que ya explica el articulo revogamers. Pero nada más, en los videojuegos aun no existen las físicas en agua. Eso de disparar al agua y se vea ondas, en realidad no es más que resultado de los propios shaders, que tienen las ondas ya predefinidas.

Si quieren ver lo que se está haciendo en la industria de animación y FX con respecto a fluidos, les dejo primero un ejemplo de agua que viene también de NextLimit, llamad RealFlow.


http://www.youtube.com/watch?v=xpUpVQ_jyIU

Cabe mencionar que NextLimit ganó un Oscar por el uso de RealFlow en "El señor de los Anillos"

Pero los fluidos no son solamente líquidos, así que ahora les dejo un vídeo de Houdini simulando fuego y humo.


http://www.youtube.com/watch?v=HGFLt654UI0

Cabe mencionar que en fluidos, también ya se ha llegado a lo que es físicamente correcto y se puede conseguir la perfección, pero el nivel de realismo varia con respecto a la cantidad de partículas que se usen. Muchas partículas nos darán más realismo, pero también consumirán mas recursos y será necesario más tiempo de render. Así que tanto con líquidos como con fuego o humo, si de repente hay cosas que no se mueven hiper-realistas, es simplemente por que no se tenía tiempo/poder suficiente, pero desde luego se puede conseguir la perfección física.

Por cierto, no se debe confundir el uso de partículas para simular fluidos, con que el uso de partículas que usan los juegos de video para simular cosas como humo. En el ejemplo que he puesto se usan millones de partículas que se comportan con todo tipo de físicas (gravedad, viento, choque con objetos y entre si mismas) para luego adaptar una malla de polígonos que tenga la forma por donde se desplazan éstas.
Cuando hablamos de partículas en videojuego, por lo regular son cosas como 10-50 partículas, que funcionan como instancias (todas iguales, o unas cuantas formas repetidas), donde una sola partícula puede tener una forma de una nube completa de humo, que combinada con otras nubes que se mueven en una dirección que crea una ilusión de humo, también pueden ser en 3D o 2D.

Finalmente como esto se trata de videojuegos, les dejo un video de NVIDIA, pues ya se está trabajando para crear fluidos en tiempo real, tal vez lo veamos en ¿PS4?, PS5 quizás, pero al menos es algo con lo que ya se experimenta para traerlo a los juegos de video.


http://www.youtube.com/watch?v=ok8ThRR-59Q

josemurcia
15th June 2011, 00:54
Gracias dnL7up, me río yo de los que dicen que casi se ha alcanzado la realidad absoluta en los videojuegos xD

skywalker
15th June 2011, 01:13
Gracias dnL7up, me río yo de los que dicen que casi se ha alcanzado la realidad absoluta en los videojuegos xD

Pero yo no se por que estamos comparando efectos gráficos que se utilizan en cine con miles y millones de dolares de presupuesto,con lo que pueda ofrecer WiiU,una consola,o un ordenador de 2000 euros....
Está claro que la realidad absoluta en tiempo real es imposible de momento y el ser humano tiene los ojos muy entrenados para ver cualquier minimo fallo para darse cuenta de lo que es un render a un video real.

O sea,que siempre se puede hacer mejor.
Eso si,a esas demos de liquidos le metes un decorado mas vistoso y el PC peta seguro .XDDDD

pero bueno,.........yo lo que se,es que los huevos se me han caido al suelo con la lluvia y el impacto de las gotas del video del halcón XDDD...
y eso no lo he visto ni en PC......en el pepino del señor Cameron a lo mejor. :)

Bash
15th June 2011, 03:12
Qué buen análisis. Gracias.

Yo no me quiero alargar mucho, pero espero que Nintendo entre con todo a la nueva generación de consolas, y todo lo que ello conlleva: gráficas, efectos, control, juegos, entre otros.

El resto… se va a ir viendo en el camino, por que a Nintendo le queda mucho por mostrar con Wii U.

Y aunque sean efectos ya establecidos y que en la competencia ya se puede ver, al igual que en PC, hay que decir que los Nintenderos no hemos tenido el placer de verlo con los juegos de la gran N :D. Eso es lo que quiero y lo que muchos esperamos.

Faisas
15th June 2011, 07:23
Tengo una pequeña duda, porque no sé si os estais confundiendo. ¿ Realmente WiiU procesa la imagen del mando ?? Yo tenía entendido que simplemente la consola enviaba la imagen generada en el televisor por Streaming al mando, lo que no supone generar dos imagenes, si no generar una imagen y enviarla, como si fuera video, a la segunda pantalla.
Hablo del caso en el que la pantalla del mando representa lo mismo que el monitor, cuando aparecen menús u otras funciones supongo que funcionará como una extensión a la resolución de pantalla.

P.D: Hablando con un compañero también hemos sopesado la posibilidad de que WiiU simplemente genere dos imagenes, a modo de clonación (como los PCs), sin coste alguno en la potencia bruta de generación gráfica.

Ernestotaku
15th June 2011, 08:53
Tengo una pequeña duda, porque no sé si os estais confundiendo. ¿ Realmente WiiU procesa la imagen del mando ?? Yo tenía entendido que simplemente la consola enviaba la imagen generada en el televisor por Streaming al mando, lo que no supone generar dos imagenes, si no generar una imagen y enviarla, como si fuera video, a la segunda pantalla.
Hablo del caso en el que la pantalla del mando representa lo mismo que el monitor, cuando aparecen menús u otras funciones supongo que funcionará como una extensión a la resolución de pantalla.

P.D: Hablando con un compañero también hemos sopesado la posibilidad de que WiiU simplemente genere dos imagenes, a modo de clonación (como los PCs), sin coste alguno en la potencia bruta de generación gráfica.

Se supone que es como dices tú. Si no el mando pesaría un quintal y medio. Recordad que la gnete dice que pesa poco y eso es porque creo que más de la mita se espera que tenga un procesador dentro o algo.
Se supone que envía la "misma" imagen a tele y mando, que cambiará de cámara o posición o lo que sea, pero al mando le llega una "representación" de lo que está saliendo en la tele, sólo que es interactivo.

Chronos
15th June 2011, 08:58
Interesante este articulo que en lugar de dar las.cosas hechas las explica en su momento justo y no trata de confundir a nadie.

Sin embargo y con todo el respeto por el trabajo que ha hecho la gente, creo que ni siquiera merce la pena hacerlo o que directamente no habia que hacerlo porque estamos en un momento prematuro. Si Wii U no fuese capaz de hacer todo eso seria un producto desfasado.

El problema es que no hayan mostrado nada mas de lo que ya estamos acostumbrados a ver. Y si eso significa que no hay nada mas o si signirica que lo estan escondiendo para que la gente se fije en el mando.

psycotic
15th June 2011, 09:43
El artículo está genial para enterarse un poco bien de los efectos gráficos, de los cuales tengo una idea algo vaga. Sin embargo todo parece indicar que la experiencia del pez está hecha en Unreal Engine 3, con lo que, efectivamente, veremos cosas que hace el UE3. O sea, PS360. Hasta que no veamos un motor dedicado a la consola no veremos nada diferente, la cuestión es cuando pasará eso.

No se si las thirds se pondrán a exprimir la máquina, pero parece que se conformarán con exprimir las herramientas que tienen, al menos por ahora. Y Nintendo quizá sí lo haga, pero vete tú a saber. En Wii nos ha maravillado (por efectos y tal) casi que con los Galaxy, SSBB y Metroid 3. Los demás se benefician de su excelente diseño, pero tampoco parece que hayan puesto la consola en aprietos.

DrPollit0
15th June 2011, 09:57
...

Las nuevas técnicas gráficas dan para otro articulo o varios xD
La clave es cuantas de estas técnicas serán viables dentro de 2 años en las próximas consolas de Microsoft y Sony.

Mew2Power
15th June 2011, 19:05
Gran aporte, dnL7up. Los videojuegos actuales usan muchos "trucos" para aparentar ser más de lo que son. Las explosiones son sprites, las microrugosidades son texturas planas que falsean los polígonos, el agua no es más que un plano que en realidad no se deforma... Todo esto quizá cambie en la siguiente generación.

Tenías razón sobre el video que puse sobre el Unreal 3. Lo puse por error creyendo que era otro, pero al poco lo rectifiqué. Esos efectos no los veremos hasta dentro de unos años y no es justo compararlo con la Wii U.

dnL7up
16th June 2011, 05:39
Las nuevas técnicas gráficas dan para otro articulo o varios xD
La clave es cuantas de estas técnicas serán viables dentro de 2 años en las próximas consolas de Microsoft y Sony.

O para escribir un libro que el campo de 3D es muy extenso y todo el tiempo sale algo nuevo xD.

Y bueno, la verdad yo dudo que veamos alguna de las técnicas que puse en la próxima generación, bueno quizás veamos algo primitivo con los líquidos, que NVIDIA ya nos mostró que se puede realizar en tiempo real algo aceptable, pero desde luego, pasar desde un simple chorro de agua, a tener un juego dónde los líquidos tengan una influencia en la jugabilidad, creo que falta bastante.

Realmente tenía ganas de escribir algo así desde hace tiempo, pues a mucha gente le parece que la actual generación es casi perfecta, pero como ya dice Mew2Power, en los videojuegos casi todo se hace con "trucos", el ejemplo que pone, dónde el agua, en un juego actual no es mas que un simple plano, es una muestra de ello.

Sunrise
16th June 2011, 13:33
Vi El increíble caso de Benjamin Button (pensé que era maquillaje) y un reportaje sobre los efectos de Real Flow en varias películas y ahí te das cuenta de muchas cosas. Pero no hay más que ver alguna película de animación, aunque tenga varios años como Shrek 3, y si puedes ver los extras mejor porque te lo explican todo. Así te das cuenta de la distancia que hay entre los videojuegos y los vídeos (o el cine). Por un lado es una distancia lógica que siempre ha habido (sobre todo desde PS1 con las famosas y polémicas "intros") pero por otro lado hay que tenerla en cuenta para no decir que se ha llegado casi al tope en gráficos como PS3, porque eso es un disparate, como bien ha ilustrado dnL7up. Sólo espero que Wii U tenga una potencia que le permita estar a la altura de las circunstancias, porque el efecto WiiRemote ya pasó, y ya ha sido clonado por Sony. Se puede aprovechar WiiRemotePlus, desde luego, puede ser un estándar como lo han sido otros mandos creados por Nintendo, pero hay que apostar también por los gráficos dentro de las posibilidades y Wii U debería ser un ejemplo de ello.