PDA

Ver la versión completa : La GPU de Wii U varias generaciones por delante de las consolas actuales?



Furioso D
29th May 2013, 22:24
Palavras de Shin´e Multimédia...

a GPU de Wii U está varias generaciones por delante de las consolas actuales. Permite muchas cosas que no eran posibles en las otras. Si desarrollas para Wii U tienes que aprovechar estas posibilidades, de lo contrario su rendimiento es, por supuesto, limitado. También el diseño del motor tiene que ser diferente. Es necesario tomar ventaja de la gran capacidad de memoria compartida de Wii U, de la enorme y rapidísma sección de EDRAM y las grandes cachés de la CPU en los núcleos.

Especialmente el funcionamiento de las cachés de CPU son muy importantes para dominarla. De lo contrario, puede perder una magnitud de potencia de caché en partes pertinentes de su código. Al final, las especificaciones de Wii U encajan perfectamente cuando se juntan y hacen una consola muy eficiente cuando se usa bien.La GPU de Wii U varias generaciones por delante de las consolas actuale

s?

Reztes
29th May 2013, 23:01
Si lo dicen, es por algo. Puede ser llamar la atención -y porque desarrollan para Nintendo-, pero igual el ir por delante varias generaciones es algo más de tecnología en sí que de potencia bruta. Y, de hecho, la tarjeta gráfica de Wii U es lo mejor de la consola, que comparte diseño con las que están por llegar, pensadas para aligerar de carga al procesador y conseguir mejor rendimiento energético. Vamos, que la tarjeta gráfica se hizo con esa intención, y no para tener un x86 disfrazado de videoconsola, como sucede con PS4 y la Juani.

Pero eso que te lo digan los expertos, que yo en el fondo tampoco sé mucho del tema. Aun así, no le resto credibilidad pero también añado que la generación, la tecnología y la potencia no siempre van cogidas de la mano y que no hay que mezclar conceptos -nunca xD-.

ReisendeR
29th May 2013, 23:54
Tiene que ser mentira fijo. ¿Desde cuándo sabe más un desarrollador que el típico experto de foro hardcore que abre consolas y nos ilumina con su sabiduría? Venga ya... ejem...

LiNk*
30th May 2013, 00:23
Nintendo le debe de estar llenando los bolsillos a esta compañía de forma exagerada. Rumores sobre un FAST 2? Es segurísimo que será un F-Zero, o en su defecto el rumoreado Wave Race (además, Jet Rokett 2 ya incluye motos de agua :P )

josemurcia
30th May 2013, 00:27
Tiene que ser mentira fijo. ¿Desde cuándo sabe más un desarrollador que el típico experto de foro hardcore que abre consolas y nos ilumina con su sabiduría? Venga ya... ejem...
Por que me da a mi que no aplicamos el mismo rasero cuando ingenieros de EA dicen que la WiiU es una mierda.

Hugolink
30th May 2013, 00:29
Hechos... quiero hechos... hasta entonces... Chitón!

ReisendeR
30th May 2013, 00:45
Por que me da a mi que no aplicamos el mismo rasero cuando ingenieros de EA dicen que la WiiU es una mierda.

¿Los ingenieros de EA que dicen que Frostbyte 2 no corre en Wii U? Sí, tienen absoluta credibilidad.

dnL7up
30th May 2013, 01:26
Pues es que es obvio, sería criminal sino, vamos que cada año habrá un al menos una generación nueva sino es que varias. Que tampoco es que eso diga mucho, más allá de aprovechar las optimizaciones en el diseño/arquitectura, usar nuevos driver, soportar nuevos shaders y demás.

josemurcia
30th May 2013, 06:55
¿Los ingenieros de EA que dicen que Frostbyte 2 no corre en Wii U? Sí, tienen absoluta credibilidad.
Este no dice nada del Frostbite, pero dice que la CPU de WiiU es increíblemente lenta.
Un ingeniero de EA asegura que la consola Wii U es una "mierda" (http://www.europapress.es/portaltic/videojuegos/noticia-ingeniero-ea-asegura-consola-wii-mierda-20130520113022.html)

Como es ingeniero de software tenemos que dar todo lo que dice por válido.

Konohamaru
30th May 2013, 07:13
Este no dice nada del Frostbite, pero dice que la CPU de WiiU es increíblemente lenta.
Un ingeniero de EA asegura que la consola Wii U es una "mierda" (http://www.europapress.es/portaltic/videojuegos/noticia-ingeniero-ea-asegura-consola-wii-mierda-20130520113022.html)

Como es ingeniero de software tenemos que dar todo lo que dice por válido.

Josemurcia, que EA catalogue la CPU de basura porque va lenta no excluye a que la GPU pueda ser varias generaciones por delante de la actual generación(X360/PS3). Es más, es lo que siempre se está comentado y que creo que todo el mundo tiene asumido...

Y lo que se critica a EA es la descalificación continua llamando basura a la consola.

josemurcia
30th May 2013, 08:32
No me pilláis, lo que digo es que estos comentarios de compañías que están directamente implicadas, para bien o para mal, no valen nada. Igual que todo el mundo pasa de la mierda que sueltan algunas también hay que pasar de las bondades que sueltan otras.

Imparcialidad se llama.

Cefalopodo
30th May 2013, 09:56
El problema de WiiU, me da, es un problema parecido al que lastro a la PS3 con su arquitectura megachupiguay, si no me equivoco.
Podrá tener una GPU brutal, no es el primer grupo de desarrolladores que lo comenta. Pero mientras los programadores no le dediquen su tiempo, no servirá de nada excepto en los 4 juegos frist y second party de turno.
Mientras las otras 2 consolas (que no tengo ni idea eh) no compartan esta misma filosófia en la arquitectura, pocos desarrolladores le van a dedicar un tiempo en especial a sacarle el proyecto a este bicho...

Por experiencia se que ser programador tiende a convertirte en un cascarrabias ante los cambios de "forma" de programar algo xD

crucible
30th May 2013, 10:37
El problema de WiiU, me da, es un problema parecido al que lastro a la PS3 con su arquitectura megachupiguay, si no me equivoco.
Podrá tener una GPU brutal, no es el primer grupo de desarrolladores que lo comenta. Pero mientras los programadores no le dediquen su tiempo, no servirá de nada excepto en los 4 juegos frist y second party de turno.
Mientras las otras 2 consolas (que no tengo ni idea eh) no compartan esta misma filosófia en la arquitectura, pocos desarrolladores le van a dedicar un tiempo en especial a sacarle el proyecto a este bicho...

Por experiencia se que ser programador tiende a convertirte en un cascarrabias ante los cambios de "forma" de programar algo xD

Jeje, muy de acuerdo con tu última frase...

Las nuevas consolas por lo visto también comparten la misma idea, creo.

psycotic
30th May 2013, 10:44
Eso se dice, con más núcleos, pero parece que van a 1.6GHz, si no recuerdo mal.

shezard
30th May 2013, 11:02
La diferencia entre lo de EA y esto es que aquel solo despotricó y recordó que la CPU es lenta, y aquí el tipo ha profundizado más en cómo hay que programar.

A ver qué prepara esta gente porque lo que nos enseñen técnicamente va a ser un referente, o eso espero, y ya nos servirá para tomar como vara de medida de hasta dónde puede llegar un estudio pequeño. Lástima que artísticamente sean tan alemanes.

kape
30th May 2013, 11:17
No me pilláis, lo que digo es que estos comentarios de compañías que están directamente implicadas, para bien o para mal, no valen nada. Igual que todo el mundo pasa de la mierda que sueltan algunas también hay que pasar de las bondades que sueltan otras.

Imparcialidad se llama.

Habló!

En su dia cuando salio una imagen parecida a esta pero comparando Wii U con PS360:

https://pbs.twimg.com/media/BK8LI4_CYAA2Obm.jpg

Tampoco te vi decir q era una trolleada, es mas te vi cagandote en Wii U y los pocos juegos q tenia.

Imparcialidad dice, venga hombre!

Heishiro
30th May 2013, 11:31
No me pilláis, lo que digo es que estos comentarios de compañías que están directamente implicadas, para bien o para mal, no valen nada. Igual que todo el mundo pasa de la mierda que sueltan algunas también hay que pasar de las bondades que sueltan otras.

Imparcialidad se llama.

Básicamente un ingeniero de SOFTWARE(Lo que suele fallar) no tiene ni idea de HARDWARE(Lo que puedes patear), sobre todo teniendo en cuenta que en toda una ingeniería no tocas una simple tarjeta gráfica a menos que tires por la parte hardware.

Una vez dicho esto, lo que SÍ que puede saber un ingeniero de SOFTWARE, de hecho es lo que enseñan, son trucos para hacer un HARDWARE sea más eficiente usando "regalitos" que dejan en el los ingenieros de HARDWARE. La pimera vez que se implementaron los procesadores de 2 núcleos (esos que hoy día parecen desfasados) montaron un revuelo enorme por que pasábamos de un sólo nucleo a 3.6Ghz a 2 núcleos a 2 Ghz (en principio parece obvio que será mejor no?) pues se quejaban por que no sabían sacarle rendimiento al segundo núcleo y habíamos bajado de 3.6 a 2 Ghz. Hoy día, si usas un Windows XP sólo sacaras provecho a 1 de tus núcleos, mientras que el otro sólo lo usarán 2 programas contados. Y si tienes windows Vista, sólo puedes aprovecharte de 2 núcleos. Y si tienes 7 solo puedes aprovecharte de 4... Esto es así. Cada generación tienes que acostumbrarte a las especificaciones del hardware.

Multihilo, multinucleo, caché compartida, y demás cosas... según fueron saliendo la gente se quejaba, por que eran un paso atrás en la programación antigua, pero un gran paso adelante en la programación nueva. Y esto es así... que venga algún ingeniero de software a darme la razon o a quitarmela.

Lo que hace "especial" a WiiU, y ya lo dije varias veces, a pesar de tener una CPU lentorra... (Las otras 2 a pesar de tener 8 núcleos tampoco es que sean maravillas de la investigación en lo que se refiere a CPUs, simplemente tiran de números) tiene una memoria caché enorme (por ejemplo mas grande que un i5 gama alta) y una memoria de 2 GB EDRAM (BRUTALMENTE RÁPIDA) en comparación con DDR3(Bastante rápida) o GDDR5(algo mas lenta que la DDR3). Que hay que hacer? Usar sus características especiales... así de simple. A pelo la GPU es muchísimo mas rápida que las GPUs de la ps360, y algo más lenta que la PS4One pero tampoco demasiado, por que lo compensa con la EDRAM.


Todo esto lo digo como estudiante de ingeniería del software... (Si,me llevo la contraria xD) pero tambien tras haber estudiado un FP de hardware. ;)

Noelator
30th May 2013, 12:25
Además esta gente son programadores de la vieja escuela, es decir, se adaptan muy bien al hardware con el que trabajan.

Berserker
30th May 2013, 13:51
Heishiro es muy interesante lo que dices y solo tengo una duda. Me puedes decir donde se confirma que la Wii U tiene memoria edram? es que no lo encuentro aunque solo he hecho una busqueda rápida en google.

jey114
30th May 2013, 14:22
Heishiro es muy interesante lo que dices y solo tengo una duda. Me puedes decir donde se confirma que la Wii U tiene memoria edram? es que no lo encuentro aunque solo he hecho una busqueda rápida en google.

http://img.tapatalk.com/d/13/05/30/e5ymemyg.jpg

Enviado desde mi XT910 usando Tapatalk 2

Alvarkill
30th May 2013, 14:28
El problema con Wii U también está en Nintendo, por no documentarla bien.

Aquí lo dice bien claro, si no tiras de dividir tareas entre núcleos y si no vacías la memoria principal de tareas que puedas descargar en las cachés (E incluyo los 35MB de caché de la GPU) , amén de lo que puedas hacer con la propia GPU (Que también parece un poco especial) vas a tener problemas de rendimiento por todos los lados.

Ahora bien, los creadores de middleware no tenían documentación ni nada, y no creo que gastasen mucho presupuesto. Las herramientas (Motores como Unreal Engine, por ejemplo) entonces tratarán a Wii U como si fuese una X360, y cuando el desarrollador llegue se encontrará con un rendimiento en consecuencia.

No me extraña ver que los juegos que se ven mejor en Wii U sean los de estudios con motores propios.

Urian
30th May 2013, 14:30
Ser mas potente que la de Xbox 360 y la de PS3 si que lo es si tenemos en cuenta ciertos elementos que normalmente se obvian como son las unidades de interpolacin por ejemplo, en todo caso explicar las diferencias supone explicar concepts aburridos y tirar de Algebra. En todo caso el problema de Wii U es el tener que gestionar a mano el Virtual Texturing con tal de evitar el problema del ancho de banda.

Berserker
30th May 2013, 14:40
jey114 quizá esté equivocado pero yo lo que veo ahí son los 32MB EDRAM de memoría cache y no los 2GB de memoria RAM

Urian
30th May 2013, 14:46
Los 32MB no son cache.

Alvarkill
30th May 2013, 14:48
Ser mas potente que la de Xbox 360 y la de PS3 si que lo es si tenemos en cuenta ciertos elementos que normalmente se obvian como son las unidades de interpolacin por ejemplo, en todo caso explicar las diferencias supone explicar concepts aburridos y tirar de Algebra. En todo caso el problema de Wii U es el tener que gestionar a mano el Virtual Texturing con tal de evitar el problema del ancho de banda.

Pero puedes dar muchos rodeos para evitar la memoria principal a través de la eDRAM y las cachés más grandes. Y a menos accesos, más se mantiene del máximo teórico de ancho de banda.

Sobre la propia GPU prefiero no meterme. No hay un consenso muy claro de lo que realmente tiene así que no se pueden sacar conclusiones definitivas sobre lo que puede hacer. Tampoco me parece que se pueda hacer mucho comparando con imágenes pixeladas de RV770 como están haciendo en GAF.

Heishiro
30th May 2013, 14:57
jey114 quizá esté equivocado pero yo lo que veo ahí son los 32MB EDRAM de memoría cache y no los 2GB de memoria RAM

Es que en cada sitio dicen cosas diferentes... xD
En unos dicen la memoria de WiiU es EDRAM de 2GB y aparte la caché, en otros lados hablan de los diferentes tipos de caché como si fuera EDRAM y la memoria DDR3.

Yo los datos que originalmente se manejaban y en los que me he basado, hablaban que la caché estaba formada por SRAM de baja latencia (alta velocidad) 2MB en primer nivel (divididas en 1mb core 0 y 512kb los 1 y 2) y alta latencia 32mb en segundo nivel (conjunto para CPU y la GPU), para luego las memorias ram (2Gb divididas en 4 modulos de 512 Mb monocanal de alta velocidad) usaban EDRAM.

Esas eran las specs que se hablaron varias veces y las que me parecen mas lógicas, ya que la eDRAM es memoria ram normal, más rápida, y que a veces puede combinarse como caché de tercer nivel. Digamos que un punto intermedio entre la memoria ram normal y la caché.

La EDRAM, hasta donde yo se no puede usarse como memoria caché por que necesita ser "limpiada" por el sistema a menudo.


Los 32MB no son cache.

No son caché al uso, si no caché compartida de 2º nivel, que es diferente a la caché convencional.

Las cachés se dividen por niveles y velocidades. Cuanto menor sea el nivel menor es la capacidad de caché pero mucho mayor la velocidad.

Los 32 MB se hablaban de caché de alta latencia en 2º nivel (Para que compartir los datos de CPU y GPU fuera "jodida**nte" rápido). Pero la caché propia de la CPU serían 2 MB.

Si lo comparamos por ejemplo con Intel Core i5 (que también es una APU) nos encontramos con 6 MB de caché total, dividida en 1Mb de nivel 512 kb por core para nivel 1 y 1Mb por core para nivel 2.

Si vamos a un AMD A8 ya nos encontramos con 512 por nucleo para nivel 1 y 4 mb por nucleo para nivel 2, lo cual dan 18 MB

Aún así estamos lejos de los 34MB que tiene la WiiU.


Aunque todo hay que decirlo, posiblemente también me equivoque xD
Por que aquí cada uno dice las cosas al tuntún xD
Y nos encontramos con que tenemos 25 consolas diferentes xD

Urian
30th May 2013, 15:13
Estas confundiendo la eDRAM de la CPU que es cache L2 con la de la eDRAM GPU, que esta en otro chip y es memoria local, es más, la cache L2 de la GPU no es la eDRAM.

Heishiro
30th May 2013, 15:26
Estas confundiendo la eDRAM de la CPU que es cache L2 con la de la eDRAM GPU, que esta en otro chip y es memoria local, es más, la cache L2 de la GPU no es la eDRAM.


Vaaale, eso explica algunas cosas... xD (precios más que nada)
Si es que al final, es lo que yo decía, aquí cada uno dice lo que le da la gana y no me entero xD

De todas maneras las cantidades de memoria caché que nombré antes (las del i5 y el a8) son verídicas y siguen siendo mucho menores que los de la WiiU, si además me dices que la GPU tiene memoria aparte... pues hasta cierto punto mejor, se pierde parte de esa "supervelocidad" pero se gana capacidad.

Urian
30th May 2013, 16:10
El problema es que la gran mayoria de desarrolladores son unos vagos de cuidado y prefieren lidiar con un pozo de memoria que no con dos.

En el caso de las texturas en teoria no necesitas más memoria que la resolución de pantalla * la profundidad de color. Eso en teoria dado que habitualmente se combina la pagina de texturas con el búfer de texturas en cada fotograma, esto provoca que en cada fotograma tengas que tener un ancho de banda enorme, pero de cara a los programadores es mejor dado que les evita lidiar con dos pozos de memoria.

El otro esquema sl separar las dos memorias supone gastar parte de la potencia de la GPU en trasladar los datos necesarios al búfer de texturas cada fotograma, pero hay una trampa con eso, dado que el entorno apenas cambia de un fotograma a otro esas operaciones son mínimas la gran mayoria de veces y encima solo necesitas de ancho de banda una cantidad ridícula desde la RAM principal.

Una vez tienes los datos en la eDRAM puedes operar con ellos sin quitar ancho de banda a la memoria principal para operaciones que requieran acceso multiple. El problema viene con la practica, y es por eso que vemos a desarrolladores cagandose en Wii U, el esquema de Xbox One y cualquier cosa con eDRAM.

Recuerdo como hace unos años Sony se cagaba en ciertos desarrolladores de PS2 que en vez de cargar las texturas en la eDRAM cada fotograma las leían desde la principal e incluso hicieron una presentación de eso, así que no viene de Wii U, viene de largo y desde hace mucho tiempo.

Lo de los 12.8 GB/seg de Wii U se convierte en un problema en el primer momento en que fuerza a esos desarrolladores a tocar el código gráfico, para no hacerlo al unisono dicen que es menos potente incluso que la generación actual o simplemente ves ports recortados por el hecho de que no usan la eDRAM.

Alvarkill
30th May 2013, 16:38
El problema es que la gran mayoria de desarrolladores son unos vagos de cuidado y prefieren lidiar con un pozo de memoria que no con dos.

En el caso de las texturas en teoria no necesitas más memoria que la resolución de pantalla * la profundidad de color. Eso en teoria dado que habitualmente se combina la pagina de texturas con el búfer de texturas en cada fotograma, esto provoca que en cada fotograma tengas que tener un ancho de banda enorme, pero de cara a los programadores es mejor dado que les evita lidiar con dos pozos de memoria.

El otro esquema sl separar las dos memorias supone gastar parte de la potencia de la GPU en trasladar los datos necesarios al búfer de texturas cada fotograma, pero hay una trampa con eso, dado que el entorno apenas cambia de un fotograma a otro esas operaciones son mínimas la gran mayoria de veces y encima solo necesitas de ancho de banda una cantidad ridícula desde la RAM principal.

Una vez tienes los datos en la eDRAM puedes operar con ellos sin quitar ancho de banda a la memoria principal para operaciones que requieran acceso multiple. El problema viene con la practica, y es por eso que vemos a desarrolladores cagandose en Wii U, el esquema de Xbox One y cualquier cosa con eDRAM.

Recuerdo como hace unos años Sony se cagaba en ciertos desarrolladores de PS2 que en vez de cargar las texturas en la eDRAM cada fotograma las leían desde la principal e incluso hicieron una presentación de eso, así que no viene de Wii U, viene de largo y desde hace mucho tiempo.

Lo de los 12.8 GB/seg de Wii U se convierte en un problema en el primer momento en que fuerza a esos desarrolladores a tocar el código gráfico, para no hacerlo al unisono dicen que es menos potente incluso que la generación actual o simplemente ves ports recortados por el hecho de que no usan la eDRAM.

Pero yo creo que tiene más que ver con los desarrolladores de middleware y los peces gordos de las third parties. (Y también Nintendo por no documentarla)
Lo habrán hecho mal desde el propio motor, y el pobre grupo de cuatro tíos contados a los que han dado cuatro días y el Unreal Engine para que hagan el port no van a estar mirando cómo va la consola, porque bastante tienen con conseguir que funcione. Luego los entrevistan y ponen a parir a la consola para que no los echen.
Ya lo digo más arriba, los que tienen su propio motor (Criterion, Frozenbyte, Shin'En...) hablan bien de la consola.

Este E3 creo que los juegos de Wii U van a sorprender para bien, y van a dar un salto notorio. Dicho esto, ya podían los imbéciles de Nintendo haber demostrado antes lo que la consola puede hacer.

shezard
30th May 2013, 16:48
Seguid, por favor, me encanta que habléis de estas cosas.

Urian
30th May 2013, 16:52
Pero yo creo que tiene más que ver con los desarrolladores de middleware y los peces gordos de las third parties. (Y también Nintendo por no documentarla)
Lo habrán hecho mal desde el propio motor, y el pobre grupo de cuatro tíos contados a los que han dado cuatro días y el Unreal Engine para que hagan el port no van a estar mirando cómo va la consola, porque bastante tienen con conseguir que funcione. Luego los entrevistan y ponen a parir a la consola para que no los echen.
Ya lo digo más arriba, los que tienen su propio motor (Criterion, Frozenbyte, Shin'En...) hablan bien de la consola.

Este E3 creo que los juegos de Wii U van a sorprender para bien, y van a dar un salto notorio. Dicho esto, ya podían los imbéciles de Nintendo haber demostrado antes lo que la consola puede hacer.

La consola esta bien documentada en el SDK oficial.

Larpus
30th May 2013, 17:12
Si es que esto pasa por lo de siempre... no leemos los manuales, claro xD

Alvarkill
30th May 2013, 17:17
La consola esta bien documentada en el SDK oficial.

¿Pero lo estaba hace año, año y medio? ¿Tendrían esos SDK siquiera todas las características de la consola final?
Por supuesto que es culpa de los desarrolladores de middleware por sacar motores chapuceros y crear un aura de pesimismo y la estigmatización de que la consola es mierda metida en una caja, pero Nintendo no abre la boca ni a tiros, y eso crea muy mala imagen.
Tanta, que cuando muestran algo que sí está más allá de las posibilidades de la gen actual (X) la gente no lo toma en serio.

Fran_Pelayo
30th May 2013, 17:23
Chicos, he estado leyendo los mensajes de este hilo y la verdad que no me entero de mucho. Hablando en cristiano, es decir, para los que no son especialistas en temas de informática ni programación, ¿qué es lo que se deduce de la arquitectura de Wii U? ¿Se verán cosas realmente potentes o hemos de esperar un nivel parecido a PS360?

De lo poco que sé al respecto, las características del sistema de Wii U son superiores a la generación actual, por lo que deduzco que también será superior su rendimiento, ¿no es así?

Heishiro
30th May 2013, 18:01
Chicos, he estado leyendo los mensajes de este hilo y la verdad que no me entero de mucho. Hablando en cristiano, es decir, para los que no son especialistas en temas de informática ni programación, ¿qué es lo que se deduce de la arquitectura de Wii U? ¿Se verán cosas realmente potentes o hemos de esperar un nivel parecido a PS360?

De lo poco que sé al respecto, las características del sistema de Wii U son superiores a la generación actual, por lo que deduzco que también será superior su rendimiento, ¿no es así?

Así en resumen, la T.Gráfica es unas 4 veces mas potente que la de las ps360, por otro lado la CPU es la mitad, en potencia bruta, pero esta muy bien optimizada para que obtenga rápido los resultados y pueda repartirlos bien entre las memorias.

Por tanto a calculo rápido estaríamos hablando de juegos unas 2 o 3 veces mejores que los de ps360, por lo que venden de ps4One estes serán de 4 a 6 veces mas potentes. Pero en este caso la diferencia entre versiones se puede paliar con resoluciones. Es decir un juego 1080p requiere casi el doble de memoria que uno 720p (o sin casi).

El problema viene en el momento en el que los juegos han llegado a un punto en el que el salto generacional es mas para profundidades de campo y/o hojas, pelo, y demás cosas "inútiles" por lo que parecerá que el salto evolutivo de WiiU será pequeño, pero PS4 y One tendrán el mismo problema.

Pasamos de la generación Brilli brilli a la generacion con particulitis... y de la generación de piel en HD a pelos en los brazos HD

Hablando de flops (cálculos por segundo)

PS3 450GFlops (mas o menos, a pesar de que cuando la sacaron intentaron vendernos 1.8 Tflops)
XBOX360 350GFlops
Wii 60GFlops
PS4 1.84TFlops (esta vez si, parece xD)
XBOXOne 1.2 TFlops
WiiU (Si es cierta la tan rumoreada HD 67xx custom...) entre 0.8 - 1Tflop

Alvarkill
30th May 2013, 18:07
Así en resumen, la T.Gráfica es unas 4 veces mas potente que la de las ps360, por otro lado la CPU es la mitad, en potencia bruta, pero esta muy bien optimizada para que obtenga rápido los resultados y pueda repartirlos bien entre las memorias.

Por tanto a calculo rápido estaríamos hablando de juegos unas 2 o 3 veces mejores que los de ps360, por lo que venden de ps4One estes serán de 4 a 6 veces mas potentes. Pero en este caso la diferencia entre versiones se puede paliar con resoluciones. Es decir un juego 1080p requiere casi el doble de memoria que uno 720p (o sin casi).

El problema viene en el momento en el que los juegos han llegado a un punto en el que el salto generacional es mas para profundidades de campo y/o hojas, pelo, y demás cosas "inútiles" por lo que parecerá que el salto evolutivo de WiiU será pequeño, pero PS4 y One tendrán el mismo problema.

Pasamos de la generación Brilli brilli a la generacion con particulitis... y de la generación de piel en HD a pelos en los brazos HD

Yo no lo resumiría todo a algo tan sencillo.
Tanto gráficamente como en CPU (Cálculo general) debería ser superior a la actual generación por un margen notable, pero no sabemos en qué se puede traducir ese salto dado que el único juego exclusivo ambicioso en ese aspecto que se ha mostrado es X.

Heishiro
30th May 2013, 18:17
Yo no lo resumiría todo a algo tan sencillo.
Tanto gráficamente como en CPU (Cálculo general) debería ser superior a la actual generación por un margen notable, pero no sabemos en qué se puede traducir ese salto dado que el único juego exclusivo ambicioso en ese aspecto que se ha mostrado es X.

Tienes razón, los cálculos de las CPU deberían ser superiores, pero miro, y remiro, y remiro las spec de PS4 y XBO y apenas veo una mejora pequeña con respecto a la anterior generación. Habiendo escogido las CPU que han escogido... (Que siguen siendo equivalentes a un intel atom) en la CPU veo una mejora de unos 200 GFlops a lo sumo en CPU, no es muy grande (Pasaríamos de una CPU de 200GFlops a una de 400, aunque con menor consumo y temperatura)

El verdadero salto sería la GPU que sería entre 4 (xbox One) y 6 (PS4) veces mas potentes que sus predecesoras.

legion_bond
30th May 2013, 18:25
El "problema" de Nintendo es que no sigue los parámetros de arquitectura de un Pc, y como se dijo, los programadores son vagos y si los sacas de lo que conocen y manejan a diario se ponen como fieras. Por eso están felices con las XBOX, echan pestes del sistema de memoria de la PS3 y simplemente pasan de las consolas de Nintendo.

Para Nintendo que solo programa para su consola esta bárbaro, pero para los que programan multiplataforma requiere un esfuerzo para adaptar un juego a cada arquitectura. Y como en todos los trabajos del mundo, hay mas flojos que gente dispuesta a ponerle cariño a lo que hace.

Konohamaru
30th May 2013, 19:02
Así en resumen, la T.Gráfica es unas 4 veces mas potente que la de las ps360, por otro lado la CPU es la mitad, en potencia bruta, pero esta muy bien optimizada para que obtenga rápido los resultados y pueda repartirlos bien entre las memorias.

Por tanto a calculo rápido estaríamos hablando de juegos unas 2 o 3 veces mejores que los de ps360, por lo que venden de ps4One estes serán de 4 a 6 veces mas potentes. Pero en este caso la diferencia entre versiones se puede paliar con resoluciones. Es decir un juego 1080p requiere casi el doble de memoria que uno 720p (o sin casi).

El problema viene en el momento en el que los juegos han llegado a un punto en el que el salto generacional es mas para profundidades de campo y/o hojas, pelo, y demás cosas "inútiles" por lo que parecerá que el salto evolutivo de WiiU será pequeño, pero PS4 y One tendrán el mismo problema.

Pasamos de la generación Brilli brilli a la generacion con particulitis... y de la generación de piel en HD a pelos en los brazos HD

Hablando de flops (cálculos por segundo)

PS3 450GFlops (mas o menos, a pesar de que cuando la sacaron intentaron vendernos 1.8 Tflops)
XBOX360 350GFlops
Wii 60GFlops
PS4 1.84TFlops (esta vez si, parece xD)
XBOXOne 1.2 TFlops
WiiU (Si es cierta la tan rumoreada HD 67xx custom...) entre 0.8 - 1Tflop

Heishiro, en este análisis que haces no explicas que un handicap que tiene WiiU es que tiene que generar dos veces la imagen, una para el tv, y otra para el mando, con lo que lastra el rendimiento final de la máquina. Al menos eso tenía yo entendido...

josemurcia
30th May 2013, 19:09
Tienes razón, los cálculos de las CPU deberían ser superiores, pero miro, y remiro, y remiro las spec de PS4 y XBO y apenas veo una mejora pequeña con respecto a la anterior generación. Habiendo escogido las CPU que han escogido... (Que siguen siendo equivalentes a un intel atom) en la CPU veo una mejora de unos 200 GFlops a lo sumo en CPU, no es muy grande (Pasaríamos de una CPU de 200GFlops a una de 400, aunque con menor consumo y temperatura)

El verdadero salto sería la GPU que sería entre 4 (xbox One) y 6 (PS4) veces mas potentes que sus predecesoras.
No se saben las specs de PS4 y ONE, ni siquiera hay rumores concretos sobre la CPU.

Urian
30th May 2013, 20:09
Cuatro veces? Os flipais mucho.

Heishiro
30th May 2013, 20:24
Cuatro veces? Os flipais mucho.

El TFlops es lo que nos estan vendiendo...
Las CPUs de XBOXO (k mal queda no?) y PS4 dudo que sobrepasen los 500 GFLOPS, por tanto quedarían GPUs de 700 y 1300 GFLOPS, frente a los menos de 250 de sus predecesoras...

Eso es lo que nos intentan vender... asi que en Flops, si que serían entre 4 y 6 veces mas potentes...

La WiiU sería unas... no se cuantas veces mas potente que la Wii? Teniendo una CPU que genere mas o menos unos 200 Flops... la GPU sería unas 700 veces mas potente xD

Calesio
30th May 2013, 20:28
me estoy perdiendo con tantos flops xD si que estais puestos en estos temas

Guldar
30th May 2013, 20:55
Bajo mi ignoracia, me permito el lujo de dudar de que las thirds tenga un trabajo brutal para descifrar y desarrollar en WiiU, me juego lo que querais a que la propia Nintendo se encarga de darle los manuales dond indican hasta como se caga o se mea.

Alvarkill
30th May 2013, 21:08
Cuatro veces? Os flipais mucho.

SE flipa. A mí no me metas en esto.

Urian
30th May 2013, 21:08
El tema no esta en las veces más potente, actualmente en desarrollo el limite lo marcan los costes de desarrollo y nos estamos acercando peligrosamente a la recuperación 0 por unidad monetaria invertida. Hay sagas que son inviables economicamente dadas sus cifras con unos gráficos que aprovechen bien las consolas de siguiente generación si nos atenemos a las ventas de las mismas.

Berserker
30th May 2013, 21:13
Bajo mi ignoracia, me permito el lujo de dudar de que las thirds tenga un trabajo brutal para descifrar y desarrollar en WiiU, me juego lo que querais a que la propia Nintendo se encarga de darle los manuales dond indican hasta como se caga o se mea.

A veces no es tan fácil como que te digan que se hace así. Tienes que aprender y dejar de hacer algo más fácil por algo más difícil y eso siempre cuesta.

Yo aplaudo a Nintendo por crear una máquina más eficiente pero me cago en Nintendo porque si ya lo desarrolladores piensan que las versiones de los multis para Wii U van a vender menos lo que tienes que hacer es ponerles las cosas fáciles para que hagan esas versiones. Pero un empresario piensa "mi juego para esta consola va a vender menos que en otras y además me cuesta más tiempo (dinero por lo tanto) desarrollar para ella que para las otras. Fuck you Wii U."

Pero bueno, ojalá me equivoque.

Heishiro
30th May 2013, 21:29
Tan raro sería que las GPU de hoy en día sean 4 veces mas potentes que las GPUs de hace 8 años?

En serio?

Hace 10 años lo más común era tener por ejemplo procesadores de 2 o 4 nucleos a 2'x ghz... hoy en día es común encontrar procesadores de 4 u 8 núcleos a 3,x o 4 ghz... Esos procesadores serían mas o menos 4 veces más potentes que los de antaño, no creeis?

En GPU... me estais diciendo que no creeis que una AMD HD 6700 no es 4 veces mas potente que una Ati Radeon X800...

Ahora estoy loco... xD

Estamos comparando con tecnología de hace unos 8 años...

No es fliparse, es lógica xD

Y decir que la WiiU si se aprovecha puede ser de 2 a 3 veces mas potente que una X360, teniendo en cuenta que puede practicamente emularla tras meterle los juegos a pelo, pues no me parece del todo descabellado.

Y que microsoft dijo que la XBOXO era 6 veces más potente que la original, yo digo que es 4 o 5, no estoy muy lejos de sus estimaciones, teniendo en cuenta que ellos quieren vender xD

Pero oye, si... se me va, estoy loco, soy un fanboy ;)


No se saben las specs de PS4 y ONE, ni siquiera hay rumores concretos sobre la CPU.

Aunque no se sepan las specs oficiales, todos los datos concuerdan en que tienen 2 APUs AMD de 4 nucleos "jaguar" a 1.6Ghz, de hecho, creo que en la de Sony se mencionaba.

Y aunque no fuera así, en números en general se sabe los TFlops de cada consola (Los mencionaron en sus respectivas conferencias) así que se sabe la potencia "bruta" de las mismas, que es en lo que yo me baso.

Urian
30th May 2013, 21:46
Tan raro sería que las GPU de hoy en día sean 4 veces mas potentes que las GPUs de hace 8 años?

En serio?

Hace 10 años lo más común era tener por ejemplo procesadores de 2 o 4 nucleos a 2'x ghz... hoy en día es común encontrar procesadores de 4 u 8 núcleos a 3,x o 4 ghz... Esos procesadores serían mas o menos 4 veces más potentes que los de antaño, no creeis?

En GPU... me estais diciendo que no creeis que una AMD HD 6700 no es 4 veces mas potente que una Ati Radeon X800...

Ahora estoy loco... xD

Estamos comparando con tecnología de hace unos 8 años...

No es fliparse, es lógica xD

Y decir que la WiiU si se aprovecha puede ser de 2 a 3 veces mas potente que una X360, teniendo en cuenta que puede practicamente emularla tras meterle los juegos a pelo, pues no me parece del todo descabellado.

Y que microsoft dijo que la XBOXO era 6 veces más potente que la original, yo digo que es 4 o 5, no estoy muy lejos de sus estimaciones, teniendo en cuenta que ellos quieren vender xD

Pero oye, si... se me va, estoy loco, soy un fanboy ;)

Una HD 67x0 tiene un chip que mide unos 170mm2, el chip de Wii U mide 147mm2 y no solo incluye la GPU sino también 32MB de eDRAM, el DSP de sonido, otros 2MB de eDRAM, el controlador USB, el controlador SATA... Todo menos la CPU.

Si queréis saber la GPU de PC más cercana a la que tiene Wii U dentro del sistema mirad por la ATI Mobility Radeon HD 4650.

Alvarkill
30th May 2013, 21:48
El tema no esta en las veces más potente, actualmente en desarrollo el limite lo marcan los costes de desarrollo y nos estamos acercando peligrosamente a la recuperación 0 por unidad monetaria invertida. Hay sagas que son inviables economicamente dadas sus cifras con unos gráficos que aprovechen bien las consolas de siguiente generación si nos atenemos a las ventas de las mismas.

Este artículo (http://warhorsestudios.cz/index.php?page=blog&entry=blog_007) es mi artículo de cabecera del mundillo. Estoy seguro de que la basura de Assasin's Creed 3 se podría haber desarrollado con cien personas quedando exactamente la misma mierda. Ahí tienes a CD Project Red siendo cuatro gatos.
El problema son ciertas entidades comerciales francamente deleznables (Véase Activision, Ubisoft, EA...) que han creado la moda de tener muchísimo personal porque sí.
También hay que tener en cuenta los enormes gastos en escenas cinemáticas truño que hay (La mierda esa de MOCAP, cara y mala).
Y hablando de Nintendo y en particular de Retro Studios (Candidato a ser el que muestre la capacidad de Wii U) parece que no han caído en esa basura que sólo hace perder personalidad a los personajes, viendo que entre ellos está gente como Dominic Pallotta, que trabajó en esta obra de arte (https://www.youtube.com/watch?v=izhRncwFbWU).

Y sobre la GPU de Wii U, no se sabe lo que es. Parece tan custom que yo apostaría por que los propios shaders sean custom.

Heishiro
30th May 2013, 22:02
Una HD 67x0 tiene un chip que mide unos 170mm2, el chip de Wii U mide 147mm2 y no solo incluye la GPU sino también 32MB de eDRAM, el DSP de sonido, otros 2MB de eDRAM, el controlador USB, el controlador SATA... Todo menos la CPU.

Si queréis saber la GPU de PC más cercana a la que tiene Wii U dentro del sistema mirad por la ATI Mobility Radeon HD 4650.

Correcto, pero aqui es donde viene lo bueno, la WiiU admite teselación, y varias cualidades más que estan presentes sólo en la generación 6xxx, por otro lado, se llama vulgarmente customizar un chip para amoldarlo a tus necesidades.

De hecho, por parecidos yo diria que se parece más al chipset de la HD 6650m, por las velocidades y los nm, ya que la WiiU tiene la GPU montada en 40 nm y la GPU de la que tu hablas esta en 55nm...

Berserker
30th May 2013, 22:07
Alvarkill el corto ese que has puesto lo había visto hace tiempo y me encantó. No sabes qe alegría me acabas de dar diciendo que su creador trabaja ahora en Rare!

Heishiro
30th May 2013, 22:12
Este artículo (http://warhorsestudios.cz/index.php?page=blog&entry=blog_007) es mi artículo de cabecera del mundillo. Estoy seguro de que la basura de Assasin's Creed 3 se podría haber desarrollado con cien personas quedando exactamente la misma mierda. Ahí tienes a CD Project Red siendo cuatro gatos.
El problema son ciertas entidades comerciales francamente deleznables (Véase Activision, Ubisoft, EA...) que han creado la moda de tener muchísimo personal porque sí.
También hay que tener en cuenta los enormes gastos en escenas cinemáticas truño que hay (La mierda esa de MOCAP, cara y mala).
Y hablando de Nintendo y en particular de Retro Studios (Candidato a ser el que muestre la capacidad de Wii U) parece que no han caído en esa basura que sólo hace perder personalidad a los personajes, viendo que entre ellos está gente como Dominic Pallotta, que trabajó en esta obra de arte (https://www.youtube.com/watch?v=izhRncwFbWU).

Y sobre la GPU de Wii U, no se sabe lo que es. Parece tan custom que yo apostaría por que los propios shaders sean custom.

Gracias por el video, no lo había visto, y me considero fan de cualquier corto de animación habido y por haber... xD
(He visto fácilmente unos cientos si no miles... siendo mi favorito uno que encontré en Deviantart por todo lo que no se ve, más allá de lo que si se ve Draw With me - Tu.tv (http://tu.tv/videos/draw-with-me_6) )

Por otro lado, lo de la GPU custom me parece totalmente correcto ;)

Urian
30th May 2013, 22:14
Correcto, pero aqui es donde viene lo bueno, la WiiU admite teselación, y varias cualidades más que estan presentes sólo en la generación 6xxx, por otro lado, se llama vulgarmente customizar un chip para amoldarlo a tus necesidades.

De hecho, por parecidos yo diria que se parece más al chipset de la HD 6650m, por las velocidades y los nm, ya que la WiiU tiene la GPU montada en 40 nm y la GPU de la que tu hablas esta en 55nm...

Las GPU de AMD tienen tesalador desde el 2002.

Berserker
30th May 2013, 22:19
Lo siento por el offtopic pero si no lo pongo rebiento.

Corto "ABE" por Rob MClellan (http://vimeo.com/64114843)

Cuarto a oscuras y auriculares puestos.

Por cierto Heishiro pone que el video ya no está disponible.

Heishiro
30th May 2013, 22:25
Las GPU de AMD tienen tesalador desde el 2002.
Sólo las GPU de gama alta, las superiores a la serie 4770 en las 4xxx. De todas maneras sigue siendo una GPU de 40 nm y las 1as en 40 nm fueron las 5000, o las gamas altas de la 47xx para arriba.

Urian
30th May 2013, 22:29
Sólo las GPU de gama alta, las superiores a la serie 4770 en las 4xxx. De todas maneras sigue siendo una GPU de 40 nm y las 1as en 40 nm fueron las 5000, o las gamas altas de la 47xx para arriba.

Lo siento pero eso es literalmente mentira como el resto de cosas que has puesto.

Heishiro
30th May 2013, 22:33
Lo siento pero eso es literalmente mentira como el resto de cosas que has puesto.

Me vas a decir que la 4650 esta montada en 55nm?
Que la primera GPU de AMD de 40 nm fue la 4750, tienes razon... miento...

Puede que en el telesado haya patinado, pero es lo que tenía entendido... en el resto de las cosas dudo bastante haber mentido, la verdad...

kape
30th May 2013, 22:39
Lo siento por el offtopic pero si no lo pongo rebiento.

Corto "ABE" por Rob MClellan (http://vimeo.com/64114843)

Cuarto a oscuras y auriculares puestos.

Por cierto Heishiro pone que el video ya no está disponible.


Esta bien, pero esperaba mas, no me ha impactado mucho.

Heishiro
30th May 2013, 22:42
A mi me va bien... espera que te lo busco un poco más ;)

Encontrado con audio ;)
http://www.youtube.com/watch?v=DRkgH7Uu-hA

kape
30th May 2013, 22:52
A mi me va bien... espera que te lo busco un poco más ;)

Encontrado con audio ;)
Draw with Me - YouTube (http://www.youtube.com/watch?v=DRkgH7Uu-hA)

No he pillado el final.

Q coño le regala UNA MANO!? Q esta pirada la otra?

Heishiro
30th May 2013, 22:56
No he pillado el final.

Q coño le regala UNA MANO!? Q esta pirada la otra?

Sólo para los que vean el vídeo:

Se supone que él es zurdo y ella diestra, así que ella se corta la mando izquierda para que él pueda dibujar

kape
30th May 2013, 22:56
Sólo para los que vean el vídeo:

Se supone que él es zurdo y ella diestra, así que ella se corta la mando izquierda para que él pueda dibujar

Andaaaaaaaaaaaaaaaaaaaaa

Vamos, q si q esta pirada XD

Heishiro
30th May 2013, 23:00
Andaaaaaaaaaaaaaaaaaaaaa

Vamos, q si q esta pirada XD

Totalmente, xD

Berserker
30th May 2013, 23:02
Esta bien, pero esperaba mas, no me ha impactado mucho.

Bueno creo que su trabajo es no impactar si no hacerte pensar sobre el significado del monólogo del robot. Sobre que es el amor, sobre lo que se siente con un amor no correspondido y sobre si sabríamos explicar realmente lo que sentimos en esos momentos. Sobre si puedes enseñar a alguien a amar o a ser amado. Sobre esa impotencia que se siente al amar a alguien y saber que por mucho que hagas no lo vas a conseguir o pensar que pase lo que pase lo intentarás hasta el final. A mí ese corto me ha hecho pensar durante bastantes ratos.

kape
30th May 2013, 23:09
Bueno creo que su trabajo es no impactar si no hacerte pensar sobre el significado del monólogo del robot. Sobre que es el amor, sobre lo que se siente con un amor no correspondido y sobre si sabríamos explicar realmente lo que sentimos en esos momentos. Sobre si puedes enseñar a alguien a amar o a ser amado. Sobre esa impotencia que se siente al amar a alguien y saber que por mucho que hagas no lo vas a conseguir o pensar que pase lo que pase lo intentarás hasta el final. A mí ese corto me ha hecho pensar durante bastantes ratos.

Vale, entonces si. Pero es q no se pq en los cortos siempre espero q me impacten al final.

Heishiro
30th May 2013, 23:19
Vale, entonces si. Pero es q no se pq en los cortos siempre espero q me impacten al final.

Entonces el mio te gustó... no lo niegues... por que impactar impacta xD

Urian
31st May 2013, 00:00
Me vas a decir que la 4650 esta montada en 55nm?
Que la primera GPU de AMD de 40 nm fue la 4750, tienes razon... miento...

Puede que en el telesado haya patinado, pero es lo que tenía entendido... en el resto de las cosas dudo bastante haber mentido, la verdad...

Tu puedes adaptar la litografia de una GPU a cualquier nodo y te lo digo de nuevo, el SoC de Wii U incluye todo menos la CPU, no es una HD 4650 al uso.

Larpus
31st May 2013, 00:10
Tu puedes adaptar la litografia de una GPU a cualquier nodo y te lo digo de nuevo, el SoC de Wii U incluye todo menos la CPU, no es una HD 4650 al uso.
En vez de decir lo que no es, podrías decir lo que realmente es y acabamos antes?

Urian
31st May 2013, 01:09
En vez de decir lo que no es, podrías decir lo que realmente es y acabamos antes?

Lo quves lo he dicho más arriba.

Heishiro
31st May 2013, 01:17
Tu puedes adaptar la litografia de una GPU a cualquier nodo y te lo digo de nuevo, el SoC de Wii U incluye todo menos la CPU, no es una HD 4650 al uso.

Y al igual que se puede adaptar una hd 4650, no se podía adaptar una 6650m?


Es que hasta un forero que escribió a AMD recibió esta contestación:

"Wii U utiliza una GPU AMD E6769 que está diseñada específicamente para la consola tomando como base la serie 6xxx, pero con las lógicas modificaciones para ajustarse a la configuración de Wii U".

Que sea real o no? Tiene la misma veracidad que afirmar que es una 4650 rotundamente.

Enviado desde mi Tardis a través del tiempo

Urian
31st May 2013, 08:04
Y al igual que se puede adaptar una hd 4650, no se podía adaptar una 6650m?


Es que hasta un forero que escribió a AMD recibió esta contestación:

"Wii U utiliza una GPU AMD E6769 que está diseñada específicamente para la consola tomando como base la serie 6xxx, pero con las lógicas modificaciones para ajustarse a la configuración de Wii U".

Que sea real o no? Tiene la misma veracidad que afirmar que es una 4650 rotundamente.

Enviado desde mi Tardis a través del tiempo

No puede ser una E6760 por el hecho de que mirando la litografia del chip en Chipworks el numero de modulos de los Shaders no concuerda. Por otro lado ya he dicho que no es una Mobility Radeon 4650 al uso sino que tiene mejoras, pero hablar publicamente de esas mejoras supone poner en peligro el trabajo de terceras personas. Los contratos de no revelación son así de putas.