Stratos: Punto de Encuentro de Desarrolladores

¡Bienvenido a Stratos!

Acceder

Foros





Se acerca el fin de las GPU's?

Iniciado por [EX3], 16 de Septiembre de 2008, 06:07:47 PM

« anterior - próximo »

[EX3]

Me he encontrado con este articulo navegando por Meneame y me ha parecido interesante ver que opinion dabais al respecto:

Llega el fin de la GPU

CitarEl máximo responsable de Epic Games, Tim Sweeney, ha hablado sobre el ocaso de los procesadores gráficos como concepto, y sus predicciones auguran una nueva etapa en la que Larrabee y las CPUs multipropósito revolucionarán el mercado. Sweeney lo tiene muy claro, y de hecho ya habló de ello hace casi 10 años, cuando predijo que a estas alturas volveríamos a utilizar renderización por software, y no por hardware.

Pensais que realmente se volvera al desarrollo de graficos por software o que se seguira destinando dicho trabajo a una GPU en plan "estandarizado" como ocurre hoy dia?

Salu2...
José Miguel Sánchez Fernández
.NET Developer | Game Programmer | Unity Developer

Blog | Game Portfolio | LinkedIn | Twitter | Itch.io | Gamejolt

seryu

diciendolo tim casi seguro que se equivoca, menuda boquita tiene el hombre :P

Sobre el futuro, nadie es adivino, pero dudo que los chicos de marketing y empresas como nvidia quieran perder su parte del pastel vendiéndonos tarjetas gráficas. De hecho, estarían encantados en poder vendernos tarjetas de físicas, de ia...

Teniendo en cuenta que lo de comprar una gráfica ya esta asumido por el consumidor de pcs, "ahorrarle" esa compra seria perder dinero. Solo por esa razón lo veo complicado.

ethernet

El fin de las GPU, del mundo con el LHC, de la economía con los bancos en quiebra, el cambio climático, etc, etc. Alguien da más?

Hechelion

Muy difícil por lo menos en el futuro cercano, no creo que estemos en el tope del desarrollo gráfico, así que aún no se puede prescindir de una GPU para utilizar los aún escasos ciclos en renderizado. En especial si cada día es más usual encontrar OS con una fuerte apuesta por lo estético.

Aunque claro, hay que recordar que existe un mercado que sólo destina el uso de computadores para procesador de texto y excel, que la verdad nunca han necesitado ni justificado el uso de una gpu especializada.

[EX3]

Yo mas bien pienso que continuaran existiendo GPU's por el mero hecho de tener un mecanismo estandarizado en lo posible, los Shaders por ejemplo, cosa que pienso que si se volviera al desarrollo por CPU implicaria mil y una variantes incompatibles o no entre si, aunque tambien, seguramente acabarian aparenciendo frameworks especializados que se harian populares y por lo tanto estandares. Aun asi no lo veo probable, sobre todo por el tema de NVidia y ATI, que oviamente no van a permitir algo asi.

Salu2...
José Miguel Sánchez Fernández
.NET Developer | Game Programmer | Unity Developer

Blog | Game Portfolio | LinkedIn | Twitter | Itch.io | Gamejolt

Pogacha

Yo como programador apuntaria a eso toda la vida.
A mi tambien me suena a que lo mas logico sea volver al render por software, en realidad lo predije hace unos años atras junto con las placas de física (pero es suerte que le pego nada mas  :P).
Se me vuela la tapa de la cabeza pensando en todo lo que se podria hacer con unos 64 X86 de 32 bit en paralelo  :)_

Sobre lo de tener un mecanizmo estandarizado, esto no significa el fin de DX ni OpenGL (ambos podran ser emulados por software eficientemente)

[EX3]

Cita de: Pogacha en 16 de Septiembre de 2008, 11:04:30 PM
Sobre lo de tener un mecanizmo estandarizado, esto no significa el fin de DX ni OpenGL (ambos podran ser emulados por software eficientemente)
Cita de: [EX3]seguramente acabarian aparenciendo frameworks especializados que se harian populares y por lo tanto estandares.
Por ahi iban los tiros de mi comentario. Dudo mucho que reinventaran la rueda :)

Salu2...
José Miguel Sánchez Fernández
.NET Developer | Game Programmer | Unity Developer

Blog | Game Portfolio | LinkedIn | Twitter | Itch.io | Gamejolt

fjfnaranjo

Lo que si es seguro ya es que aparecerán nuevas generaciones de hardware, tarjetas de física, de inteligencia artificial, etc, lo cual por otra parte, dará lugar a otros paradigmas de programación.

Lo que si se está viendo ya desde hace años son sistemas multiproceso, así que puede que en el futuro veamos hardware mas distribuido, y la idea de CPU central que lo controla todo, se convierta en un conjunto independiente de programas que trabajen sincronizados...

En fin, por pensar podemos pensar en lo que queramos :P
fjfnaranjo.com - Creating entertainment - Creando entretenimiento
fjfnaranjo [4t] gm4il [d0t] c0m (mail y msn)

Prompt

 8o

Estais todos chalados, entre tarjetas de IA y el fin de las GPUs...

Las GPUs existen porque Intel y AMD nos llevan vendiendo mierda x86 toda la vida, ahora que ven un gran mercado en las GPUs de intel y "han descubierto" que una GPU es algo baratisimo en cuestion computación / precio, más el empuje de CUDA tenemos el siguiente coctel:

- Aplicación de procesamiento vectorial, mucho más rendimiento frente a una CPU, esto es ni más ni menos una GPU.
- Intel quiere un cacho del mercado de GPUs y tira de su supremacía en el mercado de CPUs. Se da cuenta que no hay coj*** de egualar a nVidia con sus micros en computación y "descuben" la computación en paralelo, vectorial.
- Intel se ha acojonado de como con una simple nVidia y CUDA las aplicaciones funcionan un 800% en tareas como compresión de video, navie va a querer utilizar una CPU más que para "el windows". Vease la lucha "Es mejor una CPU o GPU para jugar" (esto ya viene de largo y se están metiendo en los diferentes mercados los unos y los otros)
- nVidia quiere hacer al mercado GPU-dependiente con CUDA, utilizar la GPU para GPGPU en todo lo posible.

En mi visión personal, nVidia quiere hacernos usar siempre una tarjeta y que la usemos como herramienta para todo. En este caso si Intel y AMD logran hacer realidad que una CPU vectorial funcione como dios manda con una computación decente, todos sabemos que nos ahorraremos el "comprar la tarjeta" como ha pasado con las tarjetas de fisica, que no eran más que otro procesador vectorial. Desapareció cuando vinieron los Core 2 DUO y AM2. Con otro procesador en la CPU ya la fisica iba bien.

Pues esto es lo mismo si meten 32 procesadores en 1 y lo hacen vectorial (o la warreria que quieran hacer con lo que tienen) y rinde mejor o igual que una nVidia a un precio similar, dejaremos de comprar "la tarjetita grafica".

En este sentido yo veo a Intel en posición de poder si nVidia no se pone las pilas más aun. Veremos que pasa! es bastante interesante todos estos cambios que vienen :)

tamat

"y los raytracers??? es que nadie piensa en los raytracers???"
Por un stratos menos tenso

blau

Cita de: tamat en 17 de Septiembre de 2008, 01:28:42 PM
"y los raytracers??? es que nadie piensa en los raytracers???"

Sip, este año ganan la nba.  >:D (No he podido resistirme)

Para los raytracers la nueva arquitectura va de pm.

Pero quizas lo mejor de renderizar por "software" con un juego de instrucciones x86 ¿"estandarizado"?, sea que se homogenice todo y no haya diferencias de hardware tipo ati/nvidia con diferentes comportamientos en sus tarjetas.

Creo que se redefiniria el termino "Compatible" y haria que programar para "Compatibles" sea todavia mas facil.

Aunque el tema de la arquitectura de memoria, cache, buses, esta por ver por lo menos para mi.






AK47

Pues yo creo que molaría, así programamos lo que nos salga de los güevos y la única mejora del hardware sería más potencia a base de más nucleos, y listos, nada de nuevos shaders o noseque chorradas  -_-

Miki

¿Es que vosotros no véis las keynote de John Carmack? :-P

- El futuro del render en tiempo real es sin duda el raytracing, pero eso no ocurrirá hasta que no sea posible generar modelos "voxelizados" del mundo 3D que hoy por hoy es representado con triángulos.
- El id Tech 6 con mega-poly + mega-texture usará una aproximación al modelo voxelizado de la escena, pudiendo implementar modelos de iluminación, reflejos y otros efectos por raytracing (seguramente por vértice, no por pixel).
- El futuro de los shaders es el conjunto de instrucciones X86.
- El futuro de las GPU's está en la arquitectura TDR que hoy día usan algunas t.gráficas de móviles, e.g PowerVR MBX, tecnología que actualmente Intel sigue muy de cerca para desarrollar su Larrabee. nVidia sigue usando la misma arquitectura desde la GeForce 3 pero con muchos más transistores XD (a.k.a fuerza bruta). Esta arquitectura es sin duda mucho más rápida que una CPU de Intel o AMD en cuanto a computación vectorial se refiere, pero no es inteligente desde el punto de vista de costes de producción (y por tanto precio venta al público). Además el modelo de raster TDR (tile deferred rendering) es favorable al uso de computación paralela, que es justo lo que nVidia y ATI (con sus multi-gpus + SLI/Crossfire) no han sabido implementar todavía en sus modelos de fuerza bruta.

Por tanto el futuro está en Intel y nVidia lo sabe. Tanto nVidia como AMD seguirán los mismos pasos que Intel para poder producir CPGPUS eficientes a costes razonables. Sin embargo a corto plazo nVidia y AMD seguirán dominando el PC con sus actuales modelos de GPU. Yo creo que se producirá un cambio importante en el mercado de GPU's cuando Microsoft, Sony y Nintendo se decidan por los chips que usarán sus consolas de nueva generación. Al contrario de lo que ha venido pasando hasta ahora, el PC ya no llevará la voz cantante puesto que el mercado de juegos hardcore para esta plataforma está pegando y pegará un bajón importante.

Pogacha

Si con uno o dos procesadores mis juegos se pegan unos cuelgues en seco que no te dan ni tiempo a apretar ctrl alt delete ... te imaginas la cantidad de cuelgues que tendria yo con 32 procesadores  :o :o :o :o :o :o jajaja

Lo que si no me gusta nada es que sean X86, o esa ese juego de intrucciones viene arrastrado desde el 8086 ... se podria generar un juego de intrucciones haciendo una reabstraccion de las necesidades verdad?

MrK

Pues mi opinion, que no vale para nada, es que el futuro si que esta en los engines software y en el raytracing. De hecho hace tiempo me hice una apuesta con uno del trabajo, que a 15 años vista estariamos todos trabajando con raytracing y nada de poligonos a saco. Aun me quedan 8 para ganar, y la verdad, no las tengo todas. Si hubiera apostado 20, estoy seguro que ganaria :)

Y de hecho, Sony creo que intentaba ir por ese camino hace tiempo con su Cell. ( de hecho, no veo gran diferencia entre ellos excepto por el hecho que Intel le llama GPU y Sony/IBM/Toshiba no, pero en el fondo, es realmente una GPU? )






Stratos es un servicio gratuito, cuyos costes se cubren en parte con la publicidad.
Por favor, desactiva el bloqueador de anuncios en esta web para ayudar a que siga adelante.
Muchísimas gracias.