Me he encontrado con este articulo navegando por Meneame y me ha parecido interesante ver que opinion dabais al respecto:
Llega el fin de la GPU (http://www.muycomputer.com/FrontOffice/ZonaPractica/Especiales/especialDet/_wE9ERk2XxDA0vdjPfH3oxoRM-A7dfAvcalbIml70OlAWpCtTJNucR9_X57rhXrQD)
CitarEl máximo responsable de Epic Games, Tim Sweeney, ha hablado sobre el ocaso de los procesadores gráficos como concepto, y sus predicciones auguran una nueva etapa en la que Larrabee y las CPUs multipropósito revolucionarán el mercado. Sweeney lo tiene muy claro, y de hecho ya habló de ello hace casi 10 años, cuando predijo que a estas alturas volveríamos a utilizar renderización por software, y no por hardware.
Pensais que realmente se volvera al desarrollo de graficos por software o que se seguira destinando dicho trabajo a una GPU en plan "estandarizado" como ocurre hoy dia?
Salu2...
diciendolo tim casi seguro que se equivoca, menuda boquita tiene el hombre :P
Sobre el futuro, nadie es adivino, pero dudo que los chicos de marketing y empresas como nvidia quieran perder su parte del pastel vendiéndonos tarjetas gráficas. De hecho, estarían encantados en poder vendernos tarjetas de físicas, de ia...
Teniendo en cuenta que lo de comprar una gráfica ya esta asumido por el consumidor de pcs, "ahorrarle" esa compra seria perder dinero. Solo por esa razón lo veo complicado.
El fin de las GPU, del mundo con el LHC, de la economía con los bancos en quiebra, el cambio climático, etc, etc. Alguien da más?
Muy difícil por lo menos en el futuro cercano, no creo que estemos en el tope del desarrollo gráfico, así que aún no se puede prescindir de una GPU para utilizar los aún escasos ciclos en renderizado. En especial si cada día es más usual encontrar OS con una fuerte apuesta por lo estético.
Aunque claro, hay que recordar que existe un mercado que sólo destina el uso de computadores para procesador de texto y excel, que la verdad nunca han necesitado ni justificado el uso de una gpu especializada.
Yo mas bien pienso que continuaran existiendo GPU's por el mero hecho de tener un mecanismo estandarizado en lo posible, los Shaders por ejemplo, cosa que pienso que si se volviera al desarrollo por CPU implicaria mil y una variantes incompatibles o no entre si, aunque tambien, seguramente acabarian aparenciendo frameworks especializados que se harian populares y por lo tanto estandares. Aun asi no lo veo probable, sobre todo por el tema de NVidia y ATI, que oviamente no van a permitir algo asi.
Salu2...
Yo como programador apuntaria a eso toda la vida.
A mi tambien me suena a que lo mas logico sea volver al render por software, en realidad lo predije hace unos años atras junto con las placas de física (pero es suerte que le pego nada mas :P).
Se me vuela la tapa de la cabeza pensando en todo lo que se podria hacer con unos 64 X86 de 32 bit en paralelo :)_
Sobre lo de tener un mecanizmo estandarizado, esto no significa el fin de DX ni OpenGL (ambos podran ser emulados por software eficientemente)
Cita de: Pogacha en 16 de Septiembre de 2008, 11:04:30 PM
Sobre lo de tener un mecanizmo estandarizado, esto no significa el fin de DX ni OpenGL (ambos podran ser emulados por software eficientemente)
Cita de: [EX3]seguramente acabarian aparenciendo frameworks especializados que se harian populares y por lo tanto estandares.
Por ahi iban los tiros de mi comentario. Dudo mucho que reinventaran la rueda :)
Salu2...
Lo que si es seguro ya es que aparecerán nuevas generaciones de hardware, tarjetas de física, de inteligencia artificial, etc, lo cual por otra parte, dará lugar a otros paradigmas de programación.
Lo que si se está viendo ya desde hace años son sistemas multiproceso, así que puede que en el futuro veamos hardware mas distribuido, y la idea de CPU central que lo controla todo, se convierta en un conjunto independiente de programas que trabajen sincronizados...
En fin, por pensar podemos pensar en lo que queramos :P
8o
Estais todos chalados, entre tarjetas de IA y el fin de las GPUs...
Las GPUs existen porque Intel y AMD nos llevan vendiendo mierda x86 toda la vida, ahora que ven un gran mercado en las GPUs de intel y "han descubierto" que una GPU es algo baratisimo en cuestion computación / precio, más el empuje de CUDA tenemos el siguiente coctel:
- Aplicación de procesamiento vectorial, mucho más rendimiento frente a una CPU, esto es ni más ni menos una GPU.
- Intel quiere un cacho del mercado de GPUs y tira de su supremacía en el mercado de CPUs. Se da cuenta que no hay coj*** de egualar a nVidia con sus micros en computación y "descuben" la computación en paralelo, vectorial.
- Intel se ha acojonado de como con una simple nVidia y CUDA las aplicaciones funcionan un 800% en tareas como compresión de video, navie va a querer utilizar una CPU más que para "el windows". Vease la lucha "Es mejor una CPU o GPU para jugar" (esto ya viene de largo y se están metiendo en los diferentes mercados los unos y los otros)
- nVidia quiere hacer al mercado GPU-dependiente con CUDA, utilizar la GPU para GPGPU en todo lo posible.
En mi visión personal, nVidia quiere hacernos usar siempre una tarjeta y que la usemos como herramienta para todo. En este caso si Intel y AMD logran hacer realidad que una CPU vectorial funcione como dios manda con una computación decente, todos sabemos que nos ahorraremos el "comprar la tarjeta" como ha pasado con las tarjetas de fisica, que no eran más que otro procesador vectorial. Desapareció cuando vinieron los Core 2 DUO y AM2. Con otro procesador en la CPU ya la fisica iba bien.
Pues esto es lo mismo si meten 32 procesadores en 1 y lo hacen vectorial (o la warreria que quieran hacer con lo que tienen) y rinde mejor o igual que una nVidia a un precio similar, dejaremos de comprar "la tarjetita grafica".
En este sentido yo veo a Intel en posición de poder si nVidia no se pone las pilas más aun. Veremos que pasa! es bastante interesante todos estos cambios que vienen :)
"y los raytracers??? es que nadie piensa en los raytracers???"
Cita de: tamat en 17 de Septiembre de 2008, 01:28:42 PM
"y los raytracers??? es que nadie piensa en los raytracers???"
Sip, este año ganan la nba. >:D (No he podido resistirme)
Para los raytracers la nueva arquitectura va de pm.
Pero quizas lo mejor de renderizar por "software" con un juego de instrucciones x86 ¿"estandarizado"?, sea que se homogenice todo y no haya diferencias de hardware tipo ati/nvidia con diferentes comportamientos en sus tarjetas.
Creo que se redefiniria el termino "Compatible" y haria que programar para "Compatibles" sea todavia mas facil.
Aunque el tema de la arquitectura de memoria, cache, buses, esta por ver por lo menos para mi.
Pues yo creo que molaría, así programamos lo que nos salga de los güevos y la única mejora del hardware sería más potencia a base de más nucleos, y listos, nada de nuevos shaders o noseque chorradas -_-
¿Es que vosotros no véis las keynote de John Carmack? :-P
- El futuro del render en tiempo real es sin duda el raytracing, pero eso no ocurrirá hasta que no sea posible generar modelos "voxelizados" del mundo 3D que hoy por hoy es representado con triángulos.
- El id Tech 6 con mega-poly + mega-texture usará una aproximación al modelo voxelizado de la escena, pudiendo implementar modelos de iluminación, reflejos y otros efectos por raytracing (seguramente por vértice, no por pixel).
- El futuro de los shaders es el conjunto de instrucciones X86.
- El futuro de las GPU's está en la arquitectura TDR que hoy día usan algunas t.gráficas de móviles, e.g PowerVR MBX, tecnología que actualmente Intel sigue muy de cerca para desarrollar su Larrabee. nVidia sigue usando la misma arquitectura desde la GeForce 3 pero con muchos más transistores XD (a.k.a fuerza bruta). Esta arquitectura es sin duda mucho más rápida que una CPU de Intel o AMD en cuanto a computación vectorial se refiere, pero no es inteligente desde el punto de vista de costes de producción (y por tanto precio venta al público). Además el modelo de raster TDR (tile deferred rendering) es favorable al uso de computación paralela, que es justo lo que nVidia y ATI (con sus multi-gpus + SLI/Crossfire) no han sabido implementar todavía en sus modelos de fuerza bruta.
Por tanto el futuro está en Intel y nVidia lo sabe. Tanto nVidia como AMD seguirán los mismos pasos que Intel para poder producir CPGPUS eficientes a costes razonables. Sin embargo a corto plazo nVidia y AMD seguirán dominando el PC con sus actuales modelos de GPU. Yo creo que se producirá un cambio importante en el mercado de GPU's cuando Microsoft, Sony y Nintendo se decidan por los chips que usarán sus consolas de nueva generación. Al contrario de lo que ha venido pasando hasta ahora, el PC ya no llevará la voz cantante puesto que el mercado de juegos hardcore para esta plataforma está pegando y pegará un bajón importante.
Si con uno o dos procesadores mis juegos se pegan unos cuelgues en seco que no te dan ni tiempo a apretar ctrl alt delete ... te imaginas la cantidad de cuelgues que tendria yo con 32 procesadores :o :o :o :o :o :o jajaja
Lo que si no me gusta nada es que sean X86, o esa ese juego de intrucciones viene arrastrado desde el 8086 ... se podria generar un juego de intrucciones haciendo una reabstraccion de las necesidades verdad?
Pues mi opinion, que no vale para nada, es que el futuro si que esta en los engines software y en el raytracing. De hecho hace tiempo me hice una apuesta con uno del trabajo, que a 15 años vista estariamos todos trabajando con raytracing y nada de poligonos a saco. Aun me quedan 8 para ganar, y la verdad, no las tengo todas. Si hubiera apostado 20, estoy seguro que ganaria :)
Y de hecho, Sony creo que intentaba ir por ese camino hace tiempo con su Cell. ( de hecho, no veo gran diferencia entre ellos excepto por el hecho que Intel le llama GPU y Sony/IBM/Toshiba no, pero en el fondo, es realmente una GPU? )
Muy interesante tu post Miki Browlee.
Cita de: Miki Browlee en 27 de Septiembre de 2008, 10:05:33 PM
¿Es que vosotros no véis las keynote de John Carmack? :-P
- El futuro del render en tiempo real es sin duda el raytracing, pero eso no ocurrirá hasta que no sea posible generar modelos "voxelizados" del mundo 3D que hoy por hoy es representado con triángulos.
- El id Tech 6 con mega-poly + mega-texture usará una aproximación al modelo voxelizado de la escena, pudiendo implementar modelos de iluminación, reflejos y otros efectos por raytracing (seguramente por vértice, no por pixel).
- El futuro de los shaders es el conjunto de instrucciones X86.
- El futuro de las GPU's está en la arquitectura TDR que hoy día usan algunas t.gráficas de móviles, e.g PowerVR MBX, tecnología que actualmente Intel sigue muy de cerca para desarrollar su Larrabee. nVidia sigue usando la misma arquitectura desde la GeForce 3 pero con muchos más transistores XD (a.k.a fuerza bruta). Esta arquitectura es sin duda mucho más rápida que una CPU de Intel o AMD en cuanto a computación vectorial se refiere, pero no es inteligente desde el punto de vista de costes de producción (y por tanto precio venta al público). Además el modelo de raster TDR (tile deferred rendering) es favorable al uso de computación paralela, que es justo lo que nVidia y ATI (con sus multi-gpus + SLI/Crossfire) no han sabido implementar todavía en sus modelos de fuerza bruta.
Por tanto el futuro está en Intel y nVidia lo sabe. Tanto nVidia como AMD seguirán los mismos pasos que Intel para poder producir CPGPUS eficientes a costes razonables. Sin embargo a corto plazo nVidia y AMD seguirán dominando el PC con sus actuales modelos de GPU. Yo creo que se producirá un cambio importante en el mercado de GPU's cuando Microsoft, Sony y Nintendo se decidan por los chips que usarán sus consolas de nueva generación. Al contrario de lo que ha venido pasando hasta ahora, el PC ya no llevará la voz cantante puesto que el mercado de juegos hardcore para esta plataforma está pegando y pegará un bajón importante.
PUff, no estoy de acuerdo con muchas cosas pero es tan largo.. solo voy a contestar un par ^_^'
Lo de que el futuro es el raytracing está claro, el problema que una cosa es el futuro de dentro de 100 años al futuro de dentro de 10.
No hace falta irse al id tech 6 para ver un motor de voxels, o que mezcle polígonos con voxels, ahí tienes al outcast, el problema no es solo tener la potencia de maquina y un motor que lo soporte, si no hacer herramientas con las que poder conseguir resultados. El voxel está muy bonito para un terreno, pero modelando una casa? todos tenemos el 3d max (pirata :..) con el que hacer modelos poligonales, pero para poder hacer escenas en voxels del nivel que hay ahora en poligonos, necesitaremos herramientas igual de buenas...
Por cierto, MrK en 8 años te aseguro que los juegos seguiran con poligonos.
NVIDIA muestra RayTracing en GPU
http://www.chw.net/noticias/175502-nvidia-muestra-raytracing-en-gpu.html
Yo en la entrevista del carmack entendí que seguiríamos con el modelo de renderizado actual, aunque tirando de raytracing para ciertos efectos. Vamos, mezclarlos, pero nada de 100% raytracing ???
Cita de: seryu en 28 de Septiembre de 2008, 02:18:11 PM
No hace falta irse al id tech 6 para ver un motor de voxels, o que mezcle polígonos con voxels, ahí tienes al outcast, el problema no es solo tener la potencia de maquina y un motor que lo soporte, si no hacer herramientas con las que poder conseguir resultados. El voxel está muy bonito para un terreno, pero modelando una casa? todos tenemos el 3d max (pirata :..) con el que hacer modelos poligonales, pero para poder hacer escenas en voxels del nivel que hay ahora en poligonos, necesitaremos herramientas igual de buenas...
Por cierto, MrK en 8 años te aseguro que los juegos seguiran con poligonos.
Creo que subestimas a los voxels, y decir que outcast eran voxels es como decir que wolfenstein 3d era raytracer, es relativamente verdad.
Además, un modelo de max se puede voxelizar sin problemas. Yo digo que en un plazo de dos años tras salir Larrabe y tener CPUs de 8 cores tenemos raytracing en los juegos.
Yo no subestimo los voxels, lo que digo es que la tecnologia en los videojuegos va mas lenta de lo que parece, especialmente si significa cambios grandes, hay mucho marketing e intereses comerciales en ellos. El wolfestein por cierto es raycast.
En dos años si se pusieran las pilas igual empezariamos a tener la tecnologia, pero de eso a que salgan juegos que la utilicen..
dos años no es nada de tiempo, en dos años estaremos terminando las sobras de 360 y ps3, que por no tener no tienen ni geometry shaders.
Y encima con la wii que ha demostrado que hay mas mercado casual y en jugabilidad original que en tecnologia.
pd. todo esto de los voxels me ha recordado la pagina de ken silverman, un crack del que aprendí mucho:
http://www.advsys.net/ken/voxlap.htm
Coincido con seryu, si tiene éxito necesitará más de un par de años en asentarse en el mercado doméstico.
Porque si bien esta arquitectura basa su potencial en un ancho de banda y transferencia de datos enorme entre sus núcleos, si Intel quiere venderlo como GPUs, tendrá que utilizar un bus de comunicaciones mucho más potente que el máximo que permite el PCI Express (32x) para poder sacar el potencial esperado.
Y si se quiere utilizar sin depender de CPU habrá que reprogramar, aunque sea mínimamente, la mayoría del software que haga uso de él como CPU para aprovecharlo. También se comenta que genera bastante calor, lo que puede ser un handicap. Y lo mejor su escabilidad al añadir más núcleos.
Por tanto, ya sea por un lado o por otro se necesita de tiempo para que se pueda consolidar. No obstante, el uso en sistemas empotrados al ser más 'cerrados' quizás sea aceptado más rápido.
De todos modos cualquier cosa puede pasar, porque aquí lo que triunfa es el resultado práctico y el marketing.
CitarDe todos modos cualquier cosa puede pasar, porque aquí lo que triunfa es el resultado práctico y el marketing.
Que gran verdad, al final todo es como se desenvuelve el mercado. Igual el bicho de Intel es la leche y muy superior a lo que puedan sacar nVidia o ATI, pero si los desarrolladores no lo apoyan, tiene mal marketing etc, se va al peo. Solo hay que ver el típico caso de VSH vs BETA, Windows vs cualquierOSDecente etc ^_^ Al final todo es marketing :shit:
La verdad es que en esto soy un poco como Stephen Hawking :P
Por un lado digo que es imposible que veamos un cambio tan radical en ese tiempo, por el otro me encantaría equivocarme :D
http://www.muycomputer.com/FrontOffice/ZonaPractica/Especiales/especialDet/_wE9ERk2XxDA0vdjPfH3oxoRM-A7dfAvcBF1WVKZlKUfihZYrCW8oQj0_BwL1F9j6
Igual aún tienen mucha vida por delante... pedazo de seguridad WIFI comprometida (nada que no se pudiera hacer antes, pero no de forma tan... obscena :))