Stratos: Punto de Encuentro de Desarrolladores

¡Bienvenido a Stratos!

Acceder

Foros





Rt En Rt

Iniciado por Lord Trancos 2, 16 de Junio de 2004, 12:26:12 PM

« anterior - próximo »

Lord Trancos 2

 (Osea... RayTracing en RealTime.)

Leo en CodePixel la siguiente noticia.

Realmente me ha sorprendido.... y todo eso con un prototipo que corre a 90MHz.

¿Que opinais? ¿Nos encontramos ante el futuro del 3D? ¿Moriran los Vertex/Pixel Shaders (y el resto de la tecnologia actual) tan pronto?

pd. saludos pa derethor. ;)
on los años y mucho esfuerzo he llegado a atesorar una ignorancia total sobre casi todas las cosas.
Gate to Avalon (mi Blog)

Schaffer

 Nadie puede decir aun que vaya a ser el subsituto pero si que te puedo decir que no es el futuro proximo, en la pagina esa pone que se consiguio ejecutar en tiempo real a 512x512 gracias a un cluster de 20 AMD XP1800, es decir, un ordenador virtual de 36GHz.

Además los modelos de los personajes parecen mas bien Quake I. Aun asi, tambien pone que con un hardware que permita raytracing 3 veces mas rapido que el mejor prototipo actual (que va a 90MHz y tiene una potencia de raytracing similar a un ordenador a 12GHz) se podria ejecutar en tiempo real en un ordenador normal.

[offtopic] En los screenshots aparecen dos bichos que son igualitos a unos del Doom II, ¿alguien sabe si se hizo una version 3D de ellos para otro juego? [/offtopic]

DraKKaR

 No es por fastidiar, pero creo que el raytracing nunca va a destronar a los PS. Simplemente porque son técnicas orientadas a finales distintos: el raytracing usa técnicas donde lo que más importa es el fotorealismo, sacrificando velocidad como sea necesario. Las técnicas actuales de tiempo real por contra, quieren represetar la mayor cantidad de detalle, pero siempre dentro de los límites impuestos por el rendimiento en tiempo real. Gracias a estas técnicas se peuden alcanzar niveles de detalle increiblemente parecidos a los que usa el trazado de rayos, pero siempre con "trucos" y optimizaciones, nunca con técnicas de trazado de rayos.
Como curiosidad, en cambio, es muy interesante ese proyecto, y se pueden conseguir efectos interesantes.

Schaffer: si ke son del doom2, alguien los habrá hecho en 3D, pero no creo que para ningún juego oficial.

Lessman


Ruben3D

 
CitarEn los screenshots aparecen dos bichos que son igualitos a unos del Doom II, ¿alguien sabe si se hizo una version 3D de ellos para otro juego?
Son modelos md2 para el Doomsday Engine y se pueden descargar aqui.

Un saludo.

Ruben3d

TheAzazel

Cita de: "Schaffer"Nadie puede decir aun que vaya a ser el subsituto pero si que te puedo decir que no es el futuro proximo, en la pagina esa pone que se consiguio ejecutar en tiempo real a 512x512 gracias a un cluster de 20 AMD XP1800, es decir, un ordenador virtual de 36GHz.

Además los modelos de los personajes parecen mas bien Quake I. Aun asi, tambien pone que con un hardware que permita raytracing 3 veces mas rapido que el mejor prototipo actual (que va a 90MHz y tiene una potencia de raytracing similar a un ordenador a 12GHz) se podria ejecutar en tiempo real en un ordenador normal.

[offtopic] En los screenshots aparecen dos bichos que son igualitos a unos del Doom II, ¿alguien sabe si se hizo una version 3D de ellos para otro juego? [/offtopic]
20 Athlon XP1800 no es ni de coña un "pc virtual" de 36Ghz ya q este corre a 1533mhz asiq en todo caso seria un "pc virtual" de 30Ghz (aunq en % varia poco) pero... lo peor es q un sistema multiprocesador por muy bien diseñado q este y aunq sea una tarea tan "guay" como el render para adaptarse a este entorno... no da ese mismo rendimiento, vamos q 2 cpu no son el doble de rapido q una sola a la misma velocidad en NINGUNA TAREA, justo los render(lease 3dsmax y tal) son los q mejor aprovechan esto y el resultado es mas de un 50% q ya sta bien :) luego... la cpu para correr eso no esta tan lejos de ser diseñada.
Mi opinion es q hoy por hoy...pixel & vertex shaders pero el futuro... el futuro ira por raytracing y todas las tecnicas q hoy en dia utilizan todos los paketes gordos, tiempo al tiempo, al paso q vamos haremos hasta un matrix jejej

TheAzazel

 akabo de ver q eso de los 36ghz lo han puesto ellos en la web..jeje
como se flipan! asi kda mas bonito...un chip de 90mhz tan rapido como otro de "36"ghz (ojo, q pue ser pero q no este el caso...ya hice las cuentas antes)

tamat

 Algunos dicen que cuando el hardware mejore y permita una tasa de frames mediante raytrace a tiempo real entonces se migrará a ese sistema pero es que cuando tengamos hardware para mover un RT a tiempo real podremos usar ese mismo hardware en proyección de escena y conseguir resultados mil veces mejores.

Si tengo que elegir entre un raytracer a tiempo real con modelos de bajo poligonizacion (eso si, con sus preciosas reflexiones y refracciones) y un engine de proyeccion de escena con millones de poligonos y shaders para los materiales pues me quedo con lo segundo.
Por un stratos menos tenso

Lord Trancos 2

Cita de: "tamat"Si tengo que elegir entre un raytracer a tiempo real con modelos de bajo poligonizacion (eso si, con sus preciosas reflexiones y refracciones) y un engine de proyeccion de escena con millones de poligonos y shaders para los materiales pues me quedo con lo segundo.
¿Modelos de baja poly? Si no recuerdo mal habia un ejemplo de unos girasoles que todos juntos hacian  un monton de polys... :P

Ademas, ¿quien no tiene hoy en dia un par de clusters de 20 AMDs?  :rolleyes:  
on los años y mucho esfuerzo he llegado a atesorar una ignorancia total sobre casi todas las cosas.
Gate to Avalon (mi Blog)

_Grey

 Entiendo que, sobre todo los mas jovenes, piensen que en el futuro el Raytracing sustituira a la forma de trabajar actualmente en graficos 3d.....

Pero sinceramente, pienso que aun que ocurra, seria un gran error, por que con la misma potencia, a base de poligonos se rinde mucho mas, y la diferencia de calidad de la imagen puede ser practicamente nula.
Es decir que desaprobechariamos potencia simplemente por darnos el gusto de decir "es por raytracing tio!".

Saludos.

DraKKaR

 
CitarAlgunos dicen que cuando el hardware mejore y permita una tasa de frames mediante raytrace a tiempo real entonces se migrará a ese sistema pero es que cuando tengamos hardware para mover un RT a tiempo real podremos usar ese mismo hardware en proyección de escena y conseguir resultados mil veces mejores.

Esta es la cuestión, por eso decía que nunca se migrará a un sistema más enfocado al fotorrealismo (raytracing) que a la velocidad (técnicas de tiempo real). Cuando los ordenadores sean tán rápidos para generar imagenes en tiempo real con trazado de rayos, no podemos ni imaginarnos el tipo de resultados en el campo del tiempo real, que serán (creo yo) aparentemente similares, solo que usando otras técnicas.

Una pequeña reflexión: el archiviejo Wolfenstein 3D de IdSoftware (y los Doom I y II también) usaban un sistema de trazado de rayos. XD. Pero claro, con tantísimas optimizaciones y premisas obligatorias (como que en el wolfenstein las paredes todas formaban angulos de 90 grados y que el suelo y el techo ddebia ser liso y ser paralelos ente sí, facilitando muchísimo el cálculo de colisiones) que podía hacerse en tiempo real en un 386. No era un sistema de trazado de rayos fotorealista, pero se sustentaba en las mismas bases para vidualizar la geometría...

Lord Trancos 2

 ¿Y cuando dentro de XX años tengamos global illumination en tiempo real que, eh? :P

Ya vereis ya.... yo ya estoy ahorrando pa comprasme un PC con CPU quantica  (uoh)  
on los años y mucho esfuerzo he llegado a atesorar una ignorancia total sobre casi todas las cosas.
Gate to Avalon (mi Blog)

Lord Trancos 2

 Ahora en serio... yo creo que si es el futuro (otra cosa es a cuantos años esta).  

Ya lo habeis comentado algunos por aqui; el 3D que usamos esta basado en trucos/parches con sus limitaciones. El realismo que consiguen los RayTracers puede llegar a ser tremendo; aunque el de la pagina en cuestion no es gran cosa,.... Por muchos trucos que se usen creo que no se conseguira un nivel tan fiel de realidad, por las simples limitaciones de esos trucos.

Por cierto, lo de "el fin de los Vertex/Pixel Shaders" era puro sensacionalismo para llamar la atencion;... sin ir mas lejos no veo pq no pueden seguir existiendo vertex shaders (o algo parecido) en una arquitectura como esa.

on los años y mucho esfuerzo he llegado a atesorar una ignorancia total sobre casi todas las cosas.
Gate to Avalon (mi Blog)

Haddd

 Yo creo que el RT ofrece unas posibilidades tremendas y resuelve un montón de problemas(sombras, iluminación, reflejos, transparencias). ES la forma de resolver el problema y no como se está haciendo ahora, a base de programación. Creo que es un problema únicamente de velocidad, y por ahí leí hace algunos meses de una gente que estaba desarrollando un programa para hacer RT en tiempo real:

CitarLa ventaja que tenemos nosotros respecto a los de la triangulación es que el tiempo corre a nuestro favor.

Para mi tienen toda la razón. No debería ser imposible, no sé nada de implementación de chips, crear un chip que renderizara una escena por hardware siguiendo unos parámetros. La ventaja que eso supondría sería enorme, porque los engines se limitarían a la física, y se dejaría la renderización para el hardware. Eso sí que es paralelismo.

De todas formas, estoy elocubrando. Pero mi opinión es que dentro de unos años, ya no importará que tu tarjeta genere 3 billones de polígonos, importará que pueda o no mostrar ciertas imágenes y quizás, la única forma, sea RT.

BeRSeRKeR

 Yo también creo que el RT es el futuro. Y por supuesto los vertex & pixel shaders no desaparecerán. En todo caso se unificarán y seguirán siendo la mejor forma de describir el comportamiento de las superficies ante la luz.

Y si no mirad RenderMan. Los vertex & pixel shaders actuales están basados en la tecnología de Pixar y si alguno ha programado shaders para RenderMan sabe que en ciertas funciones está utilizando RT de una forma totalmente transparente. Por ejemplo, con las funciones trace, gather, transmission, occlusion o indirectdiffuse estamos indicando al motor de render que queremos lanzar rayos secundarios para acumular más información sobre la escena. Por ejemplo, con occlusión lanzamos rayos y vemos qué porcentaje de ellos colisiona con alguna superficie ayudándonos así a calcular el ambient occlusion (que es una forma "barata" de simular GI).

Además que yo sepa es la única forma de conseguir verdadera GI y está claro que los gráficos en tiempo real se están orientando hacia esa dirección. Sólo hay que ver las técnicas que se están empezando a utilizar para emular GI como pueda ser Spherical Harmonics (SH). El problema actualmente es que hay que realizar un precálculo para poder utilizarlo en tiempo real y su mayor inconveniente es que no puede utilizarse en escenas donde la geometría es totalmente dinámica.

El inconveniente aquí es que el API 3D no tiene conocimiento de la disposición geométrica de la escena por lo que ahí está el problema a la hora de optimizar el lanzamiento de rayos. Estaríamos lanzando rayos "a lo loco". Supongo que la solución es que el propio API mantuviera un arbol de jerarquía (BSP, por ejemplo) para acelerar el trazado de rayos. Es lo que hacen los grandes raytracers actualmente (PRMan, VRay, Brazil, MentalRay...).

Pero bueno, supongo que aún queda bastante para que ese día llegue pero llegar yo creo que sí llegará. :D

Saludos.
¡Si te buscan en nombre de la ley, huye en nombre de la libertad!!






Stratos es un servicio gratuito, cuyos costes se cubren en parte con la publicidad.
Por favor, desactiva el bloqueador de anuncios en esta web para ayudar a que siga adelante.
Muchísimas gracias.