Stratos: Punto de Encuentro de Desarrolladores

¡Bienvenido a Stratos!

Acceder

Foros





Rt En Rt

Iniciado por Lord Trancos 2, 16 de Junio de 2004, 12:26:12 PM

« anterior - próximo »

seryu

Cita de: "fiero"Yo creo que las cosas seguirán siempre como están ahora.
Decir lo contrario me parece como decir que cuando los ordenadores vayan a 100 GHz, los drivers del disco duro y la bios de la placa base se podrán programar en Visual Basic. Me parece a mi que los drivers seguirán haciendose en ensamblador...

un saludo
sin ganas de joderte la teoria o el simil, los drivers ya se programan en su mayoria en C. Al igual que antes casi todo se utilizaba asm y ahora hemos pasado a c o c++. Y tenemos lenguajes de bases de datos, qe es la cosa de mas alto nivel qe ha parido madre, y las oracle sysbase y cia manejan bases de datos de un tamaño considerable, asi qe no son para programas anecdoticos..

Lessman


TheAzazel

 Ya se yo que este thread andaba RIP pero he visto esto y creo que os podra interesar...al fin y al cabo...son kienes junto con otros pocos por ahi...gobernaran nuestro futuro grafico:

http://www.gamestar.de/magazin/specials/ha...hardware/17734/

güen provecho :)

BeRSeRKeR

 
CitarIt would actually be interesting to combine the vertex and pixel shaders of today's GPUs with a ray tracing core. [...] In ray tracing all that needs to be done is sending one or more rays, which can be completely done in hardware and does not involve the application at all. The application simply defines the appearance of surfaces via small shader programs and the ray tracing engine does all the rest
Justamente lo que dije, las cosas seguirán programándose a través de los shaders y el motor de ray tracing; que se encontrará en la GPU, se encargará de trazar rayos a instancias del shader.

Yo creo que a la conclusión a la que se llega es que el ray tracing acabará imponiéndose. Lo cual es lógico por lo que ya dije, ciertas cosas como la verdadera GI sólo se pueden conseguir a través de ray tracing.

Eso sí, en esa "entrevista" cada uno llega a esa conclusión tirando para su terreno. :)

Gracias TheAzazel por el enlace. Está muy interesante.

Saludos.
¡Si te buscan en nombre de la ley, huye en nombre de la libertad!!

tamat

Cita de: "BeRSeRKeR"Yo creo que a la conclusión a la que se llega es que el ray tracing acabará imponiéndose. Lo cual es lógico por lo que ya dije, ciertas cosas como la verdadera GI sólo se pueden conseguir a través de ray tracing.
Si por GI te refieres a global illumination no estoy de acuerdo.

Hace poco programé un RT como practica para una asignatura de la carrera, el resultado era muy tipico y aunque hacía los clasicos efectos vistosos (reflexion, refracción) la iluminación era una basura, sombras totalmente lineales, y tansolo focos puntuales que quedaban de todo menos creible. Se pueden aplicar "parches" como poner muchos focos concentrados en una esfera para simular un foco esferico o ponerlos sobre un plano para simular un fluorescente pero siguen siendo apaños que tienen un coste computacional altisimo.

Para conseguir una iluminación minimamente creible tuve que implementar photonmapping que generaba los lightmaps de toda la escena lo cual añade más coste computacional y tampoco resuelve del todo el problema aunque permite sombras suaves, cualquier tipo de foco de luz, causticos y demás.

Ahora pensad en esos 30GHs del cluster, eso SOLO mueve el RT, la iluminación que usa sigue siendo la clasica de trazar rayos a cada foco para ver la aportación y eso no tiene mucho de creible, así que si quisieramos mejor iluminación tendriamos que recurrir a otro algoritmo aun más costoso como el photonmapping, entonces qué? pasamos ya a los 60GHzs ?

Yo prefiero gastar los 30GHz en generar los lightmaps y con una GPU clasica renderizar la escena por proyección, el resultado será mucho mejor.

Reitero lo que dije, si tengo 30GHzs prefiero gastarlos en otros aspectos del render que no en un RT. Si focalizo esos 30GHz en un render tradicional podré realizar miles de efectos (texturas procedurales, millones de policonos por modelo...) más complejos que si los destino a un algoritmo tan computacionalmente lento como el RT mediante el cual solo tendré un render equiparable al de las primeras versiones de 3d Studio.

Obviamente llegará el día en que usemos RT pero eso solo será cuando tengamos una capacidad 'ilimitada' de ciclos por segundo, hasta entonces por más factible que sea un RT el sistema por proyección será 1000 veces más rapido con las ventajas que eso conlleva.

Lo unico que podría cambiar esto sería disponer de cpus que trabajen perfectamente en paralelo (o cpus vectoriales) donde el RT ganaría en velocidad.
Por un stratos menos tenso

BeRSeRKeR

 Hombre ya sé que un raytracer simple sólo calcula iluminación directa, sombras duras, etc. Pero es que para generar el photon map, el irradiance map, los lightmaps o cualquier otra técnica que se utilice para calcular GI, estás trazando rayos igualmente (raytracing), nada más que con esas técnicas se aceleran los cálculos ya que una vez que tienes ese mapa de fotones o de irradiancia, se realiza una interpolación del mismo y listo.

Evidentemente yo no digo que en un corto periodo de tiempo vayamos a conseguir los resultados en términos de calidad de raytracers como PRMan, VRay o Brazil. Sólo digo que lo lógico es que en un futuro las posibilidades de que el ray tracing acabe imponiéndose son muy altas.

Saludos.
¡Si te buscan en nombre de la ley, huye en nombre de la libertad!!

tamat

 Pero es que decir eso es como decir que las IAs al final se haran mediante simuladores de redes neuronales, o que la fisica se hará a nivel de atomos, o que la interacción se hará directamente sobre el cerebro, sin interfaces fisicos, es obvio que algun día se llegará a todo eso, tarde o temprano, tal vez en un siglo o en diez milenios, especular sobre eso es como no decir nada. Lo que tiene merito es hablar de cosas más cercanas, las que nosotros tendremos que usar (ya sea mañana o dentro de 20 años) y yo reitero que en 20 años no se utilizaran RTs porque si se dispone de la tecnología para mover RTs en tiempo real entonces se dispone tecnología para proyectar la escena mil veces mejor.
Por un stratos menos tenso

TheAzazel

 Tamat, se trata de evolucion, simple y llana. Ya puse anteriormente q eso de los 30ghz era una vacilada.... mirad en ese ejemplo el tio q hace la entrevista lo que renderiza usando RT va a 2-3fps en un dual opteron... nada de hard grafico... por otra parte, hay otro diseño por ahi muy simple q corriendo a 90mhz utiliza RT...y consigue muy buenos resultados... mira, el d nvidia se defiende ocn uñas y dientes pq acaba de sakar al gf6 y claro, no va a decir q es mejor el RT habiendo sacado la tarjeta hace semanas(de anuncio pq de venta...nothing!).
Yo personalmente, opino como muchos otros por aki....al principio sera un cambio lento y con tecnicas hibridas y poco a poco....el RT se impondra...pq? pq sera super sencillo y los resultados de la leche y yo soy optimista....no creo q falta un siglo ni mucho menos...(a saber de aki a 100años ande andaremos!), me da q antes de 10 años...lo q suceda es hoy por hoy impensable

tamat

 TheAzazel, entonces me estas diciendo que se migrará a RT porque es más coherente con el modelo natural? y eso en qué influye? en la curva de aprendizaje? incluso conceptualmente creo que es más facil de entender el modelo de proyeccion de escena, porque 'pintas' triangulos, y eso lo entiende hasta un niño de 6 años, pero hablarles de rayos que parten de la camara, atraviesan la imagen y impacan contra la escena... cuesta más.

La unica ventaja que le veo al RT (además de reflexiones y refracciones las cuales todavia no pueden ser resueltas con realismo mediante proyección de escena) es que facilita mucho generar algoritmos que recreen la realidad, basta con imitarla, yo mismo cada día cuando me aburro le añado alguna pijada a mi raytracer, y normalmente no tengo que cambiar casi nada, solo un metodo o una funcion, sin embargo en mi 'engine' cuando quiero añadir alguna feature me toca reescribir muchas cosas... porque tengo que hacer 'trucos' para finjir efectos.

Por un stratos menos tenso

egf

 pa mi que vamos a ver antes peliculas con metodos de videojuegos (sobre todo ahora que estan los saders) que videojuegos con raytracing...

...y pa cuando haya capacidad para tirarar de rt, tampoco hara falta por que nos enchufaremos un cable por la nuca y a tirara de ram cerebral


un zaludito

[EX3]

 
Cita de: "Lessman"Por cierto que el VB no tendría porque ser un mal lenguaje... Otra cosa es que el "compilador" sea una castaña. Realmente la eficiencia, no viene dada por la facilidad del lenguaje, o su difícultad, sino por su rapidez en la ejecución. Y esto depende del compilador, y el código máquina que genere.
Mucha razon en eso, Lessman, si no recuerdo mal, hay una conversion del Visual Basic en Linux que mejoraba notablemente la velocidad de ejecucion respecto a su antecesor en Windows, pero no llego a recordar con exactitud si decia que "casi" igualaba a la velocidad de ejecucion de un programa escrito en C++. De ser asi seria cojonudo para tratarse de un lenguaje pseudo-interpretado. Como le dije a un amigo mio hace tiempo: a este paso me jubilo sin programar en otro lenguaje que no sea VB  :D

Respecto al tema del post, yo tb pienso ke con el tiempo (pokito, no mas de 10 años como ya han dicho) el RT pasara a ser algo al alcance de todos y con muy buenos resultados, ahora, tb estoy deacuerdo con eso de ke si se tiene potencia para llevar a cabo esto tb se llevara a cabo el uso de los metodos tradicionales, pero mejorados, ya que sobraria potencia y se podrian conseguir resultados que ahora estan un tanto lejos del alcance de las makinas actuales.

Tiempo al tiempo y ya sabremos por donde sale el sol...

Salu2...
José Miguel Sánchez Fernández
.NET Developer | Game Programmer | Unity Developer

Blog | Game Portfolio | LinkedIn | Twitter | Itch.io | Gamejolt

BeRSeRKeR

 
Cita de: "egf"pa mi que vamos a ver antes peliculas con metodos de videojuegos (sobre todo ahora que estan los saders) que videojuegos con raytracing...
Es curioso que digas eso ya que hace unos meses estuve leyendo libros sobre RenderMan y creando algún que otro shader. Supongo que sabrás que RenderMan es la tecnología de Pixar que ha sido utilizada en innumerables películas para crear contenido CG. Bueno, en realidad RenderMan es la especificación, lo que es el renderer es PRMan (aunque hay otros que cumplen con dicha especificación).

Bueno, al grano. Lo que quiero decir es que es precisamente con la llegada de las nuevas GPU cuando se están empezando a utilizar todos esos trucos que en RenderMan ya se llevaba utilizando hace mucho tiempo. Me refiero a "Image Based Lighting" (p. ej. utilización de mapas HDR) para simular reflexiones, refracciones, GI...

Si a eso añadimos que los vertex & pixel shaders están basados en los shaders de RenderMan (si les echáis un vistazo veréis que son reralmente parecidos), podemos pensar que la industria del videojuego está siguiendo la estela de RenderMan.

Ahora RenderMan implementa otro tipo de métodos basados en ray tracing para conseguir GI. Por ejemplo ambient occlusion, photon mapping e irradiance maps. Aunque no deja de lado los métodos anteriores ya que aceleran el proceso de render. Pero está claro que conforme aumente la potencia de cálculo de los procesadores, estos métodos se irán imponiendo.

Yo creo que a las técnicas que se están utilizando actualmente aún le queda mucho tiempo de vida y con ellas podremos conseguir imágenes realmente espectaculares en tiempo real. Al fin y al cabo aún hay técnicas que no se han aplicado en los juegos por falta de potencia. Por ejemplo stencil soft-shadows o quién sabe, a lo mejor la industria acaba decantándose por los shadow maps. También hay que ver hasta dónde nos lleva la técnica de spherical harmonics. No sé, realmente aún quedan muchas cosas que probar antes de dar el salto al ¿ray tracing?. Lo cierto es que si la industria del videojuego sigue los pasos de RenderMan, así será. :)

Saludos.
¡Si te buscan en nombre de la ley, huye en nombre de la libertad!!

TheAzazel

 Mirad, un ejemplillo que mas o menos corre en nuestras CPU's... ya se q a baja resolucion y todo eso pero... esto hace poco era impensable...

http://www.realstorm.com/

ya lo conocia desde hace tiempo pero no me acordaba del nombre y he pensado que vendria como anillo al dedo para este tema... tambien habla de los pros y los contras de usar esto....

tamat, si kieres nos apostamos una cerveza q antes de 10 años el RT esta demoliendo jejeje y claro..con los intereses...seran unas dos cervezas  :D  

Lessman


Lord Trancos 2

  :blink: Wow, como mola lo de RealStorm... ahora si que me quedan pocas dudas sobre el futuro del 3D.
on los años y mucho esfuerzo he llegado a atesorar una ignorancia total sobre casi todas las cosas.
Gate to Avalon (mi Blog)






Stratos es un servicio gratuito, cuyos costes se cubren en parte con la publicidad.
Por favor, desactiva el bloqueador de anuncios en esta web para ayudar a que siga adelante.
Muchísimas gracias.