hola pa mi nuevo juego queria saber como anda la gente de tipo de ordenador para ajustrar lo polígonos al maximo
Yo mira lo que te digo....para nuestro motor creo que exigiremos una GPU con soporte para vertex & pixel shaders 1.1 mínimo (o sea
GF3/Radeon8500) :loco:
Precisamente yo cumplo los requisitos de nuestro "posible futuro motor" por los pelos (P4 1.4Ghz, 256MB RAM y GF3) xDDDD
Y es que lo importante ya no es la cantidad de polígonos sino la calidad de la imagen...y eso se consigue a través de una buena iluminación y buenas sombras (a parte de buenos modelos y texturas claro) y para eso nada como los vertex & pixel shaders :jaja:
Saludos
PD: pero si lo que pretendes es hacer un juego divertido sin más parafernalia, entonces, olvida lo que te he dicho xDDD
el mio no se ajusta a nada xDD
es un 450, 64 de tarjeta y 128/256 de ram (segun me de x ponerle)
si kieres saber como anda la gente, de verdad, visita la web de 3dmark y puedes tener info de todo tipo.
piensa para cuando tendras tu juego listo y asi sabras conqe tipo de pcs te encontraras..
y en vez darle tantas weltas, mas vale currarse un menu de opciones qe permita ajustar los graficos no?
ni el mio... tampoco se ajusta a nada... como mucho yo pediria que un juego fuera como el unreal tournament, soul reaver, doom3, haegemonia... etc... que sin necesitar vertex ni pixels shaders ni esas poyas van muy bien.
Pienso que se esta descuidando mucho la calidad del codigo frente a las prestaciones del hardware... cachis... necesitar ya como minimo una gforce 3 o una radeon 8500 es demasiado... si hace como cosa de 1 año y medio que actualize a gf2 mx 32 megas...
Vaya por dios... con un metal slug en 3d es con lo que mas me gustaria jugar...
Berserker a que estais intentando hacer un shooter a lo quake3?? a que si?
Jaja en realidad no vamos a intentar a hacer un juego. Estamos más interesados en la generación de gráficos 3D de alta calidad en tiempo real. En principio nuestro motor sería un motor orientado a las demos y es de suponer que a partir de este año, en cualquier party que se precie, habrá como tarjeta base una aceleradora con soporte para vertex & pixel shaders. Sí es cierto que en juegos como doom3 se pueden ver gráficos de alta calidad pero hay que tener en cuenta que doom3 esta programado en OpenGL por lo que puede echar mano de los register combiners (existentes en GF1 para adelante si no me equivoco). No es que con Direct3D no se pueda hacer per-pixel lighting (con la fixed pipeline) pero sin duda no permite la misma programabilidad que los pixel shaders :D
Además, aún pudiendo hacerse per-pixel lighting con una GF1 a través de OpenGL y register combiners ( y con Direct3D a través de la fixed pipeline), pues no es muy aconsejable ya que es un proceso lento...así que habría que controlar mucho el número de luces simultaneas por frame...es con una gf3 y hay que tener cuidadín.... xDDD
Saludos
Puestos en alta calidad, yo os aconsejaria el uso de cgs de Nvidia, ya que si usais lo que hay ahora, sera todo muy estandar.
Te paso un link con el codigo fuente de un pogramita de ILM para imagenes Hdri propias de ILM (es un formato de 16bit, mejorado del hdri standard). Es una herramienta bastante buena usando cgs de nvidia, y ahora que casi todo el mundo tiene gforce3... pues mejor que mejor.
http://www.openexr.net/espero te sirva de algo :P, el codigo fuente esta en c++ y segun los de ilm es muy facil y mucha portabilidad. funciona bajo linux (algo que seguro agrada a muchos), unix y mac osx. Todos esos menos mi querido windows :(
Yo prefiero las cosas lentas, que sean muy compatibles y que vayan muy fluidas. La calidad y lo bueno siempre cuesta tiempo. Los programas de hoy dia se programan con mas rapidez y todo tiende a lo facil... y encima aumentan los requisitos...
Citar
Puestos en alta calidad, yo os aconsejaria el uso de cgs de Nvidia, ya que si usais lo que hay ahora, sera todo muy estandar.
Hombre, el CG de nVIDIA no es muy estándar que digamos, ya que solo funciona en tarjetas nVIDIA.. (a no ser que otras marcas hayan sacado ya su compilador de Cg, que lo desconozco)
Citar
y ahora que casi todo el mundo tiene gforce3...
Mucha gente tiene ATI's o GF's de menos calibre,voodoos y tnt2..
Citar
mucha portabilidad. funciona bajo linux (algo que seguro agrada a muchos), unix y mac osx. Todos esos menos mi querido windows
si no funciona bajo windows, que es el SO mayoritario, da igual en cuantos otros SOs funcione..
Citar
Yo prefiero las cosas lentas, que sean muy compatibles y que vayan muy fluidas.
lento y fluido creo que son términos incompatibles..
Citar
Los programas de hoy dia se programan con mas rapidez
te refieres a juegos? con mas rapidez comparado con que? con hace 10 años, que los juegos los hacía 1 tío en 4 meses, y ahora decenas de personas en un par de años?..
--saludos
Ciertamente Cg no es un estándar aunque haciendo uso de la extensión ARB_fragment_program para los que utilicen OpenGL, podrán ejecutar un shader Cg en cualquier aceleradora que soporte dicha extensión.
Si lo que utilizas es Direct3D, no debería haber ningún tipo de duda a la hora de la elección. El HLSL de MS es lo que hay que utilizar sin lugar a dudas. Genera código más optimizado que Cg y en principio está libre de bugs (aunque eso es imposible claro :D) o al menos tiene menos que Cg.
Por otra parte lo de OpenEXR no lo había visto hasta ahora (gracias por el link) pero aunque ahí hable únicamente de Cg, esto no es problema ya que Direct3D (y por consiguiente el HLSL), pueden utilizar formatos de imagen Floating-Point (16 bits por componente, es decir, 64 bits de color, que es lo que utiliza el OpenEXR) y formatos IEEE (32 bits por componente, es decir ¡128 bits de color!).
El problema que se presenta ahora es que, imaginad que renderizamos una escena en tiempo real a 128 bits...¿qué formato de imagen soporta este tipo de formato?, es decir, tendríamos que ¡¡el render en tiempo real sería de mayor calidad que la imagen en la que pudieramos almacenar dicha escena!! :o...por suerte, al parecer, ya están apareciendo estos formatos HDR...
Saludos
Colson en mi cita de lo de standard me refiero no a la compatibilidad de hardware, sino a que los graficos serian standard... como todo lo que se ve ahora... si se kiere algo novedoso se ha de salir de lo "standard". Entiendes/eis lo que quiero decir? es simple no?
A mi me da = que los cgs sean solo para nvidia... total... casi todos teneis nvidia, asi que el que se standarize sera cosa de poco tiempo.
La gente que tiene tnt2s y demas tarjetas, incluida la gf2 mx, es porque no quiere actualizarse... o no ven la oportunidad para ello... asi que no creo que se deba mirar a esa gente a la hora de hacer un programa grafico, vamos pienso... antes la calidad que quienes vayan a disfrutar de ella. Total... para cuando tengais algo hecho ya los que tenian tnt2 tendran gforce fx... (los que tienen ahora gf4 seguiran con las mismas... supongo... a menos que sean ricos..)
No me he explicado bien en lo de prefiero las cosas lentas... me ha faltado puntuar esto: lentas de creacion... siempre lo bueno se hace de esperar o no? mirad el doom3 :P
Todo se programa ahora con mas fluidez y rapidez... se ha agilizado un monton la tarea de programar... y al contrario ha pasado con los graficos... cada vez mas tamaño de textura y modelos mas detallados... mas tiempo de trabajo... Ahora se pierde mas el tiempo en el pixel que en la letra y vamos que no... quien dice lo contrario? nadie...
gracias pr las respuestas bueno entrando en el debate veamos un par de cosas
yo soy gamedeveloper por lo que adapto mis ideas a las prestaciones del engine que use, mi objetivo es hacer juegos y acabarlos
los enginedevelopers adaptan el motor a sus ideas y a las ultimas tegnologias su objetivo es hacer engines, BeRSeRKeR me alegra tu trabajo y sigue con el, pero nuestros caminos y objetivos son completamente disitintos
para mi los pologonos son muy importantes la calidad de imagen se basa en la calidad de las texturas en su usas trilineal en si uas pepito grillo en si prefieres mostaza o tomate todo esto va en los menus de opciones y puedes desactivar todo para aumenten las fps
los modelos tambien pueden tene diferente cantidad de poligonos segun el ordenador que tengas
pero los niveles del juego y el propio codigo chupan fps y eso no se puede configuararse de ninguna forma hay que atenerse por cojones a un numero maximo de poligonos visibles y aun numero maximo de funciones funcionando por lo que hay que elegir una configuarcion baja y ver cuantos fps puede mover ese ordenador y hacer los niveles de tal foma que en ningun momento se sobrepase esos niveles
lo que dice WhiteBlaizer es verdad cuando se compra la licencia del quake 2/3 o del unreal te viene con los codegos de los juegos por ejemplo el jedy el return a castenoseque el soldier of fortune todo usan los mismos codigos solo cambia el aspecto visible y como mucho cambian algun codigo que despues las revistas te venden como un super avance y que cualquiera que programe sabe que son un par de lineas de codigo
por cierto CoLSoN2 :ojo: (esto me recuerda otra reply que me hiciste) con cinco personas de las que he visto sus trabajos este foro y si en vez de dedicarse a realizar un motor propio usan alguna licencia te ibas a quedar flipao con lo que podrian hacer en un año
y todo esto me recuerda que tengo que abrir un post con otra movida
Citar
A mi me da = que los cgs sean solo para nvidia... total... casi todos teneis nvidia, asi que el que se standarize sera cosa de poco tiempo.
hace pocos años, todo el mundo creía que 3dfx con sus voodoo's se convertirían en un estándar en poco tiempo, y ahí están.. en el arroyo
Citar
La gente que tiene tnt2s y demas tarjetas, incluida la gf2 mx, es porque no quiere actualizarse... o no ven la oportunidad para ello
o que no hay pasta :P
Citar
asi que no creo que se deba mirar a esa gente a la hora de hacer un programa grafico
a no ser que seas ID soft, lo que significa que la gente se comprará tarjetas graficas nuevas para jugar a tu juego, es muy importante adaptarte al hardware medio del momento. Si ahora una empresa desconocida saca un juego con unos requisitos parecidos a los del Doom3, muy poca gente lo jugaría.
Yo tengo un AMD 1200 MHZ, 512 RAM ddr y una gf4ti4200 128 VRAM, más cerca de la 1ª que de la 2ª opción, supongo ;)
Colson... pasta si que hay... quien no se puede gastar 25000 ptas en una gf4 ti 4200?... si eso se lo gasta uno en nada... que si la gasolina, que si en el comedor... que si la pijadilla tal, que si sacar a la novia... y demas chorradas... como el botellon del viernes o las entradas a la disco...
Si no te gastas el dinero en "chucherias", luego lo tendras para tu gran filete de cerdo.
El que no se gasta el dinero es porque ya se lo ha gastado en otra cosa, o bien es un miserable, o bien es muy listo y quiere ahorrar... todo se reduce a esos 3 casos.
Yo ya sabia que las 3dfx no iban a buen pie... se olia, y creo que estoy oliendo que Ati puede derrotar a nvidia con su nuevo chip r350... lo que no se, es si es superior al fx de nvidia.
Si, importantisimo... no veas lo importante que es adaptar el juego a las tarjetas mas malas... para cuando este hecho sera una mierda si lo comparamos con los que esten entonces. Las cosas hay que hacerlas pensando en el futuro y no en el presente ( a menos que se sea tan bueno de hacer graficos y codigo en menos de una año... y creo eso es imposible en un juego de la talla del unreal 2)
Id siempre se adelanta a todos, ya que tienen un tio que piensa siempre en el futuro... y no se come la uñas como muchos pensando que sea jugable en lo mas bajo...
Ahora casi todo el mundo tiene al menos una gforce 4 ti 4200... esta muy barata... menos de 24000 ptas... si id sacara el doom ahora, la venta de hard de nivel bajo como las ti 4200 (que ahora son cacas...), se dispararia... "Quien quiere algo, algo le cuesta..."
Aki casi todos tienen gforce ti sea 4200 o 4600, incluso gf3... que en su dia les costo caras... y otros como yo que aun teniendo el dinero para un dual, no se compra nada, porque es un tonteria en mi opinion. Seria un gasto estupido comprarse una tarjeta para jugar con un juego. Yo me espero a que intel saque el micro con multithreading... y a que las tarjetas fx o r350 se establezcan bien en el mercado.
Te dejas la opción de que no ganes dinero, y por lo tanto ni puedas ahorrar ni gastártelo en chucherías ni mucho menos en filetes de cerdo :(
si la verdad es que hay muchos tipos de gente en el mundo que no tiene 25000 pelas para una targeta grafica
por cierto si los de id no pensaran en ordenadores lentos si hiban al garete como todo el mundo
y el doom 3 sera todo lo ostia grafica que quieras pero ya veremos cuando de verdad saquen el juego comercial las bonitas habitaciones cuadradas pensadas para ordenadores bajos
:D
pero que pasa que los que estais en casa con papaito y mamaita no reciben al menos algun dinerillo al mes o que??... yo eso no me lo creo. con 4 meses de paguilla se tiene para una tarjeta grafica... :)
La verdad es que el doom3 se ve un tanto cuadrado... no tiene tanto detalle como los escenarios del unreal2 o ut2k3... pero bueno, pa cuando saquen el juego... un porcentaje muy elevado de personas ya tendran un equipo superior (ya hay gente que los tiene).
Bueno, ahora que escribo del unreal me han entrado ganas de matar unos cuantos bots en el ut2k3... :D. Debo estar muy viciado a este tipo de juegos ya que no tengo ninguna baja cuando juego... :P
Citarpero que pasa que los que estais en casa con papaito y mamaita no reciben al menos algun dinerillo al mes o que??... yo eso no me lo creo. con 4 meses de paguilla se tiene para una tarjeta grafica... :)
En mi caso, o qué. En mi casa nunca se ha estilado lo de las pagas. Aquí si necesitas de verdad algo, tienes que "defender" que realmente lo necesitas y que no es prescindible. De momento la última tarjeta gráfica del mercado me es prescindible, al igual que salir de botellón, ir de discotecas o cualquier tipo de cosas que suele hacer la "gente normal".
Supongo que la renta per cápita no será igual en todas partes. Por aquí el dinero más bien escasea.
No sé por qué venía esto a tema, pero en fin...
estoy en la misma situación que Mars xD yo actualizo el PC para cumpleaños y navidad (Compra del año powa XD), y poco mas :P
Citar
Yo ya sabia que las 3dfx no iban a buen pie...
vaya, ahora va a resultar que eres la pitonisa Lola... yo tengo un libro sobre programación en DirectX de esa época y el autor (que como supondrás no es cualquier chaval de 15 años que lo único que hace es jugar) dice que en un par de años no más, las Voodoo de 3dfx serían un estándar.. Nada es predecible en este mundillo, creo yo.
Hablando del tema nVidia/ATI...creo que la GFfx no será mucho mejor que la Radeon 9700, ¡si es que lo es!. Según lo poco que se ha podido ver, las diferencias de rendimiento son pequeñas y encima, en ocasiones, son a favor de la Radeon9700.
La GFfx tiene un procesador más rápido (fabricado en 0.13 micras) pero la Radeon tiene mayor ancho de banda de memoria. Sí es cierto que en esas primeras pruebas, los drivers de la GFfx no serían todo lo óptimos que se esperan, los de ATI sí que lo son ya que la Radeon9700 lleva en el mercado unos meses ya.
De cualquier forma pensad que GFfx saldrá a la venta para este mes que viene y que en su salida, ATI con su Radeon9700 estará a la par (estando ésta varios meses ya en el mercado). Lo gracioso (para ATI, no para nVidia :jaja:) es que ATI se podría poner claramente por delante de nVidia poco después, cuando saque (parece ser que no mucho tiempo después de la GFfx) su Radeon9900 con un chip fabricado en 0.13 micras (como la GFfx) y aún más ancho de banda de memoria (¿DDR-III?)...
¿Reaccionará a tiempo nVidia? :D
Saludos
La clave no está en las super-tarjetas nuevas, sino en la gama media-media alta.
En gama media-alta ATI no tiene nada del nivel de la gf4ti4200, si mejorara esa gama...
PD: También deberían mejorar sus ayudas a los desarrolladores, mucho mejores los tutoriales de nvidia que los de ATI ;), los drivers ya los han ido mejorando mucho...
sip, el 90% de las tarjetas graficas que se venden en el mundo son de gama media, media-alta (hasta gf4ti 4200 o asi) , las GF FX , Radeon9700 y demás (ahora) las compra poca gente (muxa pasta..).
Si, eso es cierto, el soporte para el desarrollador de nVidia es mucho mejor que el de ATI. Aún así hay cosas bastante interesantes en la web de ATI y también está el SDK de la Radeon9700 que tiene buenos recursos para ir aprendiendo el HLSL de MS y vertex & pixel shaders 2.0 :jaja:
Saludos
de gama-media alta ati tiene la radeon 9500 pro, y de alta la 9700 pro, pero ahora... con el nuevo r350... habran radeones 9800 o 9900, no se.
De lo que puedo estar seguro es que van a ser superiores a las Fx... si las 9700 pro es solo un 5% inferior a una fx... imaginaos...
Precios bajad!! que me pillo una tarjeta dentro de 2 meses!!
Estaban las 3dfx en su pleno auge y yo me compre una tarjeta barata... una tnt2 16 megas... Ati es mas barata que nvidia... asi que como siga asi... sera la reina indiscutible por el momento.
La mejor epoca para comprar hardware es entre marzo-junio... lo de navidades, reyes y tal es un timo...
esa fecha no es del todo buena, porque para junio se acaban las clases y los papaítos suelen comprar cosas a sus hijitos y estos pos piden cosas para el PC, es decir, es un periodo de compras. No tan bestia como Navidad, evidentemente. Leí una vez en un artículo que hablaba sobre esto, cual es el mejor periodo para comprar hardware, y decía que era finales de septiembre-principios de octubre. Porque entre verano que es todo fiesta y navidades queda ese vacío y tienen que bajar precios para vender más. No se, yo compro cuando tengo dinero (octubre cumpleaños y enero-febrero por navidad/reyes) XDD