¿Donde hay *SP8* Jugando?....
Conectarse
¿Quién está en línea?
En total hay 3 usuarios en línea: 0 Registrados, 0 Ocultos y 3 Invitados Ninguno
El record de usuarios en línea fue de 54 durante el Miér 31 Jul 2019 - 12:50
Battlefield 3 BETA - CONFIGURACIONES
+3
ibizabx
tur0
AreTheMoment
7 participantes
Página 1 de 2.
Página 1 de 2. • 1, 2
Battlefield 3 BETA - CONFIGURACIONES
Añado este post para compartie entre todos las configuraciones que usamos, nivel de brillo, detalle grafico, conf. de botones, lo que sea que nos ayude a todos a sacar el 100% del juego.... hasta donde cada uno pueda claro :-)
AreTheMoment- WebMaster
Re: Battlefield 3 BETA - CONFIGURACIONES
yo aunque me tira todo en alto y guay, lo tengo todo en bajo y como debe ser va de lujo, salvo como le dije al koji el cabeceo jajajajja eso si que es un problema.
tur0
Re: Battlefield 3 BETA - CONFIGURACIONES
a mi se me ve tipo al bf2, jejejje. juego con conf. auto. la pena es que fijo tengo que comprar una grafica nueva... ains...
ibizabx- RRPP de féminas
Re: Battlefield 3 BETA - CONFIGURACIONES
Dani tu lo que necesitas es unas gafas IGUAL QUE EL B2 es que es que........
flextorviolence
Re: Battlefield 3 BETA - CONFIGURACIONES
era una forma de hablar!!! se me ve mas guay el bc2 pero claro, mi grafica con el va bien, con el bf3 como que no...
q cojo la gtx550 o la gtx560?
q cojo la gtx550 o la gtx560?
ibizabx- RRPP de féminas
Re: Battlefield 3 BETA - CONFIGURACIONES
QUE EMPERRAURA CON LAS NVIDIAS Y POR QUE NO UNA ATI DE LA SERIE 68XX QUE ES MAS POTENTE Y MEJOR DE PRECIO .
AHORA ME SALDRA EL ELFO QUE UNA GT520 SE COME A UNA 6850 XDXDXDXDXDXDXD QUE POR CIERTO ¿¿¿¿ESTE DONDE ESTARA METIDO???
AHORA ME SALDRA EL ELFO QUE UNA GT520 SE COME A UNA 6850 XDXDXDXDXDXDXD QUE POR CIERTO ¿¿¿¿ESTE DONDE ESTARA METIDO???
flextorviolence
Re: Battlefield 3 BETA - CONFIGURACIONES
configuraciones?¿ si no se puede cambiar ni los botones XDDD... va a molar en el juego juego...
Yo no toque nada desde q el antuan vino hasta a casa... y va de lujo... aver si cuando regrese a casa subimos algun video...
Ya ireis por nivel 25 o mas cabrones viciaos... q por cieerto desde el jueves estare por madrid... a ver si se puede kedar o ke...
Yo no toque nada desde q el antuan vino hasta a casa... y va de lujo... aver si cuando regrese a casa subimos algun video...
Ya ireis por nivel 25 o mas cabrones viciaos... q por cieerto desde el jueves estare por madrid... a ver si se puede kedar o ke...
MARKOOPC
Re: Battlefield 3 BETA - CONFIGURACIONES
si coño, en el nivel 2 pal 3 estoy aun... jijij
ibizabx- RRPP de féminas
Re: Battlefield 3 BETA - CONFIGURACIONES
Saludos,
Ibiza, la 560 pero sin TI, si no tienes opcion la 550 TI te dara resultado pero a resoluciones medianas, si trabajas con resoluciones altas tendras que rebuscar y encontrar la 560. Sobre todo sin TI.
ATI : voy aclarar varios conceptos para entender por que siempre a nivel de desarrollo para videojuegos predomina Nvidia y por que actualmente Nvidia tiene el patner con Microsoft, etc....
Algunos habreis observado que en bf3 en la beta las armas y algunos otros objetos desaparecen o parpadean de forma extraña, entre otras cosas es por que la beta en realidad esta capada de forma expresa para que no pirateen el cliente final del mismo juego, lo que realmente se testea es la estabilidad del mismo y de los servidores y control de punkbuster etc...
Pero si observais con estos detalles graficos con Nvidia no fallan, esto es a causa de que ATI solo puede procesar un numero bajo de capas simultaneas y cuando se superan simplemente el grafico desaparece o el cliente peta. Lo solucionaran? claro que si, sin embargo en nvidia disfrutaremos de una calidad grafica mayor en muchos aspectos tecnicos y el añadido del Physix. Aun asi cabe destacar algunas cosas de ATI, su bajo consumo, y su capacidad de menos necesidad de velocidad por GPUS para tirar con los videojuegos, sin embargo señalo que esto es debido a que simplemente procesa menos capas. Nvidia la parte negativa es su alto consumo y sus temperaturas, aun que cabe destacar que con las gpus de la serie 5xxx se ha mejorado mucho en este aspecto.
Como comenta Felix hay ATIs de la serie 6xxx etc.. que son mas economicas y parecen mover mejor los juegos en algunos aspectos, sin embargo nos limitamos a un minimo de capas y perdida de las mismas, y en algunos casos el physix que practicamente todos los juegos en desarrollo ya lo aprobechan.
Cual escoger? si es a nivel de trabajo con texturas y renderizados Nvidia da mejor resultado, si es a nivel de portabilidad ATI menos consumo y bajas temperaturas, si es en relacion calidad Pantone etc... Nvidia a introducido en todas sus graficas orientadas a Gamers la correccion de colores, etc... pero Ati en ese apartado tampoco esta muy lejos. A nivel de juegos? pues depende a lo que vayamos a jugar, si es a juegos de ultima tecnologia yo personalmente recomiendo Nvidia simplemente por que el mismo desarrollo de los mismos va orientado a GPUS NVidia y por sus calidades en relacion CUDA, Physix, etc... pero ATI? pues tampoco se queda atras para jugar, pero siempre es modo "compatible" . La decicion final siempre es a decision de cada uno, como señala felix muchas veces, Nvidia ha cometido errores muchas veces pero ATI tambien.
un saludo
p.d. me mudado y hasta hoy no he tenido net, pero igualmente no creo que entre al ts, cualquier cosa msn o agregarme a la lista de amigos en bf3.
ACL
Ibiza, la 560 pero sin TI, si no tienes opcion la 550 TI te dara resultado pero a resoluciones medianas, si trabajas con resoluciones altas tendras que rebuscar y encontrar la 560. Sobre todo sin TI.
ATI : voy aclarar varios conceptos para entender por que siempre a nivel de desarrollo para videojuegos predomina Nvidia y por que actualmente Nvidia tiene el patner con Microsoft, etc....
Algunos habreis observado que en bf3 en la beta las armas y algunos otros objetos desaparecen o parpadean de forma extraña, entre otras cosas es por que la beta en realidad esta capada de forma expresa para que no pirateen el cliente final del mismo juego, lo que realmente se testea es la estabilidad del mismo y de los servidores y control de punkbuster etc...
Pero si observais con estos detalles graficos con Nvidia no fallan, esto es a causa de que ATI solo puede procesar un numero bajo de capas simultaneas y cuando se superan simplemente el grafico desaparece o el cliente peta. Lo solucionaran? claro que si, sin embargo en nvidia disfrutaremos de una calidad grafica mayor en muchos aspectos tecnicos y el añadido del Physix. Aun asi cabe destacar algunas cosas de ATI, su bajo consumo, y su capacidad de menos necesidad de velocidad por GPUS para tirar con los videojuegos, sin embargo señalo que esto es debido a que simplemente procesa menos capas. Nvidia la parte negativa es su alto consumo y sus temperaturas, aun que cabe destacar que con las gpus de la serie 5xxx se ha mejorado mucho en este aspecto.
Como comenta Felix hay ATIs de la serie 6xxx etc.. que son mas economicas y parecen mover mejor los juegos en algunos aspectos, sin embargo nos limitamos a un minimo de capas y perdida de las mismas, y en algunos casos el physix que practicamente todos los juegos en desarrollo ya lo aprobechan.
Cual escoger? si es a nivel de trabajo con texturas y renderizados Nvidia da mejor resultado, si es a nivel de portabilidad ATI menos consumo y bajas temperaturas, si es en relacion calidad Pantone etc... Nvidia a introducido en todas sus graficas orientadas a Gamers la correccion de colores, etc... pero Ati en ese apartado tampoco esta muy lejos. A nivel de juegos? pues depende a lo que vayamos a jugar, si es a juegos de ultima tecnologia yo personalmente recomiendo Nvidia simplemente por que el mismo desarrollo de los mismos va orientado a GPUS NVidia y por sus calidades en relacion CUDA, Physix, etc... pero ATI? pues tampoco se queda atras para jugar, pero siempre es modo "compatible" . La decicion final siempre es a decision de cada uno, como señala felix muchas veces, Nvidia ha cometido errores muchas veces pero ATI tambien.
un saludo
p.d. me mudado y hasta hoy no he tenido net, pero igualmente no creo que entre al ts, cualquier cosa msn o agregarme a la lista de amigos en bf3.
ACL
ACL
Re: Battlefield 3 BETA - CONFIGURACIONES
porq la ti no??
y por cierto, de q marcas?? gracias...
y por cierto, de q marcas?? gracias...
ibizabx- RRPP de féminas
Re: Battlefield 3 BETA - CONFIGURACIONES
La ati no??? quien lo dijo!!! vas a hacer edicion de video o alguna chorrada de esas ??? pillate una ati que para juegos es la puta bomba y lo demas cuento le da un repaso a las nvidia a mitad de precio y el que lo niege es que esta ciego acabo de hacer un equipo a un colega con una ati y por el precio de un nvidia casi que monto el equipo completo.
Para jugar SIN DUDA ATI y hablo por que lo se con las graficas no escatimo pero despues de un sli 8800 y una 456 NUNCA MAS que le den a nvidia su sli su physics su 3d y la madre que la pario pillate una ati de gama media alta y a correr tienes MAS de lo que te da nvidia para juegos te lo aseguro y yo hablo por que las uso no una grafica 450 ni una 250 que cualquiera de la gama media de ati le da un repaso en cuanto a lo que dice elfo de que se come las capas.
Elfo te has quedao en los chips Kyro II de hercules JAJAJAJAJ esos si hacian eso (por cierto hubieran dado batalla si no fuera por que no tenian T&L ), Nvidia busca mercado diferenciandose pero le estan dando por todos lo lados solo tienes que ver el 3d y repito yo hablo por que lo tengo no por que me lo cuenten te compras una tele 3d y OSTIAS FUNCIONA CON ATI TAMBIEN mira tu que cosas. Lo unico el Cuda , la fisica digamos que para lo que utilizan la fisica los juegos lo hace perfectamente los micros de hoy en dia sin problemas, de echo cuanto ejecutas un juego yo obligo a que utilice el procesador no la grafica.
Existe un dicho que dice asi SABIO DE MUCHO APRENDIZ DE TODO ..............
Para jugar SIN DUDA ATI y hablo por que lo se con las graficas no escatimo pero despues de un sli 8800 y una 456 NUNCA MAS que le den a nvidia su sli su physics su 3d y la madre que la pario pillate una ati de gama media alta y a correr tienes MAS de lo que te da nvidia para juegos te lo aseguro y yo hablo por que las uso no una grafica 450 ni una 250 que cualquiera de la gama media de ati le da un repaso en cuanto a lo que dice elfo de que se come las capas.
Elfo te has quedao en los chips Kyro II de hercules JAJAJAJAJ esos si hacian eso (por cierto hubieran dado batalla si no fuera por que no tenian T&L ), Nvidia busca mercado diferenciandose pero le estan dando por todos lo lados solo tienes que ver el 3d y repito yo hablo por que lo tengo no por que me lo cuenten te compras una tele 3d y OSTIAS FUNCIONA CON ATI TAMBIEN mira tu que cosas. Lo unico el Cuda , la fisica digamos que para lo que utilizan la fisica los juegos lo hace perfectamente los micros de hoy en dia sin problemas, de echo cuanto ejecutas un juego yo obligo a que utilice el procesador no la grafica.
Existe un dicho que dice asi SABIO DE MUCHO APRENDIZ DE TODO ..............
flextorviolence
Re: Battlefield 3 BETA - CONFIGURACIONES
AAAAA se me ovidaba los bugs son para todos para ati y para nvidia que yo probe la beta con nvidia y con ati y los mismos errores asi que........probarlo primero y digo probarlo por vosotros mismos que muchas paginas, blogs,.... etc estan mas que comprados probarlos vosotros mismos, por un amigo, pariente lo que sea pero probarlo y luego me comentais no me vale el me dijo pepito dijo manolito yo hablo desde la realidad. Quien manda hoy que es el dinero por precio prestaciones ATI lo demas si no teneis un retrete pues vale sois libres JAJAJJAJAJAJAJAJJAJAJAJAJJA.
flextorviolence
Re: Battlefield 3 BETA - CONFIGURACIONES
Saludos a todos!
Ibiza, la ideal es la GTX 560 por que la gpu es mas rapida, pero la 560 TI por los datos que me han enviado los de Dice tb te sirve por que la tasa de relleno es mas grande, en relacion a la marca yo siempre recomiendo point of view, Pny esta tambien muy bien su arquitectura y seria una excelente opcion, pero lo que encuentres te ira bien, ten encuenta que cada 2 años maximo cambiaras la grafica.
Felix, yo estoy actualmente trabajando con max studio 3d 2012 y tengo problemas con todas las ATI's. Por otro lado cabe destacar el Patner de Microsoft de 2011 y 2012 lo acaba de volver a ganar Nvidia y ya hay parches para el SO Win7 que aprobecha el cuda para protocolos. En relacion a las capas, es bien sabido que Ati tiene gpus mas bajas de frecuencia con otras instrucciones compatibles con opengl, etc... y que pueden tirar de juegos donde Nvidia pide mas frecuencia de GPU y evidentemente calor, pero eso es a causa de las capas simultaneas que es capaz de ejecutar cada grafica y Nvidia es bastante mas superior en ese aspecto. En relacion al pyshix si que hay la posibilidad de que la cpu lo procese como alternativa a no tener grafica Nvidia o una misma sin chip pyshix, sin embargo eso mismo relentiza y ocupa nucleos del mismo procesador por no hablar que el calculo no es exacto y solo hace aproximaciones a costa de mas relojes internos, donde a su vez advierto, hay ya una extensa lista de juegos que aprobechan pyshix pero a un nivel bajo, es cuestion de muy poco tiempo que veamos cosas que requieran un calculo agresivo.
Asunto 3D, como dije en su momento todo esta por ver, el mas efectivo es Nvidia el cual aplicado Asus, Samsung, etc... sin embargo hay versiones mas economicas donde debo remarcar se aprecia mucho el parpadeo de pantalla, me dedicado bastantes meses a probar y probar monitores y sistemas 3D, por ahora en lo que es activo Nvidia es el mas efectivo. Eso si, si me preguntas cual me compraria, yo me compraria el Pasivo de LG, es mas caro pero es el que mas efecto de 3D da y no profundidad como en la mayoria. (es decir mas efectiva es la sensacion de que sale de la pantalla las cosas y mas baratas son las gafas para que se puedan tener 20 xd y no parpadea como los sistemas economicos)
Aun asi como ya señale antes, Ati tiene sus cosas buenas y Nvidia sus cosas malas, yo personalmente por ahora tal como estan las marcas me quedo con Nvidia, pero eso no significa que el dia de mañana no cambie, todo es en relacion calidad, funcionamiento, versatilidad, velocidad, etc...
Antes de que se me olvide, relacion precio. Muchas veces lo he explicado y veo que debo seguir, las graficas mas caras en Nvidia no significa que sean mejores, son mas caras por que se preparan para buses enormes para la gente que overclea, pero las gpus son mas lentas que las "medias". Cada grafica tiene su funcion, las Nvidia de gama baja son las x40, x20, etc.. que van orientadas a multimedia. Es decir, una 550 es mas rapida que una 580, y la 550 vale 100€, y la 580 rondara los 400 euros o mas... por que?
Pues por que la 580 tiene un bus de transferencia de placa a cpu enorme para usuarios que overclean una maquina, de forma que no tengan un cuello de botella en la Grafica. Pero si pinchas en una misma placa sin overclear una 580 y la testeas y luego una 550 y la testeas, os dareis cuenta que es mas rapida la 550.
Por que a Ibiza le recomiendo la 560? pues por la tasa de relleno, la GPu es mas lenta que la 550 pero la tasa de relleno es el doble, en que se traduce eso? en resolucion. Si tu juegas a HD una 550 te ira sobradamente y a maxima calidad, pero si juegas a resoluciones mas grandes como un Full HD o mas la 560 te respondera mejor, pero sacrificas velocidad de gpu, eso se traduce que si usas Cuda la 550 es mas rapida, si renderizas y haces calculo la 550 es mas rapida, etc.. todo depende del uso, pero en este caso en Battlefield 3 y teniendo en cuenta que Ibiza debe jugar en Full HD le respondera sobradamente para jugar a full la 560. (el precio de una 560 es de unos 150€ aproximadamente). Por otro lado como digo continuamente cada uno o dos años salen graficas nuevas y mejores etc... y invertir 100 o 150 euros para ir mejorando es reentable. Adquirir una grafica 580,590, etc... no sirve de nada si no es para overclear, y repito, cada GPU tiene sus utilidades concretas, instrucciones concretas, etc... y eso hay que tenerlo siempre muy presente a la hora de escoger una Grafica, nunca hay que escoger una grafica por pensar tener la mas "pepina" hay que escogerla en relacion al uso que se le va a dar.
P.d. Yo tengo en el portatil una ATI, ¿por que? por que necesito bajo consumo para autonomia y que mas o menos tire todo aun que sea limitando las capas. Sin embargo cuando tengo que crear .obj me cago en todo xD y siempre tengo que parchear para que la Ati sea "compatible" por que le faltan instrucciones a la GPU. Pero claro tengo entre 5 y 7 horas de autonomia con la bateria y puedo presentar proyectos, webs, etc.. a los clientes, realizar analisis de seguridad, testear directivas de seguridad de servidores, etc.. etc.. Si tubiera una Nvidia a nivel de ocio disfrutaria mas, pero reduciria la autonomia a 1 o 2 horas. etc.. etc.... Como siempre digo, cada GPU tiene sus cualidades y sus utilidades y sus defectos xd, hay que decidir en relacion al uso que se le va a dar al equipo. etc.. etc.. (lo mismo sucede con las CPUS, Chipsets, etc... etc...)
un saludo
ACL
Ibiza, la ideal es la GTX 560 por que la gpu es mas rapida, pero la 560 TI por los datos que me han enviado los de Dice tb te sirve por que la tasa de relleno es mas grande, en relacion a la marca yo siempre recomiendo point of view, Pny esta tambien muy bien su arquitectura y seria una excelente opcion, pero lo que encuentres te ira bien, ten encuenta que cada 2 años maximo cambiaras la grafica.
Felix, yo estoy actualmente trabajando con max studio 3d 2012 y tengo problemas con todas las ATI's. Por otro lado cabe destacar el Patner de Microsoft de 2011 y 2012 lo acaba de volver a ganar Nvidia y ya hay parches para el SO Win7 que aprobecha el cuda para protocolos. En relacion a las capas, es bien sabido que Ati tiene gpus mas bajas de frecuencia con otras instrucciones compatibles con opengl, etc... y que pueden tirar de juegos donde Nvidia pide mas frecuencia de GPU y evidentemente calor, pero eso es a causa de las capas simultaneas que es capaz de ejecutar cada grafica y Nvidia es bastante mas superior en ese aspecto. En relacion al pyshix si que hay la posibilidad de que la cpu lo procese como alternativa a no tener grafica Nvidia o una misma sin chip pyshix, sin embargo eso mismo relentiza y ocupa nucleos del mismo procesador por no hablar que el calculo no es exacto y solo hace aproximaciones a costa de mas relojes internos, donde a su vez advierto, hay ya una extensa lista de juegos que aprobechan pyshix pero a un nivel bajo, es cuestion de muy poco tiempo que veamos cosas que requieran un calculo agresivo.
Asunto 3D, como dije en su momento todo esta por ver, el mas efectivo es Nvidia el cual aplicado Asus, Samsung, etc... sin embargo hay versiones mas economicas donde debo remarcar se aprecia mucho el parpadeo de pantalla, me dedicado bastantes meses a probar y probar monitores y sistemas 3D, por ahora en lo que es activo Nvidia es el mas efectivo. Eso si, si me preguntas cual me compraria, yo me compraria el Pasivo de LG, es mas caro pero es el que mas efecto de 3D da y no profundidad como en la mayoria. (es decir mas efectiva es la sensacion de que sale de la pantalla las cosas y mas baratas son las gafas para que se puedan tener 20 xd y no parpadea como los sistemas economicos)
Aun asi como ya señale antes, Ati tiene sus cosas buenas y Nvidia sus cosas malas, yo personalmente por ahora tal como estan las marcas me quedo con Nvidia, pero eso no significa que el dia de mañana no cambie, todo es en relacion calidad, funcionamiento, versatilidad, velocidad, etc...
Antes de que se me olvide, relacion precio. Muchas veces lo he explicado y veo que debo seguir, las graficas mas caras en Nvidia no significa que sean mejores, son mas caras por que se preparan para buses enormes para la gente que overclea, pero las gpus son mas lentas que las "medias". Cada grafica tiene su funcion, las Nvidia de gama baja son las x40, x20, etc.. que van orientadas a multimedia. Es decir, una 550 es mas rapida que una 580, y la 550 vale 100€, y la 580 rondara los 400 euros o mas... por que?
Pues por que la 580 tiene un bus de transferencia de placa a cpu enorme para usuarios que overclean una maquina, de forma que no tengan un cuello de botella en la Grafica. Pero si pinchas en una misma placa sin overclear una 580 y la testeas y luego una 550 y la testeas, os dareis cuenta que es mas rapida la 550.
Por que a Ibiza le recomiendo la 560? pues por la tasa de relleno, la GPu es mas lenta que la 550 pero la tasa de relleno es el doble, en que se traduce eso? en resolucion. Si tu juegas a HD una 550 te ira sobradamente y a maxima calidad, pero si juegas a resoluciones mas grandes como un Full HD o mas la 560 te respondera mejor, pero sacrificas velocidad de gpu, eso se traduce que si usas Cuda la 550 es mas rapida, si renderizas y haces calculo la 550 es mas rapida, etc.. todo depende del uso, pero en este caso en Battlefield 3 y teniendo en cuenta que Ibiza debe jugar en Full HD le respondera sobradamente para jugar a full la 560. (el precio de una 560 es de unos 150€ aproximadamente). Por otro lado como digo continuamente cada uno o dos años salen graficas nuevas y mejores etc... y invertir 100 o 150 euros para ir mejorando es reentable. Adquirir una grafica 580,590, etc... no sirve de nada si no es para overclear, y repito, cada GPU tiene sus utilidades concretas, instrucciones concretas, etc... y eso hay que tenerlo siempre muy presente a la hora de escoger una Grafica, nunca hay que escoger una grafica por pensar tener la mas "pepina" hay que escogerla en relacion al uso que se le va a dar.
P.d. Yo tengo en el portatil una ATI, ¿por que? por que necesito bajo consumo para autonomia y que mas o menos tire todo aun que sea limitando las capas. Sin embargo cuando tengo que crear .obj me cago en todo xD y siempre tengo que parchear para que la Ati sea "compatible" por que le faltan instrucciones a la GPU. Pero claro tengo entre 5 y 7 horas de autonomia con la bateria y puedo presentar proyectos, webs, etc.. a los clientes, realizar analisis de seguridad, testear directivas de seguridad de servidores, etc.. etc.. Si tubiera una Nvidia a nivel de ocio disfrutaria mas, pero reduciria la autonomia a 1 o 2 horas. etc.. etc.... Como siempre digo, cada GPU tiene sus cualidades y sus utilidades y sus defectos xd, hay que decidir en relacion al uso que se le va a dar al equipo. etc.. etc.. (lo mismo sucede con las CPUS, Chipsets, etc... etc...)
un saludo
ACL
ACL
Re: Battlefield 3 BETA - CONFIGURACIONES
uis se me olvidaba,
En relacion a los bugs Graficos de la beta, es por que esta capada, sin embargo hay bugs reales que Dice ha publicado y te daras cuenta que va en relacion a lo de siempre, problemas con las capas con ATI. Teoricamente lo habran solucionado ya? ahora en unas horas lo sabre xD Pero ten presente una cosa, Dice, etc.. etc.. diseñan los juegos para las empresas que tienen los patner, es decir, cpu Intel, Grafica Nvidia, Memorias Microm, Placas intel. (en su misma web podras apreciar el logo de Nvidia) Las demas graficas funcionan en modo "compatible". Aun asi quiero pensar que algun juego que se haga para ATI y la aprobeche de verdad debe ser chulo de ver y me gustaria poder testearlo... um (creo que voy a buscar alguno para probar y testear)
un saludo!
ACL
En relacion a los bugs Graficos de la beta, es por que esta capada, sin embargo hay bugs reales que Dice ha publicado y te daras cuenta que va en relacion a lo de siempre, problemas con las capas con ATI. Teoricamente lo habran solucionado ya? ahora en unas horas lo sabre xD Pero ten presente una cosa, Dice, etc.. etc.. diseñan los juegos para las empresas que tienen los patner, es decir, cpu Intel, Grafica Nvidia, Memorias Microm, Placas intel. (en su misma web podras apreciar el logo de Nvidia) Las demas graficas funcionan en modo "compatible". Aun asi quiero pensar que algun juego que se haga para ATI y la aprobeche de verdad debe ser chulo de ver y me gustaria poder testearlo... um (creo que voy a buscar alguno para probar y testear)
un saludo!
ACL
ACL
Re: Battlefield 3 BETA - CONFIGURACIONES
Elfo que una compañia no va a hacer un juego exclusivo para graficas Nvidia por que mas del 50% de los jugadores de pc NO SE LO COMPRAN jajajajja una cosa es que les haga publicidad y otra muy diferente es que desarrollen en exclusiva para Nvidia me acuerdo del mejor con un pentiun INSIDE y menuda mierda el Pentiun o me vas a decir que era mejor que el Athlon .......¿¿aun lo dudas??? JAJAJAJAJAJJA
flextorviolence
Re: Battlefield 3 BETA - CONFIGURACIONES
La palabra MARKETING que daño hace si fuese al reves aunque AMD sacara mierda la comprariamos igual MARKETING maldita palabra cuantas joyas tecnologicas se han perdido por no saber usarla quedate grabado esto M A R K E T I N G
flextorviolence
Re: Battlefield 3 BETA - CONFIGURACIONES
en la pagina de point of view encontre esto:
http://www.pointofview-online.com/showroom.php?shop_mode=product_detail&product_id=277
es la gtx 560n de 2048 mb en memoria de video. es eso cierto?? o es error tipografico?
:p
http://www.pointofview-online.com/showroom.php?shop_mode=product_detail&product_id=277
es la gtx 560n de 2048 mb en memoria de video. es eso cierto?? o es error tipografico?
:p
ibizabx- RRPP de féminas
Re: Battlefield 3 BETA - CONFIGURACIONES
Saludos
Ibiza lo que he visto de la N no te conviene nada xD Busca la GTX 560 a secas, pero si no la encuentras la GTX 560 TI tambien te sirve.
Felix, los motores graficos se diseñan en relacion a el tipo de GPU's y lo habitual es tener un equipo con el que lo desarrollas etc... en este caso el que tengan el logo de Nvidia no es Marketing unicamente, te estan indicando que el desarrollo se ha realizado con GPU's Nvidia, y que ellos una vez finalizado ese producto concretan que en Nvidia funciona 100%, pero como tambien les interesa abarcar mercado realizan ajustes "compatibles" para las demas GPU's, a su vez ATI y demas compañias incluso Nvidia reciben datos del desarrollo por si detectan bugs en los mismos drivers de las targetas, etc.. etc...
En relacion a la epoca de Pentium, debo volverte hacer memoria, yo tube (Spectrum, Atari, etc... pc desde 286 parra arriba) varios Pentium 2, y salte a AMD K6 2, por que en aquella epoca Intel fue acusada de monopolio y cedio los planos de su CPU a una compañia la cual parcialmente les pertenece, de esta forma Microsoft & Intel (Bili Gates) evito lo que se le caia encima. Durante los año siguientes Intel se vio atascado por la obsesion de su director Tecnico de procesadores de sobremesa en construir un monoprocesador mas rapido, lo que probocaba que hubieran muchos problemas de temperatura, pero las instrucciones no se mejoraban. Sin embargo AMD si, añadiendo 3dNow, etc.... lo que le hizo ser superior a intel a excepcion de softwares muy concretos. Esto duro unos 3 años aproximadamente, hasta que un chaval joven del departamento de procesadores de portatil se le ocurrio la idea de juntar dos procesadores de portatil en una misma tableta, y bingo el resultado fue 60% mas rapido y eficaz que incluso el prototipo del Pentium V. El director general de Intel "jubilo" al director de procesadores de sobremesa y puso en cabeza a este chaval por su brillante idea, fusionando a su vez el departamento de procesadores de portatil y sobremesa, asi aparecio el core duo, y desde entonces si te fijas las cpus de portatil y las de sobremesa tienen exactamente las mismas instrucciones, cosa que antes no sucedia. AMD no pudo desarrollar hasta despues de casi 1 año su primer multinucleo y aun asi no tubo el resultado esperado, etc.. etc... solo has de fijarte que cuando hablamos de Sistema operativo sobre un AMD lo llaman tecnicamente procesador "compatible" y da muchos problemas a causa de las instrucciones, por eso en muchos juegos cuando se habla de usar un equipo con AMD se pide un requisito de una cpu con una frecuencia mas elevada, etc.. etc.. por tema de calculo, etc.. etc... es largo largo... xD y lo explicado bastantes veces xD
es lo mismo que con ATI, yo tube cuando empezaron a salir las primeras aceleradoras la primera Vodoo, luego una Banshee, luego una ATI y me encantaba y te aseguro que mucho mas que las Riva TNT, etc.. salio Vodoo 2 que arraso, salio Vodoo 3 y pincho fue un desastre, volvi a ATI, pero Nvidia aqui empezo apretar y Ati pues empezo a fallar mucho.. sobre todo por las capas, recuerdo un juego "Star Wars amenaza Fantasma" que con la ATI los muros de los tuneles de la ciudad de los gungans no eran transparentes y era imposible jugar, me compre una Nvidia la 440 TI y joer.... que cambio, el juego se veia como se tenia que ver y eso es debido a las capas y que el desarrollo de ese juego fue sobre Nvidia, y creeme nunca sacaron un parche para solucionarlo, etc.. etc.. he probado el sistema Cross de ATI, el de NVidia, etc.. etc... etc... tambien muy largo... xD y muchos años xD
Por lo que yo por ahora, Intel, Nvidia, etc... y cuando monto un equipo Gamer, ProGamer, etc... es lo que manda por ahora, pero siempre en relacion al uso que se le da al equipo. El dia de mañana todo se vera, como tu señalabas estan los "hArn", a pesar de que no tengan instrucciones quien te dice que no desarrollan instrucciones nuevas y android se desarrolla mucho mas, etc.. etc.. a saber como tiran las cosas, pero en la actualidad estan asi. etc.. etc... y ATi pega duro para competir con Nvidia y Nvidia pega tambien duro para no dejarse adelantar, etc... Nvidia ya ha pinchado dos veces con dos gpus, pero aun asi sigue desarrollando y sigue ganando patners y sigue estando hay... pero como he dicho.. a saber el dia de mañana, hoy es hoy.
un saludo!
ACL
Ibiza lo que he visto de la N no te conviene nada xD Busca la GTX 560 a secas, pero si no la encuentras la GTX 560 TI tambien te sirve.
Felix, los motores graficos se diseñan en relacion a el tipo de GPU's y lo habitual es tener un equipo con el que lo desarrollas etc... en este caso el que tengan el logo de Nvidia no es Marketing unicamente, te estan indicando que el desarrollo se ha realizado con GPU's Nvidia, y que ellos una vez finalizado ese producto concretan que en Nvidia funciona 100%, pero como tambien les interesa abarcar mercado realizan ajustes "compatibles" para las demas GPU's, a su vez ATI y demas compañias incluso Nvidia reciben datos del desarrollo por si detectan bugs en los mismos drivers de las targetas, etc.. etc...
En relacion a la epoca de Pentium, debo volverte hacer memoria, yo tube (Spectrum, Atari, etc... pc desde 286 parra arriba) varios Pentium 2, y salte a AMD K6 2, por que en aquella epoca Intel fue acusada de monopolio y cedio los planos de su CPU a una compañia la cual parcialmente les pertenece, de esta forma Microsoft & Intel (Bili Gates) evito lo que se le caia encima. Durante los año siguientes Intel se vio atascado por la obsesion de su director Tecnico de procesadores de sobremesa en construir un monoprocesador mas rapido, lo que probocaba que hubieran muchos problemas de temperatura, pero las instrucciones no se mejoraban. Sin embargo AMD si, añadiendo 3dNow, etc.... lo que le hizo ser superior a intel a excepcion de softwares muy concretos. Esto duro unos 3 años aproximadamente, hasta que un chaval joven del departamento de procesadores de portatil se le ocurrio la idea de juntar dos procesadores de portatil en una misma tableta, y bingo el resultado fue 60% mas rapido y eficaz que incluso el prototipo del Pentium V. El director general de Intel "jubilo" al director de procesadores de sobremesa y puso en cabeza a este chaval por su brillante idea, fusionando a su vez el departamento de procesadores de portatil y sobremesa, asi aparecio el core duo, y desde entonces si te fijas las cpus de portatil y las de sobremesa tienen exactamente las mismas instrucciones, cosa que antes no sucedia. AMD no pudo desarrollar hasta despues de casi 1 año su primer multinucleo y aun asi no tubo el resultado esperado, etc.. etc... solo has de fijarte que cuando hablamos de Sistema operativo sobre un AMD lo llaman tecnicamente procesador "compatible" y da muchos problemas a causa de las instrucciones, por eso en muchos juegos cuando se habla de usar un equipo con AMD se pide un requisito de una cpu con una frecuencia mas elevada, etc.. etc.. por tema de calculo, etc.. etc... es largo largo... xD y lo explicado bastantes veces xD
es lo mismo que con ATI, yo tube cuando empezaron a salir las primeras aceleradoras la primera Vodoo, luego una Banshee, luego una ATI y me encantaba y te aseguro que mucho mas que las Riva TNT, etc.. salio Vodoo 2 que arraso, salio Vodoo 3 y pincho fue un desastre, volvi a ATI, pero Nvidia aqui empezo apretar y Ati pues empezo a fallar mucho.. sobre todo por las capas, recuerdo un juego "Star Wars amenaza Fantasma" que con la ATI los muros de los tuneles de la ciudad de los gungans no eran transparentes y era imposible jugar, me compre una Nvidia la 440 TI y joer.... que cambio, el juego se veia como se tenia que ver y eso es debido a las capas y que el desarrollo de ese juego fue sobre Nvidia, y creeme nunca sacaron un parche para solucionarlo, etc.. etc.. he probado el sistema Cross de ATI, el de NVidia, etc.. etc... etc... tambien muy largo... xD y muchos años xD
Por lo que yo por ahora, Intel, Nvidia, etc... y cuando monto un equipo Gamer, ProGamer, etc... es lo que manda por ahora, pero siempre en relacion al uso que se le da al equipo. El dia de mañana todo se vera, como tu señalabas estan los "hArn", a pesar de que no tengan instrucciones quien te dice que no desarrollan instrucciones nuevas y android se desarrolla mucho mas, etc.. etc.. a saber como tiran las cosas, pero en la actualidad estan asi. etc.. etc... y ATi pega duro para competir con Nvidia y Nvidia pega tambien duro para no dejarse adelantar, etc... Nvidia ya ha pinchado dos veces con dos gpus, pero aun asi sigue desarrollando y sigue ganando patners y sigue estando hay... pero como he dicho.. a saber el dia de mañana, hoy es hoy.
un saludo!
ACL
ACL
Re: Battlefield 3 BETA - CONFIGURACIONES
Elfo te tengo que corregir en varias cositas primero el k6 2 ya le daba un repasito a los petium 2 no solo en precio, luego esta el tema de la operacion martillo de AMD que literalemente borro del mapa a los pentium IV luego las instrucciones de 64 bits que AMD implemento muy bien en sus procesadores con gran exito luego y aqui es donde mas te equivocas saco los primeros Athlon 64 x 2 en el año 2003 e Intel hizo lo suyoen 2006 con un procesador que igual no quieres mencionar por que la verdad fue un fiasco enorme el Pentiun D ¿te suena? no??? no me estraña nada AMD fue la primera en sacar procesadores de 2 nucleos eso no es discutible Bibliografia:
http://www.gestiopolis.com/administracion-estrategia/inter-vs-amd-guerra-del-procesador.htm
Aqui tienes el dato y toda la biografia del tema A LOS ECHOS ME REMITO XDXDXDXDXD
http://www.gestiopolis.com/administracion-estrategia/inter-vs-amd-guerra-del-procesador.htm
Aqui tienes el dato y toda la biografia del tema A LOS ECHOS ME REMITO XDXDXDXDXD
flextorviolence
Re: Battlefield 3 BETA - CONFIGURACIONES
Tecnología de doble núcleo
Sin duda algo que ha revolucionado los procesadores es la llamada tecnología de doble núcleo, la cual no es otra cosa que tener dos núcleos de ejecución en el mismo chip, optimizando el rendimiento de forma notable, nótese la diferencia con la tecnología HT, en este caso se tienes dos núcleos reales, no solo una simulación.
Aunque son muchos los detalles que caracterizan esta nueva micro-arquitectura, hay dos claros rasgos que han guiado el diseño de la misma: ahorro energético y rendimiento. Estas dos características parecen erigirse como los dos aspectos clave que están guiando la lucha entre Intel y AMD.
Tal y como apunta Antonino Albarrán, director de tecnología de Intel Iberia, “tenemos dos objetivos: conseguir el máximo rendimiento y ser lo más eficientes en cuanto al ahorro energético, lo que quiere decir que el rendimiento por vatio debe ser el mayor posible, con bajo consumo y baja disipación”.
Para ambientes que requieren de múltiples tareas, dos núcleos ofrecen más recursos físicos, permitiendo a los sistemas operativos priorizar y administrar tareas de múltiples aplicaciones de forma simultánea y, consecuentemente, maximizar el rendimiento.
El primero en implementar dicha tecnología de manera real fue la empresa AMD, que saco a la venta la serie de procesadores “X2”, en el 2003 AMD desarrolló el primer procesador de doble núcleo real llamado Athlon 64 X2 después le siguieron: AMD Turion™ 64 X2, AMD Opteron de Doble Núcleo. En este aspecto AMD se le adelanto a INTEL, hay que recordar que Intel un año antes había lanzado la tecnología HT, sin embargo en esta ocasión no fue sino hasta el año 2006 que Intel saco a la venta la familia de procesadores conocida como “core”, los cuales ahora si tenían un doble núcleo real, tal como los de AMD, que después evolucionaron a “Core 2”, el mas conocido Core 2 Duo, siguiéndole después core 2 extreme, entre otros. Cabe mencionar que en un intento desesperado por competir con los procesadores “X2” de AMD, Intel saco a la venta en el mismo año de aparición de los X2, una serie de procesadores conocidos como Pentium D, que no eran otra cosa mas que dos núcleos de Pentium 4 unidos en un mismo procesador, Técnicamente no eran procesadores de doble núcleo porque ellos solamente podían comunicarse entre sí a través del bus, y lo único que los mantenía unidos era una conexión entre el puente Norte y la memoria . Si usted se había preguntado ¿Por qué los procesadores Pentium D son mas lentos que los X2 de AMD?, allí tiene la respuesta.
Sin duda algo que ha revolucionado los procesadores es la llamada tecnología de doble núcleo, la cual no es otra cosa que tener dos núcleos de ejecución en el mismo chip, optimizando el rendimiento de forma notable, nótese la diferencia con la tecnología HT, en este caso se tienes dos núcleos reales, no solo una simulación.
Aunque son muchos los detalles que caracterizan esta nueva micro-arquitectura, hay dos claros rasgos que han guiado el diseño de la misma: ahorro energético y rendimiento. Estas dos características parecen erigirse como los dos aspectos clave que están guiando la lucha entre Intel y AMD.
Tal y como apunta Antonino Albarrán, director de tecnología de Intel Iberia, “tenemos dos objetivos: conseguir el máximo rendimiento y ser lo más eficientes en cuanto al ahorro energético, lo que quiere decir que el rendimiento por vatio debe ser el mayor posible, con bajo consumo y baja disipación”.
Para ambientes que requieren de múltiples tareas, dos núcleos ofrecen más recursos físicos, permitiendo a los sistemas operativos priorizar y administrar tareas de múltiples aplicaciones de forma simultánea y, consecuentemente, maximizar el rendimiento.
El primero en implementar dicha tecnología de manera real fue la empresa AMD, que saco a la venta la serie de procesadores “X2”, en el 2003 AMD desarrolló el primer procesador de doble núcleo real llamado Athlon 64 X2 después le siguieron: AMD Turion™ 64 X2, AMD Opteron de Doble Núcleo. En este aspecto AMD se le adelanto a INTEL, hay que recordar que Intel un año antes había lanzado la tecnología HT, sin embargo en esta ocasión no fue sino hasta el año 2006 que Intel saco a la venta la familia de procesadores conocida como “core”, los cuales ahora si tenían un doble núcleo real, tal como los de AMD, que después evolucionaron a “Core 2”, el mas conocido Core 2 Duo, siguiéndole después core 2 extreme, entre otros. Cabe mencionar que en un intento desesperado por competir con los procesadores “X2” de AMD, Intel saco a la venta en el mismo año de aparición de los X2, una serie de procesadores conocidos como Pentium D, que no eran otra cosa mas que dos núcleos de Pentium 4 unidos en un mismo procesador, Técnicamente no eran procesadores de doble núcleo porque ellos solamente podían comunicarse entre sí a través del bus, y lo único que los mantenía unidos era una conexión entre el puente Norte y la memoria . Si usted se había preguntado ¿Por qué los procesadores Pentium D son mas lentos que los X2 de AMD?, allí tiene la respuesta.
flextorviolence
Re: Battlefield 3 BETA - CONFIGURACIONES
Saludos!
Felix, me sabe mal indicartelo, pero te puedo garantizar que el articulo que has mencionado es incorrecto, ya que yo en esa epoca ya trabajaba en mayoristas y asisti a las presentaciones tanto de AMD como de Intel. En relacion al Pentium D debo remarcar que no se diseño fecha atras, el Pentium D son dos Pentium 4 antiguos el cual debo remarcar que ya tenian VTx,(en tu articulo lo menciona como TH cosa incorrecta... por que eso es Thread que significa dos procesadores en paralelo en placa y no una instruccion, ojo no confundirlo con procesadores en la misma "tableta") bajado de Nanometros distribuido a inicios de la crisis, ya que tenian la prevision economica y era la opcion economica como procesador, sin bajar al nivel de un Atom, el cual se desarrollo para equipos de bajas prestaciones y de alta autonomia.(y los core duo ya llevaban tres años en el mercado, el Core 2 duo,quad, 2 años aprox, y estaban saliendo los primeros i7) etc.. etc... AMD tardo un año en presentar su primer procesador multinucleo cuando Intel ya havia presentado el Core Duo y yo personalmente trabaje con el y trate con el mismo fabricante de AMD (y no me refiero a un representante) (he montado muchisimos amds, athlon, turions, etc...) , con el cual se cerraron tratos comerciales rebentando precios, etc... etc.. a base de contenedores, etc... etc... y conozco la arquitectura x64 que amd aplico la cual no tubo tampoco el resultado esperado, etc.. etc... (coge uno y intenta procesador a 64bits y fijate en los resultados de busses, etc.. casualmente hasta tengo una CPU de AMD x64 aqui de aquellos dias)
Muchas veces he explicado algunas conversaciones que he tenido con diferentes fabricantes(y repito no representantes) les he dado la mano en persona, etc... he asistido a muchas convenciones donde incluso Nvidia presentaba cosillas que comente... y imaginate era la epoca de las GF 8xxx, si un dia quieres te las vuelvo a comentar via msn, o algun sistema vozip, pero no me gusta postear depende que cosas ni dar nombres, etc... por que me podria meter en un lio y con todas las de la ley
por otro lado a nivel de CPUs debes comprender que por mas que infles una CPU de nucleos con frecuencias altas, si las instrucciones no son las idoneas falla como una escopeta de feria y generan errores de compatibilidad con el SO, etc.. etc... es mejor una cpu 1,3ghz con las instrucciones apropiadas que uno de 2,6hz con instrucciones compatibles, por no mencionar la diferencia de consumo.
un saludo y ya te hare memoria de algunas cosillas por msn jejej
p.d. no se si me ire pasando mucho por el foro, pero lo intentare.
ACL
Felix, me sabe mal indicartelo, pero te puedo garantizar que el articulo que has mencionado es incorrecto, ya que yo en esa epoca ya trabajaba en mayoristas y asisti a las presentaciones tanto de AMD como de Intel. En relacion al Pentium D debo remarcar que no se diseño fecha atras, el Pentium D son dos Pentium 4 antiguos el cual debo remarcar que ya tenian VTx,(en tu articulo lo menciona como TH cosa incorrecta... por que eso es Thread que significa dos procesadores en paralelo en placa y no una instruccion, ojo no confundirlo con procesadores en la misma "tableta") bajado de Nanometros distribuido a inicios de la crisis, ya que tenian la prevision economica y era la opcion economica como procesador, sin bajar al nivel de un Atom, el cual se desarrollo para equipos de bajas prestaciones y de alta autonomia.(y los core duo ya llevaban tres años en el mercado, el Core 2 duo,quad, 2 años aprox, y estaban saliendo los primeros i7) etc.. etc... AMD tardo un año en presentar su primer procesador multinucleo cuando Intel ya havia presentado el Core Duo y yo personalmente trabaje con el y trate con el mismo fabricante de AMD (y no me refiero a un representante) (he montado muchisimos amds, athlon, turions, etc...) , con el cual se cerraron tratos comerciales rebentando precios, etc... etc.. a base de contenedores, etc... etc... y conozco la arquitectura x64 que amd aplico la cual no tubo tampoco el resultado esperado, etc.. etc... (coge uno y intenta procesador a 64bits y fijate en los resultados de busses, etc.. casualmente hasta tengo una CPU de AMD x64 aqui de aquellos dias)
Muchas veces he explicado algunas conversaciones que he tenido con diferentes fabricantes(y repito no representantes) les he dado la mano en persona, etc... he asistido a muchas convenciones donde incluso Nvidia presentaba cosillas que comente... y imaginate era la epoca de las GF 8xxx, si un dia quieres te las vuelvo a comentar via msn, o algun sistema vozip, pero no me gusta postear depende que cosas ni dar nombres, etc... por que me podria meter en un lio y con todas las de la ley
por otro lado a nivel de CPUs debes comprender que por mas que infles una CPU de nucleos con frecuencias altas, si las instrucciones no son las idoneas falla como una escopeta de feria y generan errores de compatibilidad con el SO, etc.. etc... es mejor una cpu 1,3ghz con las instrucciones apropiadas que uno de 2,6hz con instrucciones compatibles, por no mencionar la diferencia de consumo.
un saludo y ya te hare memoria de algunas cosillas por msn jejej
p.d. no se si me ire pasando mucho por el foro, pero lo intentare.
ACL
ACL
Re: Battlefield 3 BETA - CONFIGURACIONES
p.d. yo arriba no escrito que los amd k6 2 fueran peores que los pentium 2 :S pero si he tenido xD , testeado, marraneado y de to xD
ACL
Re: Battlefield 3 BETA - CONFIGURACIONES
JAJAJAJAJJAJAJA A LA VEDAAAAAAAA Dani comprate la que mejor se ajuste a tu bolsillo y necesidades Elfo no voya discutir lo que ya esta demostrado por bibliografia datos de amd y de intel para todo lo demas un video genialmente echo BATTLEFIELD 4????
flextorviolence
Página 1 de 2. • 1, 2
Temas similares
» Battlefield 3 Beta
» Beta del Battlefield Heroes
» por fin llego battlefield 2
» BATTLEFIELD 3.... LA PELICULA!!!!!
» battlefield play4free
» Beta del Battlefield Heroes
» por fin llego battlefield 2
» BATTLEFIELD 3.... LA PELICULA!!!!!
» battlefield play4free
Página 1 de 2.
Permisos de este foro:
No puedes responder a temas en este foro.