Calificación:
  • 1 voto(s) - 5 Media
  • 1
  • 2
  • 3
  • 4
  • 5
Hardware fags, fanboys y otros tecnonanistas
Buena compra ya que es sin duda la mejor versión de la Fury, pero yo me habría aguantado o comprado algo mucho más barato.

Más que nada porque ni AMD ni Nvidia soportan DX12 de forma nativa completamente en ninguna de sus generaciones. AMD parece no soportar conservative rasterizer y Nvidia parece que mintió cuando dijo que soportaba Async Shaders. Las nuevas que supuestamente sí lo harán saldrán el año que viene en un nodo nuevo, mucha más potencia y con HBM en condiciones.

Desarrollador de Oxide explicando la parte de Nvidia (ing)

Cita:As far as I know, Maxwell doesn't really have Async Compute so I don't know why their driver was trying to expose that.

¿Pedías un bench en DX12?

http://www.ashesofthesingularity.com/store

Pero claro, hay que pasar por caja.

EDIT: Casi se me olvida que quizá puedas mutar tu Fury a una Fury X.
[Imagen: h0FIGlU.png]
Responder
[Imagen: original.jpg]

Según esto, solo la arquitectura Maxwell de segunda generación puede pelear con GCN 1.2.
En lo demás, GCN 1.2 saca una ligera ventaja en cuanto a cosas soportadas.

Hoy terminaré de montar mi nuevo PC, con una R9 390 y un i5 4690k.
Puedo dar fe de que las nuevas AMD de Sapphire son mostrencos Henormes.
Son casi tan largas como el teclado.

Suerte que como Cucu, a veces soy hasta inteligente y compré una torre lo suficientemente grande.
Responder
Pues yo opino que comprar en 28 nm es un error. Las GPU que salgan en 14-16 nm se las van a comer con patatas (¿50%~100% más rendimiento?) en 6 meses.
Mayor fan de Artanis :3
Responder
(09-03-2015, 10:31 PM)Orestes escribió: EDIT: Casi se me olvida que quizá puedas mutar tu Fury a una Fury X.

Joer, gracias. Aunque paso de Ocear tarjetas gráficas. Por eso las compro siempre ya subidas.

(09-04-2015, 10:20 AM)EmuAGR escribió: Pues yo opino que comprar en 28 nm es un error. Las GPU que salgan en 14-16 nm se las van a comer con patatas (¿50%~100% más rendimiento?) en 6 meses.

Illo, no te columpies xDDD

La próxima generación (llamémosla X) presentará un salto de un 20 a un 40% COMO MUCHO. Luego ya sus distintas revisiones (X2, X3...) sí llegarán hasta eso comparadas con esta generación, pero estaríamos hablando de 2017 como muy temprano. Ese rendimiento no te lo van a dar por la cara el primer día, tienen que ir sacándote la sangre poco a poco.
Responder
Estoy con Emugre en esto. No sé si serán seis meses o un año pero las siguiente generación le va a dar de patadas a esta. Sólo por el salto de nodo que supone dos completos (28 -> 20 -> 14/16) el cambio ya será una burrada bestial en el aumento de transistores que pueden meter ahí.

(09-04-2015, 09:26 AM)Kirs90 escribió: Según esto, solo la arquitectura Maxwell de segunda generación puede pelear con GCN 1.2.

El problema son los Async Shaders que Maxwell los tiene que emular por software con la consiguiente pérdida de rendimiento. Los sitios de reviews de hardware están esperando a que Nvidia lo aclare pero viendo lo que están tardando parece que se han vuelto a colar y van un buen puñado de veces en poco tiempo.

Mira a ver si puedes mutar tu 390 a una 390X.

(09-04-2015, 11:50 AM)CucuFaiter escribió: La próxima generación (llamémosla X) presentará un salto de un 20 a un 40% COMO MUCHO. Luego ya sus distintas revisiones (X2, X3...) sí llegarán hasta eso comparadas con esta generación, pero estaríamos hablando de 2017 como muy temprano. Ese rendimiento no te lo van a dar por la cara el primer día, tienen que ir sacándote la sangre poco a poco.

A no ser que Nvidia y AMD lleguen a un acuerdo (difícil con AMD en un tristísimo 15% de cuota de mercado) para hacerlo yo sigo viendo un salto de almenos x2 en rendimiento para poder manejar los 4K con soltura y en el futuro chips más grandes para sangrar a base de bien a los e-peeners.

Nvidia ya lo hizo con el salto de 40nm a 28nm. La GTX 680 (294mm²) era un chip relativamente pequeño que le daba de palos a la GTX 580 (520mm²).
[Imagen: h0FIGlU.png]
Responder
(09-04-2015, 11:57 AM)Orestes escribió: Nvidia ya lo hizo con el salto de 40nm a 28nm. La GTX 680 (294mm²) era un chip relativamente pequeño que le daba de palos a la GTX 580 (520mm²).

No era sin embargo el doble de potente como Emu ha sugerido (que ha hablado de un 50% - 100% más) que podría ser este salto. A eso me refiero. No dudo que esconden ese potencial y mucho más, pero creo que no lo veremos en la primera remesa de tarjetas @14nm.

Es que si no estaríamos hablando de que, cuando presenten (como hacen a veces antes) la gama baja y la gama media, sería casi igual o igual de potente que la gama alta de ahora. Le haces eso a los clientes y se van a sentir estafados.

Lo que yo me espero son tarjetas de tamaño normal, no el bicharraco que me he pillado, gracias a la baja litografía y las memorias HBM (supuestamente, 2.0), con un consumo muy inferior a las de ahora, y un rendimiento en torno a un 20-40% mayor que la tarjeta más potente que ahora exista.

Habrá que esperar al calendario de lanzamientos y que se filtren algunas comparativas para ver qué pasa, pero insisto que el aumento brutal de rendimiento no creo que se produzca de golpe.

Yo me espero tarjetas el doble de potentes que las de ahora para finales de 2016, no antes.
Responder
A mí toda esta situación me da un poco de pena al mismo tiempo que me da esperanzas, no sé...



Me explico. Cuando yo me compré la gráfica hace seis años (una HD5750), esta era una buena opción para empezar a ponerse exquisito con los juegos sin necesidad de dejarse riñón y medio en el proceso. De hecho, a mí me salió por unos 125€, repito, hace seis años.

Pero coño, me pongo a mirar tarjetas gráficas ahora y el mercado es que da risa. Por ese precio (o similar, que ya sabemos que la inflación es muy hija de puta) no te encuentras más que morralla de la peor especie, y si quieres hila tan fino como hace seis años, te tienes que ir de los 200-300€ para arriba. Y digo yo, ¿Qué coño ha pasado en este tiempo? ¿Ha habido un tsunami que ha arrasado con una planta entera de producción de tarjetas gráficas como pasó hace años con los discos duros? Lo que está claro es que, desde mi punto de vista, esta es una época muy mala para cambiarle cualquier tontería al ordenador, por muchos aspectos.

Pero por otro lado, veo que hay una nueva remesa de tarjetones a punto de salir del horno, y eso me da esperanzas para que el resto de segmentos bajen un poco de precio de aquí a finales de año/primeros del que viene y me pueda pillar una para Reyes.

Por lo demás, tengo clavada esa sensación de "menuda puta mierda". No sé.
[Imagen: Bahamut.gif]


Cuerpo de Infantería
Bahía de Belfalas
(Motherland wants you to visit the blogs :3)
Responder
(09-04-2015, 01:32 PM)CucuFaiter escribió: No era sin embargo el doble de potente como Emu ha sugerido (que ha hablado de un 50% - 100% más) que podría ser este salto. A eso me refiero. No dudo que esconden ese potencial y mucho más, pero creo que no lo veremos en la primera remesa de tarjetas @14nm.

Es que si no estaríamos hablando de que, cuando presenten (como hacen a veces antes) la gama baja y la gama media, sería casi igual o igual de potente que la gama alta de ahora. Le haces eso a los clientes y se van a sentir estafados.

Es que estafados se sienten ahora. Antes los saltos de generación siempre eran de un 70% a más de un 100% más potentes y ahora son de un 50% con suerte.

En el nodo de 14nm estarías metiendo alrededor de cuatro veces los transistores que en el de 28nm. Algo que igualase una GTX 980Ti tendría un tamaño ridículo, del palo 750Ti. Una tarjeta de rango medio como lo fue la GTX 680 tendría, en teoría, el doble de potencia que la GTX 980Ti.

Si algo puede hacer que se mueva el mercado de las GPU de sobremesa, que lleva ya tiempo perdiendo un 15% de unidades vendidas por cuarto, es poder mover los 4K con soltura. Para mover un 1080p es suficiente una tarjeta de hace ya unos cuantos años.

¿Serán más caras? Sin duda. ¿La primera remesa el doble de potente? El cielo es azul, el agua moja y las mujeres tienen secretos.

(09-04-2015, 02:16 PM)Bahamunt escribió: Me explico. Cuando yo me compré la gráfica hace seis años (una HD5750), esta era una buena opción para empezar a ponerse exquisito con los juegos sin necesidad de dejarse riñón y medio en el proceso. De hecho, a mí me salió por unos 125€, repito, hace seis años.

También estamos los que llevamos siguiendo este mundillo desde que teníamos una TNT2 RIVA (estoy seguro que alguno de vosotros lleva desde antes) y las cosas son muchísimo mejores ahora que lo que fueron en su día. Y ya si hablamos de gráficas para portátiles ya te puedes ir santiguando. Un familiar me pidió hace poco que le mirase un portátil gamer y el mercado es ridículo, del orden de tener que gastarte 200€ más por una gráfica un 10% más potente siempre partiendo de un rendimiento ridículo (o lo que es lo mismo, la experiencia no mejoraría nada).

Pero sí, el avance se ha estancado completamente desde la aparición de los 28nm precisamente porque no ha habido un cambio de nodo.
[Imagen: h0FIGlU.png]
Responder
(09-04-2015, 02:16 PM)Bahamunt escribió: Me explico. Cuando yo me compré la gráfica hace seis años (una HD5750), esta era una buena opción para empezar a ponerse exquisito con los juegos sin necesidad de dejarse riñón y medio en el proceso. De hecho, a mí me salió por unos 125€, repito, hace seis años.

Ahora mismo esa misma potencia la compras por 30€. Claro que ha mejorado la cosa. Mi HD5850 se vende por 50€... Dry

Y bueno, 2016 va a ser un año estupendo para GPU y monitores. Están haciendo muchos avances y por fin se están olvidando de 1080p.
Mayor fan de Artanis :3
Responder
Por lo que los que vamos por 1080p vamos a mover hasta el reactor nuclear secreto que los marcianos de la luna han instalado en plutón y por eso el gobierno mundial decidió hacer desaparecer plutón de los mapas de planetas los juegos sobradamente Icon_pato
[Imagen: PDMKXCn.jpg] [Imagen: BO3H7iS.gif]
Responder


Salto de foro:


Usuarios navegando en este tema: 68 invitado(s)