AMD mets la pâté à Intel
Avec le X2, AMD en mets plein la vue à la concurrence. Tous les tests disponibles sur la toile le confirment : il est plus rapide, plus performant, et il consomme moins d'électricité. Bref, la gamme X2 c'est le CPU qui valait 3 milliards. Bon, sérieux maintenant : le Athlon X2 4800+ (à 2,4 Ghz) bats le Pentium 4 840 EE (à 3,2 Ghz) dans presque tous les tests, et quand il ne le bats pas carrément, il est à égalité. En fait, il arrive encore à battre le 840 EE si ce dernier est overclocké à 4Ghz ! Autrement dit, Intel se prends la honte sur les benchmarks en ce moment. Mais bon, n'oublions tout de même pas que cette merveille de X2 4800+ (ne pas oublier le +) ne sera vraisemblablement pas disponible avant la fin de l'année, et qu'elle est annoncée à $1001 (€780) avant l'inexorable baisse de prix.
A ces tarifs-là, on devra sans doute se contenter du X2 4200+ (2,2 Ghz), qui est chiffré à "seulement" $537, soit €418. Heureusement, le X2 4200+ gagne de façon quasi-identique sur le 840 EE, sauf dans Splinter Cell, où il fait 0.1 image/seconde de moins. Bon, ca passera pour cette fois.
En attendant, ce qu'il faut surtout remarquer, c'est qu'AMD a enfin réussi à placer la performance double-core au-dessus de celui du simple core, y compris dans les jeux. Eh oui, le X2 4800+ se place au-dessus de toute la gamme AMD existante, sauf du FX-55 (qui est à 2,6 Ghz, tout de même). Mais même le FX-55 est au coude-à-coude avec le petit dernier, et n'a pas toujours le dernier mot. Comprenez bien : la X2 4800+ arrive à battre le FX-55 dans quelques benchmarks, et quand la X2 perds, ce n'est pas de beaucoup. Pour un CPU double core qui est cadencé 200Mhz moins rapide, c'est pas si mal.
Pour le reste, même contre la X2 4200+, Intel n'a pas un seul modèle qui soit à la hauteur. C'est la bérézina complète, et AMD rafle la mise et fait sauter la banque. Qui eût crû que le petit Thunderbird, premier CPU à avoir atteint le Ghz, annonçait de tels boulversements ? Oiseau de tonerre, tu as bien mérité ton nom.
Le SLI est toujours ridicule
Bon, c'est dit : je commence une guerre personnelle avec la technologie SLI. Je viens de lire une revue du dernier modèle de FX6800Ultra avec 512MB de DDR3. Les tests ont été effectués sur une platform X2 4800 ayant 1GB de DDR RAM performant. Autrement dit, une config que même les fanas du jeu PC ne sont pas prêts de pouvoir se payer.
Et le résultat ? Pitoyable. En 3DMark 2005, qui est très favorable au SLI en général, la version 512MB a une performance inférieure à la version 256MB !! Bon, 7484 contre 7518 n'est qu'un écart de 0,5%, mais tout de même, c'est en-dessous, pas au-dessus.
Du reste, ce résultat se retrouve finalement assez représentatif si on regarde les autres scores. Dans Doom III, la version 512 seule obtient 0,2 images/seconde de plus que la 256. En SLI, on en est à 75,2 contre 73,8, soit 2,4 images par seconde de plus. Bravo mon cher, pour avoir subventionné la recherche à hauteur de deux mille dollars, afin que nvidia puisse continuer à aveugler les imbéciles avec des "performances améliorées" de 1,89%. C'est vraiment gentil d'avoir mis autant de moyens pour améliorer Far Cry de 69,18 à 70,91 (2,5%). Et c'est super sympa de supporter que, dans Half-Life 2, la performance SLI (à 80,35 fps) soit inférieure à celles de la même carte seule (81,21) ou, pire, à celle d'une Radeon X800 XL 512MB seule aussi (84,44).
Ce qui m'énerve le plus, c'est que les rigolos qui ont fait la revue concluent en disant que cette carte "délivre ce qui se fait de mieux en performances". Et ils ne rigolent même pas en le disant ! Je crois qu'il est temps de renvoyer tous les mecs qui font des test de matériel au lycée, pour qu'ils réapprennent les proportions et ce que veut dire le mot "significatif". Une amélioration de 2% n'est pas significative (sauf si on parle du PIB de la France), même si mathématiquement elle est juste. Dites-vous que vous gagnez €100 par mois et qu'on vient de vous proposer une augmentation de 2%. Vous jubilez ? Allons donc, vous aurez €2 de plus - même pas de quoi acheter un Big Mac.
Vraiment, je le dis, le SLI n'est plus que pour les gogos avec plus de fric que de sens commun. Sachant que la prochaine génération de GPU va fouler le SLI actuel aux pieds, on ne peut qu'imaginer que tout ce bordel va continuer autour des résultats SLI de la prochaine génération. On pourra sans doute s'émerveiller devant le fait que la FX 7800 a une performance supérieure de 35% par rapport au SLI actuel, et la version SLI de la 7800 gagnera encore 15-20%. Et on dira de nouveau que SLI est LA technologie révolutionnaire du XXIe siècle.
Ce qui est déjà vrai, c'est que chaque nouvelle génération de GPU accroît de manière significative notre aisance avec les jeux auquels on joue maintenant, et qu'ils sont toujours mis à mal avec les jeux faits pour demain. Half-Life 2 tourne bien mieux sur ma FX 6800 Ultra que ma Radeon 9800, et tout ce qui est Far Cry ou avant, c'est du 1600x1200 avec AA en 2x et Aniso en 8x (si le jeu le supporte).
Vu les charactéristiques de la futur Playstation III qui sortira vers Noël (évidemment), je pense pouvoir dire que, dans les 2 ans à venir, on va voir une démultiplication des performances en graphisme. Les scores de 300+ pour Quake III, ou 70+ avec Far Cry ou Doom III, n'auront plus d'importance car le PC pourra donner une image fluide et précise quelque soit la quantité d'informations à afficher (bon, on est d'accord, l'infini ne fait pas partie de cette prévision). Nous allons vers un monde où le mot "réalisme" va acquérir un sens nouveau dans les jeux - jeux qui deviendront plus des simulateurs de réalité que des jeux comme aujourd'hui.
Mais le SLI ne fera pas partie de ce monde, et ce ne sera pas grâce au SLI que ce monde arrivera. Et ce, malgré les délires officielles sur slizone, où ils essaient de vous faire croire que SLI vous apporte "jusqu'à 2 fois plus de performances". Doubler ? Allons donc, SLI à du mal à atteindre 20%, alors deux fois plus, c'est pas demain la veille !
la 7800 annoncée
Eh ben, puisque j'en parle, voici une page qui parle de la prochaine génération qui nous sera donnée par nvidia : la 7800. Vous pourrez la lire par vous-même, mais je ne peux m'empêcher de traiter deux faits saillants :
24 pixel pipelines (la 6800 en a 16)
8 vertex pipelines (la 6800 en a 6)
Donc, j'en conclu qu'avec 50% de puissance de calcul en plus, la 7800 devra effectivement donner la performance que nous laisse le SLI en ce moment. Et ce sera pour une seule carte, puisque la génération 7xxx sera aussi SLI-enabled. Ce qui, bien entendu, sera tout autant de la connerie qu'en ce moment. Eh oui, une 7800 toute seule sera vraisemblablement vendue à €550, donc une économie de €450 par rapport aux demeurés qui ont jeté plus de €1000 par la fenêtre ces derniers mois (et dans les mois qui viennent).
Le seul problème que je vois, c'est que la RAM de la 6800 est cadencée à 550Mhz, alors que la 7800 serait cadencée à seulement 430Mhz. Moins rapide égal performances inférieures, c'est obligatoire. Comme la taille du bus ne change pas, ce sera donc la bataille du +8 pipelines contre le -120Mhz, et le +30Mhz du GPU (cadencé à 430Mhz au lieu de 400Mhz pour la 6800). Ah, j'oubliais, la 7800 sera gravée en 110 microns au lieu de 130, mais cela n'a pas d'importance pour les performances graphiques. Elle chauffera moins, par contre, et ses besoins en éléctricité seront certainement moindres.
Et pour ceux qui ne jurent que par le SLI (en majorité, certainement des gens qui n'ont pas eu besoin de se le payer tout seuls), je dirai que deux 7800 écraseront deux 6800 tout aussi certainement qu'une seule écrasera son ainée. Mais bon, il n'y aura que 30% de différence de toute façon, et en 2007 on aura encore une nouvelle génération avec 32 ou 48 pipelines et on recommencera tout à zéro.
Ca me fatigue déjà.