Leaks et rumeurs continuent leur traintrain quotidien, et sont surtout toujours dans le même sens. Une constante qui ne semble donc pas s’ébrécher concernant les RTX 4000 de Nvidia. La RTX 4090 pourrait bien être deux fois plus puissante que la RTX 3090 Ti.
En effet, selon les tweets de Kopite7kimi ou encore Greymon55, le prochain GPU AD102-330 dans la RTX 4090 pourrait produire plus de 100 TFLOPs en FP32. Plus cette vitesse de calcul est élevée, plus il est possible d’effectuer rapidement des calculs complexes. Et donc de rendre à l’écran des modèles 3D rapidement et d’effectuer les calculs de lumière précis permettant toujours plus de réalisme.
On rappelle cependant que la puissance brute en TFLOPs ne donne pas une capacité de puissance d’affichage proportionnelle à ce facteur. Mais à titre comparatif, cependant les Xbox Série X et les PS5 proposent entre entre 12 et 28 TFLOPs et la RTX 3090 Ti monte à 40 TFLOPs.
La future carte haut de gamme de Nvidia proposerait finalement 16128 Cuda Cores et 24 Go de mémoire GDDR6X en 21 gbps. Avec ce taux de Ram, elle est avant tout destinée aux développeurs prêts à mettre le prix pour de la mémoire. Mais la VR étant très gourmande en ressources, ce genre de carte a très clairement trouvé un nouveau public, surtout celui fan de simulation. Il faudra bien évidemment garder à l’esprit que même avec de la réduction de gravure, la consommation électrique restera au beau fixe. Et il faudra donc avoir également une alimentation en conséquence si la carte atteint entre 450 et 600w de TGP.
Les possesseurs de 3090 Ti parmi nous vont-ils sauter le pas d’une 4090 peu importe le prix qu’on devine à l’avance salé ?

1 teraflop console n’égale pas 1 teraflop PC à cause de la différence d’architecture. Une GTX 1060 6Go à 4 tflops suffit à avoir des résultats identiques à une Xbox One X à 6 tflops.
C’est pour ça que les tests techniques des jeux PS5 et Xbox Series sont comparés avec des PC RTX 2060 S à 8 tflops et non pas avec des RTX 2080 S à 12.
Toujours la même chose avant les sorties des cartes chez les verts. Ont vend du rêve avec un gap que tu n’auras jamais en vrai lol. Si il y a +40% de fps entre une RTX 3090 Ti et la futur RTX 4090 ce sera déjà pas mal. La puissance brut est une chose mais pour moi 2X plus puissant veut dire 2X plus de fps, donc faut arrêter de se pignoler avec des titres pareil 😉
Ben non, justement, 2X plus de puissance brut n’est pas deux fois plus de FPS. Quand je fais des rendu 3D sous Unreal ou autre, ça prend bien deux fois moins de temps pour les sortir.
Les FPS dépendent de bien plus de chose que la puissance brut. Puisque ça dépend comment a été codé le jeu et quels éléments il exploite de la carte à un instant T.
Et c’est encore plus vraie avec les nouvelles implémentations qui utilise des éléments dédiés du GPU comme le Raytracing.
Si t’a scène a deux fois plus d’élément que ta puce dédié est capable d’en gérer, quelque soit la puissance brut de la carte, ce facteur fera entonnoir à FPS. Puisque la Puce GPU, devra attendre que la puce dédié finissent les calculs de lumière dans tous les cas avant de rendre l’image.
Je pense que FaLk0nE27 parle de fps donné sur un même jeu et entre deux gen de gpu , et je suis tout à fait d’accord avec lui.
Pour mon cas par exemple , je suis sur une 1080 ti ben la différence avec une 3080 ti ben c’est pas énorme en fait (50-60%) alors que normalement ça devrait être 100% vu qu’il y a la 2080 ti au milieu .
Et même comm de la part de Nvidia à la sortie des séries 3xxx sur les séries 2xxx le double de perf qu ils disaient , et qui ne se ressente pas une fois en jeu !
Tout le monde ne fais pas du rendu 3D Vodka (heu… J-D)
Donc pour revenir à moi , effectivement si je passe d’une 1080 ti à une 4080 ti ou 4090 là dans ce cas là je double de perf en gpu( du coup ressenti en jeu ) et au passage je chope le RayTracing ^^, mais voilà deux gen de gpu d’écart pour arriver à cela , on en parle ??
J’ai bien compris de quoi il parle et c’est une erreur.
un jeu n’exploite jamais la pleine puissance brut d’un GPU. À la limite, il y’a un énorme effort fait de ce côté sur les jeux console pour les grosses licences.
Mais dans l’absolu, un jeu est fait de tout un tas d’éléments qui sollicite des ressources différentes et toutes ses ressources ne sont jamais exploité à fond, et certaines d’entre elles font entonnoir.
Un GPU double en puissance Brut générale calculée en Tflops, mais ne double pas sur chaque élément de façon équivalente.
Tu n’as pas nécessairement le double de coeur cuda pour autant, ou le double de ram etc… etc…
Donc le FPS n’est pas une valeur en soi de prestation de performance…
Un jeu peut avoir le même nombre de FPS entre deux cartes, mais du raytracing activé et de la physique fake remplacée par une vraie gestion physique dynamique. Et il sera donc plus beau et plus “vrai” parce qu’on utilisera des éléments supplémentaires que le nouveau GPU peu faire. Alors qu’en activant ça sur la vieille carte, les performances serait divisé par 10 et non par 2 parce que ça ferait un goulet d’étranglement.
Le nombre de FPS est la résultante de plein de facteurs, lui même résultant de plein de points différents d’une carte qui ne sont pas tous doublés.
“Tout le monde ne fais pas du rendu 3D Vodka (heu… J-D)”
Oui, tout a fait, et ces cartes ne sont en plus pas du tout des cartes dédié aux jeux. La ram n’y est jamais exploité, tu la payes une fortune pour rien. Et passé à 50 giga de ram n’améliorera pas tes FPS ^^
Par contre quand je sors un rendu VR 8K 60 i/s, le taux de qualité des textures et de l’anti aliasing, est lui complètement dépendant de cette ram. Et avec une 3090 à 24 giga qui n’a pas bien plus de performance que ma 3080 TI, je pourrai drastiquement augmenter des paramètres face a ma carte n’ayant que 12 giga de ram. Pourquoi pas passer en 12k.
FPS corrélé à la puissance BRUT est juste une erreur de compréhension de ce qu’est une CG et son architecture. 🙂
Et je comprend très bien que ce soit frustrant quand on veut des FPS pour les simulations et que c’est ce que l’on attend uniquement d’une carte graphique. xD
Pire, Nvidia calibre sans doute des tas d’éléments aujourd’hui aussi pour le mining, donc tu payes surement certains surplus et augmentation de puissance brut pour des trucs inutiles pour le jeu et pour les devs.
(vas encore être traité de complotiste)
j’allais oublié, je taf dans un data center ou il y a prêt de 1000 RTX A4000 et A6000 et j’en passe. Mais merci pour ton explication,ça intéressera surement quelqu’un qui ne sait pas comment fonctionne une carte graphique en fonction du besoin 😉
Du coup, la bonne question, c’est : pourquoi si j’enfonce une porte ouverte en ce qui te concerne et que tu confirmes mes propos, tu dis volontairement des bêtises ? xD
je parle des jolies graphiques qu’Nvidia nous balancent à chaque sortie ou ils montrent que sur différents jeux tu double les FPS en comparaison de l’ancienne Gen.
Salut à tous
@Elohim
Ily a un peu de manque de pourcentage dans ton calcul entre une GTX 1080ti et une RTX 3090
J’ai eu la GTX 1080TI en 2017 ,quand je me suis acheté ma RTX 2080TI /Msi -X-Gaming en septembre 20218 je n’ai eu que 30%(+30fps) de perfs en plus soit pas Jojo pour une carte à 1300€ 🙄 Alors que ma GTX 1080TI FE ne coûtais que 👍🏻😳👍🏻 860€ en préco a sa sortie en juin 2017.👍🏻
Ensuite le passage de ma RTX 2080TI Msi à ma RTX 3090 a 2000€ le bouzzin je suis passé à un +50%(+50Fps) ,donc de ma GTX 1080TI à ma RTX 3090 j’ai eu:
-+30% / + 50% =80%]80 FPS en plus pour la vr !
Alors 80%(+80fps) sur 3 générations de cartes en 6ans se développement quand même 😬 mais pas fou fou du tout au final pour le Fric que j’ai claqué !
Pour indication en vr la RTX 3090 elle en a vraiment sous le capot ,en simulation ,domaine ou il faut un Pc de ouf ,avec cette carte j’ai vraiment senti,un gap que j’ai pas eu avec la RTX 2080TI !
Donc ma RTX 2080TI avec son gap a +30fps a été pour moi un échec en achat et par Nvidia 😔
Je suis comme toi de dire en VR qu’il faut sauter au moins d’une génération voir un VRAI GAP VOIR 3 génération de GPU !
Et on le fesais dans les années 2000/2010 de pas acheter tous les 2 ans un GPU ,car même à cette époque les gains étaient de 30/50 FPS par génération pas plus pas moins pour voir un vrai gap en perfs .👍🏻
En processeur c’est pareil ,si tu les écoute il faut changé de mobo/Proc tous les ans ou 2 ans !
Mon 6700k auras durer 6ans en vr et je vais seulement le changé car je sens qu’il bride ma RTX 3090 ,donc 6 ans a jouer sans problème .
Comme le dis @FaLkOnE27 ,quand on vois des news sur tous les sites de hardware et comme le dis J-D ,on nous dis, on nous vends tous les 2 ans du 2 fois plus puissant ??😳😳
Mais 2 fois plus puissant avec là pub de Nvidia =
-C’est pas un +100 FPS en jeux loin de la 😬😬
Pas plus tard j’en 2020 la;pub de Nvidia chantais la même chanson ,La RTX 3090 devais 2 fois plus puissante que ma RTX 2080TI ??
Et on a eu que 50fps en plus ,beaucoup de Pipo 🙄 et J-d nous l’explique ,oui plus puissante pour calculer du raytracing surtout ou d’autre effets visuels à calculer mais cela donne pas un +100Fps Ingame malheureusement !
Moi j’ai 2 RTX 3090 et je sais pas si je vais pas attendre les RTX 5090 pour vraiment avoir un +80/100Fps pour 4000€ de carte !
aplushhhsss 😇
@Lolof 1
Petite précision : quand tu augmentes une valeur de 30% puis que tu augmentes la nouvelle valeur obtenue de 50%, tu obtiens 95% de plus et non pas 80%. 😉
J’avais oublié avec le temps pourquoi je ne voulais plus contribuer sur Etr d’aucune façon, mais revoir des posts de Lolow/FaLklast me l’on rappelé, merci.
Bah Pampa @je suis dans mon bain ,facile de dire que des gars sont des buserons quand on a rien à dire pour les contredires ?
Bah reste dans ton bain alors et bon vent 😂😂😂😂😂
AplushhssH El Pampa
Ben si tu as des corrections à apporter, des tas de gens qui lisent sans commenter pourrons en profiter. C’est la majorité silencieuse. 🙂
Salue Gege
Je calcule sur des sommes de pourcentage ,j’aurais dû écrire plutôt un +80% ,tu a raison 👍🏻👍🏻
Je suis une quiche lol 🤣🤣🤣
Aplushhhss 👍🏻👍🏻
C’est le genre d’erreur qu’on fait tous, t’inquiète ! 🙂