AMD Gerüchte schon gehört?

    • Das sehen wir dann in 4 Tagen. Am 28.10 werden die neuen Grafikkarten vorgestellt.
      Ich bin auf den Stromverbrauch gespannt, hoffentlich ist der nicht so exorbitant hoch wie bei Nvidia.

      Dann sind natürlich noch die Preise interessant!

      Man darf gespannt sein, auf jeden Fall mal wieder echte Konkurrenz am Markt!
      AMD Ryzen 7 5800X, 32GB DDR4 3800Mhz, Gigabyte X570 Elite, AMD Radeon RX 6900XT, BeQuiet! Straight Power 850W, BeQuiet! Pure Base 500DX weiß, 3x 27" Dell WQHD Monitore, Saitek Seitenkons., CSL DD, HP Reverb G2
    • Werksangaben sind so ne Sache, EVGA verpasst deren stärkster RTX Karte 500W. :rolleyes:
      System Update
      Display Spoiler

      Desktop
      CoolerMaster HAF-X I CoolerMaster 1000W RS-A00-ESBA Netzteil I
      Ryzen 7 5800x
      MSI B550 Gaming Plus I G-Skill 3200 Ram 2x16Gb I Radeon RX6700X I
      1TB Samsung 970 EVO M.2
      CPU Wassergekühlt (selbst zusammengestellte Kühlung)

      Laptop:
      I7 6700HQ I GTX1070 I 17,3" FullHD I 16GB DDR4 I 512GB M.2SSD
      Kühlpad
    • DannyA4 wrote:

      Ich bin auf den Stromverbrauch gespannt, hoffentlich ist der nicht so exorbitant hoch wie bei Nvidia.
      Laut Igor nehmen sich AMD und Nvidia da nicht viel.
      Konnte meine 3080 mit UV auf 280W drücken bei fast gleicher Leistung,aber auch die wollen mit WaKü erstmal gekühlt werden.
      Es lächerlich das der Verbrauch der neuen GPU/CPU so extrem ansteigt.Wo bleibt da der technische Fortschritt?Wenn das so weiter geht wird sich die EU früher oder später darum kümmern und den Herstellern auf die Finger klopfen.
    • Irgendwo hat da die Physik mitzureden. Geschichte wiederholt sich nicht, aber sie reimt sich, hat Mark Twain dazu einmal gesagt.

      Rueckblick: Mitte der 2000er hoerte ploetzlich das Rennen um den hoechsten Takt auf, weil der Energiebedarf zu krass geworden ist. Ich nutze heute noch Pentium4-Heizplatten, um meinen Kaffeepott auf Temperatur zu halten.
      AMD ist ja dafuer beruehmt, Heizgeraete zu bauen, weils halt in der Faildozer-Aera nicht so geklappt hat mit Energie-Effizienz
      Mehr Rechenleistung zu bekommen und dabei die Stromaufnahme im Griff zu behalten, hat in den letzten Jahren nur mit mehr Transistoren bei fallenden Strukturgroessen geklappt, aber jetzt wirds bald eng mit der atomaren Struktur von Silizium und der Belichtungstechnik.

      Da kann die EU Vorgaben machen, wie sie will, die Physik sorgt ja auch dafuer, dass weniger Kraftstoffverbrauch bei immer groesser und schwerer werdenden Autos ein Ding der Unmoeglichkeit ist.
      Die Kunst der Programmierung besteht darin, eine leere Textdatei mit Bugs zu befüllen
      System: i5-3570k | AsRock Z77 Pro4 | 16GB DDR3 | Nvidia RTX 2060 Super | OS: Gentoo Linux | DE: awesomewm
    • rss wrote:

      Deswegen steige ich im Winter auf AMD um. Spart Heizkosten
      Da setzt du dann aber genau auf´s falsche Pferd! Denn die neuen AMD Prozessoren sind effizienter als die Intel!

      Du wirst frieren!
      AMD Ryzen 7 5800X, 32GB DDR4 3800Mhz, Gigabyte X570 Elite, AMD Radeon RX 6900XT, BeQuiet! Straight Power 850W, BeQuiet! Pure Base 500DX weiß, 3x 27" Dell WQHD Monitore, Saitek Seitenkons., CSL DD, HP Reverb G2
    • Luffi wrote:

      Es lächerlich das der Verbrauch der neuen GPU/CPU so extrem ansteigt.Wo bleibt da der technische Fortschritt?
      Bitte nicht GPU und CPU in einen Topf werfen, die CPU´s sind wesentlich effizienter geworden, was man von den neuen Grafikkarten nicht unbedingt behaupten kann.
      AMD Ryzen 7 5800X, 32GB DDR4 3800Mhz, Gigabyte X570 Elite, AMD Radeon RX 6900XT, BeQuiet! Straight Power 850W, BeQuiet! Pure Base 500DX weiß, 3x 27" Dell WQHD Monitore, Saitek Seitenkons., CSL DD, HP Reverb G2
    • DannyA4 wrote:

      rss wrote:

      Deswegen steige ich im Winter auf AMD um. Spart Heizkosten
      Da setzt du dann aber genau auf´s falsche Pferd! Denn die neuen AMD Prozessoren sind effizienter als die Intel!
      Du wirst frieren!
      GCC und LLVM werdens schon richten ;)
      Die Kunst der Programmierung besteht darin, eine leere Textdatei mit Bugs zu befüllen
      System: i5-3570k | AsRock Z77 Pro4 | 16GB DDR3 | Nvidia RTX 2060 Super | OS: Gentoo Linux | DE: awesomewm
    • Luffi wrote:

      DannyA4 wrote:

      ...die CPU´s sind wesentlich effizienter geworden
      Ist das so?Einen 8 Kerner mit 100W TDP konnte man schon vor 2 Jahren kaufen,warten wir mal ab was die 5000er Ryzen im Usecase verbrauchen und ob die Benchmarks mit angegebener TDP gemacht wurden.
      TDP =/= Verbrauch

      wenn ich sehe das ein I7 mit 8 Kernen mehr verbraucht als der R7 von AMD is schon schlecht für Intel.

      Die beiden R5 haben eine TDP von 65 Watt was aber nur heißt Temperature Designe Power und den Kühler Hersteller einen ungefähren Anhaltspunkt geben soll wie stark der Kühler sein sollte.

      Ein R7 3700X hat eine TDP von ebenso 65 und der 3800X von 105 Watt was aber nix heißt. Ich kann auch einen R5 oder R7 auf 150 Watt verbrauch bekommen. Die Intel der 10. Gen verbrauchen alle mehr bzw haben eine Weit höhere TDP wie AMD.

      Es ist somit nur gerecht wenn @DannyA4 sagt das die Behauptung AMD würde zu Heiß werden eine Lüge ist, die letzten Tests hatten gezeigt das ein Intel immer zu viel Verbraucht wenn ich seine TDP nicht begrenze.

      Ich würde mal sagen die neuen Navi GPU's werden so zwischen 200 - 330 Watt verbrauchen die TGP gibt AMD mit 170 - 235 Watt an was aber nur die GPU einbezieht nicht die ganze Platine.
      Mein Rechenknecht: CPU: Ryzen 5 2600 / RAM: 16 GB G.SKILL 3200 MHz / GPU: RX 5700XT Red Devil
    • @Luffi Jaein, die Gerüchte gehen schon länger durch das Netzt und auch Igor hat es schon vor Release von Ampere einmal erwähnt. Igor hat es so nicht ganz so mit Gerüchten.

      Im Grunde kann keiner sagen was wir erhalten den keiner kennt die genauen Daten der neuen GPU nicht mal die Entwickler kannten diese bis kurz vor Release einfach weil AMD große Leaks verhindern wollte. Ich hoffe nur eines das AMD nicht den gleichen Fehler macht wie NVIDIA und die Verkaufszahlen unterschätzt.

      Tante Edit: wo wir schon bei Igor sind muss ich diesen Spekulatius auch noch los werden den er gebracht hat.

      Benchmark für die alten ü30.

      Und für die Jugend welche nur dem Medium aus Bild und Ton in einer Laufenden Bewegung folgen kann
      Mein Rechenknecht: CPU: Ryzen 5 2600 / RAM: 16 GB G.SKILL 3200 MHz / GPU: RX 5700XT Red Devil

      The post was edited 1 time, last by Elistaer ().

    • Habe zur Zeit einen R7-5800X (wollte eigentlich einen R5-5600X, der kommt aber erst am Montag) am laufen .
      Zur Zeit läuft Space Engineers auf Bildschirm 1, auf dem zweiten Bildschirm VLC mit einer DVD und da pendelt das System zwischen 49° und 74° C.
      Kühler ist übrigens ein Noctua NH-D15. Die einzelnen Kerne sind selten etwas über 20% ausgelastet.

      Im Vergleich zum 3700X sind es ca. 5° mehr, bei gleichem Kühler allerdings mehr Verbrauch des 5800X (zwischen 57 und 109 W).
    • stdok wrote:

      Im Vergleich zum 3700X sind es ca. 5° mehr, bei gleichem Kühler allerdings mehr Verbrauch des 5800X (zwischen 57 und 109 W).
      waere ja auch ein kleines Wunder, wenn der Kuehler was am Stromverbrauch aendern wuerde...
      Die Kunst der Programmierung besteht darin, eine leere Textdatei mit Bugs zu befüllen
      System: i5-3570k | AsRock Z77 Pro4 | 16GB DDR3 | Nvidia RTX 2060 Super | OS: Gentoo Linux | DE: awesomewm
    • stdok wrote:

      Habe zur Zeit einen R7-5800X (wollte eigentlich einen R5-5600X, der kommt aber erst am Montag) am laufen .
      Zur Zeit läuft Space Engineers auf Bildschirm 1, auf dem zweiten Bildschirm VLC mit einer DVD und da pendelt das System zwischen 49° und 74° C.
      Kühler ist übrigens ein Noctua NH-D15. Die einzelnen Kerne sind selten etwas über 20% ausgelastet.

      Im Vergleich zum 3700X sind es ca. 5° mehr, bei gleichem Kühler allerdings mehr Verbrauch des 5800X (zwischen 57 und 109 W).
      Bei mir wird es ohne Eile der 5900X wenn Asus mal das Dark Hero released,Der Workflow hat sich geändert und damit kann ich die Kerne gut gebrauchen.
      Im Singlecore sind die Ryzen jetzt auch oben dabei,AMD hat geliefert.
    • stdok wrote:

      Im Vergleich zum 3700X sind es ca. 5° mehr, bei gleichem Kühler allerdings mehr Verbrauch des 5800X
      Naja, der 5800 scheint, was die Temperatur angeht, in der Serie nicht gerade der Sweetspot zu sein..
      computerbase.de/2020-11/amd-ry…mperaturen_unter_volllast

      Der R5 und die R9 scheinen hier besser aufgestellt zu sein.


      Wer Lust auf den ganzen Artikel hat:
      computerbase.de/2020-11/amd-ry…mperaturen_unter_volllast

      Schade nur, dass die Teile bereits Stunden nach dem Launch ausverkauft waren.
      AMD Ryzen 7 5800X, 32GB DDR4 3800Mhz, Gigabyte X570 Elite, AMD Radeon RX 6900XT, BeQuiet! Straight Power 850W, BeQuiet! Pure Base 500DX weiß, 3x 27" Dell WQHD Monitore, Saitek Seitenkons., CSL DD, HP Reverb G2
    • Egal ob Intel / Nvidia oder AMD, die denken wohl alle das keiner deren Produkte kauft und liefern erstmal nur wenige zum Start aus.
      :D
      System Update
      Display Spoiler

      Desktop
      CoolerMaster HAF-X I CoolerMaster 1000W RS-A00-ESBA Netzteil I
      Ryzen 7 5800x
      MSI B550 Gaming Plus I G-Skill 3200 Ram 2x16Gb I Radeon RX6700X I
      1TB Samsung 970 EVO M.2
      CPU Wassergekühlt (selbst zusammengestellte Kühlung)

      Laptop:
      I7 6700HQ I GTX1070 I 17,3" FullHD I 16GB DDR4 I 512GB M.2SSD
      Kühlpad
    • tgs_wort wrote:

      Egal ob Intel / Nvidia oder AMD, die denken wohl alle das keiner deren Produkte kauft und liefern erstmal nur wenige zum Start aus.
      :D


      Naja, denke dass potenzielle Käufer das weniger lustig sehen als du. ;)
      Teilweise sind Nvidia-Anhänger auch schon richtig sauer auf die derzeitige Liefersituation bei Nvidia.
      Es liegt auch weniger an den von dir genannten Firmen, dass keine/wenig Produkte geliefert werden, als mehr an den Chipfabriken dahinter. (TSMC/Samsung/Intel selbst)
      Die Fertigungskapazitäten sind einfach zu gering, bei der enormen Nachfrage.
      Es wird auch gemunkelt, dass die Waferausbeute bei Samsungs 8nm Prozess noch lang nicht auf dem erwartetem Niveau sein soll.

      Bin mal gespannt, wie sich die Lage weiter entwickelt.
      AMD Ryzen 7 5800X, 32GB DDR4 3800Mhz, Gigabyte X570 Elite, AMD Radeon RX 6900XT, BeQuiet! Straight Power 850W, BeQuiet! Pure Base 500DX weiß, 3x 27" Dell WQHD Monitore, Saitek Seitenkons., CSL DD, HP Reverb G2
    • DannyA4 wrote:

      Teilweise sind Nvidia-Anhänger auch schon richtig sauer auf die derzeitige Liefersituation bei Nvidia.
      Hatte Glück und konnte die 3080 zur UVP kaufen,trotzdem ist die Liefersituation von NVidia eine Frechheit.
      Selbst nach fast 2 Monaten warten viele Besteller auf die Karten und sind in Vorkasse getreten,unter den Umständen und der sehr schlechten Verfügbarkeit hätte NVidia den Release verschieben müssen.
    • Bin gespannt bzw. hoffe ich, dass es beim Launch der BigNavi wenigstens etwas besser abläuft. :/
      Benötige für meine bald kommende Reverb G2 dringend eine 6800XT.
      AMD Ryzen 7 5800X, 32GB DDR4 3800Mhz, Gigabyte X570 Elite, AMD Radeon RX 6900XT, BeQuiet! Straight Power 850W, BeQuiet! Pure Base 500DX weiß, 3x 27" Dell WQHD Monitore, Saitek Seitenkons., CSL DD, HP Reverb G2
    • Die Hersteller sind bestimmt auch nicht gluecklich ueber die Lieferengpaesse...

      DannyA4 wrote:

      Die Fertigungskapazitäten sind einfach zu gering, bei der enormen Nachfrage.
      Es wird auch gemunkelt, dass die Waferausbeute bei Samsungs 8nm Prozess noch lang nicht auf dem erwartetem Niveau sein soll.

      Bin mal gespannt, wie sich die Lage weiter entwickelt.
      Das Problem hat z.B. Intel schon seit langem, die bekommen ihren 14nm-Prozess nicht in den Griff, deswegen hat Fujitsu unsere Firma schon letztes Jahr nicht mit ausreichend Notebooks beliefern koennen.

      Ich glaube nicht, dass die Lage langfristig besser wird, beim naechsten Strukturshrink wirds noch spannender.
      Die Kunst der Programmierung besteht darin, eine leere Textdatei mit Bugs zu befüllen
      System: i5-3570k | AsRock Z77 Pro4 | 16GB DDR3 | Nvidia RTX 2060 Super | OS: Gentoo Linux | DE: awesomewm
    • Nein, da bin ich mir ganz und gar nicht sicher :D
      Vielleicht ist es mittlerweile der 10nm-Prozess oder er war es damals schon, als wir diese Nachrichten bekommen haben, ich bin nicht mehr so tief in der Materie drin, wie ich gern waere.
      Die Kunst der Programmierung besteht darin, eine leere Textdatei mit Bugs zu befüllen
      System: i5-3570k | AsRock Z77 Pro4 | 16GB DDR3 | Nvidia RTX 2060 Super | OS: Gentoo Linux | DE: awesomewm
    • So Leute, heute war es endlich so weit!

      Ich habe mich sehr kurzfristig um-entschieden und bin von der gewollten 6800XT auf eine 6900XT gegangen, da nur diese am Releasetag für ungefähr 10 Sekunden verfügbar war.

      Eben ist sie angekommen:


      AMD Ryzen 7 5800X, 32GB DDR4 3800Mhz, Gigabyte X570 Elite, AMD Radeon RX 6900XT, BeQuiet! Straight Power 850W, BeQuiet! Pure Base 500DX weiß, 3x 27" Dell WQHD Monitore, Saitek Seitenkons., CSL DD, HP Reverb G2