» Willkommen auf News «

Venom
aus Berlin
offline


OC God
18 Jahre dabei !

Intel Pentium III
500 MHz @ 666 MHz mit 1.54 Volt


Allet schön und gut, aber ich versteh trotzdem nicht warum Du glaubst daß die Bezeichnungen einfacher werden nur weil Grafik und CPU in einem Chip stecken.. für die Bezeichnung ist Management und Marketing zuständig, und die haben mal absolut kein Interesse dadran das durchschaubar zu machen ;)


ich mag Kinder... ich schaff nur kein ganzes

Beiträge gesamt: 1771 | Durchschnitt: 0 Postings pro Tag
Registrierung: Juni 2003 | Dabei seit: 6578 Tagen | Erstellt: 0:04 am 16. Nov. 2006
kammerjaeger
aus Versehen
offline



Real OC or Post God !
18 Jahre dabei !

Intel Core i3
3100 MHz mit 1.10 Volt


Es geht doch gar nicht primär um die Namensgebung (die ist nur das Tüpfelchen auf dem i), sondern um die Vielfalt der Kombinationsmöglichkeiten, bei denen der normale Kunde nicht durchblicken kann!

AMD hat alleine für Sockel AM2 >30 versch. CPUs im Programm (inkl. EE-Modelle und Opteron).
ATI hat selbst von der X1xxx-Reihe für PCIe schon 15 versch. GPUs, die es in mehreren Speicherausstattungen gibt. So hat man selbst ohne die alten Generationen (X8xx etc.) und von abweichenden Taktraten und OEM-Sondermodellen abgesehen schon ca. 25 Wahlmöglichkeiten. Von div. Herstellern und den entsprechend anders verbauten Kühlern (z.B. spezielle Passiv-Varianten etc.) will ich erst gar nicht reden...

So ergeben sich mal locker 700-800 mögliche Kombinationen nur alleine bei ATI/AMD auf Sockel AM2 mit PCIe.

Du wirst mir doch wohl Recht geben, daß ATI/AMD in Zukunft keine 750 unterschiedlichen "CGPU"s (Wortschöpfung von mir, Mischung aus CPU und GPU ;)) bauen wird. Denn welchen Sinn macht z.B. eine High-End-GPU mit einer Low-Budget-CPU?

Stattdessen wird man so kombinieren, wie es Sinn macht:
- eine stromsparende Variante ohne große Videoleistung für den typischen Office-PC
- eine Variante mit erweiterten Multimedia-Eigenschaften für den HTPC oder Video-Freak
- eine Version für den Gamer

Die wird es dann wohl in jeweils mehreren Leistungsstufen geben, aber insgesamt nicht mehr als es jetzt CPUs gibt!
Das senkt auch die Produktionskosten.

Weiterer Vorteil solch integrierter Lösungen ist der Notebook-Bereich, da man Entwicklungskosten einspart, weil man so nur ein Teil baut und dies besser an den Chipsatz anpassen kann.



Das einzige Problem, was dabei auf AMD/ATI zukommen könnte, ist folgendes:
Durch die Komplexität der CGPU könnte es zu längeren Produktzyklen kommen. Dies schafft u.U. Raum für die Konkurrenz....

Wenn aber das Konzept aufgeht, hat es für den User nur Vorteile:
- der PC kann zielgerichteter, schneller und trotzdem billiger werden
- die Software-Programmierer haben simplere Plattformen, an denen sie sich orientieren müssen (z.B. Spiele oder Video-Codecs könnten schneller/effektiver programmiert werden)
- durch die längeren Produktzyklen schießen sich die Spiele-Entwickler darauf ein und man wird nicht jedes halbe Jahr in Versuchung kommen, neue Hardware kaufen zu müssen
- durch die Vereinheitlichung können Treiber besser optimiert werden, der PC dadurch schneller und stabiler werden.
- neue CGPU-Generationen werden mehr sein als nur ein Facelift, sondern immer eine neue Evolutionsstufe

Jetzt, wo ich das alles schreibe, fällt mir auf, daß wir so etwas ähnliches schon haben: Den Mac!
Auch dort ist die Software besser programmiert, die Produktzyklen länger und somit auch die Nutzungsdauer des Durchschnittscomputers. ;)


Ich hoffe, daß die Sache nun etwas verständlicher ist... ;)

(Geändert von kammerjaeger um 2:22 am Nov. 16, 2006)


PC1: i3-2100, HD 5870, 8GB /// PC2: X3 435@3,22GHz, HD 5750, 4GB /// PC3: X3 400e@2,3GHz @0,99V, HD 5670, 4GB ///  Mein Spielmobil

Beiträge gesamt: 30834 | Durchschnitt: 5 Postings pro Tag
Registrierung: Jan. 2003 | Dabei seit: 6723 Tagen | Erstellt: 2:19 am 16. Nov. 2006
DJ
aus Luxemburg
offline



OC God
19 Jahre dabei !

Intel Pentium IV
2400 MHz @ 3078 MHz
50°C mit 1.70 Volt



Jetzt, wo ich das alles schreibe, fällt mir auf, daß wir so etwas ähnliches schon haben: Den Mac!
Auch dort ist die Software besser programmiert, die Produktzyklen länger und somit auch die Nutzungsdauer des Durchschnittscomputers.




Naja meine sicht zu dieser aussage. :)

1) MAC's gibt's keine mehr sie nutzen intel prozessoren was ein riesenrueckschritt bis jetzt ist.

2) LOL LOL LOL LOL mac hat ne nutzungsdauer von 0.0 es gibt sehr wenige bereiche wo man ihn wirklich nutzen konnte dtp fuer grafiker usw, ansonsten haben selten leute einen gehabt ausser paar leute die halt anders sein mussten.

3) Hat sich nie durchgesetzt.

4) Sind zu teuer ob das noch immer so ist kein plan.

5) Die maus die immer an solchen machwerken angeschlossen ist eine frechheit zum arbeiten.

6) Das schlimmste man kann das teil nicht zum zocken benutzen es gibt fast keine spiele was soll ich mit nem computer mit dem ich nicht mal zocken kann , fuer nutzsoftware wuerde eigentlich die pc's vor 10 jahren in den meisten faellen auch reichen. Da wundern mich laengere produktionszyklen nicht.


Wie gesagt heutige monster maschienen kann man eigentlich nur mit Spielen rechtfertigen sogar intel macht werbung immer in die richtung, also mac ist und bleibt was fuer insel loesungen und spinner die halt anders sein wollen mehr nicht und es wird solange bleiben wie es keine spiele dafuer gibt.


Ich haette auch gerne gehabt das mac sich durchsetzt tja aber mac gibt's nimmer was nen intel prozzi hat ist fuer mich ein PC. ;)


CU

Beiträge gesamt: 8177 | Durchschnitt: 1 Postings pro Tag
Registrierung: April 2002 | Dabei seit: 7008 Tagen | Erstellt: 11:28 am 16. Nov. 2006
smoke81
offline



OC God
17 Jahre dabei !

AMD Phenom II
3000 MHz @ 3200 MHz mit 1.325 Volt



Denn welchen Sinn macht z.B. eine High-End-GPU mit einer Low-Budget-CPU?


Sinn hat sowas durchaus und zwar in leistungsstarken (CPU-Power) Firmenrechnern und Workstations.
Zwar treiben die Gamer den Fortschritt voran, aber man darf dieses zahlungskräftige Klientel mit riesigen Abnahme-Stückzahlen nicht ausschließen.
EDIT: Hab es genau anders herum gelesen :lol:
Aber auch dieser Markt könnte gebraucht werden. Viele Spiele werden ja für eine Konsolenumgebung entwickelt und daher ist nunmal die CPU-Power begrenzt. Die höhere Grafikpower könnte man jedoch relativ leicht ausnutzen und dann auf dem PC oder einer erweiterten Konsole bessere Grafik bieten. Eine höhere CPU-Leistung würde allerdings nicht viel bringen.

Die erhöhte Rechenpower bringt Möglichkeiten mit sich, von denen z.B. ein Ingenieur vor 10 oder 20 Jahren nur träumen konnte...

Die kurzen Produktzyklen haben natürlich auch Vorteile. So kann man sich das "alte" High-End-Modell zu einem günstigen Preis sichern und hat mehr als ausreichend Power, da die Software, der Hardware-Entwicklung in der Regel hinterher hinkt (mal abgesehen von schlecht programmierten Spielen und Anwendungen...).
Jedenfalls hat man so einen raschen Preisverfall, was ich eher als Vorteil sehe (wenn man nicht immer das teuerste und neueste haben muss) als z.B. längere Produktzyklen.

Apropos:
Den meisten im Forum würde doch sehr langweilig werden, wenn sie nicht mehrmals im Jahr den Rechner komplett umbauen würden und dies auch noch z.T. rechtfertigen können... :lol:

Ein überdenkenswerter Punkt wäre auch, wie es dann wohl mit den Aufrüstungen aussehen würde. Da immer mehr Funktionen in die CPU und immer weniger in den Chipsatz integriert werden, könnte so ein Mainboard eine längere Lebensdauer haben, zumindest solange die Speichersockel und die verbauten Spannungsregler kompatibel sind.

Ich denke sowieso, dass (zumindest anfangs) die "CGPUs" nur recht schwache Grafikeinheiten verpasst bekommen (für Office, HTPC-Einsatz etc.), aber der Gamer-Markt noch sehr lange auf dedizierte Karten zurückgreifen wird.

Aber bis es soweit ist, rauscht sicherlich noch einiges Wasser den Bach runter. Man glaubte zwar nicht daran, dass heutzutage ein Grafikchip mit rund 700 Mio. Transistoren in 90nm-Technik bei höheren Taktraten technisch möglich ist, aber dann wurden alle vom Gegenteil überzeugt...
Die Komplexität einer "CGPU" wird noch einiges mehr an Entwicklungsaufwand verlangen...

Ein wesentlichen Vorteil haben/hätten jedoch CGPUs: Zwar würden die Treiber meiner Meinung nach auch komplexer werden (im Vergleich zu separaten Treibern), jedoch kann man dann endlich ungebremst die gewaltige Rechenpower der GPUs in Multimedia-Anwendungen etc. ausnutzen und hätte so einen gewaltigen Zuwachs in der Performance bei parallelisierbaren Aufgaben :thumb:

(Geändert von smoke81 um 12:11 am Nov. 16, 2006)


>> Jetway PA78GT3, X4 940 BE @ 3,2 Ghz, HD4890 BE @ 1000/1200 Mhz @ 1,274V
>> Asus M3A-H/HDMI, X4 620, 4GB, HD3850 256MB

Beiträge gesamt: 4439 | Durchschnitt: 1 Postings pro Tag
Registrierung: Jan. 2004 | Dabei seit: 6368 Tagen | Erstellt: 12:08 am 16. Nov. 2006
kammerjaeger
aus Versehen
offline



Real OC or Post God !
18 Jahre dabei !

Intel Core i3
3100 MHz mit 1.10 Volt



Zitat von DJ um 11:28 am Nov. 16, 2006

2) LOL LOL LOL LOL mac hat ne nutzungsdauer von 0.0 es gibt sehr wenige bereiche wo man ihn wirklich nutzen konnte dtp fuer grafiker usw, ansonsten haben selten leute einen gehabt ausser paar leute die halt anders sein mussten.

3) Hat sich nie durchgesetzt.



Sorry, aber in einigen Bereichen (z.B. Grafiker oder Musik) ist der MAC nunmal sehr stark. Und wer ihn dort nutzt, hat definitiv eine durchschnittlich längere Nutzungsdauer, als der Standard-Windows-User bei seinem PC!

Natürlich hat der MAC von den Verkaufszahlen nicht das Niveau des PC, aber darum geht es doch auch gar nicht. Ich will auch nicht sagen, daß der MAC das bessere Konzept hat o.ä., sondern es geht nur um die Änderung der Produktzyklen und die Auswahlmöglichkeiten im PC-Segment. Daß der PC gegenüber dem MAC natürlich die bessere Spieleplattform darstellt, steht dabei außer Frage!





Zitat von smoke81 um 12:08 am Nov. 16, 2006

Ich denke sowieso, dass (zumindest anfangs) die "CGPUs" nur recht schwache Grafikeinheiten verpasst bekommen (für Office, HTPC-Einsatz etc.), aber der Gamer-Markt noch sehr lange auf dedizierte Karten zurückgreifen wird.



Und genau das ist eben eine Frage der Entwicklungsarbeit. Wenn man eine passende Architektur findet, dann kann man damit einen Sprung in der Spielegrafik nach vorn machen, weil bei dieser integrierten Lösung der Flaschenhals über den Bus entfällt und die Datenwege verkürzt werden. So kann es besonders im Spielebereich eine mächtige Evolution geben.

Aber dies werden wir in 2007 und wohl selbst in 2008 noch nicht erleben...  ;)


PC1: i3-2100, HD 5870, 8GB /// PC2: X3 435@3,22GHz, HD 5750, 4GB /// PC3: X3 400e@2,3GHz @0,99V, HD 5670, 4GB ///  Mein Spielmobil

Beiträge gesamt: 30834 | Durchschnitt: 5 Postings pro Tag
Registrierung: Jan. 2003 | Dabei seit: 6723 Tagen | Erstellt: 13:30 am 16. Nov. 2006
smoke81
offline



OC God
17 Jahre dabei !

AMD Phenom II
3000 MHz @ 3200 MHz mit 1.325 Volt



Zitat von kammerjaeger um 13:30 am Nov. 16, 2006

Und genau das ist eben eine Frage der Entwicklungsarbeit. Wenn man eine passende Architektur findet, dann kann man damit einen Sprung in der Spielegrafik nach vorn machen, weil bei dieser integrierten Lösung der Flaschenhals über den Bus entfällt und die Datenwege verkürzt werden. So kann es besonders im Spielebereich eine mächtige Evolution geben.

Aber dies werden wir in 2007 und wohl selbst in 2008 noch nicht erleben...  ;)



Den Datenbus sehe ich gar nicht als Flaschenhals. Sicherlich stecken auch da einige % Leistung und Optimierungsmöglichkeiten drin, aber man sehe sich z.B. mal den "Unterschied" zwischen PCIe 8x und 16x an...
Diese Schnittstelle eilt den Anforderungen etwas voraus (Bei dem Thema wäre vielleicht mal USB3.x etc. fällig... oder mal abwarten, inwieweit sich eSATA durchsetzen kann...).

Als wirklich sehr großen Vorteil sehe ich die bedingungslose Ausnutzung der GPU-Leistung für andere Zwecke. Mittlerweile haben sich die GPUs zu fast universalen superparallelen Rechenmonstern entwickelt. Ob man diese dann für Multimedia, Physik oder wissenschaftliche Berechnungen einsetzt ist eigentlich egal und wird schon JETZT versucht umzusetzen.

Wenn es ZUKÜNFTIG entsprechende parallelisierbare Aufgaben gibt und diese über die Software gut kodiert werden, DANN könnten sich durchaus Anwendungen auftun, die erheblich von der kürzeren Anbindung profitieren werden/würden. Noch ist das Datenaufkommen zwischen CPU und GPU relativ gering und kann sehr gut mit den heutigen Standards bewältigt werden.

Ich argumentiere also absolut nicht mit einer verbesserten Spielegrafik, sondern anderen Anwendungen, die daraus erheblichen Nutzen ziehen könnten.

Vor ein paar Monaten habe ich mal einen sehr interessanten Artikel gelesen (weiß nur nicht mehr wo...), der sich mit der Frage beschäftigt, was wäre, wenn CPUs so leistungsfähig werden würden, dass sie ohne Probleme realitätsnahe Grafik in Echtzeit berechnen können...
Unter anderem bei Computerbase war vor ein paar Tagen auch ein Bericht über ein raytraced Quake 4, dass mit geringer Auflösung und mit einem neuen C2D Quadcore schon recht ordentliche Bildwiederholraten erzielt hat...

Meine Meinung und Gedanken dazu:
- "Reality-Grafik" wird man nie erreichen können, da dafür unendliche Ressourcen gebraucht werden. Beschränkt man die Grafik allerdings z.B. auf bestimmte Zoomstufen, dann könnte durchaus eine Grenze erreicht werden, bei der man von Reality-Grafik sprechen kann (der Mensch bzw. das menschliche Auge als limitierender Faktor). Damit bräuchte man auch "nur" eine endliche Rechenpower, die man eines Tages erreichen wird. Für andere "Anwendungen" wie KI etc. kann man jedoch nie genug Rechenleistung haben. Eine Grenze für die (benötigte) Rechenpower einer KI ist also nicht vorhanden und läßt sich immer ausnützen. Die Möglichkeiten, aber auch Gefahren einer KI, die keiner mehr versteht und jedem Menschen überlegen ist, kann sich jeder selber ausmalen... ;)

- Die Zukunft steckt mit Sicherheit in CPUs mit einer hohen Anzahl an parallelen und gleichzeitig hochspezialisierten Einheiten, denn die Rechenleistung einer "Universal-CPU" läßt sich nicht in dem Maße steigern wie mit diesen einfachen Spezialprozessoren und ist aber auch nicht notwendig... Diese zukünftigen Prozessoren werden dann CGPUs und noch viel mehr sein.

- Geht man von der Annahme aus, dass man etwa die 1000-fache Grafikleistung (1000x G80) von heute brauchen würde, damit man eine Spiele-Grafik erzeugen kann, die nicht mehr von einem Film zu unterscheiden ist und die Entwicklung in dem Tempo wie bisher verläuft, dann kann man bereits in 15-20 Jahren damit rechnen.

Dieses Szenario macht mir auf jeden Fall etwas Angst... Weltwirtschaftskrise usw.... Eine riesige Branche würde vor dem Aus stehen mit allen Konsequenzen... Übertakten bräuchte man schon lange nicht mehr (oh Gott)... und und und...

ABER den Teufel werden die führenden Technologieunternehmen tun. Fortschritt bekommen wir nur häppchenweise und solange es so bleibt, dauert es auch noch sehr sehr lange, bis wir (= Normalverbraucher) keine Anwendungen mehr finden und haben, die nicht noch etwas mehr Rechenpower benötigen könnten... :lol:

Jetzt bin ich etwas abgeschweift vom Thema... :lol:


>> Jetway PA78GT3, X4 940 BE @ 3,2 Ghz, HD4890 BE @ 1000/1200 Mhz @ 1,274V
>> Asus M3A-H/HDMI, X4 620, 4GB, HD3850 256MB

Beiträge gesamt: 4439 | Durchschnitt: 1 Postings pro Tag
Registrierung: Jan. 2004 | Dabei seit: 6368 Tagen | Erstellt: 14:23 am 16. Nov. 2006
DJ
aus Luxemburg
offline



OC God
19 Jahre dabei !

Intel Pentium IV
2400 MHz @ 3078 MHz
50°C mit 1.70 Volt


@kammerjaeger

Sorry, aber in einigen Bereichen (z.B. Grafiker oder Musik) ist der MAC nunmal sehr stark. Und wer ihn dort nutzt, hat definitiv eine durchschnittlich längere Nutzungsdauer, als der Standard-Windows-User bei seinem PC!


Jepp genau so ist es :) auch wenn ich mich mit sowas nie anfreunden konnte.  ;)


CU

Beiträge gesamt: 8177 | Durchschnitt: 1 Postings pro Tag
Registrierung: April 2002 | Dabei seit: 7008 Tagen | Erstellt: 14:57 am 16. Nov. 2006
nummer47
aus Magdeburg
offline



OC God
17 Jahre dabei !

Intel Core 2 Quad
2400 MHz @ 2400 MHz



Zitat von DJ um 11:28 am Nov. 16, 2006

Jetzt, wo ich das alles schreibe, fällt mir auf, daß wir so etwas ähnliches schon haben: Den Mac!
Auch dort ist die Software besser programmiert, die Produktzyklen länger und somit auch die Nutzungsdauer des Durchschnittscomputers.




Naja meine sicht zu dieser aussage. :)

1) MAC's gibt's keine mehr sie nutzen intel prozessoren was ein riesenrueckschritt bis jetzt ist.

2) LOL LOL LOL LOL mac hat ne nutzungsdauer von 0.0 es gibt sehr wenige bereiche wo man ihn wirklich nutzen konnte dtp fuer grafiker usw, ansonsten haben selten leute einen gehabt ausser paar leute die halt anders sein mussten.

3) Hat sich nie durchgesetzt.

4) Sind zu teuer ob das noch immer so ist kein plan.

5) Die maus die immer an solchen machwerken angeschlossen ist eine frechheit zum arbeiten.

6) Das schlimmste man kann das teil nicht zum zocken benutzen es gibt fast keine spiele was soll ich mit nem computer mit dem ich nicht mal zocken kann , fuer nutzsoftware wuerde eigentlich die pc's vor 10 jahren in den meisten faellen auch reichen. Da wundern mich laengere produktionszyklen nicht.


Wie gesagt heutige monster maschienen kann man eigentlich nur mit Spielen rechtfertigen sogar intel macht werbung immer in die richtung, also mac ist und bleibt was fuer insel loesungen und spinner die halt anders sein wollen mehr nicht und es wird solange bleiben wie es keine spiele dafuer gibt.


Ich haette auch gerne gehabt das mac sich durchsetzt tja aber mac gibt's nimmer was nen intel prozzi hat ist fuer mich ein PC. ;)





1.) Macs nutzen jetzt Intel Prozessoren, und sind dadurch im Schnitt um den Faktor 1,7 schneller geworden.
2.) Ich mache alles auf meinem Mac was ihr auch so macht. Email, Foren, Video, iTunes, Schule, ICQ... aber auch zocken (ja es gibt Mac Spiele; Quake, Call of Duty 1+2 etc..!)
Alles was nur unter XP läuft is eigentlich auch kein DIng, denn mit Bootcamp kann ich WIndows XP booten und dann jedes Spiel spielen dank X1600Pro und Core Dou
3.) Stimmt, aber in einigen Bereichen sind Macs Windows PC's vielfach überlegen (Netzwerkintegration, SIcherheit, Anwenderfreundlichkeit, Design...)
4.) Stimmt, aber früher wars schlimmer
5.) Also ich nutze meine Logitech MX610 und n Cordless Desktop LX300 ohne Einschränkungen an meinem Mac. Es gibt auch einen Rechtsklick ^^
6.) Na dann versuch mal Photoshop oder irgendein CAD Programm auf nem P1 laufen zu lassen...



leute, guckt auch über den Tellerrand.


jetz woll'n wa ma studiern, wa?

Beiträge gesamt: 4030 | Durchschnitt: 1 Postings pro Tag
Registrierung: Dez. 2003 | Dabei seit: 6386 Tagen | Erstellt: 17:17 am 16. Nov. 2006
DJ
aus Luxemburg
offline



OC God
19 Jahre dabei !

Intel Pentium IV
2400 MHz @ 3078 MHz
50°C mit 1.70 Volt


@nummer47 ich kucke ueber den teller rand aber die paar opengl shooter machen die gans nicht fett sorry dass sind mac user mit rosa roter brille sind die schlimmsten soviel zum tellerrand kucken. :)

Aber stimmt seit dem die mac's intel haben kann man windows xp drauf machen aber sorry dann sind es keine mac's mehr hehe. :)

3) anwenderfreundlichkeit und design streite ich ab hehe. :)

4) frueher gab's auch noch mac's jetzt sinds pc mit nem alternativen betriebsystem (aka linux usw.)

5) die maeuse sind auch nicht vill besser aber toll endlich gibts rechtsklick :)

6) jo geht die ganze alten sachen (frueher hiess das corel draw wenn natuerlich aktuellen murks nennst der 3 milliarden vom allen braucht ist es klar dass es nicht laeuft) und du hast fast die einzigen anwendungen gennant die neben spielen auch leistung brauchen.


Sorry aber so sehe ich es der naechste mac den ich in die finger bekomme kann es ja wieder versuchen mich zu ueberzeugen aber bis jetzt waren sie immer entaeuschend aus meiner sicht. ;)

Aber ich geb's nicht auf auch wenns ja jetzt keine mac's mehr gibt. :lol:


CU

Beiträge gesamt: 8177 | Durchschnitt: 1 Postings pro Tag
Registrierung: April 2002 | Dabei seit: 7008 Tagen | Erstellt: 17:56 am 16. Nov. 2006
kammerjaeger
aus Versehen
offline



Real OC or Post God !
18 Jahre dabei !

Intel Core i3
3100 MHz mit 1.10 Volt



Zitat von smoke81 um 14:23 am Nov. 16, 2006

Den Datenbus sehe ich gar nicht als Flaschenhals. Sicherlich stecken auch da einige % Leistung und Optimierungsmöglichkeiten drin, aber man sehe sich z.B. mal den "Unterschied" zwischen PCIe 8x und 16x an...
Diese Schnittstelle eilt den Anforderungen etwas voraus (Bei dem Thema wäre vielleicht mal USB3.x etc. fällig... oder mal abwarten, inwieweit sich eSATA durchsetzen kann...).



Der ist nur deshalb nicht der Flaschenhals, weil entsprechend programmiert wird! Schließlich soll das Spiel ja sogar auf AGP-Systemen laufen... ;)

Wenn nun aber diese Beschränkung wegfällt, kann ganz anders programmiert werden. Außerdem können CPU und GPU flexibler eingesetzt werden, ähnlich wie frei programmierbare Shader aktueller Karten. Dafür ist der Bus momentan einfach zu lahm, deswegen nutzt man ihn nicht.


PC1: i3-2100, HD 5870, 8GB /// PC2: X3 435@3,22GHz, HD 5750, 4GB /// PC3: X3 400e@2,3GHz @0,99V, HD 5670, 4GB ///  Mein Spielmobil

Beiträge gesamt: 30834 | Durchschnitt: 5 Postings pro Tag
Registrierung: Jan. 2003 | Dabei seit: 6723 Tagen | Erstellt: 19:03 am 16. Nov. 2006