» Willkommen auf News «

Ossi
aus Leipzig
offline



Real OC or Post God !
21 Jahre dabei !

Intel Core i5
4900 MHz


An dem letzten Freitag und Sonnabend (19. und 20. März) waren wir, sprich Leonidas, aths, Xmas und CapM (Webmaster), zusammen auf der diesjährigen CeBIT. Mittels einer guten Vorbereitung in jener Form, als daß wir uns nicht all zu viel an Terminen vorgenommen hatten, konnten wir die zwei Tage halbwegs stressfrei bewältigen und auch die zusätzlich im Laufe einer solchen Messe noch entstehenden Termine wahrnehmen. Dabei hat sich bei dieser CeBIT wirklich einmal sehr viel interessantes im Gespräch mit den Herstellern ergeben, wovon dieser Report berichten soll.



Zu nVidia und dort speziell zum NV40 wollen wir allerdings an dieser Stelle nicht viel sagen oder uns gar in Spekulationen ergehen. Wir werden hier zum Launch des NV40 mit tiefgehenden Technik-Informationen zum NV40-Chip sowie womöglich auch einem Benchmark-Part präsent sein. Dies bedeutet allerdings auch, daß uns bis zum Zeitpunkt des Launches bezüglich konkreten NV40-Informationen noch etwas die Hände gebunden sind (Eingeweihte werden wissen, wie das gemeint ist). Aber bis zur Mitte des April ist es nun auch keine lange Zeit mehr und wir können schon jetzt versprechen, daß sich das Warten auf unseren entsprechenden Artikel lohnen wird.

Nebenbei ließen sich am MSI-Stand sogar schon in gewissem Sinne "offizielle" Informationen zum NV40 erhaschen, da MSI entsprechende Grafikkarten einem ausgewählten Fachpublikum (wohl Distributoren und OEMs) bereits vorstellte. Aus diesen ergibt sich zum einen die Bestätigung dessen, daß der NV40-Chip über ein internes AGPx8 Interface verfügt, wie auch, daß NV40-Grafikkarten derzeit mit einer Speicher-Bestückung von 128 und 256 MB geplant sind - aber offensichtlich noch keine 512 MB:





Ansonsten konnten wir einige Bilder von GeForce PCX Grafikkarten erspähen, sprich diesen Grafikkarten, bei welchen nVidia die schon bekannten Chipsätze NV18, NV34, NV36 und NV38 mittels einer PCI Express Bridge "ready" für die neuen Anbindung macht. Bisher hatte nVidia hierzu nur ein Bild einer GeForce PCX 4300 auf NV18-Basis herausgegeben, nachfolgend sehen wir nun noch eine GeForce PCX 5950 auf NV38-Basis sowie eine GeForce PCX 5750 auf NV36-Basis:





Auf beiden Karten ist jeweils knapp unter dem Chip der passiv gekühlte PCI Express Bridge Baustein zu sehen. Diese Karten mit PCI Express Port dürfen nun nach dem Launch der ersten PCI-Express-fähigen Mainboard-Chipsätze demnächst in den Markt kommen, sie waren jedenfalls bei einigen Boardherstellern zu sehen.



Leider waren wir bei ATi nicht ganz so erfolgreich bezüglich Informationen oder/und Testsamples zu deren NextGen-Projekt. Demzufolge können wir bezüglich des R420 auch nur mit dem Web spekulieren, haben allerdings keine Informationen aus erster Hand anzubieten. In den CeBIT-Hinterzimmern soll der R420 allerdings in Aktion zu sehen gewesen sein. Aber mal schauen, ob sich da bis zum R420-Launch noch etwas drehen läßt :-).

Nun, zumindestens konnten wir - wieder einmal - ein hochinteressantes Gespräch mit Sapphire, einem der wichtigsten Boardhersteller von ATi-Grafikkarten führen. So konnten wir auch einen R420-Kühler vom Hersteller Arctic Cooling für die Sapphire-Ausführung des R420-Chips sehen (sorry, leider kein Bild), welcher erst einmal vom bloßen Anblick her nicht unerheblich an das NV30-"Laubgebläse" erinnerte ;-). Uns wurde aber versichert, daß die gesamte Kühlkonstruktion nur deshalb so gewaltig designt wurde, um die Lüfterdrehzahl entsprechend niedrig ansetzen zu können, womit der R420-Kühler im Gegensatz zu seinem Aussehen eher "silent" sein soll. Von ATi kommt als Standard-Lösung für den R420 allerdings eine andere, gewöhnlichere Variante, Sapphire wird hier also einen Sonderweg gehen.

Beim schon genannten R420 bleibt es natürlich dabei, daß dieser "nur" Pixel Shader 2.x unterstützt, wie hier schon gemeldet. ATi wird schlicht versuchen, den Pixel Shader 3.0 zu überspringen und will mit dem R420 (internes AGPx8 Interface) bzw. R423 (internes PCI Express x16 Interface) in erster Linie bei der Performance führend sein. Zuletzt wurden diesbezüglich im Web schließlich 12 Pixel Shader Einheiten bezüglich des R420 gemeldet, beim NV40 sollen es deren 16 sein (ohne daß wir letztere Zahl kommentieren wollen).

Viele lesen aus dieser Gegenüberstellung bereits einen kommenden Sieg der nVidia-Hardware, auch weil es so scheint, als ob ATi nicht mit so einem massiven Design seitens nVidia gerechnet hat. Nichts desto trotz denken wir, daß dieser Zweikampf wohl wieder einmal sehr knapp werden wird, womit letztendlich die endgültigen Taktraten von R420 und NV40 das Zünglein an der Waage sein werden - welche aber derzeit anscheinend noch nicht festgelegt sind.

Viel wird sicherlich auch von dem gewählten Speichertakt abhängen, denn von Samsung sind GDDR3-Speicher schließlich bis hinauf zu physikalischen 800 MHz verfügbar. Doch die Ausreizung dieser Möglichkeit würde eine Grafikkarte auch entsprechend teuer machen, da Samsung sich diesen sehr hoch getakteten Speicher sicherlich anfänglich mit Gold aufwiegen lassen wird. Zudem würde dann der Takt-Raum für die irgendwann im Herbst nachfolgenden Refresh-Chips deutlich kleiner werden, sollten R420 oder/und NV40 gleich mit 800 MHz Speichertakt in den Ring steigen. Hier gilt es schlicht abzuwarten, für was sich die beiden Grafikchip-Entwickler letztlich entscheiden werden.

Bezüglich des R420 konnten wir noch ein interessantes Gerücht aufschnappen, wonach dieser original ein Design mit 16 Pixel Shader Einheiten sein könnte. Aufgrund von - angeblichen - Ausbeute-Probleme in der Produktion würde ATi diesen Chip allerdings anfänglich nur mit 12 aktiven Pixel Shader Einheiten ausliefern, die anderen 4 Einheiten wären deaktiviert. Sollte dies so stimmen, könnte ATi nach Lösung dieser anfänglichen Ausbeute-Probleme eventuell in ein paar Monaten auch mit einem R420 mit 16 aktiven Pixel Shader Einheiten neu angreifen. Führwahr ein interessantes Gerücht, aber derzeit natürlich nicht mehr als ein Gerücht :-).

Und letztlich konnten wir bei Sapphire das Sample der früher schon einmal in den News genannten Dual-R300-Grafikkarte im Bild einfangen, auch wenn es seitens Sapphire dann doch bei dieser reinen Design-Studie geblieben ist. Auch die kommenden Grafikchips von ATi und nVidia werden zwar wieder technisch für diese MultiChip-Möglichkeit vorgerüstet sein, doch wegen der nicht vorhandenen Wirtschaftlichkeit wird sich letztlich kein Boardhersteller an solche Kontruktionen heranwagen:




XGI hat dagegen - wie schon in den News berichtet - mit der Volari V3XT eine neue LowCost DirectX9-Lösung vorgestellt. Ebenfalls wie schon in den News vermutet, läßt sich nun sicher sagen, daß es sich hierbei um den XG42-Chip handelt und nicht um den bei der Volari V3 eingesetzten und von Trident abstammenden XP5-Chip. Allerdings ist die Volari V3XT wohl wirklich nur für den absoluten LowCost-Markt interessant, da nur mit einer einzigen Pixel Shader 2.0 Einheit ausgestattet. XGI will mit diesem Chip wohl alleinig die GeForceFX 5200 angreifen - von unten wohlgemerkt :-). Von den höherwertigen Chips von XGI gibt es dagegen leider nichts neues zu berichten.

Ein bißchen mehr gab es dagegen von S3, wobei wir hier viele Informationen aus dem Gespräch mit Club3D zogen. So konnten wir auch den eben erst von S3 vorgestellten GammaChrome-Grafikchip mit internem PCI Express Interface abknipsen:




Daß Club3D hier schon ein erstes (wenn auch einzelnes) GammaChrome-Board zeigen konnte, macht doch Hoffnung in dieser Richtung, daß S3 diesen Chip rechtzeitig wird in den Markt bringen kann - momentan ist das dritte Quartal als Markteintritt für den GammaChrome geplant. Und offensichtlich handelt es sich bei diesem - wie schon vermutet - in der Tat um den regulären Refresh-Chip des DeltaChrome, neben dem PCI Express Interface wird der Chip also auch noch (allerdings wohl eher geringfügige) interne Verbesserungen und womöglich auch höhere Taktraten mitbringen. Insbesondere letzteres würde sehr interessant sein, skaliert doch schon der DeltaChrome hervorragend mit steigendem Takt.

Bei diesem gibt es nun auch Hoffnung bezüglich der Lieferbarkeit in unseren Breitengraden. Club3D hat kürzlich ein paar Samples von S3 erhalten, fertige Karten sollen nun in ca. drei Wochen auf unseren Markt kommen. Wenn S3 hier noch die Treiber, welche nun durchaus schon auf einem guten Weg sind, weiter verbessern kann, könnte der DeltaChrome - in seinem Marktsegment bis 150 Euro - durchaus zu einer gangbaren Alternative werden.

Und letztlich war bei Club3D noch ein Bild eines ATi RV380-Samples (Club3D fertigt Grafikkarten mit ATi-, nVidia, S3- und XGI-Chipsätzen) zu sehen, wobei entsprechende RV380-Samples genauso auch bei einigen anderen Herstellern zu sehen waren:




Der RV380-Chip wird, wie hier schon ausgeführt, der erste Grafikchip am Markt mit nativen PCI Express Interface sein, da er schon im zweiten Quartal antreten soll. Ansonsten handelt es sich aber "nur" um einen sonst unveränderten RV360 aka Radeon 9600XT.



Bei den Mainboards galt unser Interesse in erster Linie diesen Boards, welche einen PCI Express x16 wie auch AGPx8 Steckplatz auf der Platine haben und damit dem Käufer die Wahlmöglichkeit lassen, welche Grafikkarte dieser einzusetzen gedenkt. VIA scheint hier der Vorreiter zu sein, denn deren demnächst antretender PT890-Chipsatz besitzt diese Möglichkeit gleich Chipsatz-seitig (wenn auch die Ports nicht gleichzeitig nutzbar sind) und hat auch das Referenz-Design des PT890 mit beiden Steckplätzen ausgestattet. Einer der ersten Hersteller, welcher sich zu dieser Lösung bekannte, war wie schon berichtet Chaintech:




Ein ähnliches Board ist bei Soltek zu sehen gewesen, soll auch bei Asus so zu sehen gewesen sein, und letztlich plant MSI nach inoffiziellen Angaben sein PT890-Mainboard ebenfalls so auszurüsten. Womöglich ziehen dann auch die anderen Mainboard-Hersteller entsprechend nach und bauen ihre PT890-Boards entsprechen der VIA-Referenzplatine sowohl mit PCI Express x16 als auch AGPx8 Steckplatz aus. Uns wurde zudem gesagt, daß VIA beim AMD-Gegenstück des PT890, dem K8T890-Chipsatz, eine gleiche Konfiguration plane, also wieder mit beiden Steckplätzen (Bild bei Beyond3D). Leider wird der K8T890 jedoch erst für das dritte Quartal erwartet, während PT890-Platinen bereits im zweiten Quartal in den Markt kommen sollen.

Ansonsten waren natürlich viele Grantsdale- (i915) und Alderwood-Platinen (i925) zu sehen, da Intel diese neuen Chipsätze mit PCI Express Steckplatz, Sockel 775 und DDR2 Support demnächst in den Markt bringen wird. Bei den meisten Speicherherstellern lag demzufolge auch DDR2-Speicher in den Formen DDR2/400 und DDR2/533 aus, welcher zudem mit dem 1.5fachen Preis von DDR1-Speicher nicht so teurer wie zuletzt noch angenommen ist. DDR2/667 steht dann für das erste Quartal des nächsten Jahres auf dem Plan, wenngleich mit den sehr hohen Latenzen von 4-4-4.

Wie wir jedoch seitens MemorySolution erfuhren, dürfen schneller getaktete DDR2-Speicher als DDR2/533 vermutlich noch in diesem Jahr in den Markt kommen (vielleicht DDR2/667, vielleicht auch Zwischenvarianten wie DDR2/600), da bei der Produktion von DDR2 offenbar noch etwas Luft für Takterhöhungen vorhanden ist. Die Performance des aktuellen DDR2/533 wird natürlich vor allem wegen der hohen Latenzen kaum die von gutem DDR1-Speicher übersteigen, nichts desto trotz setzen die meisten Speicherhersteller aufgrund des Marketing-wirksamen Namens nicht unerheblich auf DDR2.

Nicht jedoch so OCZ, welche sich derzeit komplett aus DDR2 heraushalten und alleinig auf DDR1 setzen wollen. Der Speicherhersteller zeigte auf seinem Stand DDR1/600 in Aktion, welches demnächst in den Markt kommen soll. Zudem erfuhren wir im Gespräch, daß man - wenn man denn wollte - auch schon DDR1/650 liefern könnte und zudem bis zum Ende des Jahres gar DDR1/700 (!) wird erreichen können. Auf DDR2 war man überhaupt nicht gut zu sprechen und warf diesem Speicher konstruktive Mängel vor, welche letztlich hohe Real-Leistungen mit diesem Speicher verhinderten.

Wenn wir ehrlich sind, wirft die Information mit dem DDR1/700 natürlich einiges über den Haufen, was wir bisher bezüglich DDR2-Speicher dachten. Natürlich war auch uns klar, daß DDR2 aufgrund seiner schlechteren Latenzen ein gutes Stück mehr Takt benötigt, um gleich schnell wie DDR1 sein zu können. Doch spätestens bei DDR2/667 sollte sich doch der Effekt einstellen, daß DDR2 besser als DDR1 ist - so die Theorie, gemessen immer an den derzeitig maximal verfügbaren DDR1-Speicherriegeln, sprich DDR1/550. Zwar würden die Anfangsfrequenzen von DDR2 relativ sinnbefreit sein, aber wenigstens bei den höhergetakteten Versionen hätte man einen Vorteil.

Doch wenn DDR1/700 möglich ist und seitens OCZ auch in den Markt kommen wird, erübrigt sich DDR2 unserer Meinung nach komplett. Die höchste DDR2-Art soll DDR2/800 sein, welches irgendwann 2005/2006 in den Markt kommen soll. Doch dieses DDR2/800 dürfte aufgrund der hohen Latenzen des Speichers letztlich nicht schneller als DDR1/700 sein - und damit verschwindet dann auch der letzte Vorteil von DDR2. Die neue Speicherart dürfte allerdings wohl trotzdem mittel- und langfristig DDR1 ablösen, einfach weil sie sich durch Name und höhere Taktfrequenzen besser vermarkten läßt. Potentiell ist aber auch ein Scheitern von DDR2 am Markt möglich, ganz besonders wenn das Problem des Preisunterschieds nicht gelöst werden wird.

Hochinteressantes erfuhren wir von OCZ auch zum Thema DDR, GDDR2, DDR3 und GDDR3. Bisher nahmen wir hierzu an, daß GDDR2 und GDDR3 nur reine Grafikchip-Abwandlungen der Standards DDR2 und DDR3 sind. Bei GDDR2 mag dies noch halbwegs stimmen, doch bei GDDR3 trifft dies nicht zu. Denn DDR3 ist noch überhaupt nicht spezifiziert, die Speicherhersteller haben GDDR3 somit alleinig aus GDDR2 gewonnen und dort die Fehler, welche bei DDR2 bzw. GDDR2 gemacht wurden, weitestgehend abgestellt.

Deswegen hat man bei GDDR3 auch deutlich mehr Taktmöglichkeiten - beispielsweise Samsung hat die Produktion von GDDR2 gestoppt und liefert GDDR3 dagegen derzeit bis auf 800 MHz aus. Ergo kann der kommende DDR3-Standard durchaus anders ausfallen als der GDDR3-Standard - welcher selber schließlich kein richtiger Standard ist, sondern nur eine Eigenkreation der Speicherhersteller mit eigentlich irreführendem Namen.




Bei Intel bestätigte man uns zuerst einmal, daß das kommende D0-Stepping in der Tat zur Absenkung der Verlustleistung des Prescott-Prozessors dienen soll. Desweiteren wurde uns das kommende Rating-System seitens Intel definitiv bestätigt, wonach alle Desktop- und Mobile-Prozessoren ab dem zweiten Quartal diese zusätzliche Bezeichnung führen werden (genauere, wenn auch derzeit noch inoffizielle Infos siehe hier).

Intel will aber mit der "Processor Number" mitnichten die Leistung eines Prozessors aufzeigen, sondern es soll allein eine eindeutige Nummer für jeden Prozessor gefunden werden, da die Taktfrequenz als Unterschied aufgrund der derzeitig vielen taktgleichen Prozessoren bei Intel nicht mehr ausreicht. Und natürlich soll damit auch die Stellung des Pentium-M Prozessors, welcher im Endkunden-Markt aufgrund seines niedrigen Taktes einige Absatzprobleme haben soll, verbessert werden :-). Damit wird die "Processor Number" auch keinem festgesetzten Schema folgen oder sich aus dieser Angaben wie Takt, FSB, Cache-Größe oder ähnliches interpolieren lassen, die Angabe wird vielmehr von Intel frei nach Gusto gewählt werden.

Bezüglich der 64-Bit-Erweiterungen der Prescott-Prozessoren gab sich Intel eher zugeknöpft - was irgendwie logisch ist, stammt das Feature doch vom Wettbewerber AMD. Bei Intel wartet man derzeit auf das Erscheinen von 64 Bit Betriebssystemen und Anwendungen, dann wird man dieses Feature beim Prescott aktivieren, welcher dieses derzeit inaktiv schon in sich trägt.

Daneben haben wir mit Intel auch über zukünftige Intel-Prozessoren gesprochen, wobei Intel diesbezüglich allerdings kaum neue Informationen herausrückte. Interessant ist allenfalls, daß Intel überlegt, den Prescott-Core bzw. dessen Xeon-Variation zukünftig auch für den Pentium 4 Extreme Edition zu nutzen - natürlich dann wieder mit einem entsprechenden Level3 Cache im Gegensatz zum normalen Pentium 4 Prescott. Im Gespräch über zukünftige Intel-Cores ergab sich zudem, daß der Intel-Vertreter den nach dem Tejas anstehenden Nehalem-Prozessor (worunter eine gänzlich neue Architektur vermutet wird) wiederholt anders aussprach als wir - und damit die Existenz dieses Codenamens indirekt zugab :-))).

Gewichtiges ergab sich bei Intel aber noch bezüglich der hier schon genannten Vanderpool-Technologie, einer Möglichkeit, auf einem Prozessor zwei Betriebssysteme gleichzeitig starten und nutzen zu können. Wir hatten hier bisher keinen wirklichen Sinn vor allem für den Normaluser erkennen können, allerdings konnte uns Intel bezüglich der dahinterstehenden Idee "erleuchten": Man will mit Vanderpool zumindestens für den Normaluser näher an die Realität eines echten Mehrnutzer-Systems herankommen, beispielsweise nutzbar als Familien-PC.

Zwar ist auch mit Windows XP schon die Möglichkeit gegeben, daß sich mehrere Benutzer auf einem PC gleichzeitig anmelden und mit mehreren Ein- und Ausgabegeräten ist sogar die gleichzeitige Nutzung möglich, doch ressorcenbeanspruchende Aufgaben sind kaum bei zwei Benutzern gleichzeitig möglich und System-Umkonfigurationen schon gar nicht. Vanderpool will hier schlicht konsequenter als die Software-Lösung von Windows XP sein, so daß sich die PC-Benutzer selbst durch einen Absturz des Betriebssystems nicht mehr stören können - eben weil jeder auf seinem eigenen Betriebssystem arbeitet.

Für den professionellen Bereich ist der Nutzen natürlich offensichtlich, da sich so verschiedene Arbeitsumgebungen für alle Anforderungen auf nur einem PC schaffen lassen können. Im Home-Bereich soll damit in erster Linie der Multimedia- und Familien-PC vorangetrieben werden, welcher von allen Familienmitgliedern gleichermaßen genutzt werden kann, ohne dabei aber die anderen Familienmitglieder zu stören oder gar einzuschränken. Und ganz abgesehen davon ergibt sich mit Vanderpool sogar eine sinnvolle Ausnutzung der kommenden Multi-GigaHertz-Größen bei der Taktfrequenz, wenn mehrere Benutzer sich einen Prozessor teilen :-). Allerdings ist Vanderpool noch etwas Zukunftsmusik, aber es wird in ein paar Jahren kommen.



Seitens AMD wollte man uns Vanderpool nicht wirklich kommentieren bzw. ließ die Frage, ob AMD ähnliches vor hat, eher unbeantwortet. Auch bezüglich der häufig kursierenden Gerüchte über Prozessoren mit Dual-Core wollte man sich nicht äußern. AMD´s Blick ging eher in die nahe Zukunft und dort zu den im zweiten Halbjahr anstehenden 90nm Prozessoren als Ablösung der bisherigen K8-Prozessoren in der 130nm Fertigungstechnologie.

Interessant jedoch, daß AMD klar zu Protokoll gab, daß diese Prozessoren noch keinen DDR2-Support haben werden, wie in der Vergangenheit oftmals im Web gemutmaßt wurde. Beim Thema DDR2 gab sich AMD allgemein eher bedeckt und wird wohl abwarten, bis sich die Speicherart vollständig durchgesetzt haben wird, ehe man reagiert. Von anderer Seite erfuhren wir sogar, daß AMD (inoffiziell) durchaus komplett auf DDR2 verzichten könnte - ob daß der Markt zuläßt, wird sich zeigen.

Für AMD eher spannend war natürlich das Thema 64 Bit. Man wartet hier genauso wie der Rest der PC-Gemeinde auf Microsoft und den Release deren Windows XP/2003 in der 64-Bit-Ausführung. In der Zwischenzeit ist man aber schon bei vielen Herstellern von Anwendungs-Software und Spielen vorstellig geworden, um diesen bei der Integration von 64 Bit in deren Software zu helfen. Man verspricht sich hierfür nette Performance-Gewinne, sobald Microsoft seine 64-Bit-Betriebssysteme denn nun endlich auf den Markt gebracht hat.



Abschließend wollen wir noch kurz auf BTX eingehen, den kommenden Gehäuse-Standard, welcher aber auch Auswirkungen auf Netzteile und Mainboards haben wird (genauere Infos zu BTX hier). Leider sah man auf der CeBIT davon nicht viel, BTX-Mainboards beispielsweise gar keine. Bei den Gehäusen gab es im HighEnd-Bereich ein paar, welche als ATX ausgeführt sind, aber durch ihre Vorbereitung auf BTX mit ein paar wenigen Handgriffen zu BTX-Gehäusen umgebaut werden können.

Dies im normalen Preisbereich oder gar komplette BTX-Entwicklungen gab es hingegen nicht zu erspähen. Die Gehäuse-Hersteller gaben hierzu teilweise auch an, noch an ihren BTX-Gehäusen zu arbeiten. Offensichtlich ist der neue Standard noch nicht wirklich ausgereift und die Hersteller müssen noch einige Arbeit investieren, ehe sie zu brauchbaren Ergebnissen kommen werden. So werden erste BTX-Gehäuse denn auch erst im vierten Quartal in den Markt kommen, richtig los geht es mit BTX allerdings erst 2005.

Dies ist insofern für die Käufer unschön, als daß man hätte darauf hoffen können, daß alle die neuen Dinge, welche sich maßgeblich Intel für dieses Jahr ausgedacht hat - PCI Express, BTX und DDR2 - möglichst in einem Rutsch in den Markt kommen könnten, womit die Nutzer auch nur 1x hätten generell umrüsten müssen. Durch die offensichtliche Verschiebung von BTX erfüllt sich diese Hoffnung jedoch nicht und der Endkunde muß im dümmsten Fall 2x umrüsten, um die neuen Technologien zu erhalten. Dies könnte sich im Umkehrschluß dann teilweise auch wieder als Verkaufsbremse auswirken, ganz besonders da der Nutzen der neuen Technologien für sich allein nicht wirklich weltbewegend ist und erst die Summe der Technologien zusammen wirklich interessant erscheint.


Autor: Leonidas
Quelle: 3DCenter.de


• apple MacBook Air M1 13 Zoll
• apple iPhone 13 mini 128GB blue
• Garmin fēnix 6X Pro

Beiträge gesamt: 15332 | Durchschnitt: 2 Postings pro Tag
Registrierung: Dez. 2002 | Dabei seit: 7798 Tagen | Erstellt: 13:45 am 29. März 2004