Reicht fürs Internet und Word
feif:
Entwicklung von Exaflop-Supercomputer im Visier
Das von der National Nuclear Security Administration (NNSA) und dem US-Energieministerium neu gegründete und für das erste Jahr mit 7,4 Millionen US-Dollar ausgestattete Institute for Advanced Architectures soll die Entwicklung von Exaflop-Supercomputern beschleunigen. Diese wären 1000 Mal schneller als die heute existierenden Petaflop-Supercomputer. Der erste Teraflop-Computer wurde von den Sandia National Laboratories, die zur NNSA gehören, vor 10 Jahren entwickelt.
Es gehe darum, erklärte Sudip Dosanjh, der Projektleiter von Sandia, die Kluft zwischen der theoretisch möglichen Leistung und der von existierenden Supercomputern tatsächlich erbrachten Leistung zu schließen. Dazu sei eine neu Computerarchitektur notwendig, um beispielsweise das Missverhältnis zwischen der Geschwindigkeit, mit der Daten vom Speicher zum Prozessor und zurück bewegt werden, und der Verarbeitungsgeschwindigkeiten zu beheben. Mit der wachsenden Größe von Computern würden die Entfernungen zwischen Speicher und Prozessor größer und sinkt die Datengeschwindigkeit. Eine Lösung des Problems könnte darin bestehen, meint Dosanjh, Hunderte von Prozessoren auf einem Chip parallel arbeiten zu lassen.
Ein anderes Problem ist, den Energieverbrauch der geplanten Exaflop-Supercomputer zu minimieren. Auf dem Stand der gegenwärtigen Technik wären dazu viele Megawatt notwendig, was allein Stromkosten von einer Million US-Dollar pro Jahr mit sich bringen könnte.
Heise

Entwicklung von Exaflop-Supercomputer im Visier
Das von der National Nuclear Security Administration (NNSA) und dem US-Energieministerium neu gegründete und für das erste Jahr mit 7,4 Millionen US-Dollar ausgestattete Institute for Advanced Architectures soll die Entwicklung von Exaflop-Supercomputern beschleunigen. Diese wären 1000 Mal schneller als die heute existierenden Petaflop-Supercomputer. Der erste Teraflop-Computer wurde von den Sandia National Laboratories, die zur NNSA gehören, vor 10 Jahren entwickelt.
Es gehe darum, erklärte Sudip Dosanjh, der Projektleiter von Sandia, die Kluft zwischen der theoretisch möglichen Leistung und der von existierenden Supercomputern tatsächlich erbrachten Leistung zu schließen. Dazu sei eine neu Computerarchitektur notwendig, um beispielsweise das Missverhältnis zwischen der Geschwindigkeit, mit der Daten vom Speicher zum Prozessor und zurück bewegt werden, und der Verarbeitungsgeschwindigkeiten zu beheben. Mit der wachsenden Größe von Computern würden die Entfernungen zwischen Speicher und Prozessor größer und sinkt die Datengeschwindigkeit. Eine Lösung des Problems könnte darin bestehen, meint Dosanjh, Hunderte von Prozessoren auf einem Chip parallel arbeiten zu lassen.
Ein anderes Problem ist, den Energieverbrauch der geplanten Exaflop-Supercomputer zu minimieren. Auf dem Stand der gegenwärtigen Technik wären dazu viele Megawatt notwendig, was allein Stromkosten von einer Million US-Dollar pro Jahr mit sich bringen könnte.
Heise
Kommentar