Ankündigung

Einklappen
Keine Ankündigung bisher.

Entwicklung von Exaflop-Supercomputer im Visier

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

    Entwicklung von Exaflop-Supercomputer im Visier

    Reicht fürs Internet und Wordfeif:



    Entwicklung von Exaflop-Supercomputer im Visier


    Das von der National Nuclear Security Administration (NNSA) und dem US-Energieministerium neu gegründete und für das erste Jahr mit 7,4 Millionen US-Dollar ausgestattete Institute for Advanced Architectures soll die Entwicklung von Exaflop-Supercomputern beschleunigen. Diese wären 1000 Mal schneller als die heute existierenden Petaflop-Supercomputer. Der erste Teraflop-Computer wurde von den Sandia National Laboratories, die zur NNSA gehören, vor 10 Jahren entwickelt.


    Es gehe darum, erklärte Sudip Dosanjh, der Projektleiter von Sandia, die Kluft zwischen der theoretisch möglichen Leistung und der von existierenden Supercomputern tatsächlich erbrachten Leistung zu schließen. Dazu sei eine neu Computerarchitektur notwendig, um beispielsweise das Missverhältnis zwischen der Geschwindigkeit, mit der Daten vom Speicher zum Prozessor und zurück bewegt werden, und der Verarbeitungsgeschwindigkeiten zu beheben. Mit der wachsenden Größe von Computern würden die Entfernungen zwischen Speicher und Prozessor größer und sinkt die Datengeschwindigkeit. Eine Lösung des Problems könnte darin bestehen, meint Dosanjh, Hunderte von Prozessoren auf einem Chip parallel arbeiten zu lassen.
    Ein anderes Problem ist, den Energieverbrauch der geplanten Exaflop-Supercomputer zu minimieren. Auf dem Stand der gegenwärtigen Technik wären dazu viele Megawatt notwendig, was allein Stromkosten von einer Million US-Dollar pro Jahr mit sich bringen könnte.


    Heise

    #2
    AW: Entwicklung von Exaflop-Supercomputer im Visier

    Des Rätsels Lösung ist eher eine effizientere Programmierung damit gar keine Daten von anderen CPUs benütigt werden.

    In der Praxis an einem Simple beispiel schaut das so aus.

    Die ankommenden Audiodaten werden in Blöcke zu 4608 Samples aufgeteilt und Nummeriert.
    Die numerierten Datenblöcke werden über TCP/IP an die Worker Threads übergeben und Flac codiert und an das Verwaltungsprogram zurückgegeben.
    Codierte Datenblöcke werden anhand der Nummern aneinandergereiht.

    Das hinzuziehen vom Athlon 64 x2 3800+ Server und meines Laptops (Turion 64 1600 MHz 1MB L2 Cache) führen zu einer 50% höheren Verarbeitungsgeschwindigkeit als wenn meine Workstation alleine rechnet (Core 2 Duo E6600 @ 3,6 GHz) obwohl die anderen Rechner ziemlich langsam sind. Die Datenübergabe über den TCP-Stack machts möglicht.

    Gegenüber dem unoptimierten Flac 1.2.1 Encoder (Single Threaded) kommt diese Lösung immerhin auf beinahe das 3 Fache Tempo wobei man die parallelisierte Version nicht wircklich mit der normalen Version vergleichen kann da unterschiedliche Compiler verwendet wurden und bei der parallisierten Version zusätzlich noch unterschiedliche Compilereinstellungen für AMD Athlon 64 und Intel Core 2 CPUs verwendet wurden beim Compilieren der Arbeitsroutinen.

    Gerade für beliebte Disziplinen wie Code Knacken mittels Brute Force oder beim Aliens suchen in Rauschen ist diese vorgehensweise durchaus sehr brauchbar und Bandbreitensparend wie zB auch [email protected] beweißt.

    Mehrere Hundert CPUs auf einem Chip halte ich nicht unbedingt zielführend.

    MfG Christoph

    Kommentar


      #3
      AW: Entwicklung von Exaflop-Supercomputer im Visier

      Nunja, die Strategie ist eigentlich schon länger vorgegeben. IBM wird mit der nächsten BlueGene_Generation auch nahe ran kommen. Warum sollte das Moore'sche Gesetz bei den Supercomputer nicht gelten?

      Kommentar

      Lädt...
      X