Bedeuten mehr Kerne auch mehr Probleme?
Multicore-CPUs nicht automatisch besser

Bedeuten mehr Kerne auch mehr Probleme?
Multicore-CPUs nicht automatisch besser

Der Einzug der Multicore-Architektur in Anwender-PCs und -Laptops wird Software-Entwickler sehr bald vor die selben Probleme stellen, die derzeit im Bereich des Supercomputing auftreten. "Wenn man sich die historische Entwicklung anschaut, dann kann man davon ausgehen, dass die heutige Rechenleistung von Supercomputern in zehn bis 15 Jahren auf dem Desktop verfügbar sein wird", erklärt Siegfried Benkner, Leiter des Instituts für Computerwissenschaften an der Universität Wien.

Schon bei den jetzt existierenden Dual-Core-Prozessoren würden sich oftmals keine nennenswerte Geschwindigkeitssteigerungen zeigen, da die auf dem Gerät laufenden Programme nicht für eine derartige Architektur geschrieben wurden, so Benkner. Auf dem Gebiet des Hochleistungsrechnens ist die Problematik rund um die parallele Nutzung multipler Prozessorenkerne schon lange ein Thema. Im Rahmen des Spezialforschungsprojekts AURORA beschäftigt sich die Universität Wien bereits seit zehn Jahren intensiv mit der Materie, die nun zusehends in das öffentliche Interesse rückt.

Multicore-Problematik eine Frage der Zeit
"Dass die Multicore-Problematik mehr und mehr auf den Mainstream übergreifen wird, ist nur eine Frage der Zeit", meint auch Projektleiter Hans Zima. "Die Forschung auf diesem Gebiet gestaltet sich daher als zunehmend wichtig", zeigt sich Zima überzeugt. Gerade im Bereich der Software für Hochleistungsrechner könnten reale Fortschritte nur erzielt werden, wenn Applikations- und Algorithmenentwickler eng mit den Entwicklern von Programmiersprachen, Compilern und Softwarewerkzeugen zusammenarbeiten. Daher habe man während der gesamten Laufzeit des Projekts immer auf instituts- und institutionsübergreifende Zusammenarbeit gesetzt, so Zima.

Keine Zeitersparnis bei stärkerer Hardware?
Nach Ansicht von Karl-Heinz Schwarz, vom Institut für Materialchemie der Technischen Universität Wien, muss mehr Rechenleistung nicht automatisch nur zu schnellerem Arbeiten führen. "Wenn ich um den Faktor 1.000 mehr Leistung habe, bin ich nicht in einem Tausendstel der Zeit fertig. Vielmehr können damit völlig andere Probleme angegangen werden", so der Wissenschaftler. Die Frage sei also eher, was man mit dieser Leistung anfange und welche Dimensionen beispielsweise in einer Simulation zusätzlich berücksichtigt werden. (pte/red)