Teraflops

Von Wissenschaften und Technik ...

Moderatoren: Zebra, Maude, Moderation

Teraflops

Beitragvon Mario » 29.06.2007, 09:22

nur ma so zum Spaß - was andres

schon ma gehört?

( 280,6 Billionen Rechenschritten pro Sekunde )

dann gäbs auchnoch:

Petaflops

.....Billiarden Rechenoperationen pro Sekunde ( 4,92 )zusammengerechnet = die 500 schnellsten Compis

:shock: :shock: :shock: :shock: :shock: :shock:

( meine erste Rechner hatte 4MBs :mrgreen: )
Mario
 

Beitragvon Doc Extropy » 29.06.2007, 09:37

Das große Problem ist, daß Du für solche Rechenleistungen auch Aufgaben brauchst, die über mehrere CPUs entsprechend skalieren.

Skalieren heißt hier, daß Du z.B. eine Rechenaufgabe (das kann gerne auch sowas wie Klangsynthese oder 3D - Grafik sein) über nicht nur 1 oder 2 "Kerne", sondern über viele Kerne verteilen können mußt.

Ein Beispiel:

(w * x) + (y * z) wäre mittelmäßig über 2 Kerne zu skalieren.

Kern 1 berechnet w * x - 1 Taktzyklus
Kern 2 berechnet y * z - 1 Taktzyklus

- diese beiden Berechnungen können parallel laufen.

Am Ende wird dann noch die Addition durchgeführt, auch in 1 Taktzyklus.

Somit brauchst 2 Taktzyklen, gegenüber 3 Taktzyklen, wenn nur ein einziger Kern zur Verfügung steht.

D.h. Du hast zwar theoretisch die doppelte verfügbare Rechenleistung, kannst aber nur 33% Beschleunigung erzielen.

Gar nicht skalierbar wäre:

(x + y) * 2

Hier sind zwar auch zwei Rechenschritte (x + y) und dann das ganze * 2, aber diese sind voneinander abhängig.

Relativ gut skalierbar wirds erst, wenn Du sehr, sehr viele einzelne Rechenschritte hast, die erst am Ende zusammengeführt werden.

Ein Beispiel wäre (bei mindestens 3 Kernen!):

a = (u + v) * 2 - 2 Taktzyken
b = (w + x) * 5 - 2 Taktzyklen
c = (y + z) / 3 - 2 Taktzyklen
f(a, b, c) = a + b + c - 2 Taktzyklen

Ohne Parallelisierung würde das 8 Taktzyklen benötigen, mit Paralellisierung kommst auf 4 runter, also zumindest 50% Ersparnis, aber auch nur, wennst, wie gesagt, mindestens 3 Kerne hast ODER eine CPU mit SIMD (Single Instruction Multiple Data) - Fähigkeit (wozu aber schon seit Mitte der 90er alle PC - CPUs zählen, Stichwort "MMX" bzw. "SSE").

Software muß auch dafür ausgelegt sein, dann gibts noch den Synchronisations- und Lockingoverhead.

Speicherzugriffe und sonstiges I/O trägt auch seinen Teil dazu bei, daß die Skalierung schlechter ausfällt. Insbesondere hat man ja bei solchen Computern meistens Aufgaben mit enormen Datenmengen zu bewältigen, die dann nachgeladen werden müssen, etc...

Natürlich gibt es da die Möglichkeit, das Nachladen asynchron zu bewerkstelligen, aber man muß dann trotzdem warten und die Effizienz sinkt weiter ab.

Man sollte sich also nicht wahnsinnig machen lassen.
Doc Extropy
 

Beitragvon Doc Extropy » 29.06.2007, 09:41

Nachtrag:

In der Realität würde mein drittes Beispiel in etwa so aussehen (Assembler - Code):

Code: Alles auswählen
CPU 1:

mov eax, u
add eax, v
imul eax, 2
mov a, eax

etc... für CPU 2 und CPU 3!

Am Ende dann würde folgender Code ausgeführt werden:

CPU x:

mov eax, a
add eax, b
add eax, c
retf 'Damit deute ich an, daß das EAX - Register ab jetzt den Rückgabewert der Funktion enthält


Ich habe hier mal die Speicherzugriffe unoptimiert dargestellt, natürlich ist der Assembler - Code SO nicht ausführbar, aber vom Prinzip her stimmts, zumindest für 32 bit - Integerwerte ohne Verwendung von SIMD.
Doc Extropy
 

Beitragvon Mario » 29.06.2007, 09:49

ich kann dir total folgen...... :D :roll:


aber weißt wo der schnellste Rechner steht?
und von wem der is?


(Gründung 1896 )
Mario
 

Beitragvon Doc Extropy » 29.06.2007, 10:04

Ende Oktober 2005 wars ein Gerät von IBM:

http://www.computerwelt.at/detailArticl ... =98431&n=6

Was derzeit vorne ist, weiß ich nicht.
Doc Extropy
 

Beitragvon Mario » 29.06.2007, 10:10

right ( schätze dass in deinem link ungefähr dasselbe steht )

Der schnellste Computer der Welt ist zum sechsten Mal in Folge die Rechenanlage BlueGene/L im Kernforschungszentrum Lawrence Livermore National Laboratory (LLNL) der US-Regierung.

Mit einer Leistung von 280,6 Billionen Rechenschritten pro Sekunde (Teraflops) führt der Supercomputer von IBM auch die neue Liste der "Top 500" an.....


schon total irre - oder?
ich meine - der Rechner leistet ja immernoch nur DAS was der Mensch ihm vorgibt
eine faszinierende Vorstellung


da gibts aber noch mehr interessante Sachen
muss ich dann ma gucken - später
Mario
 

Beitragvon Mario » 29.06.2007, 11:41

ähm edit:

eine faszinierende Vorstellung - dass damit eines Tages Schluß sein wird

( λ = ln(2) / T2 )

der Mensch wird die künstliche Intelligenz nichtmehr begreifen
Mario
 

Beitragvon ric » 30.06.2007, 13:48

Ich schreibe in zwei Wochen eine Prüfung über Quantenrechner.
Für bestimmte Arten von Problemen sind sie so schnell, dass PetaFlops als Maßeinheit nicht mehr ausreicht.

Mal schauen, wann Quantenchips im Alltag Einzug halten. Ich traue mich zu wetten, dass sie in ca 10 Jahren im PC verfügbar sein werden.
Bild
Benutzeravatar
ric
Neugieriger Besserwisser.
 
Beiträge: 7754
Registriert: 30.12.2003, 11:38
Wohnort: tiefstes Bayern

Beitragvon ric » 30.06.2007, 13:49

Mario hat geschrieben:der Mensch wird die künstliche Intelligenz nichtmehr begreifen
So lange der Mensch nicht begreift, wie "Geist" und "Intelligenz" im eigenen Gehirn entsteht, hast Du wohl recht.
Bild
Benutzeravatar
ric
Neugieriger Besserwisser.
 
Beiträge: 7754
Registriert: 30.12.2003, 11:38
Wohnort: tiefstes Bayern

Beitragvon Doc Extropy » 30.06.2007, 14:09

ric hat geschrieben:Ich schreibe in zwei Wochen eine Prüfung über Quantenrechner.
Für bestimmte Arten von Problemen sind sie so schnell, dass PetaFlops als Maßeinheit nicht mehr ausreicht.

Mal schauen, wann Quantenchips im Alltag Einzug halten. Ich traue mich zu wetten, dass sie in ca 10 Jahren im PC verfügbar sein werden.


Evtl. als Zweit - Prozessor, so wie wir früher die Floating Point - Koprozessoren (80x87) hatten, evtl. als Steckkarte. Wäre ja für so Dinge wie physikalisch korrekte Computerspiele recht interessant.

CPU wird aber wohl immer ein regulärer Binärprozessor sein, auf der Basis der konventionellen Informatik.

Nicht außer acht lassen darf man hier natürlich die mögliche Verwendung von weiteren Quanteneffekten (den Tunneleffekt nutzt man ja z.B. heute schon in Transistoren) in regulären Schaltungen.
Doc Extropy
 

Beitragvon Doc Extropy » 30.06.2007, 14:11

ric hat geschrieben:
Mario hat geschrieben:der Mensch wird die künstliche Intelligenz nichtmehr begreifen
So lange der Mensch nicht begreift, wie "Geist" und "Intelligenz" im eigenen Gehirn entsteht, hast Du wohl recht.


Da hast sicher recht.

Ich halte starke, künstliche Intelligenz für eine Aufgabe der sehr fernen Zukunft. Zwar wird es uns bald mal gelingen, die Komplexität des menschlichen Gehirns (100 Milliarden einfache Prozessorkerne) nachzustellen, das Hauptproblem wird aber die Software sein, die beim Menschen teilweise evolutionär entstanden ist.

David DeAngelo, Double your Dating hat geschrieben:Emotions are highly addictive chemicals.


An solchen Sachen wirds am Anfang scheitern.
Doc Extropy
 

Beitragvon Mario » 01.07.2007, 13:34

ric hat geschrieben:
Mario hat geschrieben:der Mensch wird die künstliche Intelligenz nichtmehr begreifen
So lange der Mensch nicht begreift, wie "Geist" und "Intelligenz" im eigenen Gehirn entsteht, hast Du wohl recht.


ich dachte an etwas ganz anderes
die Formel haste nich irgendwie kapiert - nä?
Mario
 

Beitragvon ric » 01.07.2007, 18:14

Mario hat geschrieben:
ric hat geschrieben:
Mario hat geschrieben:der Mensch wird die künstliche Intelligenz nichtmehr begreifen
So lange der Mensch nicht begreift, wie "Geist" und "Intelligenz" im eigenen Gehirn entsteht, hast Du wohl recht.


ich dachte an etwas ganz anderes
die Formel haste nich irgendwie kapiert - nä?
λ ist umgekehrt proportional zu T2. Was soll daran schwer zu verstehen sein?

Interessant wird es erst, wenn Du sagst, was λ und T2 darstellen sollen.
Bild
Benutzeravatar
ric
Neugieriger Besserwisser.
 
Beiträge: 7754
Registriert: 30.12.2003, 11:38
Wohnort: tiefstes Bayern

Beitragvon Doc Extropy » 01.07.2007, 18:17

ric hat geschrieben:
Mario hat geschrieben:
ric hat geschrieben:
Mario hat geschrieben:der Mensch wird die künstliche Intelligenz nichtmehr begreifen
So lange der Mensch nicht begreift, wie "Geist" und "Intelligenz" im eigenen Gehirn entsteht, hast Du wohl recht.


ich dachte an etwas ganz anderes
die Formel haste nich irgendwie kapiert - nä?
λ ist umgekehrt proportional zu T2. Was soll daran schwer zu verstehen sein?

Interessant wird es erst, wenn Du sagst, was λ und T2 darstellen sollen.


DAS habe ich mich auch gefragt, aber irgendwie hab ich vergessen, die Frage zu stellen. :oops:

Mir ist übrigens noch was eingefallen:

Ich habe vor vielen Jahren mal ein "Darwin - Evolutionstestprogramm" gebastelt (war noch Turbo Pascal 5.5, für mich wars das erste halbwegs objektorientierte Projekt), wobei es darum ging, daß ein Algorithmus so Konstanten hatte, und immer zwei dieser Algorithmen miteinander Sex hatten (kein Witz), wenn sie ein paar bestimmte Aufgaben erfüllt haben (inkl. Mutationen).

Es war interessant, zu sehen, wie schnell es nach einigen Generationen schon vorwärts ging bei der Aufgabenbewältigung bzw. wie viele Aufgaben (waren mathematische Sachen) gelöst werden konnten.

Intelligenz war da zwar keine am Werk, aber die bloße Tatsache der Weiterentwicklung war aufregend.
Doc Extropy
 

Beitragvon Mario » 01.07.2007, 18:28

T2 = 2 Jahre:
λ = 0,35 · 1/Jahr

8-) :D
Mario
 

Beitragvon ric » 01.07.2007, 18:38

Ich hab auch schon verschiedene Aufgaben mit genetischen und Evolutionsalgorithmen gelöst.

Dabei habe ich (für mich persönlich) einige Stufen definiert.

1. DNS-Rekombination und Mutation (Einzeller)
Im Prinzip beschreibt man eine Aufgabe als Kette von diskreten Werten. Dann braucht man eine Funktion, die die Fitness der Kette im Vergleich zu einer anderen bewertet. Nun lässt man folgenden Algorithmus loslaufen:
- rekombiniere eine Kette
- Lasse einen Wert in x ketten zufällig verändern
- vergleiche die Fitness der Ketten untereinander
- nehme n % der ketten aus dem Spiel heraus
- dupliziere die erfolgreichen
- gehe zu schritt eins.

Auf die Art und Weise kommt man schneller als mit traditionellen mathematischen Algorithmen zu guten Ergebnissen. Man kann allerdings nie sagen, wann man das beste Ergebnis erreicht hat. Ein anderes Problem ist, dass sich manche Populationen in lokalen Maxima fangen und nicht mehr herausfinden

2. Verfahren 1 + sexuelle Selektion
Nun vermischen sich die Ketten jeweils paarweise. Dabei gibt es zusätzliche Regeln:
- Die Fitnessfunktion prüft auch ob lebensfähige Ketten entstehen.
- Fittere bekommen ein Attraktivitsgen, damit sie sich öfters in einem Zyklus fortpflanzen können

Interessanterweise findet diese Algorithmengruppe schneller lokale Maxima und was noch wichtiger ist, im Zusammenhang mit Mutation und sexueller Verschmelzung auch den Sprung aus solchen lokalen Maxima heraus.

3. Verfahren 2 + Mutation der Algorithmen.
Hierzu müssen auch die Fitnessalgorithmen Teil der Umgebung sein, also abstrakt formulierbar und veränderbar. Die Fitnessfunktion prüft nun Algorithmen und Ketten.

Der Vorteil dieses Verfahrens ist, dass die Veränderungen der Algorithmen völlig überraschende Lösungen finden.

Der Nachteil dieses Verfahrens ist, dass die Veränderungen der Algorithmen völlig überraschende Lösungen finden, und das sie kein Mensch mehr versteht.
Bild
Benutzeravatar
ric
Neugieriger Besserwisser.
 
Beiträge: 7754
Registriert: 30.12.2003, 11:38
Wohnort: tiefstes Bayern

Beitragvon ric » 01.07.2007, 18:40

Mario hat geschrieben:T2 = 2 Jahre:
λ = 0,35 · 1/Jahr

8-) :D
Muss man Dir alles aus der Nase ziehen?
Meinst Du Moores Law?
Bild
Benutzeravatar
ric
Neugieriger Besserwisser.
 
Beiträge: 7754
Registriert: 30.12.2003, 11:38
Wohnort: tiefstes Bayern

Beitragvon Doc Extropy » 01.07.2007, 19:08

ric hat geschrieben:Ich hab auch schon verschiedene Aufgaben mit genetischen und Evolutionsalgorithmen gelöst.

Dabei habe ich (für mich persönlich) einige Stufen definiert.

1. DNS-Rekombination und Mutation (Einzeller)
Im Prinzip beschreibt man eine Aufgabe als Kette von diskreten Werten. Dann braucht man eine Funktion, die die Fitness der Kette im Vergleich zu einer anderen bewertet. Nun lässt man folgenden Algorithmus loslaufen:
- rekombiniere eine Kette
- Lasse einen Wert in x ketten zufällig verändern
- vergleiche die Fitness der Ketten untereinander
- nehme n % der ketten aus dem Spiel heraus
- dupliziere die erfolgreichen
- gehe zu schritt eins.

Auf die Art und Weise kommt man schneller als mit traditionellen mathematischen Algorithmen zu guten Ergebnissen. Man kann allerdings nie sagen, wann man das beste Ergebnis erreicht hat. Ein anderes Problem ist, dass sich manche Populationen in lokalen Maxima fangen und nicht mehr herausfinden

2. Verfahren 1 + sexuelle Selektion
Nun vermischen sich die Ketten jeweils paarweise. Dabei gibt es zusätzliche Regeln:
- Die Fitnessfunktion prüft auch ob lebensfähige Ketten entstehen.
- Fittere bekommen ein Attraktivitsgen, damit sie sich öfters in einem Zyklus fortpflanzen können

Interessanterweise findet diese Algorithmengruppe schneller lokale Maxima und was noch wichtiger ist, im Zusammenhang mit Mutation und sexueller Verschmelzung auch den Sprung aus solchen lokalen Maxima heraus.

3. Verfahren 2 + Mutation der Algorithmen.
Hierzu müssen auch die Fitnessalgorithmen Teil der Umgebung sein, also abstrakt formulierbar und veränderbar. Die Fitnessfunktion prüft nun Algorithmen und Ketten.

Der Vorteil dieses Verfahrens ist, dass die Veränderungen der Algorithmen völlig überraschende Lösungen finden.

Der Nachteil dieses Verfahrens ist, dass die Veränderungen der Algorithmen völlig überraschende Lösungen finden, und das sie kein Mensch mehr versteht.


Ich vermute, daß der entscheidende nächste Schritt wäre, die simulierten Entitäten so komplex zu machen, daß sie evtl. in der Lage sind, den Sprung vom Ein- zum Mehrzeller zu machen.

Dazu wäre es auch erforderlich, eine virtuelle Umgebung zu schaffen, die ab einem gewissen Punkt einen so hohen Selektionsdruck ausübt, daß einzellige Algorithmen (ich nenne das jetzt mal in Ermangelung eines anderen Ausdrucks mal so) keine Chance mehr haben, zu bestehen.

Zusätzlich müßten Schnittstellen existieren, die eine Spezialisierung zulassen.
Doc Extropy
 


Zurück zu Wissenschaft und Technik

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 1 Gast

cron