| c't
/ heise-online vom 13.07.2006 Heute beginnen in den USA die Feierlichkeiten zum 50. Namenstag der "Artifical Intelligence" (AI). Dieser Begriff wurde vor 50 Jahren im Rahmen eines zweimonatigen Workshops am Darthmouth College als offizieller Name für eine neue Forschungsdisziplin akzeptiert. Der Name "Artificial Intelligence" stammte von John McCarthy, der ihn am 31. August 1955 in seinem Projektantrag benutzte, mit dem er bei der Rockefeller-Foundation um Gelder für die Tagung warb. Der Antrag wurde bewilligt. Nach dem 4. Juli trafen die zehn Workshop-Teilnehmer ein, die das Forschungsprogramm der AI in den nächsten 20 Jahren prägen sollten. Neben den einladenden McCarthy, Marvin Minsky und Claude Shannon waren dies, in alphabetischer Reihenfolge Trenchard More, John von Neumann, Allen Newell, Nathaniel Rochester, Arthur Samuel, Oliver Selfridge, Cliff Shaw, Herbert Simon und Ray Solomonoff. Vom 13. bis zum 15. Juli wird dementsprechend in Darthmouth der Namenstag der Forschungsdisziplin gefeiert. Fand
die künstliche Intelligenz vor 50 Jahren in Dartmouth zu
ihrem Namen, so war sie doch etwas älter: 1943 veröffentlichten
Warren McCulloch und Walter Pitts im Bulletin of Mathematical
Biophysics ihren Aufsatz "A Logical Calculus of the Ideas
Immanent in Nervous Activity". In ihm entwarfen sie die
Idee eines Rechenwerkes auf der Basis von Neuronen und
Feedback-Schleifen, das wie eine Turing-Maschine arbeitet, die
von Alan Turing erstmals im Jahre 1936 beschrieben wurde. 1951
bauten Marvin
Minsky und Dean Edmonds SNARC (Stochastic NeuralAnalog
Reinforcement Calculator), einen neuronalen Netzcomputer, der
das Verhalten einer Maus in einem Labyrinth simulierte. Etwas
Ähnliches versuchte Claude "Entropy" Shannon 1952
mit seiner Maschinenmaus
Theseus zu programmieren. unbedingt erfolgreich. Zu unterschiedlich waren die Ansichten zwischen den "Logikern", die an Expertensystemen arbeiteten, und den "Konnektionisten", die auf neuronale Netze setzten. Die Logiker brillierten auf dem Workshop mit dem von Allen Newell, Herbert Simon und Cliff Shaw vorgestellten "Logic Theorist", einem in der eigens entwickelten Information Processing Language (IPL) geschriebenen Programm, das die meisten Theoreme aus Russels und Whiteheads Principia Mathematica bewies. Der Theoretiker lief auf dem von John von Neumann entworfenen Computer JOHNNIAC. Marvin Minsky berichtete von seinen Experimenten, neuronale Netze zu entwickeln. Ein echter Konsensus wurde nicht gefunden. Entsprechend dünn liest sich das Abschluss-Statement des Workshops: "Every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it." Die
Früchte der doch sehr einflussreichen Konferenz sind weit
verstreut. Marvin Minsky und John McCarthy gründeten das
"AI Lab" am Massachussetts Insitute of Technology
(MIT). Ray
Solomoff entwickelte die algorithmische
Informationstheorie. Oliver
Selfridge legte mit seinem Pandemonium-Modell zur
automatischen Mustererkennung die Grundlagen zu der aspektorientierten
Programmierung. Trenchard More entwickelte eine
Array-Theorie für die Programmiersprache APL, Arthur
Samuel wurde mit seinem "selbstlernenden"
Dame-Spielprogramm bekannt. Der einzige, der sich nach
Dartmouth vollkommen von der künstlichen Intelligenz
abwendete, war Nathaniel Rochester, der bei IBM maßgeblich
den IBM
701 auf den Weg brachte. Was
die Dartmouth-Konferenz eigentlich entdeckte, war die
schlichte Tatsache, dass Computer mehr können, als nur
komplizierte Ballistik-Formeln zu berechnen, dass sie auch mit
Symbolen und Begriffen umgehen können. Alle beteiligten
Wissenschaftler hatten Erfahrungen mit den ersten
"wissenschaftlichen" Rechnern wie dem Mark 1 oder
dem ENIAC gesammelt. Nun zogen sie daraus drastische
Konsequenzen: Die AI wurde bekannt durch ihre Sprüche. Claude
Shannon, der damals am MIT arbeitete, wurde von einem über
den Workshop berichtenden Reporter gefragt, ob Maschinen
einmal denken können werden. "You
bet. We're machines, and we think, don't we?", war seine
Antwort. Der spätere Nobelpreisträger Herbert Simon
stellte den "Logic Theorist" mit den Worten vor:
"Over Christmas Allen Newell and I invented a thinking
machine." Noch
1970 erklärte Marvin Minsky im Magazin "Life":
"In from now three to eight years we'll have a machine
with the general intelligence of an average human being, a
machine that will be able to read Shakespeare and grease a car."
|
|||