Technologische Singularität

Aus AnthroWiki
Version vom 3. August 2018, 07:36 Uhr von imported>Odyssee

Als technologische Singularität oder auch einfach als Singularität[1] wird die Hypothese bezeichnet, dass die Erfindung einer künstlichen Superintelligenz (ASI) abrupt ein rasantes technologisches Wachstum auslösen wird, das zu unvorhersehbaren Veränderungen der menschlichen Zivilisation führt.[2] Nach dieser Hypothese würde ein aufrüstbarer intelligenter Agent (wie ein Computer mit softwarebasierter künstlicher allgemeiner Intelligenz) in eine unkontrollierbare Folge von Selbstverbesserungszyklen eintreten, wobei jede neue und intelligentere Generation immer schneller auftaucht und so eine Intelligenzexplosion auslöst, die zu einer mächtigen Superintelligenz führt, die qualitativ und quantitativ die gesamte menschliche Intelligenz weit übertrifft.

Stanislaw Ulam berichtet von einer Diskussion mit John von Neumann, „die sich auf den beschleunigten Fortschritt der Technologie und die Veränderungen in der Lebensweise des Menschen konzentriert, was den Anschein erweckt, dass wir uns einer wesentlichen Singularität in der Geschichte der Menschheit nähern, jenseits derer die menschlichen Angelegenheiten, wie wir sie kennen, nicht weitergehen können.“[3] Nachfolgende Autoren haben sich diesem Standpunkt angeschlossen.

Irving John Goods (1916-2009) „Intelligenzexplosionsmodell“ sagte schon 1965 voraus, dass eine zukünftige Superintelligenz eine solche Singularität auslösen wird. Good spekulierte:

„Eine ultraintelligente Maschine sei definiert als eine Maschine, die die intellektuellen Fähigkeiten jedes Menschen, und sei er noch so intelligent, bei weitem übertreffen kann. Da der Bau eben solcher Maschinen eine dieser intellektuellen Fähigkeiten ist, kann eine ultraintelligente Maschine noch bessere Maschinen bauen; zweifellos würde es dann zu einer explosionsartigen Entwicklung der Intelligenz kommen, und die menschliche Intelligenz würde weit dahinter zurückbleiben. Die erste ultraintelligente Maschine ist also die letzte Erfindung, die der Mensch zu machen hat, vorausgesetzt, dass die Maschine fügsam genug ist, uns zu sagen, wie man sie unter Kontrolle hält.“

Irving John Good: Speculations Concerning the First Ultraintelligent Machine[4]

Der emeritierte Professor für Informatik an der San Diego State University und Science-Fiction-Autor Vernor Vinge sagte 1993 in seinem Essay The Coming Technological Singularity, dass dies das Ende der menschlichen Ära bedeuten würde, da sich die neue Superintelligenz weiter verbessern und technologisch in einem für Menschen nicht nachvollziehbaren Tempo voranschreiten würde[5].

Vier Umfragen, die in den Jahren 2012 und 2013 durchgeführt wurden, deuten darauf hin, dass eine mittlere Wahrscheinlichkeit von 50 % für die Entwicklung einer derartigen Artificial General Intelligence (AGI) bis 2040-2050 besteht[6][7]. Der KI-Pionier Raymond Kurzweil (* 1948), seit 2012 Leiter der technischen Entwicklung bei Google, erwartet, dass bereits 2029 ein Computer erstmals den sog. Turing-Test bestehen und damit die künstliche Intelligenz menschliches Niveau erreichen und bald danach auch weit übertreffen werde.

In den 2010er Jahren äußerten Persönlichkeiten wie Stephen Hawking und Elon Musk Bedenken, dass die volle künstliche Intelligenz zum Aussterben des Menschen führen könnte[8][9]. Die Folgen der Singularität und ihr potenzieller Nutzen oder Schaden für die Menschheit werden heiß diskutiert.

Siehe auch

Einzelnachweise

  1. Carole Cadwalladr: Are the robots about to rise? Google's new director of engineering thinks so…, The Guardian. Guardian News and Media Limited 2014
  2. Amnon H. Eden, James H. Moor: Singularity hypotheses: A Scientific and Philosophical Assessment, Springer 2012, pp. 1–2. ISBN 9783642325601
  3. Stanislaw Ulam: Tribute to John von Neumann, 64, #3, part 2. Bulletin of the American Mathematical Society: 5
  4. „Let an ultraintelligent machine be defined as a machine that can far surpass all the intellectual activities of any man however clever. Since the design of machines is one of these intellectual activities, an ultraintelligent machine could design even better machines; there would then unquestionably be an „intelligence explosion“, and the intelligence of man would be left far behind. Thus the first ultraintelligent machine is the last invention that man need ever make, provided that the machine is docile enough to tell us how to keep it under control.“
    Irving John Good: Speculations Concerning the First Ultraintelligent Machine online
  5. Vernor Vinge: The Coming Technological Singularity: How to Survive in the Post-Human Era, ursprünglich in Vision-21: Interdisciplinary Science and Engineering in the Era of Cyberspace, G. A. Landis, ed., NASA Publication CP-10129, pp. 11–22, 1993
  6. Raffi Khatchadourian: The Doomsday Invention. The New Yorker, 16. November 2015, abgerufen am 3. August 2018.
  7. V. C. Müller, Nick Bostrom: Future progress in artificial intelligence: A survey of expert opinion, in: Fundamental issues of artificial intelligence, Springer 2016, pp. 555–572
  8. Matthew Sparkes: Top scientists call for caution over artificial intelligence, The Telegraph (UK) 13. Januar 2015, abgerufen am 3. August 2018
  9. Stephen Hawking: AI could end human race. BBC 2 Dezember 2014, abgerufen 3. August 2018