Kuenstliche Intelligenz
Institut für künstliche Intelligenz

Die Geschichte der künstlichen Intelligenz

 

Die Geschichte der künstlichen Intelligenz mit den wichtigsten Meilensteinen
Der nachfolgende Text ist ein stark gekürzter Auszug aus dem Kapitel "Die Geschichte der KI" des Buches "Künstliche Intelligenz - die Technologie die alles verändert" von Stephan Widera, herausgegeben vom Institut für künstliche Intelligenz, Düsseldorf. Co-Autorin des Kapitels über die Geschichte der künstlichen Intelligenz ist Nicole Knorr.

Einleitung
Künstliche Intelligenz ist als neue Technologie (…) in aller Munde. Dabei stellt sich jedoch die Frage, wie neu dieser Begriff (…) tatsächlich ist. Denn, was die meisten Menschen nicht wissen, ist das Fachgebiet der künstlichen Intelligenz bereits älter als oft angenommen wird. Schon lange bevor Themen wie vernetzte Häuser, Roboter und autonomes Fahren überhaupt von Interesse waren, dachte die Menschheit schon über künstliche (…) Wesen nach. Dies zeigen heute alte ägyptische und griechische Mythen. Dieser Text beschäftigt sich (…) mit der (…) Geschichte der künstlichen Intelligenz. Dabei geht es bei den frühen Anfängen los – nämlich schon bei den allerersten Rechenmaschinen.

Rechenmaschinen - die Vorläufer der Computer
Die Wurzeln der künstlichen Intelligenz reichen(...) bis ins 17. Jahrhundert zurück. Zwischen 1623 und 1673 wurden von unterschiedlichen Entwicklern mechanische Rechenmaschinen gebaut, so von John Napier, Wilhelm Schickard, Blaise Pascal, Caspar Schott und Gottfried Wilhelm Leibniz.
Damals wurde von mehreren Philosophen wie Leibniz, Descartes und Hobbes die These aufgestellt, dass sämtliche Überlegungen des Menschen auf Berechnungen reduzierbar seien. Demzufolge könnten diese auch von einer Maschine weitergeführt werden. Die KI-Forschung wird auch heute noch von dieser Annahme angetrieben.
1820 entstand mit dem "Arithmometer" von Charles Xavier Thomas de Colmar, die erste Rechnenmaschine, welche in Massenfertigung hergestellt wurde. (...)
Mechanische Rechner wurden noch bis in die 1970er Jahre genutzt, wo sie von den elektronischen Taschenrechnern abgelöst wurden.

Nach der industriellen Revolution: Künstliche Intelligenz wurde als Bedrohung empfunden
(...) Künstliche Wesen hatten in der Kultur wieder eine zunehmende Bedeutung, allerdings wurden sie vor allem als Bedrohung empfunden und dementsprechend dargestellt. Ein Beispiel hierfür ist Frankensteins Monster, das sich gegen seinen Erschaffer stellt. (...) Isaac Asimov wirkte diesem Trend mit "Drei Gesetze der Robotik" entgegen.

Die ersten Computer
Was den ersten Computer angeht, sind die experten nicht hundertprozentig einig. Manche Entwicklungen wurden fast zeitgleich angestossen. (...)
Die IBM 601 Lochkartenmaschine von 1935 konnte eine Multiplikation pro Sekunde durchführen. (...) Konrad Zuse präsentierte 1938 die Zuse Z1 einen frei programmierbaren mechanischen Rechner. Ebenfaslls Konrad Zuse stellte 1941 die Z3 vor, die erste funktionstüchtige programmgesteuerte binäre Rechenmaschine. Weitere Digitalrechner waren der amerikanische Atanasoff-Berry-Computer (1941) und die britische Colossus-Rechner (1941). 1942 bis 1946 wurde mit ENIAC der erste vollelektronischen Universalrechner entwickelt. ENIAC konnte addieren, subtrahieren, multiplizieren, dividieren und Quadratwurzeln ziehen.

Alan Turing und sein Einfluss auf die künstliche Intelligenz
Alan Turing (...) schuf ein festes Fundament für die künstliche Intelligenz. Er war verantwortlich für die theoretische Basis universeller Rechenmaschinen und brachte den Stein für die KI ins Rollen. (...)

Arthur Samuel und seine Bedeutung für die KI
(...) gelang es Arthur Samuel, ein Programm für das Brettspiel Dame zu entwickeln. Es war in der Lage, selbstständig dazu zu lernen und sich weiter zu verbessern. Daher gilt auch Arthur Samuel, der von 1901 bis 1990 lebte, als einer der (...) Urväter des maschinellen Lernens.

Der erste KI-Sommer und ELIZA
(...) 1956 stellte der amerikanische Informatiker John McCarthy eine Veranstaltung auf die Beine (...) , die sogenannte Darthmouth Conference, bei der sich die besten Wissenschaftler populärer Universitäten zum Brainstorming trafen. (...). Auf dieser Konferenz wurde die Bezeichnung "künstliche Intelligenz" erstmals offiziell geprägt. Von nun an fasste man unter dem Namen mehrere Begriffe zusammen – wie etwa Automatentheorie, Datenverarbeitung und Kybernetik. In den darauffolgenden Jahren ging die Entwicklung der KI rasch voran. Eine vielversprechende Neuerung war der erste Chatbot, den Joseph Weizenbaum 1966 am Massachusetts Institute of Technology entwickelte. Er trug den Namen ELIZA. Das Programm war in der Lage, in menschlicher Sprache in Textform zu kommunizieren, statt lediglich in Computercodes.(...) Im Grunde war ELIZA nichts anderes als der Vorreiter der heutigen Chatbots wie Siri oder Alexa.(...)

John McCarthy, KI-Pionier
(...) John McCarthy war ein Pionier der künstlichen Intelligenz. Er gilt zudem als Vorreiter des Cloud-Computing. Im Jahr 1955 registrierten sich insgesamt zehn Personen für einen Workshop am MIT, obwohl sie selbst noch nicht genau wussten, worum es dabei eigentlich gehen sollte. Inhaltlich sollte die künstliche Intelligenz auf dem Plan stehen. Dieser Begriff wurde bis zum damaligen Zeitpunkt aber vorher noch nie genutzt. (...)
Darüber hinaus hat McCarthy aber noch mehr geleistet. Schon in den 50er-Jahren entwickelte er die Programmiersprache Lisp, die ein wichtiger Bestandteil der heutigen Forschung ist. Heute ist Lisp die Standard-Programmiersprache der künstlichen Intelligenz. Sie kommt vor allem in der Robotik, in wissenschaftlichen Anwendungen und für internetbasierte Dienste zum Einsatz. (...)

John McCarthy, Vorreiter der künstlichen Intelligenz
Ein weiterer Vorreiter der künstlichen Intelligenz war Joseph Weizenbaum. (...) Im Jahr 1963 verschlug es ihn ans MIT, wo er an dezentralen Rechnernetzen forschte. Seine Ergebnisse fanden später für das ARPA-Netz Verwendung, den Vorläufer des Internets.Weizenbaum begriff schnell, wie viele universelle Einsatzmöglichkeiten Computer der Menschheit boten. Deshalb entwickelte er das Programm ELIZA. Der Chatbot war in der Lage, menschliche Gesprächspartner zu simulieren. Bis heute feiert man ELIZA als Meilenstein für die künstliche Intelligenz. (...)

70er - 80er ahre / KI-Winter
(...) Rückschläge in den 70er und 80er Jahren. Die damaligen Computer waren nicht in der Lage die erforderlichen Datenmengen zu bearbeiten. Die Erwartungen von Investoren und Öffentlichkeit wurden enttäuscht. (...) In dieser Zeit hatte die künstliche Intelligenz (...) an Bekanntheit und damit an finanzieller Unterstützung verloren.
Aber es gab auch Fortschritte:Die Forscher konzentrierten sich verstärkt darauf, die noch recht unflexiblen Programmiersprachen zu verbessern. Viele bekannte und bis heute genutzte Programmiersprachen wie Prolog, Pascal, SQL und C wurden in diesem Zeitraum entwickelt. Sie bilden die Basis der modernen Programmierung. (...)Trotz mancher Erfolge konnten die vorgenommenen Ziele nicht erreicht werden. Daher wurde wieder jäh an dem gesamten Fachgebiet der künstlichen Intelligenz gezweifelt. (...)

Die Entwicklung der künstlichen Intelligenz von 1990 bis heute
(...) Die Wissenschaftler (...) forschten(...) weiter und erzielten Ergebnisse, die für die KI bis heute extrem relevant sind. Da (...) finanzielle Mittel fehlten, begannen die KI-Forscher damit, sich auf spezifische Teilbereiche zu konzentrieren. So konnten sie mit Fachleuten aus anderen Bereichen zusammenarbeiten, um die Finanzierung ihrer Wissenschaft sicherzustellen. Durch diese bereichsübergreifende Kooperation wurde das Fachgebiet wissenschaftlicher und in sich schlüssiger. So wurden beispielsweise Konzepte zur klassischen Optimierung und zur Wahrscheinlichkeitstheorie miteinander vereint. Dies erwies sich schon bald als großer Vorteil für das Fachgebiet der künstlichen Intelligenz.
Es kam zu vielen neuen Meilensteinen, die vor allem der besseren Hardware, den neuen Techniken und den modernen Programmiersprachen wie Java, JavaScript, Python und PHP zu verdanken waren. Einer dieser Meilensteile war das Programm Deep Blue. Es konnte in einem Spiel den Schachweltmeister Gary Kasparov schlagen. Damit war zum ersten Mal gelungen, in einer sehr öffentlichkeitswirksamen Weise zu zeigen, dass die KI bei einem Spiel, das im Allgemeinen als Inbegriff der menschlichen Intelligenz bekannt ist, dem Mensch überlegen sein könnte.
Gleichzeitig konnten mit der KI komplexe Probleme gelöst werden – wie zum Beispiel im Bereich des Data Mining, der Bankensoftware, der Spracherkennung und der medizinischen Diagnose.
Wenig später präsentierte Google der Welt seine Suchmaschine. (...)
Die Social-Media-Ärabringt der KI den Durchbruch. Es konnten nun unzählige Daten über die Präferenzen und Abneigungen der Menschen gesammelt werden. Sämtliche Abläufe mussten personalisiert werden. Schnell stellte man fest, dass die Welt für den Menschen allein zu komplex wurde. Also kam wieder die KI ins Spiel, sodass Begriffe wie "Data Science", "Deep Learning" oder "Big Data" plötzlich zum Mainstream wurden.

In den letzten Jahren nahm die Bedeutung der künstlichen Intelligenz für unseren Alltag mehr und mehr zu. Amazon weiß, welche Artikel man benötigen könnte. Netflix sieht voraus, welche Filme uns gefallen. Onlineshops stellen personalisierte Rabatte zur Verfügung, die auf den individuellen Einkaufsgewohnheiten basieren. Facebook schlägt Personen vor, die man vielleicht kennt. Und Google weiß, wonach man sucht, bevor man die letzten Buchstaben eingetippt hat. (...)

(KI) bietet auch für die Geschäftswelt große Chancen. So lässt sie sich zum Beispiel auch im Gesundheits- oder Rechtswesen einsetzen. Logistikunternehmen greifen auf die KI zurück, um umweltfreundlicher zu arbeiten und ihre Ressourcenplanung zu optimieren. Viele Unternehmen setzen digitale Agenten ein, um ihre Mitarbeiter bei der optimalen Erledigung ihrer Arbeit zu unterstützen oder die Betreuung der Kunden zu verbessern. Und dies sind nur einige der Einsatzgebiete der künstlichen Intelligenz in der aktuellen Geschäftswelt. (...)
Ökonomen vermuten einen Wirtschaftsboom dank KI. (...) Die positive Wirkung der KI geht (...) auf einen Dreifacheffekt zurück: Sie erhöhe demnach nicht nur als fortschrittliche Technologie die Produktivität, sondern verbessere auch maßgeblich die Effizienz der traditionellen Produktionsfaktoren Arbeit und Kapital. Ein Beispiel dafür ist die Plattform Amelia vom US-Anbieter IPsoft. Sie kann selbstständig lernen, den Servicetechnikern bei jedem Auftrag noch zuverlässiger und genauer vorzuschlagen, wie sich Maschinen preiswert und in kurzer Zeit reparieren lassen. Auf diese Weise wird der Wert der Investition kontinuierlich gesteigert, während die Techniker gleichzeitig immer bessere Arbeit leisten können. Die Ökonomen prophezeien, dass die KI auf diese Weise beinahe schon in der Lage sei, die physikalisch vorgeschriebenen Grenzen von Kapital und Arbeit zu sprengen. Somit werde die KI selbst ein wichtiger Produktionsfaktor, statt wie bisher nur als Produktivitätsbeschleuniger zu wirken. (...)

 

ki-buch

 


Stephan Widera
Künstliche Intelligenz
- die Technologie die alles verändert

(Erscheinung voraussichtlich bis Ende 2020. Mailen Sie uns für Vorbestellungen)