Die Geschichte der Künstlichen Intelligenz (KI) reicht zurück bis in die Antike, wo bereits Konzepte für automatisierte Werkzeuge und Maschinen entwickelt wurden. Der Begriff „Künstliche Intelligenz“ wurde jedoch erst in den 1950er Jahren von dem Mathematiker und Informatiker John McCarthy geprägt. In dieser Zeit wurden die Grundlagen für die KI-Forschung gelegt und es wurden erste Versuche unternommen, menschliche Intelligenz auf Maschinen zu übertragen. So war der britische Mathematiker Alan Turing einer der ersten, der darüber nachdachte, ob Maschinen Intelligenz erlangen könnten. Bereits in Jahr 1950 stellte er die berühmte Frage: „Können Maschinen denken?“ und entwickelte den Turing-Test, um zu herauszufinden, ob eine Rechenmaschine – eine sogenannte „Turingmaschine“ – in der Lage wäre, kognitive Prozesse auszuführen und somit zu Intelligenz fähig ist.
Der Turing-Test
Der Turing-Test ist eine Methode zur Untersuchung Künstlicher Intelligenz, bei der überprüft wird, ob eine Maschine in der Lage ist, menschenähnliches Denken zu simulieren. Hierbei müssen ein Mensch und ein Computer in getrennten Räumen Fragen von einem Dritten beantworten. Der Dritte muss anschließend anhand der Antworten erkennen, ob er mit einem Menschen oder einer Maschine kommuniziert. Falls die Antworten der Maschine derart überzeugend sind, dass ihre „Unmenschlichkeit“ nicht festgestellt werden kann, gilt der Test als bestanden.
Künstlich Intelligenz
Der Begriff «Künstliche Intelligenz» bzw. engl. «Artificial Intelligence» bezieht sich auf die Schaffung von Maschinen, die in der Lage sind, menschenähnliche Intelligenz aufzuweisen. Der Begriff wurde in den folgenden Jahrzehnten immer wieder diskutiert und weiterentwickelt. Heute wird der Begriff „Artificial Intelligence“ oft als Synonym für „Machine Learning“ und „Deep Learning“ verwendet – Technologien, die es Computern ermöglichen, aus Erfahrung zu lernen und Entscheidungen zu treffen.
Meilensteine der Entwicklung
- In den 1960er Jahren entwickelte Joseph Weizenbaum den ersten Chatbot namens ELIZA, der in der Lage war, einfache menschenähnliche Konversationen zu führen.
- In den 1980er Jahren wurde die Expertensystem-Technologie entwickelt, die in der Lage war, Entscheidungen auf Basis von Regeln und Wissen zu treffen.
- In den 1990er Jahren wurden neuronale Netze eingeführt, die es ermöglichten, komplexe Datenmuster zu erkennen und Vorhersagen zu treffen.
In den letzten Jahrzehnten gab es viele Entwicklungen in der KI, wie z.B. der Schachcomputer Deep Blue, der 1997 den Schachweltmeister Garry Kasparov besiegte. Deep Blue, der von IBM entwickelt wurde, war ein Meilenstein in der Geschichte der künstlichen Intelligenz und zeigte, dass Computer in der Lage sind, menschliche Experten in komplexen Spielen zu schlagen. Der Computer nutzte eine Kombination aus speziell entwickelten Algorithmen und menschlicher Expertise, um seine Schachstrategie zu verbessern. Der Erfolg von Deep Blue löste eine Debatte darüber aus, ob Computer in der Lage sind, menschliche Intelligenz zu erreichen, und ob sie in der Lage sind, menschliche Experten in anderen Bereichen zu schlagen.
Machine Learning
Machine Learning (ML) ist ein Teilgebiet der künstlichen Intelligenz, das sich mit der Entwicklung von Algorithmen befasst, die es Maschinen ermöglichen, aus Daten zu lernen und Vorhersagen oder Entscheidungen zu treffen, ohne ausdrücklich programmiert zu werden.
Geschichte
Die Geschichte von Machine Learning reicht zurück bis in die 1940er Jahre, als Wissenschaftler wie Warren McCulloch und Walter Pitts neuronale Netze entwickelten, die es Computern ermöglichten, einfache Entscheidungen zu treffen. In den folgenden Jahrzehnten wurden viele verschiedene Machine-Learning-Methoden entwickelt, wie z.B. Entscheidungsbäume, künstliche neuronale Netze und Support-Vector-Maschinen.
Im Gegensatz zu traditionellen Programmiermethoden, bei denen der Code genau beschreibt, was das System tun soll, wird bei ML der Algorithmus so gestaltet, dass er aus den Daten selbst lernt und sich anpasst. Die Daten können dabei aus verschiedenen Quellen stammen, wie z.B. Sensoren, sozialen Medien oder historischen Datensätzen.
Arten
Es gibt verschiedene Arten von Machine Learning, darunter überwachtes Lernen, unüberwachtes Lernen und bestärkendes Lernen. Beim überwachten Lernen wird das Modell mit beschrifteten Daten trainiert, d.h. die korrekten Antworten sind bereits bekannt und das System lernt, diese zu reproduzieren. Beim unüberwachten Lernen hingegen werden die Daten nicht beschriftet und das System muss selbständig Muster und Zusammenhänge erkennen. Beim bestärkenden Lernen lernt das System durch Belohnung und Bestrafung, ähnlich wie bei einer Art von Feedbackschleife.
Ein Beispiel für ML ist die Spam-Erkennung in E-Mails. Ein Algorithmus wird mit einer großen Menge von E-Mails trainiert, von denen einige als Spam markiert wurden und andere nicht. Der Algorithmus erkennt Muster in den E-Mails und lernt, welche Merkmale eine E-Mail als Spam kennzeichnen. Wenn der Algorithmus mit einer neuen E-Mail konfrontiert wird, kann er Vorhersagen treffen, ob es sich um Spam handelt oder nicht.
Wichtig bei der Anwendung von ML ist jedoch auch die Qualität der Daten. Schlechte oder verzerrte Daten können zu fehlerhaften Vorhersagen und Entscheidungen führen. Zudem müssen ethische und rechtliche Aspekte berücksichtigt werden, insbesondere im Hinblick auf den Schutz personenbezogener Daten.
Deep Learning
Deep Learning (DL) ist eine spezielle Form des Machine Learnings und eine der wichtigsten Anwendungen von KI. Im Gegensatz zum traditionellen maschinellen Lernen, bei dem der Algorithmus explizit programmiert wird, um bestimmte Aufgaben zu erledigen, lernt ein Deep-Learning-Modell aus Erfahrungen und erkennt selbständig komplexe Muster und Zusammenhänge in Daten.
Deep-Learning-Modell
Das Deep-Learning-Modell besteht aus mehreren Schichten von künstlichen Neuronen, die miteinander verbunden sind und Informationen durch die Schichten hindurchleiten. Jede Schicht extrahiert dabei Merkmale oder Eigenschaften der Daten und gibt sie an die nächste Schicht weiter, die noch komplexere Merkmale extrahiert. Dadurch können Deep-Learning-Modelle sehr tief und komplex werden und in der Lage sein, komplexe Aufgaben wie Bilderkennung, Spracherkennung oder Autonomes Fahren zu erfüllen.
Ein Beispiel für ein Deep-Learning-Modell ist ein Convolutional Neural Network (CNN), das in der Bilderkennung eingesetzt wird. Ein CNN besteht aus mehreren Schichten von Filtern, die bestimmte Merkmale wie Kanten, Ecken oder Farben in einem Bild erkennen und hervorheben. Die Schichten werden dann kombiniert, um komplexe Merkmale wie Gesichter oder Objekte im Bild zu erkennen.
Herausforderungen
Obwohl Deep Learning sehr leistungsfähig ist, gibt es auch einige Herausforderungen und Einschränkungen. Eines der größten Probleme ist die Notwendigkeit großer Datenmengen, um das Modell zu trainieren und effektiv zu sein. Ohne ausreichende Daten kann es nicht lernen, komplexe Muster zu erkennen. Ein Beispiel ist der MNIST-Datensatz, der aus 60.000 handgeschriebenen Ziffern besteht, die zum Trainieren von Bilderkennungsalgorithmen verwendet werden.
In der Medizin werden Datensätze wie der MIMIC-III-Datensatz verwendet, der aus medizinischen Daten von über 40.000 Patienten besteht und zur Entwicklung von Diagnose- und Behandlungsalgorithmen verwendet wird.
Dementsprechend ist das Training von Deep-Learning-Modellen sehr rechenaufwendig und erfordert oft spezielle Hardware wie GPUs oder TPUs.
Trotz dieser Herausforderungen hat Deep Learning bereits viele Anwendungen in verschiedenen Branchen wie Gesundheitswesen, Finanzwesen oder Verkehrswesen gefunden. In der Kreativbranche wird Deep Learning in der Bild- und Spracherkennung sowie in der Generierung von kreativen Inhalten wie Photos, Videos Musik oder Kunstwerken eingesetzt.
Einsatzgebiete und Beispiele
Bilderkennung
In der Bilderkennung wird Deep Learning eingesetzt, um Objekte zu klassifizieren. Dabei werden Muster in Bildern erkannt und Entscheidungen darüber getroffen, was auf dem Bild zu sehen ist.
Beispiele:
- Gesichtserkennung – und identifizierung zu versch. Zwecken (Kontrollen, öffentliche Sicherheit)
- Medizinischen Bildgebung, um Krankheiten wie Krebs zu erkennen und zu diagnostizieren
- Vorhersagen über die Diagnose von Krankheiten
- Überwachung von Verkehrsflüssen, um Verkehrsstaus und Unfälle zu vermeiden
- Vorhersagen über zukünftige Verkehrsbedingungen
Spracherkennung
In der Spracherkennung wird Deep Learning eingesetzt, um die Genauigkeit und Leistung von Spracherkennungssystemen zu verbessern. Ein Computer kann lernen, menschliche Sprache zu verstehen, indem er mit einer großen Anzahl von Audioaufnahmen trainiert wird, die mit den entsprechenden Transkriptionen versehen sind.
Beispiele
- Digitale Sprachassistenten wie Siri oder Alexa
- automatischen Übersetzung von Texten
- Sprachsynthese, um menschenähnliche Stimmen zu erzeugen
Medizin
Der Einsatz in der Medizin dient dazu, Krankheiten zu diagnostizieren und Behandlungen zu planen.
Beispiele
- Medizinischen Bildgebung, um Krankheiten wie Krebs zu erkennen und zu diagnostizieren
- In der Genomik, um Vorhersagen über die Auswirkungen von Genmutationen auf die Gesundheit zu treffen.
- Vorhersagen über die Wirksamkeit von Behandlungen
- Personalisierte Medizin, um Vorhersagen über die Wirksamkeit von Medikamenten bei bestimmten Patienten zu treffen
Automobilindustrie
Beispiele
In der Automobilindustrie wird Deep Learning eingesetzt, um autonome Fahrzeuge zu entwickeln.
- Ein Computer kann lernen, Verkehrszeichen und andere Fahrzeuge zu erkennen und Entscheidungen darüber zu treffen, wie das Fahrzeug fahren soll.
- Für die Sprach- und Gestenerkennung im Fahrzeug
- Um Hindernisse auf der Straße zu erkennen und zu vermeiden. Entscheidung darüber, wie das Fahrzeug fahren soll.
- Qualitätskontrolle in der Produktion von Fahrzeugen: Erkennung von Produktionsdaten und Vorhersagen über die Qualität von Fahrzeugen
Finanzwesen
- Im Finanzwesen wird Deep Learning eingesetzt, um Betrug zu erkennen, indem Muster in Transaktionen identifiziert werden. Ein Beispiel dafür ist die Identifikation von betrügerischen Finanztransaktionen mit Deep Learning in TensorFlow 2.0
- Aktienkurse: Historischen Aktiendaten dienen zur Vorhersage über zukünftige Aktienkurse (NYSE-Datensatz)
- Analog dazu werden Vorhersagen zu Bitcoin-Preisen generiert.
- Kreditrisikobewertung: Erkennung von Kreditdaten und Vorhersagen über das Risiko von Kreditausfällen
- Betrugserkennung bei Versicherungsansprüchen: Mustererkennung in Versicherungsdaten, um verdächtige Ansprüche zu identifizieren