Zerknüllte Papierbälle

© GettyImages/ThomasVogel

Algorithmen:

Unter Algorithmus versteht man eine konkrete Handlungsvorschrift zur Lösung eines Problems. Algorithmen sind als mathematische Gleichungen angelegt und spielen insbesondere in der Informatik als Grundlage für Programmierungen eine große Rolle. Mittlerweile begegnen uns Algorithmen täglich – in der Freizeit wie auch bei der Arbeit. Wir finden sie in vielen technischen Geräten sowie in unserer elektronischen Kommunikation. So zeigen uns Algorithmen im Navi den kürzesten Weg, schlagen uns als Computergegner im Schach, kontrollieren unseren Satzbau in Office Word oder empfehlen uns einen passenden Partner beim Online-Dating.

Deep Learning:

Maschinen das Denken beizubringen – klingt wie Science-Fiction, ist aber dank Deep Learning – zu Deutsch in etwa „tiefgehendes Lernen“ – möglich. Dabei imitiert eine neue Art von Algorithmen das menschliche Lernen, indem sie sich an der Funktionsweise des menschlichen Gehirns orientiert. Deep Learning simuliert in der Maschine ein dicht verwobenes Netz aus einfachen Nervenzellen, das wie sein natürliches Vorbild aus Erfahrung lernt. Für die Erfahrung sorgt das Zuführen riesiger Datenmengen, wie zum Beispiel Bilder. In der Folge gelingt den Maschinen das, was Menschen fast nebenher erledigen: Sie erkennen Gesichter und verstehen Sprachen. Ob Cortana, Siri oder Skype – fast jeder nutzt heute Software, die auf Deep Learning beruht. 

Neuronale Netze:

Die Neurowissenschaft bezeichnet eine Ansammlung miteinander verbundener Nervenzellen als neuronales Netz. Jedes einzelne verarbeitet Informationen und dient dem Lernen und Erinnern. Darauf beruhend, werden in der Informatik, Informationstechnik und Robotik Künstliche Neuronale Netze (KNN) entwickelt. Das Ziel ist es, die enormen Verarbeitungs- und Funktionsfähigkeiten von Gehirnen im Computer nachzukonstruieren.

Während Hunderte oder Tausende künstliche Neuronen in übereinanderliegenden Schichten sitzen und über simulierte Leitungen verbunden sind, wird die oberste, als Sensor fungierende Schicht mit Daten gefüttert – zum Beispiel mit Bildern oder Geräuschen. Diese gibt die Informationen weiter und das Netzwerk sortiert sie. Die kontinuierliche Datenzuführung und -verarbeitung seitens des Computers führt bei der Maschine schließlich nach und nach zu einem Lernprozess (siehe auch Deep Learning). 

Turing-Test: 

Bereits im Jahr 1950 vom britischen Mathematiker Alan Turing entwickelt, wird mit dem Turing-Test geprüft, ob eine Maschine das Denkvermögen eines Menschen hat. Beim Test chattet eine Versuchsperson mit einem Menschen sowie mit einem Computer und muss anschließend entscheiden, welcher der Gesprächspartner Mensch und welcher Maschine gewesen ist. Turing sah den Test für eine Maschine als bestanden an, wenn mindestens 30 Prozent der Versuchspersonen sie für einen Menschen hielten. Ob das eine Maschine bisher geschafft hat, ist allerdings nach wie vor unter Forschern umstritten.

Internetnutzer begegnen einem von Turing abgeleitetem Test täglich im Netz: Zur Abwehr von Spam-Programmen müssen sie auf vielen Seiten eine angezeigte Buchstaben- oder Zahlenkombination eingeben. Damit beweisen die Nutzer, dass sie reale Menschen sind. Das Verfahren heißt CAPTCHA und steht für „completely automated public Turing test to tell computers and humans apart“.