Der norwegische Informatiker und Pionier auf dem Gebiet der Programmiersprachen Kristen Nygaard sagte: „To program is to understand!“ (Programmieren heißt verstehen)
Seiten
Autor
Populäre Sachbücher, Philosophie und Wissenschaft "für jedermann"
Sonntag, 30. Dezember 2018
Freitag, 28. Dezember 2018
Ein Riesenschritt für einen Schachautomaten
Steven Strogatz, Mathematikprofessor an der Cornell University, beschreibt den atemberaubenden Erfolg von AlphaZero, einem „Deep-Learning“-Algorithmus, der „ein neues Zeitalter der Erkenntnis einläutet“. Er schreibt: „Durch das Spielen gegen sich selbst und die Aktualisierung seines neuronalen Netzwerks, durch das es aus der Erfahrung gelernt hat, entdeckte AlphaZero die Prinzipien des Schachspiels selbst und wurde schnell zum besten Spieler aller Zeiten. […] Großmeister hatten noch nie so etwas gesehen. AlphaZero hatte die Finesse eines Virtuosen und die Kraft einer Maschine. Es war der erste Blick der Menschheit auf eine fantastische neue Art von Intelligenz. […] Am irritierendsten war, dass AlphaZero Einsicht zu zeigen schien. Es spielte wie kein anderer Computer, intuitiv und schön, mit einem romantischen, angreifenden Stil. […] Was jedoch am maschinellen Lernen frustrierend ist, ist, dass die Algorithmen nicht artikulieren können, was sie denken. Wir wissen nicht, warum sie funktionieren, also wissen wir nicht, ob man ihnen vertrauen kann. AlphaZero gibt jeden Anschein, einige wichtige Prinzipien über das Schach entdeckt zu haben, aber es kann dieses Verständnis nicht mit uns teilen. Zumindest noch nicht. Als Menschen wollen wir mehr als nur Antworten. Wir wollen Einsicht. Dies wird von nun an eine Quelle der Spannung in unseren Interaktionen mit Computern sein.“ Und so weiter … Ein lesenswerten und auch verstörender Artikel, der einen Blick in die Zukunft der „Künstlichen Intelligenz“ bietet.
Digital - Wie Computer denken
Ein Wort zum Titel
„Wie Computer denken“ – das ist doppeldeutig. Es kann bedeuten, dass hier erläutert wird, wie Computer „denken“, d. h. wie sie funktionieren. Dass Computer denken, ist natürlich nur eine Metapher, ein Gleichnis. Denn wie wir Menschen „denken“, das können sie nicht. Denken können nur wir Menschen und einige andere Lebewesen (und niemand weiß, wie wir uns „Gedanken machen“, sie herstellen). Oder? Wir werden sehen.
Es kann aber auch bedeuten, dass die Leserin oder der Leser lernen soll, wie ein Computer zu denken, also ähnlich systematisch, schematisch, exakt und rational vorzugehen und oft gemachte menschliche Denk-Fehler zu vermeiden. Egal, wie Sie es interpretieren, Sie werden nach der Lektüre dieses Buches verstehen, wie Algorithmen mit Daten umgehen. Denn der Computer „denkt“ mit Algorithmen. Wobei natürlich erklärt wird, was es mit dem Zungenbrecher „Algorithmus“ auf sich hat. Wenn Sie dieser Fachbegriff erschreckt, was wollen Sie dann sagen, wenn ich Ihnen verrate, dass er von einem arabischen Rechenmeister und Astronomen namens Muhammad Ibn-Mūsā al-H̱wārizmīabgeleitet wurde, eine Verballhornung seines Namens. Er war sozusagen der Adam Riese des Orients. Nehmen wir den Ausdruck hier erst einmal als Fachbegriff für beliebige Rechenverfahren.
„Wie Computer denken“ ist also ein falscher Untertitel. Sie tun es nicht. Sie verarbeiten nur Zahlen und Texte und gegebenenfalls technische Signale, z. B. aus einem Mikrofon oder von den Sensoren einer Heizung – letztlich nur Bits und Bytes. Sie denken nicht, sie sind so dumm wie der Schalter einer Nachttischlampe: AN und AUS. Wirklich? Wieso reden die Fachleute aber dann von künstlicher Intelligenz? Wieso schlägt „Watson“ menschliche Gegenspieler bei Jopardy, wieso gewinnen Computer GO und Schach? Dazu gibt es einen simplen aber tiefsinnigen Spruch: „Mehr ist anders“. Ein Neuron, sozusagen das Bit in unserem Kopf, kann auch nicht denken. Aber die 86 Milliarden (in Zahlen: 86.000.000.000) in Ihrem Kopf, die können es. Hoffe ich. Schon der Fadenwurm Caenorhabditis elegansmit 136 Neuronen kann es. „Aber er hat kein Bewusstsein“, sagen viele. Wenn wir uns darauf einigen, was das ist, dann können wir es vielleicht beurteilen. Und spekulieren, ob der Computer eins hat oder irgendwann haben wird. Auch das wird unser Thema sein.
Inhalt
Montag, 10. Dezember 2018
Nach einer langen "schöpferischen Pause" ...
... hier mein neues Projekt
„Mehr ist anders“, sagte ein Nobelpreisträger und meinte
damit das Phänomen der „Emergenz“ — dass bei einer Zunahme von Quantität eine
neue Qualität, etwas grundsätzlich Neues entstehen kann. Genau dies führt der
Autor am Thema „Digitalisierung“ vor: Der Computer, der nach einfachsten
technischen Prinzipien funktioniert, wird zum mächtigen Werkzeug, ja
„Denkzeug“. Milliarden Computer, miteinander vernetzt, schaffen erneut einen Qualitätssprung:
die Entstehung eines weltweiten Informations-, aber auch Überwachungsnetzes.
Und wir erleben eine technische Revolution, die vor allem durch die „Künstliche
Intelligenz“ ausgelöst wird.
Diese Entwicklung wird in einfacher Sprache und mit vielen
konkreten Beispielen in diesem Buch verständlich dargestellt.
Ausgehend von der technischen Funktionsweise klassischer
Computer sowie neuronaler Netze wird die Modellierung der Wirklichkeit in Form
von Daten und Prozessen beschrieben. Aufbauend auf diesem Verständnis wird ein
Teil der mannigfaltigen Aspekte der digitalen Vernetzung des Internets
anschaulich geschildert und bewertet. So lernen die Leser, wie Computer
„denken“.
Letztendlich geht es um die Frage, ob die Digitalisierung
Segen oder Fluch der Menschheit sein wird. Die Antwort des Autors wird Sie
überraschen.
Abonnieren
Posts (Atom)