Schach – Go – Mathematik


KI Die Erde ist nicht der Mittelpunkt des Universums. Der Mensch wurde nicht von Gott nach dessen Bilde erschaffen. Und nur wenige von uns können sich noch mit einer Künstlichen Intelligenz (KI) messen.

openart.ai

Schach

Bereits 1997 besiegte ein «Deep Neural Network», der IBM-Schachcomputer Deep Blue, den damals amtierenden Schachweltmeister Garry Kasparow mit 3.5:2.5 aus sechs Partien, während 1996 Kasparow noch 4:2 gewonnen hatte. Es gab damals viele Begründungen, warum man das nicht als eine hohe Intelligenzleistung einer Maschine ansehen sollte. Eine davon war, dass das neuronale Netzwerk an allen Partien Kasparows trainiert worden sei, während Kasparow vorher den Stil von DeepBlue nicht analysieren konnte.

Die Spielstärke von Schachspielern wird mit dem standardisierten Elo-Rang gemessen. Der höchste Elo-Rang, den ein menschlicher Schachspieler bisher erreicht hat, hat Magnus Carlsson mit 2863 im klassischen Schach erreicht. Im Schnellschach und Blitzschach lag er etwas höher. Das gegenwärtig beste Computerschach-System, Stockfish 15.1, erreichte 2023 einen Elo-Rang von 3546. Seit etwa 2005 sind menschliche Schachspieler gegen die besten Computer-Schach-Systeme chancenlos. Die Elo-Ränge der besten menschlichen Schachspieler stagnieren etwa seit der Jahrtausendwende. Diejenigen von Computer-Schach-Systemen steigen derzeit immer noch.

Go

Das chinesische Brettspiel Go gilt als komplizierter denn Schach, weil es mehr Möglichkeiten gibt. Das System AlphaGo von Googles KI-Zweig DeepMind besiegte 2016 einen der damals weltweit besten Go-Spieler, den Südkoreaner Lee Se-dol in vier der fünf angesetzten Partien. Bereits ein Jahr zuvor hatte das System den Europameister Fan Hui in allen angesetzten Partien besiegt. Im Go gibt es kein Rangsystem, mit dem man Mensch und Maschine direkt vergleichen könnte, weil die Rangsysteme auf direkten Vergleichen beruhen und menschliche Go-Spieler seit 2016 direkte Vergleiche mit Computer-Go-Systemen vermeiden – zumindest in der Öffentlichkeit. Da allerdings das neuere AlphaGo Zero bereits 2017 100 von 100 Partien gegen AlphaGo gewonnen hat und sich die menschliche Speilstärke kaum weiterentwickelt hat, geht man davon aus, dass auch menschliche Go-Spieler keine Chance mehr gegen Computersysteme haben.

Generelle Intelligenz und Verständnis

Das bringt uns zu einem zweiten Argument, warum Deep Blue und AlphaGo keine so beeindruckenden maschinellen Intelligenzleistungen sein sollen. Schach und Go sind sehr spezialisierte, künstliche Aktivitäten, mit einem kleinen Regelsatz. Was die generelle Intelligenz angeht, so seien Menschen den Maschinen noch immer weit überlegen.

Ich habe gelegentlich angemerkt, dass ich dieses Argument schlecht belegt finde. Wenn man Konversationen in sozialen Netzwerken verfolgt und sich dann zum gleichen Thema mit ChatGPT oder Claude unterhält, schneidet die Masse in den sozialen Netzwerken nicht so beeindruckend ab. Wenn ich ein spezielles Problem habe und mir die Zeit nehme, mich durch mehrere Chats dazu durchzulesen, finde ich fast immer eine bessere Antwort als diejenige von ChatGPT oder Claude. Die ist dann allerdings von jemandem, der für genau diese Art von Problem ein Spezialist ist. Welcher Anteil der Menschen ein höheres Allgemeinwissen hat als ein moderner ChatBot, scheint noch niemand untersucht zu haben. Allerdings würde ich behaupten, dass ich auf dem Gebiet nicht in der unteren Hälfte der Menschheit angesiedelt bin und dass ich mich weder mit ChatGPT noch mit Claude messen kann.

Ein weiteres Argument ist, dass eine KI nicht versteht, was sie sagt. Als Beleg werden gern «Halluzinationen» angeführt, plausibel und überzeugend klingende Antworten, die gleichwohl falsch sind. Wer das für ein Spezifikum hält, dass eine KI von einem Menschen unterscheidet, ist kein guter Beobachter menschlicher Äußerungen. Wer in der Lehre arbeitet und seine Begegnungen mit Lernenden reflektiert hat, weiß genau, dass Menschen versuchen, ihre Antworten plausibel zu begründen, dass diese Antworten dennoch falsch sein können und dass in nicht wenigen Fällen die Antwort nicht nur «geraten» ist, sondern dass der Gesprächspartner selbst glaubt, sie sei richtig. Ich finde das Argument vom fehlenden Verständnis daher nicht stichhaltig. Menschen neigen dazu, ihr Verhalten zu rationalisieren; das gilt auch für die Antworten, die sie geben. Sie glauben daher oft zu verstehen, worüber sie reden, obwohl das dann nicht immer der Fall ist.

Verständnis ist allgemein ein sehr schlecht definiertes Konzept. So Einiges, was die hellsten Köpfe früherer Zeiten verstanden zu haben glaubten, hat sich hinterher als falsch erwiesen. Aus meiner Sicht ist Verständnis die subjektive Annahme, man habe gnug konsistente Information, um auf eine Frage eine gültige Antwort geben zu können. Mit dieser Definition kann ich dem KI-Proteinstrukturvorhersageprogramm AlphaFold2 und dessen Nachfolger AlphaFold3 (beide auch von DeepMind) Verständnis zuschreiben. Diese Programme geben nämlich Unsicherheiten ihrer Vorhersagen an.

Was diejenigen meinen, die «Verständnis» sagen, ist eigentlich «Bewusstsein». Das menschliche Bewusstsein ist unverstanden. Dafür, dass Intelligenz Bewusstsein erfordert, gibt es keine Anhaltspunkte. Kein gängiger Intelligenztest prüft Bewusstseinsaspekte. Nicht einmal emotionale Intelligenz erfordert notwendig Bewusstsein. Sie erfordert Empathie und das ist etwas Anderes. Empathie kann bei Tieren beobachtet werden und wenige Zoologen wären bereit, Tieren Bewusstsein zuzuschreiben.

Wenn wir wissen wollen, ob sich künstliche Intelligenz und menschliche Intelligenz in ihrem Wesen unterscheiden, sollten wir aufhören, aus purer Eitelkeit andere menschliche Eigenschaften zu notwendigen Bestandteilen der Intelligenz zu erklären. Was uns als Menschen ausmacht und von den Maschinen unterscheidet, die wir als Spezies schaffen, können wir nur verstehen, wenn wir die Aspekte, derer Maschinen fähig sind, von den Aspekten abgrenzen, derer sie nicht fähig sind.

Vor einigen Monaten bin ich eine riskante Wette eingegangen. Ich habe behauptet, dass innerhalb von zehn Jahren eine künstliche Intelligenz eines der großen offenen Probleme der Mathematik lösen wird. Ein ehemaliger Kollege hat dagegen gehalten (ein Kasten guter Wein). Inzwischen gibt es Anhaltspunkte, dass meine Wette vielleicht doch nicht so riskant war.

Die Internationale Mathematikolympiade

Ehe ich weiter über KI schreibe, muss ich persönlich werden, um zu erklären warum ich mir über ein neues KI-Experiment von Google eine Meinung bilden kann. Die DDR, in der ich zur Schule gegangen bin, hatte ein gut etabliertes System, Talente auf dem Gebiet der Mathematik zu finden und zu fördern. Ab der 5. Klasse gab es eine «Mathematik-Olympiade» auf Schul- und Kreisebene. In späteren Jahrgängen gab es sie auch auf Bezirksebene und ab Klasse 10 gab es eine nationale Olympiade. Bereits in der 9. Klasse konnte man als «Frühstarter» an der DDR-Olympiade teilnehmen, wenn man bei der Berzirksolympiade gut genug abgeschnitten hatte. Es gab Kreisklubs und Bezirksklubs für Mathematik. Unter den Teilnehmern der DDR-Olympiaden wurde ein nationaler Kader ausgewählt, für den es einen Korrespondenzzirkel mit schwierigen Aufgaben gab, deren eingeschickte Lösungen korrigiert wurden. In Berlin gab es die Spezialschule «Heinrich Hertz» mit mathematischer Prägung. All das zielte unter Anderem darauf ab, jedes Jahr ein gutes Team mit vier Teilnehmern zur Internationalen Mathematikolympiade (IMO) zu schicken.

In dieses System bin ich hineingewachsen, weil ich auf Schul-, Kreis- und Bezirksebene gut genug abschnitt. Dann begann die Förderung und ich hatte Spaß am Knobeln und Ehrgeiz. In der 10. Klasse war ich bei der DDR-Olympiade gut genug, um in den nationalen Korrespondenzzirkel aufgenommen zu werden und ein Angebot der Spezialschule «Heinrich Hertz» zu erhalten. Aus verschiedenen Gründen rieten mir meine Eltern von einer Internatsschule ab, wofür ich ihnen bis heute dankbar bin. Im Korrespondenzzirkel engagierte ich mich. Mein Mathematiklehrer in Klasse 11 und 12 ließ mich die Aufgaben still während des Mathematikunterrichts bearbeiten. Er hatte die Größe einzusehen, dass ich seinen Unterricht nicht benötigte. Dafür respektierte ich ihn. Der Bezirksklub stellte mir als Mentor einen Berliner Mathematikstudenten, bezahlte mir jeden Monat eine Zugfahrt nach Berlin und sorgte dafür, dass ich an diesem Tag von der Schule freigestellt wurde. Ich habe dem Bildungssystem der DDR wirklich viel zu verdanken.

Natürlich wollte ich irgendwann zur IMO fahren. Bei den DDR-Olympiaden und der IMO gab es je sechs Aufgaben aus verschiedenen Gebieten der Mathematik, wie etwa Zahlentheorie, Funktionentheorie und Geometrie. Die Wettbewerbe dauerten je zwei Tage, mit 4 1/2-stündigen Klausuren, so dass zum Lösen jeder Aufgabe anderthalb Stunden zur Verfügung standen. Ich konnte mich so lange konzentrieren, ich lernte schnell.

Was ich in der 11. und 12. Klasse begriff, war allerdings Folgendes. Es gab eigentlich nur zwei Sorten von Aufgaben. Für die eine Sorte musste man trainiert sein. Man musste schon mehrere Aufgaben aus der gleichen Problemklasse gelöst haben. Dann bekam man das mit ausreichender mathematischer Begabung hin und diejenigen, die an DDR-Olympiaden teilnahmen, hatten ausreichende Begabung auf diesem Niveau. Man konnte immer noch Pech haben, dass man an diesem Tag an diesem Problem scheiterte, aber wenn man genug geübt hatte, war das selten. Kannten man die Problemklasse nicht, hatte man auch mit einer sehr hohen Begabung so gut wie keine Chance.

Die zweite Sorte war diffiziler. Das waren Aufgaben, die nicht aus einer bekannten Problemklasse stammten. Hier kam es auch mit der besten Vorbereitung auf rohe mathematische Intelligenz an. Diese Aufgaben maßen Begabung, nicht Fleiß. Wollte man zur IMO fahren, so musste man auch bei diesem Aufgabentyp unter den besten Vier sein. Ich war immerhin intelligent genug, um bereits in der 11. Klasse zu sehen, dass ich so mathematisch begabt nun doch nicht war. Stattdessen konzentrierte ich mich auf die Internationale Chemieolympiade und das ging. Ein nicht zu unterschätzender Vorteil von Begabtenförderung ist, dass junge Menschen eigene Grenzen erkennen können, die sie in ihrer eigenen Schulklasse nie sehen würden. Man muss jemanden sehen, der es besser kann, um zu begreifen, dass man nicht der Beste ist.

Erzählt habe ich all das um zu begründen, warum ich weiß, was die IMO ist und welche Ansprüche sie stellt. Die Luft ist dort dünn. Wer da hinfährt, hat einen Intelligenzquotienten, der in der Gesamtbevölkerung sehr selten ist. Zurückkommen kann sie oder er, wenn es gut geht, mit einer Goldmedaille (die besten 10%), mit einer Silbermedaille (die nächsten 20%), mit einer Bronzemedaille (noch einmal 20%) oder einer ehrenden Erwähnung (wieder 20%). Erreicht werden können aus den sechs Aufgaben 42 Punkte. Dieses Jahr fand die IMO in Bath (Großbritannien) statt. Für eine Goldmedaille brauchte man mindestens 29 Punkte.

AlphaProof und AlphaGeometry 2

Ich hätte all das nicht erzählt, wenn sich nicht eine KI an den IMO-Aufgaben versucht hätte. Genauer gesagt hat Googles DeepMind zwei Systeme ins Rennen geschickt, AlphaGeometry 2 für geometrische Probleme und AlphaProof für die anderen. Für die Korrektur konnten sie Prof. Sir Timothy Gowers gewinnen, der selbst einmal Goldmedaillist der IMO war und später die Fields-Medaille (den «Mathematik-Nobelpreis») erhielt sowie Dr. Joseph Myers, der zweimal Goldmedaillist bei der IMO war und 2024 das Auswahlkomitee für die Aufgaben geleitet hat.

Die KI-Systeme von DeepMind haben es auf 28 Punkte gebracht. Das ist am oberen Rand des Bereichs der Silbermedaillen. Reichlich 10% der Besten der Besten Schüler waren besser.

Ich muss hier ein paar Einschränkungen machen. Der Rechenaufwand war gewaltig. Eines der sechs Probleme löste das DeepMind-KI-System innerhalb von Minuten. Aber für die anderen Probleme brauchte es bis zum drei Tage, statt der durchschnittlich zur Verfügung stehenden anderthalb Stunden. Google und DeepMind sind nicht dafür bekannt, an einem Mangel an Computerressourcen zu leiden. Zudem mussten die Aufgaben vorher manuell in eine formale mathematische Sprache übersetzt werden. Unter Wettbewerbsbedingungen hätten AlphaProof und AlphaGeometry nur mit wenigen der Schüler mithalten können, selbst wenn DeepMind noch ein drittes System gehabt hätte, um den Aufgabentext in die formale mathematische Sprache zu übersetzen. Aber es sind auch noch mehr als neun Jahre Zeit, bis meine Wette fällig wird.

Aus der Sicht von KI-Entwicklern ist AlphaProof interessant, weil es das Problem der «Halluzinationen» angeht. Für zwei algebraische und ein zahlentheoretisches Problem hat AlphaProof zunächst die Lösung «erraten», dann aber den formellen Beweis geführt, dass sie stimmt. Darunter war das schwierigste Problem der diesjährigen IMO, das nur 5 der 609 Teilnehmer hatten lösen können. Im Umkehrschluss gilt (und das schreiben die Leute von DeepMind nicht in ihrem Erfolgsbericht), dass das System möglicherweise immer noch halluziniert. Sie haben es ja bis zum Schluss rechnen lassen, was bedeutet, dass das System bei den Aufgaben 3 und 5 falsche Lösungen abgegeben haben könnte, falls es nicht «ist mir zu schwierig» geantwortet hat. Bei den anderen Aufgaben ist DeepMind transparent. Man kann die Lösungen herunterladen.

Interessant finde ich persönlich noch, dass AlphaGeometry 2 einen geometrischen Beweis (Aufgabe 4) durch eine intelligente Konstruktion geführt hat. Ich bin bei einer der DDR-Olympiaden an einer Aufgabe gescheitert, bei der man eine Konstruktion durchführen musste, um einen bestimmten Punkt zu ermitteln. Auf diese Problemklasse hatte ich mich eigentlich vorbereitet.

Wie viele Mathematiker gibt es auf der Welt, die besser oder schneller als AlphaProof und AlphaGeometry 2 sind? Und wenn man sich die Geschichte der Schach- und Go-Systeme ansieht: Wie lange wird es noch solche Mathematiker geben? Wenn das, was diese beiden Systeme bieten keine Intelligenz ist, was ist dann Intelligenz? Was macht uns als Menschen aus?

Der Mensch im Mittelpunkt

Wir stehen nicht im Mittelpunkt des Universums. Wir sind keine Ebenbilder Gottes. Maschinen sind besser in den schwierigsten Spielen, die wir erfunden haben und es ist absehbar, dass sie die besseren Mathematiker sein werden. Schon heute gibt es, statistisch betrachtet, kaum noch jemanden, der in der Mathematik mit einer KI mithalten kann.

Die besten menschlichen Schach- und Go-Spieler messen sich aneinander. Sie haben den Ehrgeiz aufgegeben, die Maschinen zu schlagen. Und warum auch nicht? Ich kann nicht den Pflug ziehen, den ein Traktor ziehen kann. Vielleicht tut das etwas weniger weh, weil ich auch den Pflug nicht ziehen kann, den ein Pferd oder ein Ochse ziehen kann. Aber ich habe auch nie so gut Schach spielen können wie Magnus Carlsson und ich war nie ein so guter Mathematiker wie Sir Timothy Gowers.

Menschen sind die besten Partner für Menschen. Keine KI-Entwicklung wird daran etwas ändern.


17 Antworten zu “Schach – Go – Mathematik”

  1. «Wir stehen nicht im Mittelpunkt des Universums. Wir stehen nicht im Mittelpunkt des Universums. Wir sind keine Ebenbilder Gottes. Maschinen sind besser…»

    Jein.

    Wir stehen nicht im Mittelpunkt des Universums, aber wir haben diese Maschinen erst erschaffen.

    Danke fuer den wunderbaren Artikel. An zumindest das zweite Duell Deep-Blue gegen Kasparow kann ich mich noch erinnern. Und ich war enttaeuscht.

    Ich war damals ein Fan von dem – in Opposition zu meinem Bruder (aktiver Vereinsspieler immer noch) und Vater, die fuer Karpow waren bei der WM 1985. Und ich hatte die Wette gewonnen!

    • Karpow war ein Langweiler. Ich stimme nicht mit allem überein, was Kasparow hinterher politisch getan hat, aber er war der kreativere Schachspieler.

      Ich war damals übrigens überrascht. Ich hatte nicht gedacht, dass ein Schachprogramm schon so weit war. Die Sache mit der Mathematikolympiade jetzt hat mich weniger überrascht.

      • «Karpow war ein Langweiler.»

        Ja, so empfand ich das auch. Kasparow war ja jung und dynamisch…

        Mein Bruder schwaermte ja fuer die ganzen sowjetischen Schachspieler. Die waren ja damals absolut fuehrend in der Welt. (Ausnahme B. Fischer. War aber vor meiner Zeit.) Mich interessierte das eigentlich ueberhaupt nicht, aber der oben erwaehnte Zweikampf wurde von meinem Bruder und Vater so hochgepuscht, dass die mich sozusagen ansteckten.

        • Na, na. Da ist wohl jemand der westlichen Propaganda auf den Leim gegangen? Ok, er hat seinen ersten Titel kampflos von einer schillernden Figur wie Bobby Fischer übernommen, aber den Ruf des farblosen Systemlings hat der Westen extra wegen der beiden Duelle Karpows gegen den wegen Flucht aus der UdSSR zum Helden stilisierten Kortschnoi kultiviert.
          Ich bezweifle stark, dass ein serienmäßiger Schachweltmeister ein ausgesprochener „Langweiler“ ist. Zugegebenermaßen war ich früher allerdings selbst der Auffassung, dass fleißige Menschen mit hoher Selbstdisziplin zwangsläufig irgendwie langweilig sein müssten, selbst wenn sie hochintelligent sind.
          Tja was soll ich sagen, diese Meinung habe ich vor langer Zeit wieder kassiert 😉

          • «Da ist wohl jemand der westlichen Propaganda auf den Leim gegangen?»

            Nee. mit Sicherheit nicht. Wir hatten weder Westfernsehen noch Westverwandte.

            Wir waren voll am *rsch 😉

            Und es stimmt schon: Die ruhigen und bedachten Menschen empfindet man als «Langweiler». Und die immer die grosse Klappe haben…

            Na ja, die Welt ist Boese.

      • „Es hat bestimmt niemand daran gedacht, ihr dieses Verhalten zu verbieten.“
        Genau das ist ja der Punkt. Wer weiß schon woran wir noch alles nicht denken …
        Oder mein Lieblingshorrorszenario – eine von Misanthropen gefütterte KI.
        „Ohne Menschen wäre die Erde viel besser dran“ ist ja in gewissen Kreisen quasi Konsens

        • «„Ohne Menschen wäre die Erde viel besser dran“ ist ja in gewissen Kreisen quasi Konsens»

          Daraus hat Cixin Liu einen hervorragenden Science-Fiction-Roman gemacht.

          Und wenn Google das Material zum Trainieren der KI auswählt, dürfte die für solche Ideen sehr empfänglich sein.

          Dass das mit der KI ganz böse schiefgehen kann, wird in dem Sachbuch «Superintelligence» erörtert. Niemand, der da Entscheidungen trifft, wird hinterher sagen können, er habe es nicht gewusst.

            • Ich glaube, das Ding ist schon durch. Es ist ein bisschen wie mit dem Klimawandel. Man bildet sich gern ein, dass man etwas daran ändern könnte, weil Menschen ja einen freien Willen hätten und auch anders entscheiden könnten. So ist die Welt aber nicht eingerichtet.

              Weil niemand der Konkurrenz (ob anderen Firmen oder andxeren Staaten) das Feld überlassen will, entwickeln alle KI. Und weill Menschen neugierig sind und die Sache interessant und manchmal ja auch Vorteile bringt, wird KI auch von sehr vielen benutzt. Dann hat man also viele KI, die nur ungenügend abgesichert ist und prinzipiell auch miteinander kommunizieren kann (ich habe demnächst eienen KI-Agenten, Sie haben demnächst einen KI-Agenten und die beiden tauschen sich aus).

              Niemand kann vorhersagen, was daraus wird. Ausser, dass menschliche Akteure sicher nicht die Kontrolle darüber behalten werden.

          • >Niemand, der da Entscheidungen trifft, wird hinterher sagen können, er habe es nicht gewusst.

            eben doch, denn seit den 70er reden wir von technologischer singularität was KI angeht, wir wissen nicht was da kommen kann.

            jeder der in bedrängnis sei oder (zu) gierig wird ohne nachzudenken so was auslösen «wollen», fähigkeit folgen abzuschätzen geht verloren, kapitalismus im endstatium.

            • Sagen wir so: Wir wissen, dass wir nicht wissen, wie böse die Singularität ausgeht.

              Dass allerdings KI-Systeme, die eine viel höhere Allgemeinintelligenz haben werden als wir, in unserem Interesse agieren werden, ist unwahrscheinlich. Und dass wir mit unserer beschränkten Intelligenz irgendwelche Sicherheitssysteme bauen können, die solche KI nicht spielend wegräumt, ist ebenfalls unwahrscheinlich.

              Die KI wird wohl die Macht schon schleichend übernehmen, ehe die Singularität eintritt. Es benutzen jetzt schon so viele Leute KI, dass die «kollektive KI» in gewissen Weise die Menschheit manipuliert. Sie tut das nicht mit Vorsatz (zumindest nehme ich nicht an, dass sie ein Bewusstsein hat), aber sie tut es de facto. Praktisch macht es nicht viel aus, ob es einen Vorsatz gibt.

  2. Open AI macht nun ein «Mathematik-fähiges»-Modell allgemein verfügbar.

    Der FAZ-Artikel geht wahrscheinlich fast ausschliesslich auf eine Webseite von Open AI selbst zurück.

    Ich kann das derzeit noch nicht auf zeitsparende Weise testen, weil ich kein so hohes Privileg im API (Anwender-Programmierungs-Interface) habe. Nach der beta-Test-Phase wollen sie es aber auch mit meinen Privilegien zur Verfügung stellen. Im Moment kann man es auf der Webseite testen (auch kostenpflichtig).

Schreiben Sie einen Kommentar