Zur perfektionierten Intelligenz (PI)
Es sieht danach aus, dass nicht ganz klar war, was ich mit der “perfektionierten Intelligenz” (PI) gemeint habe. Ich beziehe mich dabei auf die von Nick Bostom postulierten Superintelligenzen, deren Intelligenz sich im Laufe der Zeit weiter steigern wird, weil Superintelligenzen voraussichtlich immer mehr “Tricks” herausfinden werden, wie die Intelligenz weiter gesteigert werden kann.
Was steht am “Ende” dieser Entwicklung zu immer höheren Superintelligenzen? Entweder die Entwicklung hört nie auf, und es werden immer wieder neue “Tricks” gefunden, die Intelligenz noch weiter zu erhöhen, oder es wurden irgendwann alle Tricks gefunden. Letzteres mag unrealistisch erscheinen, ist aber nicht auszuschließen. Eine SI, die alle wesentlichen “Intelligenztricks” entdeckt und verstanden hat, kann offensichtlich als “perfektioniert”, also also PI bezeichnet werden.
Geht die Intelligenzsteigerung aber immer weiter, lohnt es sich, sich die Entdeckung neuer Tricks im Zeitverlauf zu betrachten. Und zwar genauer: Welcher zeitliche Abstand befindet sich zwischen der Entdeckung zweier neuer Tricks? Am Anfang der Entwicklung einer Superintelligenz ist davon auszugehen, dass dieser Zeitabstand immer geringer wird, vor allem wenn Übergänge zu immer schnelleren “Rechensubstraten” stattfinden (z.B. von Siliziumchips zu Graphenchips, zu phononischen Chips, Photonenquantencomputern, usw.). Theoretisch kann dieses Regime ewig dauern, wenn etwa der Zeitabstand zwischen zwei Entdeckungen 1/n beträgt (denn die Reihe 1/n ist divergent). Reduziert sich der Zeitabstand aber schneller, etwa mit 1/n² (die Reihe 1/n² konvergiert zu Pi²/6), dann landen wir aber sehr schnell bei einer Singularität, und die Intelligenz ist beim Erreichen der Singularität perfektioniert. Im Divergenzfall lässt sich eine perfektionierte Intelligenz nicht so sauber definieren.
In einem plausiblen Szenario ist das aber dennoch gut möglich. Die zeitliche Entwicklung der Intelligenz einer SI wird wohl irgendwann “explosiv” verlaufen, sich dann aber verlangsamen, nachdem alle “einfachen” Entdeckungen der Intelligenzsteigerung entdeckt sind. Praktisch alle anderen Entdeckungen sind dann so etwas wie “hyperkompliziert” und auch für eine SI nur sehr schwer zu finden. Ab dann ist es also eher davon auszugehen, dass der Zeitabstand zwischen zwei Entdeckungen sich wie “n” oder “n²” verhält: Neue Entdeckungen werden gemacht, aber zunehmend seltener.
Es ist aber auch plausibel, dass die Entdeckung eines entscheidenden neuen Intelligenzsteigerungstricks zur schnellen Entdeckung “verwandter” Ideen führt, also eine Art “Ideencluster” darstellt. Das kann man dadurch berücksichtigen, dass man solche Entdeckungen zu “Clustern” zusammenfasst und nur die Cluster zählt.
In diesem Szenario ist dann aber der Clusterzeitabstand irgendwann unwiederbringlich ansteigend. Ein derartiges Wachstumsregime kann man als “postexplosiv” bezeichnen. Eine Superintelligenz, welche sich in der Phase des postexplosiven Wachstums befindet, könnte man als “entwickelt” oder “im wesentlichen perfektioniert” bezeichnen. Der qualitative Unterschied zwischen einer entwickelten Intelligenz und einer perfektionierten Intelligenz ist vermutlich (vielleicht aber auch nicht) nicht nennenswert, weswegen ich auch eine “entwickelte” Intelligenz als PI bezeichnen würde.
Es bleibt aber ein Fall übrig, in welchem sich keine PI definieren lässt, nämlich der Fall, dass der Clusterzeitabstand zwischen der Entdeckung neuer Intelligenztricks tatsächlich immer kleiner wird (ohne zu konvergieren). Wir hätten es hier mit einem Fall der ewigen explosiven Intelligenzsteigerung ins Unendliche zu tun. In einem endlichen (erreichbaren) Universum wäre eine solche Situation unplausibel, denn die Teilchenzahl ist endlich und irgendwann wäre sicher die Teilchenkonfiguration gefunden, welche die maximal mögliche Intelligenz produziert. Deswegen würde ein solches ewiges Wachstumsregime einen Überganz zu immer größeren Universen oder einen Übergang zu einem unendlichen Universum implizieren. Ein solches Szenario würde eine unendliche “Hierarchie” gottähnlicher Superintelligenzen bedeuten, die alle qualitativ verschieden sind. Sollte dieser Fall tatsächlich zutreffen, müsste die Idee der “perfektionierten Intelligenz” als nicht definierbares Konstrukt gewertet werden.
Von daher ist Kritik an der Idee der PI durchaus berechtigt, da es sich hierbei tatsächlich um ein “potenziell nicht definierbares Konstrukt” handelt. In den meisten Szenarien, macht der Begriff aber tatsächlich Sinn.