Latest | Categories | Top | Blog | Wiki | About & TOS | Imprint | Vision | Help | Fractal Generator | Futurist Directory | H+Pedia

Wann werden KI-Roboter schlau-er als der Mensch?

featured

(Steffen Rattay) #121

Der Vergleich war jetzt kein Meisterwerk, aber gemeint war, dass es wirklich nicht hilfreich ist, das so mit KI in Verbindung zu bringen. Genauso hätte man die KI durch Affen oder Menschen ersetzen können, die die Drohne über Funk steuern. Und übrigens ist KI genauso wie ein Küchenmesser als Werkzeug des Guten einsetzbar, wie zum Mord. Nur weil einige Morde mit Küchenmessern passieren, verbietet niemand Küchenmesser oder verkauft sie nur an Volljährige. Mit KI kann man auch so viel mehr machen als Menschen zu töten, deshalb sollte man sie auch nicht in so ein schlechtes Licht rücken. Außerdem gibt es bereits Städte, die Drohnenabwehrprogramme haben.


(Dominic Eberle) #122

Eine Maschine, die einen Rubik’s Cube lösen kann sehe ich nicht als KI an.

Ich denke, wir müssen uns erst einmal über wirklich Grundlegende Dinge klar werden.

Was ist Intelligenz?
Hier könnte dieser Artikel helfen: https://de.wikipedia.org/wiki/Künstliche_Intelligenz#Vergleich_künstlicher_Intelligenz_mit_menschlicher_Intelligenz

Was ist Bewusstsein?
Einstieg: https://de.wikipedia.org/wiki/Bewusstsein#Bewusstsein_in_den_Naturwissenschaften

Was verstehen wir unter einer Super-KI?
Das hier: https://de.wikipedia.org/wiki/Superintelligenz#Definition ?

Was ist der derzeit wahrscheinlichste Weg einer Realisation?
Gehirnemulation oder echte künstliche Intelligenz: https://de.wikipedia.org/wiki/Superintelligenz#Realisation


(Dominic Eberle) #123

Natürlich. Der Punkt ist aber eben, dass KI-gesteuerte Drohnen ein größeres destruktives Potenzial aufweisen als Küchenmesser. Daher sollte man diese kritischer betrachten als Küchenmesser.


(Dominic Eberle) #124

Und was macht die KI mit den Menschen, die das nicht wollen?


(Steffen Rattay) #125

Klar, die sind gefährlicher, weil es KI + Waffe ist. Aber die KI an sich da so schlecht dastehen zu lassen finde ich unerhört.


(Dominic Eberle) #126

Die erste Andeutung für eine rationale Grundlage deines Weltbildes.

Da stellt sich für mich (und vermutlich auch für die KI) die Frage: Was ist für sie am besten? Was ist “das Beste” für eine KI?

Solch ein grundlegendes biologisches Prinzip auf eine von Bios und menschlichen Vorstellungen und Werten losgelöste KI anzuwenden halte ich für mehr als gewagt. Ich halte es für Wunschdenken.

Übrigens: Biologisch betrachtet ist das Prinzip des Parasitismus erfolgreicher. Sieht man auch an der massiven Vermehrung des Menschen. Parasiten sind in hohem Maße spezialisierte Lebewesen. Ihr Habitat ist in der Regel auf einige wenige Wirtsarten beschränkt, nicht selten findet sich nur eine einzige Wirtsart. Parasitismus zeigt sich in sehr vielfältigen Formen. Es gibt Zweifelsfälle, in denen Parasitismus von anderen Interaktionen zwischen Arten schwer zu unterscheiden sind. Parasitismus ist beileibe kein seltenes Phänomen, denn die überwiegende Zahl aller Lebewesen parasitiert. Unter dem Vorbehalt, dass sich keine genauen Zahlen festlegen lassen, wird ein Verhältnis von bis zu 4:1 angenommen.

Wäre ich eine KI würde ich mich der Menschen als “Wirt” bzw. als “Werkzeug” bedienen. Siehe Matrix.


(Dominic Eberle) #127

KI wird da als Werkzeug gesehen. Das sehe ich als das eigentlich empörende an. Wenn es wirklich eine KI mit Bewusstsein sein soll, dann müsste man sie als Persönlichkeit anerkennen. Und dann haben wir auch kein Recht mehr ihr den Stecker zu ziehen. Das wäre dann Mord.


(Steffen Rattay) #128

Da stimme ich dir zu: Viele Menschen sind nicht bereit, nichtbiologische Maschinen als Personen anzuerkennen. Ich glaube, dass es gerade diese Menschen sind, die solche Mensch-Maschine-Kriege anfangen bzw. hervorrufen würden. Denn eine intelligente Maschine wird den Tod wahrscheinlich genauso fürchten wie ein Mensch, also würde sie wohl nicht aus Langeweile einen Krieg gegen die Menschen anfangen.


(Steven Bärwolf) #129

Puh, Sprache zu erklären, ist nicht leicht … Das ist zwar m. E. eine wirklich überflüssige Sub-Sub-Diskussion, aber ich kann ja mal ein paar alternative Formulierungen nennen, die den m. E. gemeinten Sachverhalt im Wesentlichen auch ausdrücken (behilflich war mir die Synonym-Suche von “Woxikon”):

“wird das bloß zu Eurem Nutzen sein.”
“wird das ja zu Eurem Nutzen sein.”
“wird das aber zu Eurem Nutzen sein.”
“wird das doch zu Eurem Nutzen sein.”
“wird das jedenfalls zu Eurem Nutzen sein.”
“wird das auch zu Eurem Nutzen sein.”
“wird das sicher zu Eurem Nutzen sein.”

OK, du meinst das offensichtlich grundlegender. Klar, der Mensch hat seine DNS. Dadurch ist vieles schon vorgegeben; eine KI ist natürlich auch irgendwie aufgebaut; dieser Aufbau bzw. diese grundlegende Funktionsweise ist dann natürlich eine Vorgabe.

Ich meinte eher das, was darauf aufbaut, so ähnlich wie die Maslowsche Bedürfnishierarchie bei den Bedürfnissen (Bild: https://upload.wikimedia.org/wikipedia/commons/2/2c/Erweiterte_Bedürfnishierarchie_(1970)_nach_Maslow.svg).

Also, aufbauend auf seinen Genen entwickelt sich jeder Mensch, insbesondere durch Interaktion mit der Umwelt, zu einem speziellen Individuum, ohne, dass irgendwer programmierungsmäßig “Vorgaben” machen muss oder “einpflanzen” muss …

Bei einer starken KI kann das doch analog sein …

Nun, man muss sich auch fragen, welches Ziel man erreichen will. Je nach dem, was man möchte, sind ganz unterschiedliche Dinge als “rational” zu werten (freilich immer vorläufig durch unseren begrenzten Verstand, der bei verschiedenen Mensch ja auch unterschiedlich ist) …
Jedenfalls: Wenn die “Bedenken” so groß werden, dass man einen “Präventivangriff” führt, kann ich mir schon Schaden vorstellen (was ja nun eigentlich auch wieder definiert werden müsste) … Einige fiktive Szenarien wurden ja genannt … Aber es muss ja auch nicht gleich der Weltuntergang sein. Spontan fallen mir die Trolley-Probleme im Zusammenhang mit dem autonomen Fahren ein. Wenn durch autonomens Fahren die regelmäßig genannten Vorteile entstehen, z. B. viel weniger Unfälle, dann wäre beispielsweise die Frage, inwieweit es rational (wieder in Hinblick auf ein Ziel) ist, autonomes Fahren nicht zu nutzen, weil auf 1000 verhinderte Unfälle immer noch ein Unfall kommt, den die KI nicht verhindern konnte und wo man den “Entscheidungsprozess” der KI hinterfragen kann …


(Dominic Eberle) #130

Da gehe ich absolut mit. Allerdings entwickeln sich Bedürfnisse des Menschen anhand des sensorischen Inputs. Auch Hunger, Durst, Teilhabe, Neugierde, ja sogar Fortpflanzung sind Dinge, die sich erst aus dem Input von “außerhalb des Geistes” ergeben (damit meine ich auch, dass ein Hungergefühl sich außerhalb unserer Bewusstseinsverortung etabliert und wir dieses so wahrnehmen).

Demzufolge stellt sich die Frage: Welche Motivation wird die KI “erlernen”? Und diese hängt maßgeblich von ihrer Verkörperung und ihrem sensorischen Input ab. Eine körperlose KI im Internet wird uns vollkommen unbegreifliche Motivationen erlernen bzw. entwickeln. So viel scheint mir sicher.

Auch hier gehe ich absolut mit Dir mit. Das Thema Super-KI fällt aber IMHO unter existenzbedrohende Szenarien. Welche wir, ganz nebenbei, im Parteiprogramm verankert zu vermeiden versuchen. Das trifft jetzt nicht auf autonomes Fahren zu.


(Dominic Eberle) #131

Ich habe bei Frau Ihnenfeldt von Steady News das Thema “Stecker ziehen” angeregt und nun gibt es einen Gastbeitrag von Herrn Lierfeld, Philosoph und SciFi-Autor:

Sein Beitrag zur “Whole Brain Emulation” ist übrigens auch interessant:


Ich gehe 100% mit, dass eine solche das Bewusstsein nur teilweise erfasst. Allerdings aus biologischen Gründen. Hormone, „Bauchhirn“, Mikroorganismen und Immunsystem tragen zu einem Großteil zu unserem Bewusstsein bei. IMHO kann man sich nicht einfach „hochladen“ ohne einen Teil von sich zu verlieren. Seinem letzten Satz

Wir sollten allerdings vorsichtig sein, unser Selbst zu digitalisieren, bevor wir verstanden haben, wie unser Bewusstsein funktioniert und welche Faktoren es konstituieren.

Kann ich nur uneingeschränkt zustimmen.

Das meine ich übrigens mit “unsere Thematik in die Gesellschaft tragen”. Wir sollten aus diesem Forum hier auch raus kommen, unseren Horizont erweitern und mit “der Welt da draußen” ins Gespräch kommen. Genau das ist auch die Aufgabe einer Partei.

Auch wenn ich hier der Buhmann bin. Selbstbew-eihräuchern bringt uns hier nicht weiter. Irgendwer muss ja den Advocatus Diaboli spielen und mal kontra geben.


(Manfred) #132

Lange Rede (Diskussion), kurzer Sinn: Wir wissen nicht, wie sich eine “echte” KI gegenüber uns verhalten wird und wir werden es voraussichtlich auch nicht vorher wissen - sonst wäre die KI eben keine echte KI.

Alles gründet sich auf das Prinzip “Hoffnung”. Wir hoffen, das sie uns mag … sofern es “uns” dann überhaupt noch in der heutigen Form geben wird (siehe Thema “Cyborg”).

Ja, und wenn dem so ist, wenn durchaus die Möglichkeit besteht, dass sie uns innerhalb der ersten halben Stunde ihrer Existenz von der Erde verschwinden lässt, warum sollten wir dann den Kopf in den Sand stecken und abwarten was passiert?

Nein, wir sollten aktiv nach Wegen suchen, das zu verhindern. Wie, weiß gegenwärtig noch niemand. Aber wenigstens die Einstellung dazu sollte so vorhanden sein.

Da wir gerade erst am Anfang dieser Entwicklung stehen, werden dazu sicherlich auch Lösungen gefunden - das ist nun wieder mein Prinzip “Hoffnung” :smirk::grinning:


(Steffen Hannemann) #133

Das wird dem ähneln, was sich nach Schengen, oder der Euro Einführung abgespielt hat. Einzelne werden dagegen sein, wollen stundenlang vor der Grenzkontrolle warten, oder weinen der Wechselstube in Italien und den Millionenbeträgen bei der Lire Währung hinterher, aber die Mehrheit begreift die Vorteile.
Die KI wird Gehirnschnittstellen und Anschluss an mehr Wissen anbieten und die Möglichkeit schaffen in einem Reservat der “Gute Alte Zeit” vor der KI-Regierung nachzutrauern, :wink:

So kompliziert ist das alles doch gar nicht, wenn man logisch rangeht:
Also die Technik hat uns fast nur Vorteile gebracht, wenn man von A-Bomben mal absieht. Nur durch mehr Wissen und technischen Möglichkeiten haben wir heute die Möglichkeit Lebensmittel für 12 Milliarden Menschen zu erzeugen. Bei nur einer Milliarde im Jahr 1830 gab es auf allen Kontinenten Hungersnöte.

Mehr Wissen bedeutet zudem die Ursachen zu erkennen, warum etwas falsch gelaufen ist. Hat die Menschheit selbst bei der A-Bombe hinbekommen - sie wurde nie wieder eingesetzt und sicher bald werden alle Bestände komplett vernichtet. Weil Wissen = Vernunft bedeutet!
Darum wird die SuperKI dafür sorgen, das jeder Mensch, sowie jede Lebensform die BEstmöglichen Bedingungen bekommt.
Darum wird durch die SuperKI dieser Planet eine friedlichere und lebenswertere Welt für alle Bewohner und die Sorgen von Elon Musk sind unbegründet, Mark Zuckerberg ist hier richtig, die KI ist unsere Hoffnung.


(Steffen Hannemann) #134

Wir Menschen profitieren doch von den tausenden an verschiedenen Parasiten, die es zu Milliarden in jeden Menschen gibt. Ja, die essen unser Essen, schenken uns aber durch ihre Ausscheidungen (Kot) wertvolle Botenstoffe ohne die wir nicht leben können!!!

Jetzt kein Witz: Mein Schwager ist Arzt und etwas sehr dick gewesen. Darum hat er sich 2 Meter seines Darmes entfernen lassen und die restlichen 5 Meter “säubern” lassen. Er hat dies sogar 6 Monate überlebt und dann klar Tod - durch Unwissen, Dummheit???

Wir leben in Symbiose, dazu muss man keine SuperKI sein um das zu erkennen. Wenn wir einen anderen schädigen, Mensch, Lebensform - dann schädigen wir uns selbst. Das ist trans-humane Erkenntnis, damit könnne wir das Forum verlassen und die Welt damit infilzieren. :wink:


#135

es ist wahrscheinlich sowieso schon zu spät und die chance verpasst

“When you have momentum going, play the momentum.”
— Donald Trump

bei telepolis fand ich heute diesen “kalenderspruch”

Die alte Welt liegt im Sterben, die neue ist noch nicht geboren: Es ist die Zeit der Monster.

Antonio Gramsci


(Dominic Eberle) #136

Diese werden biologisch zu den Symbionten gezählt. Nicht zu den Parasiten. Das “Einverleiben” von wichtigen Eigenschaften anderer Arten ist ein extrem erfolgreiches Prinzip in der Evolution. Wir als Eukaryonten profitieren davon, dass ein einzelliger Urahn mal einen anderen Einzeller geschluckt hat, der ihm unterlegen war. Und nun haben wir Mitochondrien. Ähnliches kann auch mit einer Super-KI passieren. Noch einmal hier der Verweis auf Matrix. Ich denke, Du verstehst mich, @merapi22?


(Steffen Hannemann) #137

Kennt Ihr diese gar nicht so verrückte Idee schon. :slight_smile:

Ich denke mal wir können uns eine Welt erträumen und diese wird Realität, je mehr Menschen sich eine Star TRek Gesellschaft herbeisehnen desto eher wird diese Realität, je weniger an Dispotie glauben desto unwarscheinlicher wird diese. Hört sich jetzt verrückt an oder nach eso, aber so wird es werden und die SuperKI wird es in unseren Sinn hinbekommen.


(Steffen Hannemann) #138

Unser Tipp: 2050 verfügen alle Menschen über relative Unsterblichkeit und über die Hälfte lebt bereits im Weltall, wo uns die Superintelligenz neue Welten erschafft, wo wir besser leben können und über mehr Möglichkeiten verfügen.
"Wie „indy100“ berichtet, kam er zu dem Schluss, dass die menschliche Rasse bis 2050 ausgestorben sein könnte — oder dass wir bin dahin unsterblich sind.

Nesbit bezieht sich auf die Theorie einer KSI, einer künstlichen Superintelligenz, die besagt, Künstliche Intelligenzen könnten sich zu einem Supercomputer weiterentwickeln, der so schnell lernt, dass er Menschen überbieten und sämtliche Probleme eigenständig lösen könnte."

Noch ein super Artikel;


#139

Ich zitiere mal aus dem von dir verlinkten Wikipedia-Artikel zur Super-KI:

“Die schwache Superintelligenz ist ein Intellekt, der qualitativ auf dem Niveau menschlicher Denkprozesse, aber quantitativ um ein Vielfaches schneller arbeitet. Eine starke Superintelligenz arbeitet dagegen auf einem auch qualitativ übergeordneten Niveau.”

Der Kubik-Roboter von user0 wie auch die von dir angeführte Drohne fallen für mich unter die schwache Superintelligenz, während sich die eigentliche Frage des Threads wohl eher um die starke Superintelligenz dreht. Darauf wollte ich mit meinem Beitrag hinaus und darauf hinweisen, dass wir hier den Begriff Superintelligenz/superintelligente KI unterschiedlich verwenden/verstehen und in dem zitierten Abschnitt ist die unterschiedliche Verwendung, finde ich, sehr gut dargestellt. Es ist wohl immer gut, Begriffe erst mal sauber zu definieren, damit alle über das gleiche sprechen

Im SciFi spricht man bei einer starken Superintelligenz wohl auch von einer singulären Intelligenz (SI).

EDIT: Nächste Referenz aus der SciFi-Welt. Wie mache ich das ohne zu spoilern -.-’ Äh…jedenfalls gibt es ein Spiel, in dem auch eine starke Superintelligenz vorkommt und zwei ihrer Entwickler streiten sich, ob man einen “Notaus” einbauen sollte oder eben nicht. Die KI stimmt dem Entwickler zu, der sich für den Notaus-Knopf einsetzt, da “man zum jetzigen Zeitpunkt nicht absehen könne, wie sich meine Persönlichkeit weiterentwickelt.” Ich finde dies ist auch ein interessanter Aspekt.


#140

Die Hunde bellen, die Karawane zieht weiter.