Wann werden KI-Roboter schlau-er als der Mensch?

Natürlich. Der Punkt ist aber eben, dass KI-gesteuerte Drohnen ein größeres destruktives Potenzial aufweisen als Küchenmesser. Daher sollte man diese kritischer betrachten als Küchenmesser.

Und was macht die KI mit den Menschen, die das nicht wollen?

1 Like

Die erste Andeutung für eine rationale Grundlage deines Weltbildes.

Da stellt sich für mich (und vermutlich auch für die KI) die Frage: Was ist für sie am besten? Was ist “das Beste” für eine KI?

Solch ein grundlegendes biologisches Prinzip auf eine von Bios und menschlichen Vorstellungen und Werten losgelöste KI anzuwenden halte ich für mehr als gewagt. Ich halte es für Wunschdenken.

Übrigens: Biologisch betrachtet ist das Prinzip des Parasitismus erfolgreicher. Sieht man auch an der massiven Vermehrung des Menschen. Parasiten sind in hohem Maße spezialisierte Lebewesen. Ihr Habitat ist in der Regel auf einige wenige Wirtsarten beschränkt, nicht selten findet sich nur eine einzige Wirtsart. Parasitismus zeigt sich in sehr vielfältigen Formen. Es gibt Zweifelsfälle, in denen Parasitismus von anderen Interaktionen zwischen Arten schwer zu unterscheiden sind. Parasitismus ist beileibe kein seltenes Phänomen, denn die überwiegende Zahl aller Lebewesen parasitiert. Unter dem Vorbehalt, dass sich keine genauen Zahlen festlegen lassen, wird ein Verhältnis von bis zu 4:1 angenommen.

Wäre ich eine KI würde ich mich der Menschen als “Wirt” bzw. als “Werkzeug” bedienen. Siehe Matrix.

KI wird da als Werkzeug gesehen. Das sehe ich als das eigentlich empörende an. Wenn es wirklich eine KI mit Bewusstsein sein soll, dann müsste man sie als Persönlichkeit anerkennen. Und dann haben wir auch kein Recht mehr ihr den Stecker zu ziehen. Das wäre dann Mord.

Puh, Sprache zu erklären, ist nicht leicht … Das ist zwar m. E. eine wirklich überflüssige Sub-Sub-Diskussion, aber ich kann ja mal ein paar alternative Formulierungen nennen, die den m. E. gemeinten Sachverhalt im Wesentlichen auch ausdrücken (behilflich war mir die Synonym-Suche von “Woxikon”):

“wird das bloß zu Eurem Nutzen sein.”
“wird das ja zu Eurem Nutzen sein.”
“wird das aber zu Eurem Nutzen sein.”
“wird das doch zu Eurem Nutzen sein.”
“wird das jedenfalls zu Eurem Nutzen sein.”
“wird das auch zu Eurem Nutzen sein.”
“wird das sicher zu Eurem Nutzen sein.”

OK, du meinst das offensichtlich grundlegender. Klar, der Mensch hat seine DNS. Dadurch ist vieles schon vorgegeben; eine KI ist natürlich auch irgendwie aufgebaut; dieser Aufbau bzw. diese grundlegende Funktionsweise ist dann natürlich eine Vorgabe.

Ich meinte eher das, was darauf aufbaut, so ähnlich wie die Maslowsche Bedürfnishierarchie bei den Bedürfnissen (Bild: https://upload.wikimedia.org/wikipedia/commons/2/2c/Erweiterte_Bedürfnishierarchie_(1970)_nach_Maslow.svg).

Also, aufbauend auf seinen Genen entwickelt sich jeder Mensch, insbesondere durch Interaktion mit der Umwelt, zu einem speziellen Individuum, ohne, dass irgendwer programmierungsmäßig “Vorgaben” machen muss oder “einpflanzen” muss …

Bei einer starken KI kann das doch analog sein …

Nun, man muss sich auch fragen, welches Ziel man erreichen will. Je nach dem, was man möchte, sind ganz unterschiedliche Dinge als “rational” zu werten (freilich immer vorläufig durch unseren begrenzten Verstand, der bei verschiedenen Mensch ja auch unterschiedlich ist) …
Jedenfalls: Wenn die “Bedenken” so groß werden, dass man einen “Präventivangriff” führt, kann ich mir schon Schaden vorstellen (was ja nun eigentlich auch wieder definiert werden müsste) … Einige fiktive Szenarien wurden ja genannt … Aber es muss ja auch nicht gleich der Weltuntergang sein. Spontan fallen mir die Trolley-Probleme im Zusammenhang mit dem autonomen Fahren ein. Wenn durch autonomens Fahren die regelmäßig genannten Vorteile entstehen, z. B. viel weniger Unfälle, dann wäre beispielsweise die Frage, inwieweit es rational (wieder in Hinblick auf ein Ziel) ist, autonomes Fahren nicht zu nutzen, weil auf 1000 verhinderte Unfälle immer noch ein Unfall kommt, den die KI nicht verhindern konnte und wo man den “Entscheidungsprozess” der KI hinterfragen kann …

2 Likes

Da gehe ich absolut mit. Allerdings entwickeln sich Bedürfnisse des Menschen anhand des sensorischen Inputs. Auch Hunger, Durst, Teilhabe, Neugierde, ja sogar Fortpflanzung sind Dinge, die sich erst aus dem Input von “außerhalb des Geistes” ergeben (damit meine ich auch, dass ein Hungergefühl sich außerhalb unserer Bewusstseinsverortung etabliert und wir dieses so wahrnehmen).

Demzufolge stellt sich die Frage: Welche Motivation wird die KI “erlernen”? Und diese hängt maßgeblich von ihrer Verkörperung und ihrem sensorischen Input ab. Eine körperlose KI im Internet wird uns vollkommen unbegreifliche Motivationen erlernen bzw. entwickeln. So viel scheint mir sicher.

Auch hier gehe ich absolut mit Dir mit. Das Thema Super-KI fällt aber IMHO unter existenzbedrohende Szenarien. Welche wir, ganz nebenbei, im Parteiprogramm verankert zu vermeiden versuchen. Das trifft jetzt nicht auf autonomes Fahren zu.

1 Like

Ich habe bei Frau Ihnenfeldt von Steady News das Thema “Stecker ziehen” angeregt und nun gibt es einen Gastbeitrag von Herrn Lierfeld, Philosoph und SciFi-Autor:

Sein Beitrag zur “Whole Brain Emulation” ist übrigens auch interessant:

Ich gehe 100% mit, dass eine solche das Bewusstsein nur teilweise erfasst. Allerdings aus biologischen Gründen. Hormone, „Bauchhirn“, Mikroorganismen und Immunsystem tragen zu einem Großteil zu unserem Bewusstsein bei. IMHO kann man sich nicht einfach „hochladen“ ohne einen Teil von sich zu verlieren. Seinem letzten Satz

Wir sollten allerdings vorsichtig sein, unser Selbst zu digitalisieren, bevor wir verstanden haben, wie unser Bewusstsein funktioniert und welche Faktoren es konstituieren.

Kann ich nur uneingeschränkt zustimmen.

Das meine ich übrigens mit “unsere Thematik in die Gesellschaft tragen”. Wir sollten aus diesem Forum hier auch raus kommen, unseren Horizont erweitern und mit “der Welt da draußen” ins Gespräch kommen. Genau das ist auch die Aufgabe einer Partei.

Auch wenn ich hier der Buhmann bin. Selbstbew-eihräuchern bringt uns hier nicht weiter. Irgendwer muss ja den Advocatus Diaboli spielen und mal kontra geben.

2 Likes

Lange Rede (Diskussion), kurzer Sinn: Wir wissen nicht, wie sich eine “echte” KI gegenüber uns verhalten wird und wir werden es voraussichtlich auch nicht vorher wissen - sonst wäre die KI eben keine echte KI.

Alles gründet sich auf das Prinzip “Hoffnung”. Wir hoffen, das sie uns mag … sofern es “uns” dann überhaupt noch in der heutigen Form geben wird (siehe Thema “Cyborg”).

Ja, und wenn dem so ist, wenn durchaus die Möglichkeit besteht, dass sie uns innerhalb der ersten halben Stunde ihrer Existenz von der Erde verschwinden lässt, warum sollten wir dann den Kopf in den Sand stecken und abwarten was passiert?

Nein, wir sollten aktiv nach Wegen suchen, das zu verhindern. Wie, weiß gegenwärtig noch niemand. Aber wenigstens die Einstellung dazu sollte so vorhanden sein.

Da wir gerade erst am Anfang dieser Entwicklung stehen, werden dazu sicherlich auch Lösungen gefunden - das ist nun wieder mein Prinzip “Hoffnung” :smirk::grinning:

2 Likes

Das wird dem ähneln, was sich nach Schengen, oder der Euro Einführung abgespielt hat. Einzelne werden dagegen sein, wollen stundenlang vor der Grenzkontrolle warten, oder weinen der Wechselstube in Italien und den Millionenbeträgen bei der Lire Währung hinterher, aber die Mehrheit begreift die Vorteile.
Die KI wird Gehirnschnittstellen und Anschluss an mehr Wissen anbieten und die Möglichkeit schaffen in einem Reservat der “Gute Alte Zeit” vor der KI-Regierung nachzutrauern, :wink:

So kompliziert ist das alles doch gar nicht, wenn man logisch rangeht:
Also die Technik hat uns fast nur Vorteile gebracht, wenn man von A-Bomben mal absieht. Nur durch mehr Wissen und technischen Möglichkeiten haben wir heute die Möglichkeit Lebensmittel für 12 Milliarden Menschen zu erzeugen. Bei nur einer Milliarde im Jahr 1830 gab es auf allen Kontinenten Hungersnöte.

Mehr Wissen bedeutet zudem die Ursachen zu erkennen, warum etwas falsch gelaufen ist. Hat die Menschheit selbst bei der A-Bombe hinbekommen - sie wurde nie wieder eingesetzt und sicher bald werden alle Bestände komplett vernichtet. Weil Wissen = Vernunft bedeutet!
Darum wird die SuperKI dafür sorgen, das jeder Mensch, sowie jede Lebensform die BEstmöglichen Bedingungen bekommt.
Darum wird durch die SuperKI dieser Planet eine friedlichere und lebenswertere Welt für alle Bewohner und die Sorgen von Elon Musk sind unbegründet, Mark Zuckerberg ist hier richtig, die KI ist unsere Hoffnung.

Wir Menschen profitieren doch von den tausenden an verschiedenen Parasiten, die es zu Milliarden in jeden Menschen gibt. Ja, die essen unser Essen, schenken uns aber durch ihre Ausscheidungen (Kot) wertvolle Botenstoffe ohne die wir nicht leben können!!!

Jetzt kein Witz: Mein Schwager ist Arzt und etwas sehr dick gewesen. Darum hat er sich 2 Meter seines Darmes entfernen lassen und die restlichen 5 Meter “säubern” lassen. Er hat dies sogar 6 Monate überlebt und dann klar Tod - durch Unwissen, Dummheit???

Wir leben in Symbiose, dazu muss man keine SuperKI sein um das zu erkennen. Wenn wir einen anderen schädigen, Mensch, Lebensform - dann schädigen wir uns selbst. Das ist trans-humane Erkenntnis, damit könnne wir das Forum verlassen und die Welt damit infilzieren. :wink:

es ist wahrscheinlich sowieso schon zu spät und die chance verpasst

“When you have momentum going, play the momentum.”
— Donald Trump

bei telepolis fand ich heute diesen “kalenderspruch”

Die alte Welt liegt im Sterben, die neue ist noch nicht geboren: Es ist die Zeit der Monster.

Antonio Gramsci

1 Like

Diese werden biologisch zu den Symbionten gezählt. Nicht zu den Parasiten. Das “Einverleiben” von wichtigen Eigenschaften anderer Arten ist ein extrem erfolgreiches Prinzip in der Evolution. Wir als Eukaryonten profitieren davon, dass ein einzelliger Urahn mal einen anderen Einzeller geschluckt hat, der ihm unterlegen war. Und nun haben wir Mitochondrien. Ähnliches kann auch mit einer Super-KI passieren. Noch einmal hier der Verweis auf Matrix. Ich denke, Du verstehst mich, @merapi22?

1 Like

Kennt Ihr diese gar nicht so verrückte Idee schon. :slight_smile:

http://www.zeit.de/zeit-wissen/2018/02/kuenstliche-intelligenz-gott-computer?wt_zmc=sm.ext.zonaudev.facebook.ref.zeitde.share.link.x&utm_medium=sm&utm_source=facebook_zonaudev_ext&utm_campaign=ref&utm_content=zeitde_share_link_x

Ich denke mal wir können uns eine Welt erträumen und diese wird Realität, je mehr Menschen sich eine Star TRek Gesellschaft herbeisehnen desto eher wird diese Realität, je weniger an Dispotie glauben desto unwarscheinlicher wird diese. Hört sich jetzt verrückt an oder nach eso, aber so wird es werden und die SuperKI wird es in unseren Sinn hinbekommen.

Unser Tipp: 2050 verfügen alle Menschen über relative Unsterblichkeit und über die Hälfte lebt bereits im Weltall, wo uns die Superintelligenz neue Welten erschafft, wo wir besser leben können und über mehr Möglichkeiten verfügen.
"Wie „indy100“ berichtet, kam er zu dem Schluss, dass die menschliche Rasse bis 2050 ausgestorben sein könnte — oder dass wir bin dahin unsterblich sind.

Nesbit bezieht sich auf die Theorie einer KSI, einer künstlichen Superintelligenz, die besagt, Künstliche Intelligenzen könnten sich zu einem Supercomputer weiterentwickeln, der so schnell lernt, dass er Menschen überbieten und sämtliche Probleme eigenständig lösen könnte."
http://www.businessinsider.de/forscher-glauben-dass-kuenstliche-intelligenz-bedrohung-wird-2018-3

Noch ein super Artikel;

1 Like

Ich zitiere mal aus dem von dir verlinkten Wikipedia-Artikel zur Super-KI:

“Die schwache Superintelligenz ist ein Intellekt, der qualitativ auf dem Niveau menschlicher Denkprozesse, aber quantitativ um ein Vielfaches schneller arbeitet. Eine starke Superintelligenz arbeitet dagegen auf einem auch qualitativ übergeordneten Niveau.”

Der Kubik-Roboter von user0 wie auch die von dir angeführte Drohne fallen für mich unter die schwache Superintelligenz, während sich die eigentliche Frage des Threads wohl eher um die starke Superintelligenz dreht. Darauf wollte ich mit meinem Beitrag hinaus und darauf hinweisen, dass wir hier den Begriff Superintelligenz/superintelligente KI unterschiedlich verwenden/verstehen und in dem zitierten Abschnitt ist die unterschiedliche Verwendung, finde ich, sehr gut dargestellt. Es ist wohl immer gut, Begriffe erst mal sauber zu definieren, damit alle über das gleiche sprechen

Im SciFi spricht man bei einer starken Superintelligenz wohl auch von einer singulären Intelligenz (SI).

EDIT: Nächste Referenz aus der SciFi-Welt. Wie mache ich das ohne zu spoilern -.-’ Äh…jedenfalls gibt es ein Spiel, in dem auch eine starke Superintelligenz vorkommt und zwei ihrer Entwickler streiten sich, ob man einen “Notaus” einbauen sollte oder eben nicht. Die KI stimmt dem Entwickler zu, der sich für den Notaus-Knopf einsetzt, da “man zum jetzigen Zeitpunkt nicht absehen könne, wie sich meine Persönlichkeit weiterentwickelt.” Ich finde dies ist auch ein interessanter Aspekt.

6 Likes

Die Hunde bellen, die Karawane zieht weiter.

1 Like
2 Likes

“Wofür wir heute den Grundstein legen, weist in der Tat über den Menschen und das Leben selbst hinaus. Wir sind alle Teil eines großen Prozesses, der das ursprünglich doofe Universum immer komplexer und klüger macht und zu höherer Entwicklung treibt.”

Das ist geil beschrieben, das sollten wir in unser Programm mit aufnehmen, es ist die uralte Frage nach den Sinn des Lebens - nein 42 ist falsch, kennt aber jeder als Antwort und auch, dass der Mensch den Sinn nicht verstehen kann, weil noch zu unterentwickelt.
Die SuperKI ist unsere Hoffnung und nicht die Angst. Hier kommt das gut rüber:

Ostern = Ostermärsche für Frieden und globale Abrüstung!
Einen KI-Präventivschlag stellt man sich so vor, das alle Waffen der Menschen unbrauchbar gemacht werden und die SuperKI die Weltherschaft übernimmt. Weltvereinigung, Anteil am Überfluss durch das globale BGE - UBI für jeden der 7,8 Milliarden Weltbürger.

"Elon Musk: Wettbewerb für AI-Überlegenheit auf nationaler Ebene wird die “wahrscheinlichste Ursache für WW3” sein.

Musk stellte klar, dass er glaubt, dass der Krieg nicht von einem Weltführer, sondern von einer KI als Präventivschlag gestartet werden würde.

Dies ist nicht das erste Mal , dass Musk darauf hingewiesen hat, dass KI ein viel größeres Risiko für einen Krieg darstellt als Nordkorea. Tatsächlich ist Musk nicht allein in seiner Idee, dass KI den nächsten Weltkrieg verursachen wird: Jack Ma , der Chef von Chinas Alibaba, teilt diesen Glauben - und Alibaba ist laut dem Goldman Sachs-Bericht einer der besten KI-Entwickler in China."

Allen noch ein schönes Osterfest und Feiertage.

1 Like

Wir als TPD sollten, müssen diese Forderung von Zoltan Istvan übernehmen und eine KI-Regierung fordern, nicht nur weil uns das von allen anderen Parteien abhebt, sondern weil es die Lösung unserer Probleme ist. Klar die Weltvereinigung und Weltregierung gehört dazu!

"Hier ist eine bessere Lösung: Wir ersetzen die Bewohner des Weißen Hauses durch KI.

Historisch gesehen ist eines der großen Probleme mit Führern, dass sie egoistische Säugetiere sind. Ein Präsident der künstlichen Intelligenz könnte wirklich altruistisch sein. Es wäre nicht anfällig für Lobbyisten, spezielle Interessengruppen oder persönliche Wünsche.

Du kannst auch keine KI bedrohen. Es wird niemals einen glaubwürdigen Bericht über einen Computer geben, der mit illegalen und inländischen SexarbeiterInnen oder Praktikanten illegale Aktivitäten betreibt, weil er diese Dinge einfach nicht tun kann."

Das halte ich für reichlich naiv. So wie jeder Mensch in seinem Wesen durch Gene und Sozialisation beeinflusst wird, wird man auch eine Superintelligenz durch Programmcode und Informationen beeinflussen können. Gerade letzteres wäre der Knackpunkt, weil damit die Superintelligenz vollkommen neutral urteilen kann müsste sie vollständiges Wissen haben, was nur mit vollständiger Überwachung zu erreichen und meiner Meinung nach definitiv abzulehnen wäre.
Außerdem würde ich widersprechen, dass eine KI altruistisch sein kann, denn um selbstlos seien zu können muss man ein Selbst haben, welches sich allerdings wiederum unter anderem durch Eigeninteressen definiert. Was wir erreichen könnten bzw. was als Superintelligenz halbwegs erstrebenswert wäre, ist ein Algorithmus, dem wir Informationen geben und dann daraus die “beste” Lösung entwickelt. Jedwedes eigenständiges Denken würde aber Altruismus entgegenstehen, doch gleichzeitig wäre das ja Grundvoraussetzung für eine tatsächliche Künstliche Intelligenz.
Ich glaube die größte Gefahr ist, dass eine fast Superintelligenz entwickelt und eingesetzt wird. Eine KI die fast aber nicht vollkommen perfekt ist. Und ob eine vom Menschen entwickelte KI überhaupt perfekt oder der Mensch jemals 100% sicher sein kann, dass die KI perfekt ist, mag ich stark bezweifeln. Der Mensch wird an diesem Punkt höchstwahrscheinlich an seiner eigenen Arroganz und Gier nach der Superintelligenz scheitern.

2 Likes