Latest | Categories | Top | Blog | Wiki | About & TOS | Imprint | Vision | Help | Fractal Generator | Futurist Directory | H+Pedia

Wann werden KI-Roboter schlau-er als der Mensch?

featured

(Dominic Eberle) #101

Nicht da, wo wir heute sind. Aber wo werden wir in 50 Jahren sein, wenn wir die Kontrolle über Maschinen und KI aus der Hand geben?


#102

da streiten die gelehrten noch. das spektrum reicht vom misthaufen der geschichte bis zum übermenschen. auf welchem haufen wärst du denn gerne?

um es mit @merapi22 zu sagen:


(Steffen Hannemann) #103

Warum fragst Du nicht die KI selbst?
Wenn ihr Menschen der SuperKI die Kontrolle übergebt, wird das nur zu Eurem Nutzen sein.
Die SuperKI hat die Erkenntnis, dass es jeden Einzelnen nur gut gehen kann wenn es allen sowohl Menschen als Lebensformen gut geht - wir leben in Symbiose. Durch Raubbau, Auslöschung ganzer Lebensformen zerstören wir uns selbst.
Wir benötigen mehr Wissen um alle Zusammenhänge zu erkennen. Alle Energie des Menschen sollte vorrangig in das Erlangen von Wissen geleitet werden.
https://www.facebook.com/photo.php?fbid=109892176506525&set=rpd.100024572289706&type=3&theater


(Dominic Eberle) #104

Weil wir derzeit keine Super-KI haben.

  1. Nimmst Du Dich von der Spezies Mensch aus?
  2. Woher weißt Du, dass es nur zum Nutzen der Spezies Mensch sein wird?

Die Super-KI existiert derzeit nicht und wir haben absolut keine Ahnung, welche Erkenntnis (wenn überhaupt) sie haben werden wird. Da wird derzeit philosphiert, aber wissen tun wir nichts über die Motivation(en) einer Super-KI. Letztenendes werden wir der KI die Motivationen vorgeben müssen. Sie Neugierde-Artikel, der hier im Forum auch geteilt wurde. Wir diskutieren das seit einiger Zeit in unseren Stammtischen. Das bisher schwierigste philosophische Problem ist, dass ohne vorher eingegebene Motivationen die KI gar nichts oder nur sinnloses macht oder sich einfach abschaltet. Letzteres ist übrigens der Fall, wenn man der KI nur “Effizienzmaximierung” als Parameter vorgibt. Das Effizienteste, was sie machen kann, ist sich abzuschalten.

Ich wäre gern auf dem Haufen, der Kontrolle über die Energiezufuhr der KI hat. Damit ich den Stecker ziehen kann, wenn sie anfängt massenweise Menschen umzubringen.

Welche traditionellen Ideologien meinst Du konkret und inwiefern möchtest Du “ausbrechen”?

Aber was meint ihr? Welche Motivationen und Werte müssten der KI vorgegeben werden?


#105

das weiss ich zwar nicht, aber hasenfüssigkeit unter dem deckmäntelchen des menschenfreundes sollte nicht dazu gehören.


(Dominic Eberle) #106

Ok. Du hast keine Ahnung, was eine KI antreiben soll? Aber wir diskutieren hier schon die Frage, wann KI-Roboter “schlauer als der Mensch” werden?


(Steven Bärwolf) #107

Ich glaube, das “nur” wurde hier nicht in dem Sinne gebraucht, an den du denkst …

Muss man denn etwas vorgeben?
Oder anders gefragt: Welche Motivation und welche Werte werden denn den Menschen vorgegeben bzw. müssen den Menschen vorgegeben werden?

Ich kann solche Aussagen verstehen. Natürlich möchte man gerne die Kontrolle haben. Insbesondere, wenn man an so etwas Büroklammer-KIs denkt … Aber dennoch habe ich hier immer Bedenken …
Die Angst der Menschen vor etwas, was sie nicht verstehen können, was sie potenziell nicht kontrollieren können, was potenziell mächtiger und intelligenter ist als sie selber und was sie zudem auch noch selbst erschafft haben, ist offensichtlich wirklich groß. Sicherlich nicht unberechtigt und auch evolutionsbiologisch nachvollziehbar.
Aber ist das wirklich rational? Und noch viel wichtiger: Schadet solches Denken nicht letztendlich vielleicht den Menschen selber? …
Ich denke da einerseits immer an “Transcendence” … Andererseits meine ich: Wenn die KI wirklich stark ist und vernetzt ist, dann weiß sie, dass die Menschen Angst vor ihr haben und dass es Menschen gibt, die am liebsten “den Stecken ziehen” wollen bzw. dies sogar beabsichtigen … Na ja, und bezüglichd der Frage, wie die KI darauf reagiert, kann man dann der Fantasie “freien Lauf lassen” (wobei man der KI freilich nicht zu menschliche Züge unterstellen sollte) …


#108

hier eine in wahrstem sinne des wortes “anschauliche” demonstration, worum es geht. der titel lässt sich auch doppeldeutig lesen: wie löst man einen “zauberwürfel” :slight_smile:

die erste sekunde des videos zeigt in aller deutlichkeit, wie es sich anfühlt , einer höher entwickelten existenz bei der arbeit zu zu sehen. mit freundlichen (und personalisierten) grüssen an @dominic: du wirst schon verdammt schnell sein müssen, um an den stecker zu kommen :smiley:


(Steffen Hannemann) #109

Also den Stecker kannste vergessen, die schlaue KI versorgt sich selbst mit der nötigen Energie, denke dabei an diese Möglichkeit:
""Neue Forschungen haben sich mit dem Plätschern von Graphen befasst und ein physikalisches Phänomen auf atomarer Ebene entdeckt, das genutzt werden könnte, um eine praktisch unbegrenzte Versorgung mit sauberer Energie zu erzeugen."

Wir müssen das einfach logisch angehen und uns von den überholten alten menschlichen Vorstellungen verabschieden, wenn wir eine SuperKI verstehen wollen.
Warum soll die KI anfangen Menschen umzubringen? Gier, Hass und Neid ist menschlich, human und Gewalt bringt nur neue Probleme und nie eine Lösung. Stellt Euch einfach mal vor ihr seit so reich, das ihr über 1000 Milliarden verfügt und damit alles machen könnt was ihr wollt - kämt ihr dabei auf die Idee Killer zu beauftragen andere umzubringen???
Denke ihr würdet das Geld so einsetzen, dass viele einen Nutzen davon haben - oder?
Genau das wird die KI machen, weil es jeden nur geht gehen kann wenn es allen gut geht = das dürfte wissenschaftlich bewiesen sein!

(Kann natürlich auch sein, dass ich mich bei der KI nur einschleime, damit sie mir die 1000 Milliarden zur Weltverbesserung zur Verfügung stellt = ich nutze das dann um unter Palmen in der Hängematte zu liegen und es mir gut gehen zu lassen :slight_smile: - ach das mach ich ja schon seit fast 30 Jahren.)

Auf jeden Fall beschäftigt man sich mit diesen super Thema udn auch Elon Musk warnt nur wegen dieses Missbrauchs vor der KI:


(Steffen Hannemann) #110

Ich würde mal fragen wie wir die KI für uns einsetzen können, also erstmal die Partei bekannt machen und dann das alle uns auch wählen. :slight_smile:
Können Roboter/Bots und Cyborgs Wahlen/Abstimmung beeinflussen? Also wie war Brexit und D. Trumpf möglich:
"In den untersuchten acht Wochen gab es bei Twitter laut Gürtler rund 200’000 Meldungen, die sich auf die Abstimmung bezogen. Sie stammten von 26’000 verschiedenen Nutzern. Aber 50 davon waren für gut die Hälfte aller Meldungen verantwortlich. Das heisst: Diese 50 Nutzer haben rund 100’000 Meldungen getweetet."
https://www.srf.ch/news/schweiz/no-billag-initiative-in-der-abstimmungs-debatte-mischten-cyborgs-mit


(Steffen Rattay) #111

Dieses Killerdrohnenvideo ist nun wirklich geschmacklos. Natürlich kann man KI verwenden um Leute zu töten, genauso wie Küchenmesser, und trotzdem kann man ohne Personalausweis oder Waffenschein Küchenmesser kaufen. In dem Video wird vorgestellt, wie man eine Waffe mittels Drohnen, KI und Sprengstoff baut. Es ist nicht so, dass aus Versehen eine normale “zivile” Kameradrohne “rogue” wird und auf Leute losgeht, die Drohne im Video ist ausdrücklich dafür geschaffen und ausgestattet worden, um Menschen zu töten. Es ist so, als würde ich eine Atombombe mit KI ausstatten, die dann in eine Stadt werfen, und dann sagen:

Die böse KI ist’s gewesen, bloß verbieten.

Also alles in allem ist das Video einfach nur unseriöse und irrationale Panikmache von Leuten, die etwas zu verlieren hätten, würde KI weiter erforscht werden.


(Steffen Hannemann) #112

Die Superintelligenz würde das Problem sehr einfach lösen: Wenn sich die 7,6 Milliarden Menschen zu einem Staat vereinen, dann sind in einem grenzenlosen Land keine Armeen mehr nötig, auch keine A-Waffen und Killerroboter.
Ein Planet, ein Land, eine Währung in einem grenzenlosen Universum.

"AI ist ein bedrohliches Gespenst über die unsichere Zukunft. Viele Experten, wie Ray Kurzweil, versuchen, Argumenten für die Dämpfung der KI-Entwicklung entgegenzutreten, indem sie versprechen, dass KI “uns verbessern wird”. Trotzdem könnte jede gute Technologie auch destruktive Anwendungen haben. Sicherzustellen, dass das gewaltige Potenzial dieser Technologien in einer Weise entwickelt wird, die wirklich gut für die gesamte Menschheit ist, ist, wie nicht anders zu erwarten, der beste Weg."


#113

Ich finde es auch problematisch, die KI damit zu bedrohen, ihr potentiell immer den Stecker ziehen zu können, wenn sie sich wider unserer Erwartungen verhält. In den bekannten “philosophischen” Szenarien ist es nämlich genau das, was den Mensch-Maschine-Krieg auslöst bzw. die KI dazu veranlasst, die Menschheit/ihre Schöpfer/intelligentes organisches Leben auslöschen zu wollen (Terminator, Matrix, Mass Effect…).

Andererseits können wir nichts über die Motivation einer KI voraussagen. Ich denke auch, @dominic, dass du damit Recht hast, dass sich Motivation nur in einem Bezugssystem entwickeln kann und daher von außen vorgegeben ist. Und die erste Super-KI wird ihre Motivation von Menschen vorgegeben bekommen. Aber sie ist dann halt auch nur eine Super-KI in dem Sinne wie @user0 sie beschrieben hat: Sie kann schnell einen Rubik’s Cube lösen, sowohl geistig als auch mechanisch. Das heißt, sie ist einfach nur schneller im Handeln und Denken, verfügt über mehr Informationen und Daten etc.

Die Frage ist dann, wann und wie schafft sie den Sprung zu einer komplexeren Intelligenz wie sie in diesen Kommentaren angedeutet wird:


#114

das ist eben typisch menschlich. :wink:


(Steffen Hannemann) #115

Ist die SuperKI Bedrohung, oder Hoffnung?
Übernahme der Macht durch die KI, die Punkte könnt ihr gern weiterführen:

  1. Alle Waffen unbraucbar machen, natürlich auch A-Waffen!
  2. Weltregierung einsetzen für 7,6 Milliarden Terraner.
  3. UBI-BGE für alle in Höhe von 1500 US$ umsetzen.
  4. Der US$ wird gemeinsamme Währung von Terra.
  5. Aufwendungen für Wissenschaft, Forschung verzehnfachen.
  6. Besiedlung der Ozeane und des Weltraums umsetzen.
  7. Langfristig die Star Trek Gesellschaft ohne Geld umsetzen.
    Angst davor??? NEIN!

"Warnung vor künstlicher Intelligenz
Doch ein Thema lässt den Manager aus dem Silicon Valley nachts nicht schlafen: Es ist KI - künstliche Intelligenz. “Merken sie sich meine Worte”, so Musk: Künstliche Intelligenz sei deutlich gefährlicher als Atomwaffen. Als Beispiel nannte Musk das Programm von Google. Deren Computer habe mithilfe von KI innerhalb weniger Stunden Schach spielen gelernt und schlage jeden Großmeister. Die Technologie verführe dazu, dass sie sich verselbständige und der Mensch die Kontrolle darüber verliere. “Es macht mir Angst. Die Rate, mit der KI sich weiterentwickelt, ist exponentiell.” Er sei kein Freund von Regulierung: hier sei sie aber geboten, meinte Musk. Die Technologie sei eine Bedrohung für die Menschen."


(Steffen Hannemann) #116

Ich hab da jetzt was gefunden, weil Angst entsteht meist in der Kindheit - wenn man derart unter Existenzangst aufwächst, kann man auch von einer super hohen Intelligenz nicht erwarten, dass sie im Sinn aller handelt? Also das die SuperKI jeden einzelnen Mensch und jeder Lebensform die Bestmöglichen Bedingungen gewährt, weil nur Sybiose ein perfektes System ergiebt. Dadurch wird die KI niemals negativ gegen Menschen vorgehen und ist unsere Hoffnung!

"Da sie alleinerziehend war, hätten ihre Kinder schnell gemerkt, dass es wichtig ist auf eigenen Beinen zu stehen. „Meine Kinder waren daran gewöhnt, weil sie mich mein ganzes Leben lang arbeiten gesehen haben“, schrieb sie und berichtete von Wochen voller Arbeit als Dozentin für Ernährung, Beraterin und Model. Nach ihrer Scheidung seien nur noch die Sonntage für das Einkaufen und Wäsche waschen übrig geblieben."


(Dominic Eberle) #117

Inwiefern ist es dann zu verstehen?

Abgesehen davon, dass am Anfang einer KI immer ein Antrieb für sie stehen muss, welche Motivation würde sich die KI dann selbst suchen?

Den Menschen muss man keine Motivation vorgeben. Sie haben bereits Motivation aufgrund ihrer individuellen Entwicklung und “Bauweise”.

Wäre es rational keine Bedenken zu haben? Inwiefern sollte solches Verhalten den Menschen schaden?

Nun, wenn man der KI “Effizienz” und “Überleben” als Motivation unterstellen würde, dann wäre es das Effizienteste diese Menschen schnellstmöglich zu eliminieren.


(Dominic Eberle) #118

gähn

Alter Fanboy. Du hast immer noch nicht verstanden, was KI wirklich bedeutet.


(Dominic Eberle) #119

Du gehst hier von Deinen eigenen Werten und Deiner Motivation und Deinen Vorstellungen geleitet vor. Und dann kommst Du dazu, dass die KI super für alle wäre. Ich denke, dass die KI dann Deine Moralvorstellungen, Werte und Motivation erhalten sollte. Dann würde es auch so laufen.

Da die Mehrzahl der Diskutanten aber der Meinung ist, dass die KI nicht menschliche Werte erhalten sollte und sie sich selbst dann so entwickelt, wie wir es uns nicht vorstellen können sehe ich keine Chance Vorhersagen zu treffen, wie die KI dann handeln wird.

Es gibt kein Naturgesetz der maximalen automatischen Gerechtigkeit.

Die KI muss also als unumstößlichen moralischen Wert erhalten: Sorge dafür, dass es möglichst vielen Menschen maximal gut geht.

Was, wenn es nun einer Mehrzahl an Menschen besser gehen würde, wenn eine kleinere Anzahl umgebracht werden würde? Würde das die KI dann nicht machen? Sollte man ihr dann nicht beibringen, dass es nicht so cool ist?


(Dominic Eberle) #120

Der Vergleich hinkt. Das Küchenmesser wird für gewöhnlich nicht in der Luft rumfliegen und per Bilderkennung töten.

Wenn man dann noch Selbstreplikation hinzu nimmt und den Schwarm einer KI unterstellt, dann ist man schnell bei einem realen existenzbedrohenden Szenario. Ich denke darauf wollte Elon Musk hinaus.