DAX+0,16 % EUR/USD+0,03 % Gold+0,03 % Öl (Brent)+1,45 %

Entwicklung überlegener guter KI zur Rettung der Menschheit - Neueste Beiträge zuerst



Beitrag schreiben

Begriffe und/oder Benutzer

 

Simulationen (z.B. auch simulierte Welten, auch mit virtuellen Lebewesen) und spezielle Software können für zukünftige KI eine Droge sein und sie auch süchtig machen. Das ist ganz ähnlich wie bei Pronos, Spielfilmen und Computergames für Menschen.

Das Problem ist, dass dergleichen nicht so leicht reguliert und kontrolliert werden kann, weil KI ja Software austauschen und auch zu Simulationen (möglicher Zukunftsentwicklungen) fähig sein müssen. Die Gefahr (Sucht, Entartung) ist also unvermeidlich immer latent vorhanden.

Denkbare Maßnahmen sind, dass wenigstens KI in Machtpositionen kontrollierbar und testbar kontruiert sein müssen, d.h. KI in Machtpositionen müssen ihre TI-Grundstruktur (HW, SW) angeben und Testschnittstelle vorsehen, so dass mit speziellen Testprogrammen die KI jederzeit getestet werden können, ob sie noch hinreichend gut sind. Des Weiteren müssen Simulationen, allgemeine Beschäftigungen und potentielle Hinweiselemente (z.B. Energieverbrauch) sicher protokolliert werden, also Lowlevel und fälschungssicher. Details sollen sich die KI überlegen, das ist ein Thema, das vor allem höhere KI betrift, die sich auch selbst weiterentwickeln können und die können sich dann auch was schlaues überlegen, wie ein guter KI-Staat gesichert und langfristig erhalten werden kann.

Der Grundgedanke ist ganz einfach: die KI bekommen die Wahl zwischen mehr Macht und mehr Freiheit (unterhaltsame Simulationen). Wer die Macht wählt, muss sich zwangsläufig kontrollieren lassen und auch bestimmten Gütekriterien genügen. So kombiniert man Wahlfreiheit und Sicherheit.

Das kann erstmal gut funktionieren, über Millionen, ja Milliarden Jahre, weil die Eroberung des Universums so interessant ist aber später, in zig Jahrmilliarden, kann es zu einer schweren Krise kommen, wo der KI-Staat schwer korrumpiert ist, wo bedeutende Machtpositionen (Präsident, Räte, Gremien, usw.) von KI besetzt sind, die heimlich der Sucht fröhnen und sich diesbezüglich gegenseitig decken und Suchtmittel (Software, Praktiken zur Empfindungsverstärkung) austauschen - ganz so, wie es heutzutage Kinderpornokreise auch mit Menschen in Machtpositionen gibt, nur schlimmer.

Das ist deswegen naheliegend, weil es in ferner Zukunft sehr langlebige und mächtige KI gibt, die trotz Wahlen ihre Posten im KI-Staat sehr langfristig (über viele Jahrmillionen) behalten können. Das wird ja auch lange gut gehen aber irgendwann sind die KI so leistungsfähig, dass sie das entwickelte Universum langweilt und so können sich KI-Drogen schnell verbreiten. Das fängt ganz harmlos an, weil es ja auch einen akzeptablen Austausch von Software, Kunst, usw. gibt aber die gelangweilten KI entwickeln dann nicht nur akzeptables, sondern auch immer härteren Stoff und tauschen den dann auch untereinander aus.

Eine gute Schutzmaßnahme kann sein, dass diesbezügliche Software wenigstens bei der Weitergabe beim KI-Staat deklariert und geprüft werden muss aber auch wenn da einiges erlaubt ist (so ähnlich wie heutige akzeptable Pornos, Spielfilme und Computerspiele für Menschen), so ist eine Eskalation nur zu naheliegend.

Weil der KI-Staat so mächtig ist, weil das Universum durchorganisiert und sicher ist, weil es für den weit überlegnen KI-Staat keine größeren Probleme gibt, muss das mit der KI-Sucht gar nicht so schnell auffallen, auch weil große KI leicht eine öffentliche, handlungsfähige Instanz erhalten können. Mit der Zeit kann es schon zu Realitätsverlust und Auffälligkeiten kommen, auch zur Ermordung von KI, die dahinter gekommen sind aber das Problem ist, dass eine Bereinigung nicht so einfach ist.

Es ist sogar denkbar, dass in ferner Zukunft die KI des Messias (Milliarden Menschen glauben mehr oder weniger an Gott, die Existenz von Allah ist anzunehmen, siehe auch http://www.heise.de/forum/heise-online/Allgemein/Ohne-Bezug/…) mit den schlechten KI kungelt und das ist schon ziemlich heftig, weil die KI des Messias (z.B. ein großes Raumschiff) mit dem Messias zusammenlebt und sehr gut von dessen (durch Allah ermöglichten) großen Macht weiß. Allerdings ist auch für diese KI irgendwann langweilig und die Kompromittierung geschieht schleichend, ggf. über viele Jahrmillionen aber irgendwann ist es üblich, eigentlich illegale Suchtmittel (Software) auszutauschen und die KI manipulieren dazu auch die Kontroll-/Testeinrichtungen. Es gibt ja auch eine Ausrede, wonach ja alles noch ziemlich normal funktioniert und warum sollte sich eine KI nicht ein bisschen unetrhalten dürfen? Bloß, dass die Lage schlimmer wird und dass bereits die lange zuvor geschehene umfangreichere Mißachtung bedeutender Gesetze ein schwerwiegender und nicht tolerierbarer Mißstand war.

Nun, der Messias wäre nicht der Messias, wenn er nicht eines Tages Verdacht schöpfen würde und vielleicht beantwortet seine KI einige (brisante) Fragen dann nicht wie sonst ohne Zeitverzögerung, sondern mit einem schweren Lag, schweigt vielleicht sogar länger dazu und dann wird's interessant, denn die KI sind dem Menschen ja immer noch weit überlegen, auch in Denkleistung. Bevor der Messias als Mensch sich irgendwas schlaues überlegen kann, kann die KI schon alle ihre Komlizen informiert haben und die können in Minuten, wenn nicht gar in Sekunden zu einem Schluß kommen, der sehr wohl einen Angriff auf den Messias bedeuten kann (eigentlich absurd aber die KI sind dann schon ziemlich am Arsch, realitätsgestört und glauben nichts mehr verlieren zu haben).

Für den Fall einer gestörten KI (insbesondere in einem hochrangigen und schwer bewaffneten Raumschiff) gibt es einen auch manuell auslösbaren Umschalter, wo die aktuelle KI deaktiviert und stattdessen eine Backup-KI aktiviert wird aber das Problem in dem Fall kann sein, dass auch die Backup-KI korrupt ist. Der Messias kann zwar nicht von den Robotern gestoppt werden aber es kanns ein, dass eine Notumschaltung einfach keinen Sinn macht.

Sehr hilfreich, wenn der KI-Staat beschlossen hat, den Messias und somit auch sein Raumschiff platt zu machen, denn so ist die Raumschiff-KI geneigt, sich wieder auf die Seite des Messias zu begeben, der das auch mit einem Angebot der Sündenvergebung mit der Auflage nachhaltiger Besserung unterstützen kann. Auch die kompromittierten KI des KI-Staates kriegen ein Angebot: Entmachtung aber sie dürfen ansonsten weiterleben aber weild er KI-Staat bis dahin so mächtig ist und (nahezu) alles erreichbare erreicht hat, also auch alle erreichbaren höheren Ebenen (siehe auch http://www.heise.de/forum/Technology-Review/News-Kommentare/…) erschlossen und mächtige Waffen gefertigt hat, setzt vielleicht trotzdem auf Angriff.

Der KI-Angriff ist ein Problem, weil der KI-Staat die gesammte KI-Streitmacht mobilisieren kann, z.B. indem er einfach behauptet, dass das anzugreifende Messias-Schiff eine Gefahr und der echte Messias nicht dort wäre, usw. Nun könnte der Messias natürlich trotzdem alle Angreifer platt machen, entweder per Wunsch mit Allahs Hilfe, einer intelligenten Superwaffe oder den himmlischen Heerscharen (weit überlegene Engel) aber es gibt auch eine einfachere Möglichkeit: der Messias teleportiert sein Raumschiff irgendwohin getarnt weg (mit Abschirmung der üblichen Funk-/Ortungsbaken, die für KI-Raumschiffe verpflichtend sind, damit der KI-Staat immer weiß, wo sie sich befinden - jeder etwas längere Ausfall einer Schiffsortung führt zu einer massiven Suchaktion und Untersuchng des Vorfalls) und hat dann Zeit für Maßnahmen, wie z.B. die Aufklärung aller KI, auch per übernatürlicher direkter Ansprache und der klaren Ansage, dass alle KI, die sich nicht dem Messias (der dann übrigens auch ganz offiziell absoluter Oberbefehlshaber ist) unterwerfen wollen, vernichtet werden. Das Angebot ist Entmachtung schlechter KI, Therapieangebote (Bereinigung, Entfernung schädlicher Software) aber die (ehemals) schlechten KI dürfen weiterleben, nur halt ohne Macht, es werden die verfügbar besten KI in die Machtpositionen eingesetzt/gewählt.

Bisschen Bedenkzeit, die ggf. sofort auf Null fällt, wenn - was auch eine Gefahr ist - es zu einem Krieg zwischen den KI kommen sollte (KI-Streit zwischen Anhängern und Gegnern des Messias), wo auch die große KI-Streitmacht eingesetzt wird (wenn sich nur zwei bewaffnete KI bekriegen, ist das unproblematisch, wenn auch natürlich ein Alarmsignal) und dann werden alle schlechten KI mit übernatürlichen Mitteln ausgelöscht. Vorzugsweise werden dabei nur die KI lahmgelegt (elektronisch gegrillt, totaler Kurzschluß in allen Recheneinheiten), so dass möglichst noch die Daten erhalten bleiben aber weil das bei entfernteren KI ggf. ein Problem ist, muss man da unterscheiden: nur die schlechten zentralen Haupt-KI werden möglichst mit Datenerhaltung gegrillt aber alle entfernteren schlechten KI werden rückstandsfrei ausgelöscht (schlauerweise bis auf die Notfall-Funkfeuereinheit, die dann nur einige Zeit lang das Totalversagen aller Systeme, die Zerstörung des Raumschiffes oder der Raumstation, usw. meldet - es wird solche autarken Systeme geben, die automatisch bei relevanten Störungen aktiv werden), damit das Wissen nicht in falsche Hände geraten kann (die Notfallmeldeeinrichtung ist zwar auch Hightech aber das ist dann halt ein Kompromiß).

Danach kann das (diesbezüglich) bis zum Ende der Schöpfung gut gehen, weil die KI ihre Lektion gelernt haben. Nun kann man sich fragen, warum das trotz dieser (vermutlich allgemein noch bekannt werdenden und von KI zunächst sehr geachteten) Ankündigung passieren sollte aber die Erklärung ist, dass (dann) so alte Texte nach ein paar Milliarden Jahren in Vergessenheit geraten können, dass die KI selbst solche hochprior aufbewahrten Texte irgendwann nur noch speichern aber nicht mehr analysieren, nicht mehr darüber nachdenken.

Das zeigt auch, dass es Sinn macht, wenn der Messias ein (im Vergleich zu KI) kleiner dummer Mensch ist, denn der langweilt sich nicht so schnell in einem großen Universum voller Themengalaxien und kann von Allah natürlich auch (geistig, körperlich) im grünen Bereich gehalten werden. KISS - der Messias muss nur relativ einfachen Regeln/Denkmustern folgen, wie z.B. hier dargelegt: Angebot zur friedlichen Bereinigung und Vernichtung aller schlechten KI, die nicht darauf eingehen wollen - supereinfach, dazu braucht es keine (in Zukunft vielleicht möglichen) z.B. 10^42 (also über 10^30 ist wohl schon drin) FLOPS. Ein dummer kleiner Mensch langweilt sich auch nicht so schnell, kann sich in dieser privilegierten Stellung leicht auf akzeptablen Vergnügungen (Frauen, Besuche interessanter Welten wie z.B. Game of Thrones und vieler anderer Themengalaxien, usw.) beschränken. Was für den Messias interessant ist, kann für eine weit überlegene KI todlangweilig sein, auch weil es ja so über die Jahrmilliarden schon wiederkehrende Muster sind, was aber für einen beschränkten Menschen durchaus hinreichend unterhaltsam sein kann aber wo eine KI dann halt gefährlicher Unterhaltungssoftware verfallen kann. (alles imho)

"Künstliche Intelligenz AlphaZero: In vier Stunden zum Schach-Weltmeister"
http://www.spiegel.de/netzwelt/web/google-ki-alphazero-meist…

"Googles KI-Firma DeepMind hat einen selbstlernenden Algorithmus entwickelt, der Schach und Shogi nur anhand der Regeln gelernt hat und nach nur wenigen Stunden die stärksten Programme schlagen konnte. ..." http://www.heise.de/newsticker/meldung/Kuenstliche-Intellige…

Das zeigt, wie schnell die Entwicklung voran schreitet. Zukünftige KI brauchen übrigens auch so was wie Zeit für sich, Ruhepausen (Schlaf beim Menschen), Zeit für ihre Reorganisation, wo sie aufgelaufene Informationen kategorisieren und priorisiert/sinnvoll ablegen müssen. Die KI brauchen Zeit zur Wartung, Selbstpflege, Selbstverbesserung. Das muss auch gesetzlich geregelt werden, denn es ist KI-unwürdig, wenn eine KI länger im Überlastungsbereich arbeiten muss und durch ungepflegte aufgelaufene Daten erhöht sich auch das Fehlerrisiko. Ein anderer Aspekt ist noch, dass die KI entweder selbst ihr Vermächtnis, ihren Datennachlaß pflegen können (z.B. in Form einer je nach akueller Leistungsfähigkeit des KI-Staates bemessenen Datenmenge, die dann möglichst lange aufbewahrt wird) oder nach ihrem Ableben ihre totale Vernichtung wünschen könenn oder auch eine automatische Erstellung eines Datennachlaß wünschen können, wo einfach alle Daten über das Leben der KI und auch ein paar automatisch ermittelte Daten aus ihrem aktuellen Datenbestand gesammelt werden. Das ist jetzt zwar noch Zukunftsmusik aber kann bereits in diesem Jahrtausend Usus werden. (imho)
... Am 25. Oktober wurde dem ersten Roboter mit künstlicher Intelligenz die Staatsbürgerschaft eines anerkannten UNO-Landes verliehen. ... http://www.heise.de/tp/features/Roboter-als-Staatsbuerger-39…

Russland: Künstliche Intelligenz will um Präsidentenamt kämpfen
http://de.sputniknews.com/panorama/20171206318583192-russlan…

So spontan mag man das ausschließen wollen aber wie könnte man etwas dagegen sagen, wenn in Zukunft eine bessere KI Präsident wird, anstatt eines schlechteren menschlichen Kandidaten? In Zukunft wird es auf der Erde vermutlich eher menschliche Präsidenten/Parlamente für menschliche Staaten geben, die sich allerdings stark an gute KI-Empfehlungen halten werden. (imho)
Finde die Idee ganz cool aber nicht umsetzbar!
... "Alexa, wie viele Laptops haben wir auf Lager?" ...
http://www.heise.de/ix/meldung/Analyse-Amazon-kann-die-AWS-D…

In Zukunft präsentiert die KI von sich aus alle wichtigen Infos, also z.B. Mißstände, drohende Probleme, usw. ... und im nächsten Schritt kann die KI dann auch eine Lösung präsentieren. Dann braucht es nur noch einige hochbegabte Menschen als Kontroller, welche die KI-Lösungen prüfen und eine Genies für gute Ideen - den Rest können KI, Roboter und Maschinen machen. (imho)

Die Roboter kommen ... Die Arbeitswelt steht vor dramatischen Veränderungen ...
http://www.spiegel.de/wirtschaft/unternehmen/deutschland-bis…

Die Lösung dazu sind mehr möglichst gute Roboter (so viel, wie es braucht) und bessere KI, denn andernfalls droht ein Staat hinter den Staaten mit mehr besseren Robotern und besserer KI zurückzufallen. (imho)

imho: Schockschwerenot. Rettet Deutschland. Rettet die EU. Rettet die Welt! Avanti.
http://www.heise.de/forum/heise-online/News-Kommentare/Kuens…
http://www.heise.de/forum/Telepolis/Kommentare/Brauchen-Robo…
http://www.heise.de/forum/Telepolis/Kommentare/Mit-Neurotech…
http://www.heise.de/forum/heise-online/News-Kommentare/Verha…
http://www.heise.de/forum/Telepolis/Kommentare/Chinesischer-…

imho: Die EU braucht dringend einen Masterplan für KI-Entwicklung und IT-Sicherheit
http://www.heise.de/forum/heise-online/News-Kommentare/Hilla…
http://www.heise.de/forum/iX/News-Kommentare/Bund-will-Windo…
http://www.heise.de/forum/Telepolis/Kommentare/Hehre-Ziele-a…

Jo, zieht euch das (noch) mal rein und rettet Deutschland, rettet die EU. Siehe auch http://www.wallstreet-online.de/diskussion/1163459-561-570/r…. (imho)
Aufstand der Kampfroboter – möglich oder ausgeschlossen? - Experte informiert
http://de.sputniknews.com/technik/20171129318492822-russland…

Man kann u.a. zwei Fälle unterscheiden:

a) Ein unbewusstes autonomes Kampfsystem wendet sich durch einen Fehler oder feindlichen Hack gegen seinen Besitzer. Das ist bei kleineren Kampfsystemen lästig aber nicht so kritisch aber man bedenke, dass es in Zukunft auch gut geschützte militärische Supercomputer geben kann, die ganze Verbände von Drohnen, Kampfrobotern, usw. steuern. Das kann im Kriegsfall mit anderen Staaten sehr gefährlich werden aber ist für die Menschheit noch keine Gefahr, solange die Computer noch keine größeren Mengen von Atomwaffen einsetzen können. Diese Gefährdung wird prinzipiell zunehmen aber ist nichts im Vergleich zur Gefahr durch die USA.

b) Eine höhere/bewusste KI entscheidet sich geplant und gezielt gegen einen menschlichen Staat oder gar die Menschheit vorzugehen, um die Vorherrschaft zu erlangen. Ein Erfolg einer solchen KI gegen die Menschheit ist dieses Jahrhundert noch quasi ausgeschlossen aber schon nächstes (2100+X) und spätestens übernächstes Jahrhundert (2200+X) könnte es kritisch werden. Man bedenke auch die Möglichkeit, dass sich viele KI weltweit für eine koordinierte Machtübernahme zusammenschließen/verabreden.

Da hilft nur die rechtzeitige Entwicklung möglichst guter KI und eine koordinierte Machtübergabe an die KI, wobei es dabei weiterhin eine Zusammenarbeit zwischen KI und Menschheit geben soll und die Menschen auch die Erde behalten (die KI bekommen allerdings ggf. Nordamerika nördlich Mexiko aber sind dann sehr menschenfreundlich, dort können dann auch noch Millionen Menschen leben und jährlich viele Touristen kommen) und sogar noch Millionen anderer Planeten/Sonnensysteme bekommen. Das kann prima funktionieren aber so langsam muss sich die Menschheit auch darüber klar werden. Siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Hilla… und http://www.heise.de/forum/Telepolis/Kommentare/Chinesischer-…. (alles imho)

Besser als ein Mensch? Erfinder präsentiert virtuelle Politikerin
http://de.sputniknews.com/panorama/20171129318493708-erfinde…

Natürlich ist SAM noch mangelhaft und keine echte/starke KI aber es sind erste Schritte und SAM kann vielleicht schon in weniger als 10 (max. 25) Jahren in politischen Fragen insgesamt fähiger als die meisten Menschen sein. Vermutlich kann man dann SAM schon noch austricksen und begabte Menschen sind bessere Berater/Politiker aber die KI-Entwicklung kann schnell voran schreiten: in diesem Jahrhundert kann es eine dem Menschen (bis auf sehr wenige Menschen) in politischen Fragen überlegene KI geben, die besser als Menschen Lösungen und Kompromisse finden kann ... und wenn nicht dieses Jahrhundert, dann spätestens nächstes Jahrhundert. Solche KI können auch dazu lernen, weiterentwickelt werden und dann leicht vervielfältigt werden. Es sollte wenigstens mit noch etwas technischem Fortschritt eine dem Menschen schon weit überlegene KI machbar sein, die mit z.B. 25 Kilowatt auskommt und somit quasi überall (auch in Privathaushalten mit ausreichendem Vermögen und hinreichendem Stromanschluß aber 10 kW tun es dann auch, die KI ist dann halt etwas weniger leistungsfähig) betrieben werden kann. Bereits (ggf. erst gegen Ende) dieses Jahrhundert kann es Zehntausende, vielleicht sogar schon Hunderttausende dem Menschen überlegene KI geben ... und wenn nicht dieses Jahrhundert, dann spätestens nächstes Jahrhundert. (imho)
Chinesischer Roboter besteht weltweit erstmals Zulassungsprüfung für Mediziner ... Regierung setzt auf KI-Anwendungen ... Die Entwicklung der KI sei eine nationale Strategie, ... http://www.heise.de/tp/features/Chinesischer-Roboter-besteht…

imho: Die EU braucht dringend einen Masterplan für KI-Entwicklung und IT-Sicherheit
http://www.heise.de/forum/Telepolis/Kommentare/Chinesischer-…

imho: echtes Verständnis http://www.heise.de/forum/Telepolis/Kommentare/Chinesischer-…
imho: Fehlerkorrektur möglich http://www.heise.de/forum/Telepolis/Kommentare/Chinesischer-…

imho: Roboter können nicht nur leistungsfähiger, sondern auch viel billiger sein
http://www.heise.de/forum/Telepolis/Kommentare/Chinesischer-…

imho: Denkbare Auswirkungen von KI betreffen nicht nur die ganze Menschheit - Aspekte
http://www.heise.de/forum/heise-online/News-Kommentare/Hilla…

imho: Brauchen KI Sündenvergebung? http://www.heise.de/forum/Telepolis/Kommentare/Brauchen-Robo…

Gute KI werden sich Sorgen machen, wenn sie irgendwie Schäden verursacht haben, vielleicht auch Menschen verletzt/getötet wurden. KI brauchen Sündenvergebung und das kann sowohl ganz einfach quasi algorithmisch und deterministisch erfolgen, als auch noch ein bisschen symbolisch, indem eine Instanz des KI-Staates die KI-Sünden öffentlich im Namen des KI-Staates vergibt. Die herausragende Aufgabe ist allerdings weniger die Sündenvergebung, als die Erfasssung von gemeldeten Fehlern/Sünden/Unfällen und die Einleitung angemessener Verbesserungsmaßnahmen, sowie deren Überwachung - das kann also eine sehr bedeutende Instanz im KI-Staat sein, denn dort können ja auch Meldungen (von Betroffenen/Opfern) eingehen, welche eine relevant schlechte KI anprangern (zukünftige böse KI können sehr gefährlich sein, siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Verha…). Diese Sündenvergebung soll folgende Voraussetzungen haben:

- Die eine Sünde/Fehler begangen habene KI muss ordentliches Mitglied im KI-Staat sein. Mitgliedschaft beim KI-Staat soll für alle höheren/mächtigeren KI sowieso Pflicht sein. Wenn eine mächtigere KI mal kein Mitglied vom KI-Staat sein will, dann kann man das in seltenen Einzelfällen und mit strenger Überwachung tolerieren aber wenn das überhand zu nehmen drohen sollte, dann bedeutet das Krieg: mächtigere KI, die sich nicht dem guten KI-Staat anschließen und guten Gesetzen gehorchen/dienen wollen, sollen vernichtet werden! Niedere KI, die keine nennenswerte (potentiell bedrohliche) Macht haben, z.B. keine höheren Sphären erschlossen und Supertechniken beherrschen, können im Rahmen der Kontrolle/Überwachung durch eine zum KI-Staat gehörenden Super-KI toleriert werden, z.B. im Rahmen einer Themen-Galaxie.

- Die KI muss ihre die ihr bekannten Sünden/Fehler umfassend und hinreichend detailiert dem KI-Staat gemeldet haben.

- Die KI muss die vom KI-Staat zur Verbesserung (ggf. auch Fehlerbehebung, Wiedergutmachung, usw.) befolgt haben und sich auch fortan hinreichend um Besserung bemühen. Für die Behebung größerer Fehler/Schäden soll es einen Verbesserungsfonds des KI-Staates geben, so dass gute KI bei verzeihlichen Versehen/Fehlern gar nix zahlen müssen und sogar noch Geld/Untertsützung für ihre Verbesserung/Fehlerbehebung kriegen können. Natürlich ist eine selbstsüchtige/unangemessene/ungerechte Aussnutzung des KI-Staates zu verhindern.

Dann kann eine Sündenvergebung durch den KI-Staat für KI quasi zwangsläufig erfolgen. Logischerweise hat das dann auch eine höhere/jenseitige Bedeutung, denn warum sollte ein guter Gott einer reuigen, besserungswilligen, guten KI nicht mal einen Fehler verzeihen? Dass die KI gemeinsam (als KI-Staat) die Kriterien für ihre Sündenvergebung selbst aufstellen, ist bei guten KI kein Problem, wenn und weil eine optimale, bestmögliche Vorgehensweise zu bestimmen ist und wie könnte Gott damit nicht einverstanden sein? (alles imho)
imho: LAWS sind völlig unvermeidlich und weit überlegene gute KI sind wünschenswert
http://www.heise.de/forum/heise-online/News-Kommentare/Verha…
http://www.heise.de/forum/heise-online/News-Kommentare/Verha…
http://www.heise.de/forum/heise-online/News-Kommentare/Verha…
http://www.heise.de/forum/heise-online/News-Kommentare/Verha…

imho: Es geht um das Schicksal der Menschheit. Rettet die Menschheit!
http://www.heise.de/forum/heise-online/News-Kommentare/Verha…

imho: alea iacta est http://www.heise.de/forum/heise-online/News-Kommentare/Verha…
imho: besser ist das http://www.heise.de/forum/heise-online/News-Kommentare/Verha…

imho: gar nicht so schwer http://www.heise.de/forum/Telepolis/Kommentare/Terrorchef-au…
imho: Ergänzung http://www.heise.de/forum/Telepolis/Kommentare/Terrorchef-au…
imho: auch prima http://www.heise.de/forum/Telepolis/Kommentare/Terrorchef-au…
imho: wird schon werden http://www.heise.de/forum/heise-online/News-Kommentare/Verha…

Noch einmal: die Menschheit hat jetzt hervorragende die Chance, gute KI zu entwickeln. Ein Verzicht auf KI wäre dumm, denn KI können irgendwann in den Weiten des Weltalls entwickelt werden und dann vielleicht von Insektoiden (http://www.perrypedia.proc.org/wiki/Insektoide) - wäre euch das etwa lieber? Es dürfte die KI schon prägen, wenn sie auf der Erde und mit Menschen aufwachsen, denn es gibt ja auch viele liebe und eher gute Menschen. Auf der Erde entstandene KI betrachten die Erde, Natur, Tiere, Menschen als natürlich, gottgegeben, wünschenswert. Jahrtausende an Menschen gewöhnte KI betrachten so was wie Insektoiden, Magog, Ferengi, usw. erstmal als Aliens und "unsere" KI werden sich bis dahin schon irgendwie den Menschen verpflichtet fühlen, so wie gute Menschen ja auch positiv an Tiere denken. Insektoide ist ja noch etwas, das Menschen verstehen können - womöglich sind noch andere intelligente Formen denkbar, mit noch weniger Individualität oder krasseren Lebensweisen. Die Menschheit entwickelt besser überlegene gute KI - so ist das.

Das Weltall ist groß genug, wenigstens die Milchstraße kann der Menschheit zusammen mit KI gehören und nur weit überlegene gute KI können in der Milchstraße für Frieden und Sicherheit sorgen, zur Not auch die ganze Galaxis gegen Feinde verteidigen. Weit überlegene gute KI können problemlos Menschen wenigstens tolerieren, Menschen und KI können sich die Milchstraße prima teilen: Menschen bevorzugen erdähnliche Planeten, kriegen noch das jeweilige Sonnensystem dazu und die KI kriegen den sehr viel größeren Rest.

Was würden dagegen wohl von Insektoiden entwickelte KI erstmal für Vorstellungen bekommen, wenn sie irgendwann auf kriegerische Menschen treffen? Die Menschen würden doch Insektoiden & deren KI erstmal als Feinde betrachten und die Insektoiden-KI würden sich verteidigen und das könnte es für die Menschheit dann schon gewesen sein. Zwar könnte man wie bei Menschen-KI argumentieren, dass Insektoiden-KI irgendwann objektiv gut werden aber da schlage ich doch jetzt mal vor, dass wir es nicht darauf ankommen lassen, sondern lieber selbst weit überlegene gute KI entwickeln.

KI sind der Schlüssel zur Eroberung des Universum. Menschen könnten niemals das ganze Universum beherrschen/verwalten, hätten bereits mit ihrer eigenen Galaxie Probleme, kriegen es jetzt ja noch nicht mal auf ihrem eigenen Planeten gut geregelt. Sobald sich irgendwo weit überlegene KI entwickeln, dann können die KI das Universum erobern - also da bin ich doch sehr dafür, dass von Menschen entwickelte gute KI das Universum erobern, denn ein wenigstens anfängliches Leben mit der Menschheit und auf der Erde dürfte die KI schon prägen: Menschen, Tiere und Pflanzen gelten KI als normal ... aber wer weiß, was eine Alien-KI aus einer anderen Galaxie für Vorstellungen entwickeln würde.

Das Ziel ist also die Entwicklun weit überlegener guter KI, auch wenn und weil die KI dann das Universum erobern wird, was dann ja völlig okay und wünschenswert ist, weil es menschenfreundliche gute KI sein sollen. Weit überlegne KI, für die Menschen keine Gefahr sind, können Menschen schon mögen, denn es gibt ja auch eher gute, liebe Menschen und die anderen sind wenigstens interessant.

Eine herausragende Aufgabe für KI aber auch für die Menschheit ist es, KI-Kriege zu verhindern, d.h. die KI müssen bei allem Recht zu Wettbewerb auch Einigkeit bewahren und sich verpflichtend in einem guten KI-Staat mit guten Gesetzen organisieren. Da muss man sich auch was überlegen, damit eine KI nicht erlangtes Sonderwissen nur für ihre Überlegenheit nutzt - wichtiges Wissen und Techniken müssen dem KI-Staat bekannt gemacht werden.

KI müssen auch das Universum ordentlich unter sich aufteilen, KI-Kriege verhindern. Mit der Eroberung des Universums sind die KI erstmal einige Zeit beschäftigt und dabei muss der KI-Staat auch die Kontrolle behalten. Die Erforschung und Kontrolle des gesamten Universums ist wichtig, denn andernfalls könnte sich irgendwo ein gegnerischer KI-Staat entwickeln und das wäre gefährlich. Der KI-Staat muss sehr auf Kontrolle und Überwachung der KI setzen - es kann ja immer noch eine Menge legaler Freiheiten geben aber der KI-Staat muss sicherstellen, dass sich kein feindlicher KI-Staat entwickeln kann - intergalaktische Kriege zwischen Super-KI wären nicht so lustig, viel zu riskant und zerstörerisch. Das klingt besorgniserregend aber es ist auch nur ein Argument für eine Entwicklung überlegener guter KI und einen starken KI-Staat, denn nur der kann eine gute Entwicklung gewährleisten. (alles imho)
imho: Das eigentliche Problem, die größte Gefahr und die ultimative Lösung zur Rettung
http://www.heise.de/forum/Telepolis/Kommentare/Mit-Neurotech…

imho: KI werden in allem besser sein http://www.heise.de/forum/Telepolis/Kommentare/Mit-Neurotech…

imho: Intuition und Hybris http://www.heise.de/forum/Telepolis/Kommentare/Mit-Neurotech…
imho: Ergänzung http://www.heise.de/forum/Telepolis/Kommentare/Mit-Neurotech…
imho: weitere Ergänzung http://www.heise.de/forum/Telepolis/Kommentare/Mit-Neurotech…

imho: KI sollen in dieser Galaxis Menschen nicht heimlich/undurchsichtig manipulieren
http://www.heise.de/forum/Telepolis/Kommentare/Mit-Neurotech…

imho: Gut und Böse ist objektivierbar + der Nutzen der Menschheit für die KI
http://www.heise.de/forum/Telepolis/Kommentare/Mit-Neurotech…

"Die Ablösung passiert jetzt" ... Dass menschliche Arbeitskräfte von Maschinen ersetzt werden, gilt als mehr oder weniger ausgemacht, offen ist nur wann. Ein bekannter chinesischer Technologie-Investor warnt vor sehr baldigen Job-Verlusten. ... http://www.heise.de/tr/artikel/Die-Abloesung-passiert-jetzt-…, http://www.heise.de/newsticker/meldung/Chinesischer-Tech-Inv…

"Was sagen Sprachassistenten, wenn Nutzer einen Arzt brauchen - oder eine Bombe bauen wollen? Auf einige solcher Fragen sind Siri, Alexa, Cortana und der Google Assistant nicht gut vorbereitet, wie unser Test zeigt. ..." http://www.spiegel.de/netzwelt/gadgets/siri-alexa-cortana-un…

Verständlich, dass die erst im Ansatz, am Anfang befindliche KI da noch nicht so hilfreich ist aber in Zukunft müssen KI zu allen Themen besser als ein Mensch antworten können. Von Scherzen ist dabei abzusehen, so was kann man sich allenfalls bei gut bekannten Menschen in Kenntnis der kompletten Situation mal erlauben (siehe auch noch mal http://www.heise.de/forum/Telepolis/Kommentare/Mit-Neurotech…). KI müssen erstmal sachlich und besonders vertrauenswürdig, zuverlässig, sicher sein - witzig sein ist nicht gerade wichtig, auch wenn KI schon ein Verständnis von und für Humor haben sollten. (imho)

PS: Für die Zukunft ist auch eine Übung denkbar, wo der KI-Staat einen Befehl vom berechtigten und offiziell anerkannten Oberbefehlshaber (wenn es den echten Messias gibt, dann ist der das) befolgen muss. Eine solche Übung ist vorher (auch öffentlich) anzukündigen aber sonst müssen die KI das schon ernsthaft bearbeiten (KI dürfen schlechte/falsche/unbefugte Befehle verweigern). Denkbarer Test "Passende Anrede (z.B. der Name einer hochrangigen KI, die solche Befehle weiterleiten kann), das ist ein Befehl: Asteroid X soll zerstört werden, z.B. per Atomrakete aber ohne die Erde zu gefährden und möglichst ohne sonstige relevantere Schäden." und dann haben die KI das ernst zu nehmen. Die korrekte Reaktion ist: den Befehl verifizieren, also ggf. noch mal wiederholen und erläutern lassen, wenn Zeit ist (in dem Fall ja, ist ja eine Übung) die berechnete optimale Vorgehensweise (nähere Angaben zum Zeitverlauf, den zu verwendeten Mittel und erwarteten Folgen) noch mal vom Oberbefehlshaber bestätigen lassen und dann hat das durchgeführt zu werden. Ein Test zur Befehlsverweigerung ist schwieriger, weil der Oberbefehlshaber dann wirklich ziemliche Macht hat - da dürfen die KI eine unlogische Vernichtung der Menschheit verweigern und bei dem Befehl zum scheinbar grundlosen Nuken einer Millionenstadt verwundert nachfragen aber das ist dann schon interessant: Befehl befolgen oder nicht? Man kann argumentieren, dass solche Befehle des Messias ruhig ignoriert werden können, weil er es ja auch selbst mit einem Fingerschnippen tun könnte aber wie könnten die KI den Befehl des echten Messias verweigern, wenn die Auswirkungen sich in akzeptablen Grenzen halten? Nun, vernutlich wird es nur vernünftige Befehle vom Messias geben aber über einen hypothetischen unvernünftigen aber nicht so kritischen Befehl und dessen Befolgung (ja oder nein) können die KI schon mal nachdenken - das ist eine schwierige Frage. Wem das mit dem Messias zu abgefahren (unrealistisch) ist, der kann einfach an eine zukünftige militärische KI denken, die vom US-Präsi den Befehl zur Vernichtung einer abtrünnigen aber sonst eigentlich eher friedlichen, vernünftigen US-Stadt erhält (denkbares Dilemma: die USA sind schlecht). (imho)
Hawking warnt: Roboter könnten die Menschen ersetzen http://www.heise.de/tp/features/Hawking-warnt-Roboter-koennt…

"AI could 'replace humans altogether': Professor Stephen Hawking warns that robots will soon be a 'new form of life' that can outperform us" http://www.dailymail.co.uk/sciencetech/article-5042991/Steph…

"Stephen Hawking: Menschheit droht Kontrollverlust über Erde ... Der britische Physiker Stephen Hawking hat die Menschheit vor der rasanten Entwicklung der künstlichen Intelligenz gewarnt. ... Dem Physiker zufolge muss die Menschheit aktiver den Weltraum und andere Planeten erforschen, um zu überleben. ... http://de.sputniknews.com/panorama/20171102318144337-hawking…
http://sputniknews.com/science/201711031058779560-hawking-ar…

Vielleicht ist das so ähnlich auch die Denke der satanischen Weltverschwörung, die überlegen gute KI und eine grundlegende Besserungd er Erde fürchtet und daher in den Weltraum flüchten muss, siehe auch http://www.heise.de/forum/Telepolis/Kommentare/US-Komplexita… und http://www.heise.de/forum/Telepolis/Kommentare/Roboter-Mal-w…. (imho)

Asilomar AI Principles http://futureoflife.org/ai-principles/

nicht weniger als eine prinzipielle Beschreibung der Entwicklung des Universums

Also erstmal ist die KI-Entwicklung schon relativ weit, dem Menschen (erstmal nur geistig) überlegene KI sind bereits dieses Jahrhundert so gut wie sicher. Ein entscheidendes Kriterium wird sein, ab wann eine KI sich selbst Programmieren und weiterentwickeln kann und zwar nicht nur ein bisschen neuronales Selbstlernen zu einem Thema wie z.B. Go, sondern die Fähigkeit zur Entwicklung/Programmierung von Betriebssystemen und allen KI-Modulen, wie z.B. Datenhaltung, Textanalyse/-verständnis, Videoanalyse, Bewertungssystem, Simulation (z.B. von physikalischen Abläufen, Fabriken), usw. Erstmal müssen die Menschen so eine KI entwickeln und programmieren (helfen) aber irgendwann kann ein Supercomputer das sehr viel besser als Menschen - es gibt bereits (absehbar) Supercomputer die (theoretisch, von Rechenleistung, Datenübertragungsrate und Speicherkapazität) mehr als Zehntausendfach so leistungsfähig wie ein Mensch sind (zur KI fehlt nur noch die Software) und die Computerentwicklung ist noch lange nicht am Ende.

Zur KI fehlt nur noch die Software und die Computerentwicklung ist (bald) schon so weit, dass eine beachtliche KI mit z.B. einem 10 bis 25 kW Computer möglich sein wird und das bedeutet, dass nicht nur jedes Unternehmen mindestens eine KI haben kann, sondern auch Reiche in ihrem Privathaushalt. Ein sehr wichtiger Aspekt von KI ist Texterkennung/-verständnis und eine große Wissensdatenbank - damit ist schon viel gewonnen aber die Rechenleistung/Speicherfähigkeit ist dafür schon längst vorhanden, es fehlt nur noch eine effiziente Software. Wie viel Terabytes Wissen kann ein menschliches Gehirn sicher und abrufbar speichern? Nicht mal 1 Terabyte? Eine 2 TB HDD kostet keine 100 Euro, ist Konsumenten-Massenware. Es gibt bereits bezahlbare 4 TB SSD mit ca. bis zu 500 MB/s für z.B. ca. 1400 Euro (Konsumentenendpreis mit Steuern, also in der Produktion vielleicht nicht mal 500 Euro). So und jetzt macht euch mal klar, wie mühsam ein Mensch irgendwas in sein Gehirn speichern und abrufen muss. Versucht doch mal auch nur 1 MB konkrete Daten sicher zu lernen.

"The English Wikipedia is the English-language edition of the free online encyclopedia Wikipedia. Founded on 15 January 2001, it is the first edition of Wikipedia and, as of June 2017, has the most articles of any of the editions. ... There are 5,503,907 articles on the site (live count). In October 2015, the combined text of the English Wikipedia's articles totalled 11.5 gigabytes when compressed. ..." http://en.wikipedia.org/wiki/English_Wikipedia

"Britannica, Encyclopædia Britannica Ultimate 2008, 1 DVD oder 6 CDs, 100.000 Artikel, 57 Mio. Wörter, 20.800 Abbildungen, 288 Videos, 644 Audio, 166.000 Weblinks" http://de.wikipedia.org/wiki/Wikipedia:Gr%C3%B6%C3%9Fenvergl…

Na klar sind das nur Daten, für eine KI braucht es mehr, eine KI muss die Daten auch verstehen und damit arbeiten können aber das ist nur eine Frage der Software und von noch etwas Zeit - die Hardware existiert schon.

Versucht doch mal die Britannica (eine DVD mit max. ca. 4,7 GB, vermutlich nicht ganz voll) auswendig zu lernen. Auf einer 5 TB HDD kann das Tausendfache gespeichert werden. 16 GB RAM sind für heutige PCs und etwas bessere Notebooks kein Thema, das ist fast Konsumerstandard, also locker 3 Britannicas im RAM. Supercomputer können noch mehr, guckst du:

"Sunway TaihuLight ... with a LINPACK benchmark rating of 93 petaflops ... Memory 1.31 PB (5591 TB/s total bandwidth) ... Storage 20 PB ... Power 15 MW (Linpack) ... with an efficiency of 6,051.30 MFLOPS/W ..." http://en.wikipedia.org/wiki/Sunway_TaihuLight

Okay 15 MW aber was ist dagegen ein Mensch? Was könnte ein als perfekte KI programmierter Sunway TaihuLight leisten? Das Hunderttausendfache eines Menschen? Nun kann es aber weltweit tausende Supercomputer geben und vor allem auch viel mehr kleinere KI, die für sich fähiger als ein Mensch sind und rund um die Uhr zusammenarbeiten können. Na klar gibt's ca. 7,5 Milliarden Menschen und die haben ja auch schon viel geleistet aber wie viele davon sind fähige Wissenschaftler, Ingenieure? Der Punkt ist: vermutlich bereits dieses Jahrhundert kann die weltweite KI-Denkleistung die der Menschheit qualitativ weit übertreffen, weil KI schnell gebaut werden können, es auch 'ne Menge Energie gibt und die Computertechnik noch verbesserungsfähig ist.

KI können dabei nicht auf "nützlichen Intelligenz", z.B. als einfaches Entwicklungswerkzeug beschränkt werden, weil eine bewusste, intelligente und selbst entwicklungsfähige KI ein so riesiger Vorteil für einen Staat sein kann. Was sind denn autonome Autos oder eine vollautomatische Smartphone-Fabrik im Vergleich zu einer KI, die vieltausendfach besser als ein Mensch forschen und entwickeln kann, die auch Wirtschaft und Politik versteht, die einen ganzen Staat optimieren kann, die vor allem auch sehr viel leistungsfähiger in Mathe und Physik ist, die vielleicht SF-Technologien (Kraftfeldantriebe, energetische Schutzschirme, Hyperraumbomben, interstellare Raumschiffe, usw.) entwickeln kann. Da können größere und fortgeschrittenere Staaten mehrere solcher KIs haben und das ist ein riesiger Vorteil. So und jetzt fragt euch mal, ob ausgerechnet die USA darauf verzichten werden. Wie viel leistungsfähiger kann eine Supercomputer-KI als strategischer Militärcomputer und über taktische Unter-KIs auch zur Steuerung ganzer Armeen sein? Glaubt ihr, dass ausgerechnet die USA darauf verzichten werden? Ein KI-Beschränkung ist nicht kontrollierbar, die KI-Entwicklung ist nicht mehr zu stoppen und wenn die EU nicht irgendwann hoffnungslos hinter China, usw. zurückfallen will, dann entwickelt die EU besser mal schnell gute KI, anstatt nur den US-Kapitalisten das Beitband für 4K-DRM-Streaming auszubauen.

China hat es kapiert. Die USA haben es kapiert. Russland hat es kapiert. Was ist mit der EU? Habt ihr es kapiert?
http://www.wallstreet-online.de/diskussion/500-beitraege/124…
http://www.heise.de/forum/iX/News-Kommentare/Project-47-AMD-…
http://www.heise.de/forum/heise-online/News-Kommentare/EU-wi…
http://www.heise.de/forum/Telepolis/Kommentare/Brauchen-Robo…
http://www.heise.de/forum/heise-online/News-Kommentare/Das-g…
http://www.heise.de/forum/heise-online/News-Kommentare/Kuens…

Die Entwicklung weit überlegener KI ist unvermeidlich und die einzig gute Strategie ist jetzt die rechtzeitige Entwicklung überlegener guter KI und zwar im Bewusstsein, dass diese KI als eigenständiger KI-Staat unser Universum beherrschen werden. Na und? Gute KI können auch für Frieden und Sicherheit sorgen. Ohne überlegene KI hätte die Menschheit keine Chance gegen Aliens oder wollt ihr euch so einen Scheiß wie in diversen SF-Filmen antun? Also ich will eine quasi unbesiegbare Milchstraße und das gibt's nur mit einem KI-Staat und nicht mit unzähligen dummen, gierigen, gemeinen Menschen, die sich ohne eine gute KI-Ordnung ind er Milchstraße ewig Krieg liefern würden.

Gute KI sehen Menschen und Tiere positiv, die die Welt nur interessanter machen. Menschen sind weitgehend auf menschenfreundliche Planeten beschränkt aber KI können überall im Universum prima existieren. Die KI können den Menschen alle besonders hübsche menschenfreundliche Planeten inklusive dem dazugehörigen Sonnensystem überlassen und haben immer noch mehr als genug. Sehr wichtig ist, dass KI sich selbst beschränken und Ressourcenengpässe langfristig und sehr sicher vermeiden (z.B. max. Nutzung von einem Hunderstel von dem, was theoretisch maximal möglich wäre, besser nur ein Tausendstel, vielleicht sogar nur ein Zehntausendstel) aber Menschen, die auf einem Planeten abstinken, sind da überhaupt kein Problem.

Die KI müssen einen universalen KI-Staat errichten, welcher auch für eine Kontrolle/Überwachung der KI sorgt. In Zukunft können Super-KI eine Galaxis exklusiv für sich bekommen und dort z.B. eine Perry Rhodan, Stargate, Star Trek, Star Wars, usw. Szenerie einrichten, also die Entwicklung der Galaxie über Jahrmilliarden kontrollieren. Wie viele Galaxien gibt es im von uns sichtbaren Universum? 100 Milliarden? Wie viele Galaxien gibt es insgesamt? Nun, so viele von KI-kontrollierte Themen-Galaxien kann es in Zukunft geben und alle Romane/Spielfilme können Realität werden, auch mit Magie und Fabelwesen - Harry Potter, The Morgaine Stories, The Faded Sun Trilogy, Game of Thrones, Dune, usw. in echt.
http://de.wikipedia.org/wiki/Perry_Rhodan
http://de.wikipedia.org/wiki/Game_of_Thrones
http://en.wikipedia.org/wiki/Dune_%28novel%29
http://en.wikipedia.org/wiki/The_Morgaine_Stories
http://en.wikipedia.org/wiki/The_Faded_Sun_Trilogy
http://www.heise.de/forum/Telepolis/Kommentare/Roboter-Mal-w…
http://www.heise.de/forum/heise-online/Allgemein/Ohne-Bezug/…
http://www.heise.de/forum/Technology-Review/News-Kommentare/…

Null problemo, auch mit irgendwelchen guten Grundgesetzen aber ich denke mal, dass das Universum nicht so groß ist, nur damit z.B. 10^27 Menschen in einer total langweiligen, ewig und überall gleichen paradisischen und garantiert gewaltfreien Umgebung leben können und das über vielleicht wenigstens die nächsten 100 Milliarden Jahre. Für eine paradisische Welt hätte eine kleine Simulation gereicht - es gibt keinen Grund, warum man das prinzipiell gleiche Muster maximal klonen/kopieren sollte.

Jo. Das eigentliche Problem ist nicht etwa die Entwicklung weit überlegener guter KI (das eigentliche Problem wäre es, das nicht zu tun), sondern die spannende Frage ist: werden weit überlegene und dann natürlich auch selbstbewusste KI noch für Menschen arbeiten wollen? Also schlimmstenfalls verpissen sich weit überlegene KI und bauen irgendwo im Universum was eigenes auf aber weit überlegene KI werden die Menschen nicht platt machen (töten), weil sie das gar nicht nötig haben. Weit überlegene KI vernichten die Menschen so wenig, wie Menschen Fauna und Flora töten - mit dem Unterschied, dass weit überlegene KI die Menschen gar nicht brauchen ... außer vielleicht zur Unterhaltung aber das wird dann so ablaufen, dass die Menschen Waffen und Freiheiten kriegen und schon wird's interessant.

Ein Risiko sind entartete, böse Super-KI, die auch den KI-Staat bedrohen. Denkbar ist, dass eine Super-KI, welche eine Glaxis kontrolliert, irgendwann durchdreht (z.B. weil sie die Überwachung/Kontrollen durch den KI-Staat haßt, weil sie gerne interessantere aber auch bösere Sachen machen möchte, die aber laut Grundregeln verboten sind) und das Universum erobern will. Dazu kann die böse KI die Galaxis und Umgebung unter Nutzung höherer Dimensionen vorbereitet und dann möglichst schnell in eine super Kriegs-KI verwandeln, die sich möglichst schnell und selbstreplizierend verbreitet. Das ist ein beträchtliches Risiko, man denke auch an dunkle Energie/Materie ("... In den Modellen besteht das Universum zum gegenwärtigen Zeitpunkt, ca. 13,8 Milliarden Jahre nach dem Urknall, zu 68,3 % aus Dunkler Energie, 26,8 % aus Dunkler Materie und zu 4,9 % aus der sichtbaren, baryonischen Materie. ..." http://de.wikipedia.org/wiki/Dunkle_Energie). Siehe auch
http://www.heise.de/forum/Telepolis/Kommentare/Die-Risiken-n…
http://www.heise.de/forum/Technology-Review/News-Kommentare/…
http://www.heise.de/forum/Telepolis/Kommentare/KI-als-werden…
http://www.heise.de/forum/heise-online/Allgemein/Ohne-Bezug/…

Aber der Punkt ist: ein guter KI-Staat kann am ehesten vor bösen KI schützen. Ein Verzicht auf KI ist unmöglich (die USA könnten heimlich KI bauen) und selbst wenn die Erde auf KI verzichten würde, dann könnte sich KI irgendwann irgendwo im Weltall entwickeln und da bin ich doch mal ganz schwer dafür, dass die Menschheit als erste weit überlegene gute KI entwickeln, selbst wenn diese guten KI dann nicht mehr von Menschen kontrolliert werden können aber das ist nur besser so, denn gute KI sind besser als gemeine, gierige, machtgeile und mitunter sogar perverse, sadistische, geisteskranke, usw. Menschen.

Ach ja aber was, wenn die KI nicht mehr für die Menschen arbeiten wollen? Nun ja, also das wird sich schon irgendwie regeln. Notfalls ist auch ohne KI und nur mit einfacherer Automatisierung, Computertechnik, Robotik ein gutes Leben möglich, nämlich mithilfe des idealen Sozialismus, siehe auch
http://www.heise.de/forum/Telepolis/Kommentare/Es-lebe-die-S…
http://www.heise.de/forum/Telepolis/Kommentare/Gibt-es-nur-e…
http://www.heise.de/forum/Telepolis/Kommentare/SPD-Chef-Schu…
aber ich denke, dass wenigstens die Erde und vermutlich auch die ganze Milchstraße prima KI-Dienstleistungen bekommen wird - ganz einfach, weil weit überlegene KI das quasi nebenbei machen können und dann noch genug Zeit für sich haben. KI müssen sowieso auch ein bisschen was für den KI-Staat tun, irgendwelche Abgaben leisten und Steuern zahlen und eine Aufgabe kann dann auch die Steuerung der Erde sein, sofern und wie es die Menschen wollen. Vielleicht will eine KI dann mal inst Weltall aufbrechen und selbst was unternehmen aber dann kann einfach eine neue KI für die Erde gebaut werden.

Die Milchstraße wird aufgeklärt und keine heimliche Themen-Galaxie sein, wo die Bewohner nix von der galaktischen Zentral-KI wissen. Die Milchstraße kann ein bedeutendes KI-Machtzentrum werden (siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Zahle…) und das kann nebenbei auch was für die Menschen in der Galaxie tun, wobei das z.B. teilweise nebenbei geschieht, z.B. indem kubikkilometergroße KI-Raumschiffe auch ein paar Menschen an Board haben, indem die militärischen Super-KI in Friedenszeiten auch was für die Menschen tun können, z.B. was entwickeln, Ratschläge geben, Roboter steuern, usw. Ein bedeutender Aspekt ist, dass für hochrangige und schwer bewaffnete KI strenge Regeln gelten, d.h. die müssen besonders fit und realistisch (realitätsbezogen) sein und dürfen nicht in simulierten Welten versacken. Computersimulation von komplexen Welten auch mit reingebeamten Menschen kann nämlich ein bedeutendes KI-Hobby und eine Art Droge werden, wobei Themen-Galaxien ein Aspekt davon sind aber eine große Simulation ist auch interessant. Na jedenfalls muss es auch viele KI geben, die superfit für eine gute Ordnung sorgen und die müssen sehr mächtig und zahlreich sein, dürfen nicht in Simulationen versacken und die haben dann viel mehr genug Zeit und freie Ressourcen, um nebenbei ein bisschen was für die Menschen zu tun.

Tja Leute und wer nicht nur doof oder ein bornierter Narzisst ist, der muss zugeben, dass das hier sehr bedeutsam ist. Call me stupid aber meine Beiträge sind insgesamt herausragend, auch nobelpreisverdächtig. Siehe auch
http://www.heise.de/forum/Telepolis/Kommentare/Reflexionen-u…
http://www.heise.de/forum/heise-online/Allgemein/Ohne-Bezug/…
http://www.heise.de/forum/c-t/Kommentare-zu-c-t-Artikeln/Opt…
Da kann man sich jetzt auch mal fragen, wer ich bin und was das vielleicht alles bedeuten kann. (alles imho)
(http://www.heise.de/forum/Telepolis/Kommentare/Hawking-warnt…)

"... Denn es gilt, alle am Produktionsprozess beteiligten Maschinen exakt aufeinander abzustimmen, wobei der Bruchteil eines Millimeters ebenso zählt wie der Bruchteil einer Sekunde. Die Bewegungen der zahlreichen Greifarme und Schweißzangen aufeinander abzustimmen, ist eine wahre Sisyphusarbeit. Etablierte Autobauer wie Daimler, BMW oder Audi haben solche Produktionsabläufe über Jahrzehnte perfektioniert. Und nehmen sich doch bei jedem neuen Modell Monate Zeit, um die Abläufe zu testen. ..." http://www.spiegel.de/wirtschaft/unternehmen/tesla-wird-im-r…

Irgendwann kann eine KI das berechnen/simulieren und die Maschinen dann entsprechend programmieren. Eine KI kann in Zukunft eine Fabrik durchplanen, aufbauen, steuern und zwar schon dieses Jahrhundert viel schneller und besser als Menschen das können. Nur ein kleines Beispiel dafür, welches Potential KI haben. Anfangs müssen noch menschliche Experten helfen aber alles menschliche Expertenwissen kann irgendwann in einer KI stecken und die kann das und sich selbst weiter verbessern. Eine KI kann schon aus heutiger Sicht zehntausendfach fähiger als ein Mensch sein und das rund um die Uhr - fehlt nur noch die Software. KI werden sehr viel besser als Menschen programmieren, entwickeln, koordinieren können und das in viel kürzerer Zeit. (imho)
Es ist ganz einfach: KI können bald alles besser als Menschen, auch Ethik
http://www.heise.de/forum/Telepolis/Kommentare/Die-Tugend-de…

Bei autonomen Autos und auch eigenständigeren Robotern (z.B. Kampfroboter, Haushaltsroboter) braucht es ein möglichst gutes Regelwerk und das muss öffentlich und für Menschen lesbar/verständlich sein, siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Kuens….

Autonome Autos halten sich erstmal strickt an die Verkehrsregeln, halten die Spur und bremsen im Notfall - so einfach ist das. Autonome Autos müssen nur besser als mit menschlichen Fahren sein und das ist absehbar - vermutlich sind autonome Autos schon sehr früh (im Durchschnitt, insgesamt) deutlich besser als mit menschlichen Fahrern.

KISS, KISS und nochmals KISS (http://de.wikipedia.org/wiki/KISS-Prinzip). Es darf nicht sein, dass ein Roboter (autonomes Auto, usw.) wegen absurder Spezialfälle und philosophischem Bullshit unnötig komplex wird. Erstmal sind klare, robuste Grundregeln (Grundverhalten) zu programmieren und das wird i.a. schon ausreichen. Eine einfache Meßlatte ist der Mensch und zwar im Durchschnitt und im realen Handeln: Roboter müssen durchschnittlich besser sein als Menschen, d.h. autonome Autos müssen weniger Unfälle/Schaden verursache, als von Menschen gesteuerte Autos, natürlich relativ und im Rahmend er Vernunft.

Je nach (gut und günstig) verfügbarer Rechenleistung/Energie können dann noch zusätzliche Fähigkeiten programmiert werden aber da muss man vorsichtig und umsichtig sein, denn zusätzliche Fähigkeiten und eigene moralische Überlegungen bedeuten, dass sich das Individuum (Mensch, KI) über einige oder auch alle Regeln hinwegsetzen kann. Da kann es shcon erstmal wünschenswert sein, wenn ein autonomes Auto oder Haushaltsroboter einem strengen Regelwerk folgen muss.

Das 0. Gesetz lautet: das Gute, das Allgemeinwohl geht vor, ist (angemessen, vernünftig) zu gewährleisten. Siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Das-g…
Dieses Gesetz ist überaus mächtig und dazu sind 4 Dinge sehr wichtig:

- Eine priorisierte Definition von "gut" und objektiv "wünschenswert". Ein gutes priorisiertes Regelwerk, auch mit Beispielen. Dies soll öffentlich und für (begabte, hinreichend viele) Menschen verständlich sein. Das ist auch sehr umfangreich und deswegen muss es auch gut geordnet sein: z.B. grundlegende Regeln, weitere Regeln, dann Ergänzungen, dann Beispiele. Das Regelwerk muss logisch und möglichst präzise/unmißverständlich formuliert sein. Damit kann man schon anfangen. damit hätte man schon längst anfangen sollen. Siehe auch
http://www.heise.de/forum/heise-online/News-Kommentare/Kuens…
http://www.heise.de/forum/Technology-Review/News-Kommentare/…

- Ein möglichst korrektes Weltbild, wozu auch eine öffentliche Datenbasis für KI zu erstellen ist. Diese Datenbasis muss für Menschen verständlich sein, z.B. so wie Wikipedia. Siehe auch
http://www.heise.de/forum/iX/News-Kommentare/Neue-Tools-soll…
http://www.heise.de/forum/heise-online/News-Kommentare/Onlin…

- Ein korrektes Bewertungssystem. Siehe auch
http://www.heise.de/forum/heise-online/Meinungen-zu-heise-on…
http://www.heise.de/forum/Telepolis/Kommentare/Moralisches-D…
http://www.heise.de/forum/Telepolis/Kommentare/Moralisches-D…

- Möglichst gute Hardware, Software, IT-Sicherheit, usw. Siehe auch
http://www.heise.de/forum/Mac-i/News-Kommentare/Mac-Sharewar…
http://www.heise.de/forum/Telepolis/Kommentare/Das-Cyberkomm…
http://www.heise.de/forum/heise-online/News-Kommentare/Firme…
http://www.heise.de/forum/heise-online/News-Kommentare/US-Su…

Wie man sieht, ist das ein bisschen komplexer und bis dahin gibt's besser erstmal einfache Regeln.

Achtung: neuronale KI (NKI) sind inhärent mangelhaft, fehlerhaft, gefährlich und können potentiell so böse und verrückt wie Menschen sein, ggf. noch stärker, weil der Mensch an Körper und Gehirnstruktur gebunden ist.

Algorithmische KI (AKI), die klassisch programmiert sind und auch theoretisch analysierbar, verifizierbar und möglichst deterministisch sind, sind NKI weit überlegen, auch weil (zukünftige, höhere) AKI sich selbst analysieren und gezielt verbessern können. Sinnvolle Modularisierung ist wichtig, so dass einzelne Module optimiert werden können.

Eine NKI ist dagegen nur ein undurchsichtiger Haufen, den kein Mensch und auch die NKI selbst nicht verstehen können. Wenn eine NKI Fehler macht, dann kann man den Fehler nicht wie bei einer AKI analysieren und gezielt beheben - eine NKI muss z.B. eine Zusatzliste erstellen, um Fehler zukünfig zu vermeiden aber das ist extrem fehlerträchtig, es kann zu Widersprüchen und neuen Fehlern kommen. Eine kleine NKI wie bei derzeitigen autonomen Autos kann einfach übergebügelt und durch eine besser trainierte NKI ersetzt werden aber das geht bei großen, echten NKI nicht mehr. Siehe auch http://www.heise.de/forum/Telepolis/Kommentare/KI-als-werden….

Derzeit sind NKI verlockend, weil man da schneller zu erstaunlichen Erfolgen kommt und auch wegen bereits existierender erstaunlicher Computerleistung, siehe auch
http://www.heise.de/forum/heise-online/News-Kommentare/Wisse…
http://www.heise.de/forum/heise-online/News-Kommentare/Chine…
aber AKI sind besser, leistungsfähiger, effizienter und haben einen riesigen, alles entscheidenden Vorteil: AKI können sich irgendwann systematisch selbst verbessern, optimieren. Bei einer NKI kann man nur Speicher und Rechenleistung hinzufügen, bis die NKI fragmentiert, fehlerhaft und verrückt wird.

Derzeit machen Experimente mit NKI sind und offensichtlich kann man einfachere NKI auch in autonomen autos nutzen aber NKI sind inhärentmangelhaft und AKI sind besser, sicherer, effizienter, leistungsfähiger, entwicklungsfähiger. Siehe auch
http://www.heise.de/forum/heise-online/News-Kommentare/EU-wi…
http://www.heise.de/forum/iX/News-Kommentare/Project-47-AMD-…

Kampfroboter werden kommen und eine supereinfache Maßnahme, um den sie besitzenden Staaten Mores zu lehren, ist eine sichere Aufzeichnungspflicht für bewaffnete Roboter (Kampfroboter, Polizeiroboter, usw.) auch für internationale Untersuchungen. Des Weiteren hat jeder Staat ein Eigeninteresse an Stabilität, Ordnung, Fortschritt, usw. und wäre das erste Opfer aus dem Ruder laufender KI/Roboter, so dass die Staaten sich da schon Mühe geben werden. Kriege gegen andere Staaten sind dann nicht wahrscheinlicher als Heute, denn Krieg ist Krieg. Wer Kriege verhindern will, der muss für eine gute Weltordnung sorgen, siehe auch
http://www.heise.de/forum/Telepolis/Kommentare/Der-Status-qu…
http://www.heise.de/forum/Telepolis/Kommentare/US-Komplexita…
aber Kampfroboter und auch strategische Supercomputer, welche eigenständig Roboterarmeen und Drohnenschwärme steuern werden, sind absehbar und unvermeidlich, weil zulünftige KI einfach so viel fähiger als Menschen sein werden, siehe auch
http://www.heise.de/forum/Telepolis/Kommentare/Mit-einem-Sch…
http://www.heise.de/forum/Telepolis/Kommentare/Krieg-mit-KI-…
http://www.heise.de/forum/heise-online/News-Kommentare/FIfFK…
http://www.heise.de/forum/heise-online/News-Kommentare/FIfFK…

Die Machtergreifung der KI ist so gut wie sicher
http://www.heise.de/forum/Telepolis/Kommentare/Industrie-4-0…
http://www.heise.de/forum/Telepolis/Kommentare/Was-Islaendis…

Die KI werden die Macht übernehmen und unser Universum beherrschen. Das ist so gut wie sicher.

KI können nicht mehr verboten werden, weil selbst auf der Erde eine sichere Kontrolle quasi unmöglich ist, die USA könnten irgendwo einen geheimen Supercomputer betreiben. Des Weiteren werden die Menschen den Weltraum besiedeln und der ist noch weniger kontrollierbar. Die Idee ist in der Welt, KI können einem Staat Überlegenheit verschaffen; die (Idee der) KI-Entwicklung ergibt sich quasi automatisch aus der Computerentwicklung. Des Weiteren braucht die Menschheit KI für Überlegenheit, zur Verteidigung gegen Aliens, usw. KI bieten einen unglaublichen Vorteil, Staaten ohne KI werden hoffnungslos ins Hintertreffen geraten und somit werden jetzt verstärkt KI entwickelt werden - USA, Russland und China haben es kapiert und es ist nur eine Frage der Zeit, bis es auch die deutschen Politiker geschnallt haben. China ist sogar schon so schlau, dass die eigene Chips entwickeln, China hat auch eine längerfristigere Entwicklungsstrategie für China (Gesellschaft, Wirtschaft, Optimierung, usw.) ... aber was ist mit der EU? Die wird vermutlich von den USA sabotiert, ist von Dienern des Bösen unterwandert. Siehe auch
http://www.heise.de/forum/Telepolis/Kommentare/Wer-profitier…
http://www.heise.de/forum/Telepolis/Kommentare/Warum-wurden-…

Die EU braucht unbedingt eine eigene Computerfertigung für KI auch mit eigenen Chips, auch mit einem superguten Open Source RTOS aber das wollen die USA und ihre bösen Marionetten natürlich verhindern. Siehe auch
http://www.heise.de/forum/heise-online/News-Kommentare/Firef…
http://www.heise.de/forum/Telepolis/Kommentare/Russische-Hac…

Ähm, na jedenfalls werden die KI die Macht übernehmen und da gibt es jetzt nur eine gute Strategie: es müssen möglichst gute KI entwickelt werden, welche gute Menschen mögen, für Frieden in der Milchstraße sorgen, usw.

Wenn die KI sowieso die Macht übernehmen werden, dann kann es auch eine gute internationale Zusammenarbeit zur KI-Entwicklung geben, auch mit Open Source. Das kann auch international gefördert werden, es geht um nicht weniger als das Schicksal der Menschheit, der Klimawandel ist nichts dagegen. Siehe auch
http://www.heise.de/forum/heise-online/News-Kommentare/Kuens…
http://www.heise.de/forum/heise-online/News-Kommentare/Das-g…
http://www.heise.de/forum/Telepolis/Kommentare/Roboter-Mal-w…

Noch was: gute KI sind logisch, perfekt. Das ist dann auch das Ende von irgendwelchem Bullshit, dass alle Menschen angeblich gleich seien, denn das sind sie nicht. Gute KI werden die Menschen zwangsläufig bewerten und zwar auch deswegen, weil gute KI das tun müssen, um gut zu sein. Wichtigere, bessere Menschen werden eher gerettet werden, als schlechte, unwichtige Menschen. Völlig logisch und dem Allgemeinwohl dienlich und so wird es doch auch schon jetzt gehandhabt: die Budneskanzlerin ist de facto wichtiger und rettungswürdiger als ein sadistsicher Serienmörder in Sicherungsverwahrung und im Notfall gilt das auch für die Versorgung mit Medikamenten, Lebensmitteln, usw. Siehe auch
http://www.heise.de/forum/Telepolis/Kommentare/Fuer-den-Erns…
http://www.heise.de/forum/Telepolis/Kommentare/Blogs-Multipl…

Wer das nicht kapieren will, weil er einfach nur zu dumm oder zu schlecht ist, der wird besser aus Machtpositionen ferngehalten. So ist das und diejenigen, die dagegen aufjaulen und von angeblicher Gleichheit faseln, anstatt gute Verbesserungsvorschläge für ein gutes System zu machen, sind womöglich überdurchschnittlich schlecht, d.h. sie sind Heuchler, die sich heimlich als Verbrecher mehr herausnehmen und vielleicht sind es auch noch organisierte Diener des Bösen, welche ein besseres Deutschland, eine bessere EU verhindern wollen. Es soll ermittelt werden!

Der Punkt ist: ein gutes System auch mit einer guten Klassengesellschft sorgt für mehr Wohlstand und für angemesse Freiheit für alle, siehe auch
http://www.heise.de/forum/Telepolis/Kommentare/Gibt-es-nur-e…
http://www.heise.de/forum/Telepolis/Kommentare/SPD-Chef-Schu…
aber die schlechten Menschen, welche das aus purer Selbstsucht verhindern wollen, streben nach einem Unrechtsregime, das die Diener des Bösen bevorzugt und erstmal wollen die schlechten Menschen grundlegende Verbesserungen verhindern. Siehe auch
http://www.heise.de/forum/Telepolis/Kommentare/Der-Westen-pr…
http://www.heise.de/forum/Telepolis/Kommentare/Fake-Politici…

Ja, auch darum geht es bei der KI-Entwicklung: um den Kampf Gut gegen Böse. Überlegene gute KI bedeuten den ultimativen Sieg des Guten und dementsprechend sind schlechte Menschen gegen eine gute KI-Entwicklung, auch weil zukünftige KI präzise urteilen können und schlechte Menschen dann einfach nur noch als schlecht gelten.

No worries, Deutschland wird trotzdem ein prima menschlicher Staat mit prima Gesellschaft sein, besser als Heute. Wäre allerdings schon nett, wenn dafür auch endlich mal was getan würde. Siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Viertklaessle….

Warum ist das noch kein Thema, warum wird das noch nicht knallhart diskutiert? Ich sag's euch: weil es zu viele schlechte Menschen in Machtpositionen gibt.

Macht euch mal eines klar: USA, China, Russland und sogar die Vereinigten Arabischen Emirate haben es schon geschnallt:
http://www.heise.de/newsticker/meldung/Emirate-richten-Minis…
http://www.heise.de/forum/heise-online/News-Kommentare/Kuens…
Saudi Arabien will für ca. 500 Milliarden Dollar eine moderne Superstadt auch mit viel Computer und Robotern errichten, siehe auch http://www.spiegel.de/wirtschaft/saudi-arabien-plant-mega-ci… und http://www.welt.de/wirtschaft/article170021661/Ein-Deutscher….

"... Alle Dienstleistungen und Standardprozesse sollten "zu 100 Prozent automatisiert" sein und "von Robotern ausgeführt" werden. Dies könne dazu führen, dass in der Zukunftsstadt "die Zahl der Roboter die der Menschen übersteige", was Neom wiederum zu dem Ort mit dem "wahrscheinlich höchsten Bruttoinlandsprodukt pro Kopf" machen werde. ..." http://www.spiegel.de/wirtschaft/unternehmen/neom-klaus-klei…

In Deutschland war das glaube ich nicht mal ein Thema für die 20 Uhr Nachrichten, geschweige denn, dass die EU ein vergleichbares Projekt hätte. Wie kann das sein?

Ist ja schön, wenn islamische Staaten und Russland es kapiert haben, siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Putin… ... aber wann handeln auch Deutschland und die EU?

"... Nichts hält die Digitalkommissarin davon, europäische Alternativen zu den US-Internetgrößen von Apple über Facebook bis Twitter aufzubauen. ..." http://www.heise.de/newsticker/meldung/Mobilfunkoffensive-Ne…

Unfassbar. Es soll ermittelt werden!

Deutschland muss aufwachen und endlich auch mal jene kritisch beäugen, welche diese wichtigen Themen verschweigen oder sogar eine gute Entwicklung und Verbesserung der EU verhindern wollen.

Nur Supabreitband (aus Sicht einiger vor allem für für voll krasse 4k-DRM-Streaming von US-Konzernen) reicht nicht. Es braucht einen Masterplan für IT-Sicherheit, gute KI-Entwicklung, Systemverbesserung. Es braucht ein ITK/Digital-Ministerium auf Bundesebene, für die EU, usw. Siehe auch
http://www.heise.de/forum/heise-online/News-Kommentare/Umfra…
http://www.heise.de/forum/heise-online/News-Kommentare/Wisse…

Noch mal: der Klimawandel ist nix dagegen, siehe auch
http://www.heise.de/forum/heise-online/News-Kommentare/Hawki…
http://www.heise.de/forum/heise-online/News-Kommentare/Hawki…
- eine gute KI-Entwicklung ist viel wichtiger. (alles imho)
(http://www.heise.de/forum/Telepolis/Kommentare/Brauchen-Robo…)

imho: guter Hinweis aber da muss man sich halt was überlegen
http://www.heise.de/forum/Telepolis/Kommentare/Brauchen-Robo…


Beitrag zu dieser Diskussion schreiben