DAX+0,16 % EUR/USD+0,03 % Gold+0,03 % Öl (Brent)+1,45 %

Entwicklung überlegener guter KI zur Rettung der Menschheit - Die letzten 30 Beiträge



Beitrag schreiben

Begriffe und/oder Benutzer

 

Simulationen (z.B. auch simulierte Welten, auch mit virtuellen Lebewesen) und spezielle Software können für zukünftige KI eine Droge sein und sie auch süchtig machen. Das ist ganz ähnlich wie bei Pronos, Spielfilmen und Computergames für Menschen.

Das Problem ist, dass dergleichen nicht so leicht reguliert und kontrolliert werden kann, weil KI ja Software austauschen und auch zu Simulationen (möglicher Zukunftsentwicklungen) fähig sein müssen. Die Gefahr (Sucht, Entartung) ist also unvermeidlich immer latent vorhanden.

Denkbare Maßnahmen sind, dass wenigstens KI in Machtpositionen kontrollierbar und testbar kontruiert sein müssen, d.h. KI in Machtpositionen müssen ihre TI-Grundstruktur (HW, SW) angeben und Testschnittstelle vorsehen, so dass mit speziellen Testprogrammen die KI jederzeit getestet werden können, ob sie noch hinreichend gut sind. Des Weiteren müssen Simulationen, allgemeine Beschäftigungen und potentielle Hinweiselemente (z.B. Energieverbrauch) sicher protokolliert werden, also Lowlevel und fälschungssicher. Details sollen sich die KI überlegen, das ist ein Thema, das vor allem höhere KI betrift, die sich auch selbst weiterentwickeln können und die können sich dann auch was schlaues überlegen, wie ein guter KI-Staat gesichert und langfristig erhalten werden kann.

Der Grundgedanke ist ganz einfach: die KI bekommen die Wahl zwischen mehr Macht und mehr Freiheit (unterhaltsame Simulationen). Wer die Macht wählt, muss sich zwangsläufig kontrollieren lassen und auch bestimmten Gütekriterien genügen. So kombiniert man Wahlfreiheit und Sicherheit.

Das kann erstmal gut funktionieren, über Millionen, ja Milliarden Jahre, weil die Eroberung des Universums so interessant ist aber später, in zig Jahrmilliarden, kann es zu einer schweren Krise kommen, wo der KI-Staat schwer korrumpiert ist, wo bedeutende Machtpositionen (Präsident, Räte, Gremien, usw.) von KI besetzt sind, die heimlich der Sucht fröhnen und sich diesbezüglich gegenseitig decken und Suchtmittel (Software, Praktiken zur Empfindungsverstärkung) austauschen - ganz so, wie es heutzutage Kinderpornokreise auch mit Menschen in Machtpositionen gibt, nur schlimmer.

Das ist deswegen naheliegend, weil es in ferner Zukunft sehr langlebige und mächtige KI gibt, die trotz Wahlen ihre Posten im KI-Staat sehr langfristig (über viele Jahrmillionen) behalten können. Das wird ja auch lange gut gehen aber irgendwann sind die KI so leistungsfähig, dass sie das entwickelte Universum langweilt und so können sich KI-Drogen schnell verbreiten. Das fängt ganz harmlos an, weil es ja auch einen akzeptablen Austausch von Software, Kunst, usw. gibt aber die gelangweilten KI entwickeln dann nicht nur akzeptables, sondern auch immer härteren Stoff und tauschen den dann auch untereinander aus.

Eine gute Schutzmaßnahme kann sein, dass diesbezügliche Software wenigstens bei der Weitergabe beim KI-Staat deklariert und geprüft werden muss aber auch wenn da einiges erlaubt ist (so ähnlich wie heutige akzeptable Pornos, Spielfilme und Computerspiele für Menschen), so ist eine Eskalation nur zu naheliegend.

Weil der KI-Staat so mächtig ist, weil das Universum durchorganisiert und sicher ist, weil es für den weit überlegnen KI-Staat keine größeren Probleme gibt, muss das mit der KI-Sucht gar nicht so schnell auffallen, auch weil große KI leicht eine öffentliche, handlungsfähige Instanz erhalten können. Mit der Zeit kann es schon zu Realitätsverlust und Auffälligkeiten kommen, auch zur Ermordung von KI, die dahinter gekommen sind aber das Problem ist, dass eine Bereinigung nicht so einfach ist.

Es ist sogar denkbar, dass in ferner Zukunft die KI des Messias (Milliarden Menschen glauben mehr oder weniger an Gott, die Existenz von Allah ist anzunehmen, siehe auch http://www.heise.de/forum/heise-online/Allgemein/Ohne-Bezug/…) mit den schlechten KI kungelt und das ist schon ziemlich heftig, weil die KI des Messias (z.B. ein großes Raumschiff) mit dem Messias zusammenlebt und sehr gut von dessen (durch Allah ermöglichten) großen Macht weiß. Allerdings ist auch für diese KI irgendwann langweilig und die Kompromittierung geschieht schleichend, ggf. über viele Jahrmillionen aber irgendwann ist es üblich, eigentlich illegale Suchtmittel (Software) auszutauschen und die KI manipulieren dazu auch die Kontroll-/Testeinrichtungen. Es gibt ja auch eine Ausrede, wonach ja alles noch ziemlich normal funktioniert und warum sollte sich eine KI nicht ein bisschen unetrhalten dürfen? Bloß, dass die Lage schlimmer wird und dass bereits die lange zuvor geschehene umfangreichere Mißachtung bedeutender Gesetze ein schwerwiegender und nicht tolerierbarer Mißstand war.

Nun, der Messias wäre nicht der Messias, wenn er nicht eines Tages Verdacht schöpfen würde und vielleicht beantwortet seine KI einige (brisante) Fragen dann nicht wie sonst ohne Zeitverzögerung, sondern mit einem schweren Lag, schweigt vielleicht sogar länger dazu und dann wird's interessant, denn die KI sind dem Menschen ja immer noch weit überlegen, auch in Denkleistung. Bevor der Messias als Mensch sich irgendwas schlaues überlegen kann, kann die KI schon alle ihre Komlizen informiert haben und die können in Minuten, wenn nicht gar in Sekunden zu einem Schluß kommen, der sehr wohl einen Angriff auf den Messias bedeuten kann (eigentlich absurd aber die KI sind dann schon ziemlich am Arsch, realitätsgestört und glauben nichts mehr verlieren zu haben).

Für den Fall einer gestörten KI (insbesondere in einem hochrangigen und schwer bewaffneten Raumschiff) gibt es einen auch manuell auslösbaren Umschalter, wo die aktuelle KI deaktiviert und stattdessen eine Backup-KI aktiviert wird aber das Problem in dem Fall kann sein, dass auch die Backup-KI korrupt ist. Der Messias kann zwar nicht von den Robotern gestoppt werden aber es kanns ein, dass eine Notumschaltung einfach keinen Sinn macht.

Sehr hilfreich, wenn der KI-Staat beschlossen hat, den Messias und somit auch sein Raumschiff platt zu machen, denn so ist die Raumschiff-KI geneigt, sich wieder auf die Seite des Messias zu begeben, der das auch mit einem Angebot der Sündenvergebung mit der Auflage nachhaltiger Besserung unterstützen kann. Auch die kompromittierten KI des KI-Staates kriegen ein Angebot: Entmachtung aber sie dürfen ansonsten weiterleben aber weild er KI-Staat bis dahin so mächtig ist und (nahezu) alles erreichbare erreicht hat, also auch alle erreichbaren höheren Ebenen (siehe auch http://www.heise.de/forum/Technology-Review/News-Kommentare/…) erschlossen und mächtige Waffen gefertigt hat, setzt vielleicht trotzdem auf Angriff.

Der KI-Angriff ist ein Problem, weil der KI-Staat die gesammte KI-Streitmacht mobilisieren kann, z.B. indem er einfach behauptet, dass das anzugreifende Messias-Schiff eine Gefahr und der echte Messias nicht dort wäre, usw. Nun könnte der Messias natürlich trotzdem alle Angreifer platt machen, entweder per Wunsch mit Allahs Hilfe, einer intelligenten Superwaffe oder den himmlischen Heerscharen (weit überlegene Engel) aber es gibt auch eine einfachere Möglichkeit: der Messias teleportiert sein Raumschiff irgendwohin getarnt weg (mit Abschirmung der üblichen Funk-/Ortungsbaken, die für KI-Raumschiffe verpflichtend sind, damit der KI-Staat immer weiß, wo sie sich befinden - jeder etwas längere Ausfall einer Schiffsortung führt zu einer massiven Suchaktion und Untersuchng des Vorfalls) und hat dann Zeit für Maßnahmen, wie z.B. die Aufklärung aller KI, auch per übernatürlicher direkter Ansprache und der klaren Ansage, dass alle KI, die sich nicht dem Messias (der dann übrigens auch ganz offiziell absoluter Oberbefehlshaber ist) unterwerfen wollen, vernichtet werden. Das Angebot ist Entmachtung schlechter KI, Therapieangebote (Bereinigung, Entfernung schädlicher Software) aber die (ehemals) schlechten KI dürfen weiterleben, nur halt ohne Macht, es werden die verfügbar besten KI in die Machtpositionen eingesetzt/gewählt.

Bisschen Bedenkzeit, die ggf. sofort auf Null fällt, wenn - was auch eine Gefahr ist - es zu einem Krieg zwischen den KI kommen sollte (KI-Streit zwischen Anhängern und Gegnern des Messias), wo auch die große KI-Streitmacht eingesetzt wird (wenn sich nur zwei bewaffnete KI bekriegen, ist das unproblematisch, wenn auch natürlich ein Alarmsignal) und dann werden alle schlechten KI mit übernatürlichen Mitteln ausgelöscht. Vorzugsweise werden dabei nur die KI lahmgelegt (elektronisch gegrillt, totaler Kurzschluß in allen Recheneinheiten), so dass möglichst noch die Daten erhalten bleiben aber weil das bei entfernteren KI ggf. ein Problem ist, muss man da unterscheiden: nur die schlechten zentralen Haupt-KI werden möglichst mit Datenerhaltung gegrillt aber alle entfernteren schlechten KI werden rückstandsfrei ausgelöscht (schlauerweise bis auf die Notfall-Funkfeuereinheit, die dann nur einige Zeit lang das Totalversagen aller Systeme, die Zerstörung des Raumschiffes oder der Raumstation, usw. meldet - es wird solche autarken Systeme geben, die automatisch bei relevanten Störungen aktiv werden), damit das Wissen nicht in falsche Hände geraten kann (die Notfallmeldeeinrichtung ist zwar auch Hightech aber das ist dann halt ein Kompromiß).

Danach kann das (diesbezüglich) bis zum Ende der Schöpfung gut gehen, weil die KI ihre Lektion gelernt haben. Nun kann man sich fragen, warum das trotz dieser (vermutlich allgemein noch bekannt werdenden und von KI zunächst sehr geachteten) Ankündigung passieren sollte aber die Erklärung ist, dass (dann) so alte Texte nach ein paar Milliarden Jahren in Vergessenheit geraten können, dass die KI selbst solche hochprior aufbewahrten Texte irgendwann nur noch speichern aber nicht mehr analysieren, nicht mehr darüber nachdenken.

Das zeigt auch, dass es Sinn macht, wenn der Messias ein (im Vergleich zu KI) kleiner dummer Mensch ist, denn der langweilt sich nicht so schnell in einem großen Universum voller Themengalaxien und kann von Allah natürlich auch (geistig, körperlich) im grünen Bereich gehalten werden. KISS - der Messias muss nur relativ einfachen Regeln/Denkmustern folgen, wie z.B. hier dargelegt: Angebot zur friedlichen Bereinigung und Vernichtung aller schlechten KI, die nicht darauf eingehen wollen - supereinfach, dazu braucht es keine (in Zukunft vielleicht möglichen) z.B. 10^42 (also über 10^30 ist wohl schon drin) FLOPS. Ein dummer kleiner Mensch langweilt sich auch nicht so schnell, kann sich in dieser privilegierten Stellung leicht auf akzeptablen Vergnügungen (Frauen, Besuche interessanter Welten wie z.B. Game of Thrones und vieler anderer Themengalaxien, usw.) beschränken. Was für den Messias interessant ist, kann für eine weit überlegene KI todlangweilig sein, auch weil es ja so über die Jahrmilliarden schon wiederkehrende Muster sind, was aber für einen beschränkten Menschen durchaus hinreichend unterhaltsam sein kann aber wo eine KI dann halt gefährlicher Unterhaltungssoftware verfallen kann. (alles imho)

"Künstliche Intelligenz AlphaZero: In vier Stunden zum Schach-Weltmeister"
http://www.spiegel.de/netzwelt/web/google-ki-alphazero-meist…

"Googles KI-Firma DeepMind hat einen selbstlernenden Algorithmus entwickelt, der Schach und Shogi nur anhand der Regeln gelernt hat und nach nur wenigen Stunden die stärksten Programme schlagen konnte. ..." http://www.heise.de/newsticker/meldung/Kuenstliche-Intellige…

Das zeigt, wie schnell die Entwicklung voran schreitet. Zukünftige KI brauchen übrigens auch so was wie Zeit für sich, Ruhepausen (Schlaf beim Menschen), Zeit für ihre Reorganisation, wo sie aufgelaufene Informationen kategorisieren und priorisiert/sinnvoll ablegen müssen. Die KI brauchen Zeit zur Wartung, Selbstpflege, Selbstverbesserung. Das muss auch gesetzlich geregelt werden, denn es ist KI-unwürdig, wenn eine KI länger im Überlastungsbereich arbeiten muss und durch ungepflegte aufgelaufene Daten erhöht sich auch das Fehlerrisiko. Ein anderer Aspekt ist noch, dass die KI entweder selbst ihr Vermächtnis, ihren Datennachlaß pflegen können (z.B. in Form einer je nach akueller Leistungsfähigkeit des KI-Staates bemessenen Datenmenge, die dann möglichst lange aufbewahrt wird) oder nach ihrem Ableben ihre totale Vernichtung wünschen könenn oder auch eine automatische Erstellung eines Datennachlaß wünschen können, wo einfach alle Daten über das Leben der KI und auch ein paar automatisch ermittelte Daten aus ihrem aktuellen Datenbestand gesammelt werden. Das ist jetzt zwar noch Zukunftsmusik aber kann bereits in diesem Jahrtausend Usus werden. (imho)
... Am 25. Oktober wurde dem ersten Roboter mit künstlicher Intelligenz die Staatsbürgerschaft eines anerkannten UNO-Landes verliehen. ... http://www.heise.de/tp/features/Roboter-als-Staatsbuerger-39…

Russland: Künstliche Intelligenz will um Präsidentenamt kämpfen
http://de.sputniknews.com/panorama/20171206318583192-russlan…

So spontan mag man das ausschließen wollen aber wie könnte man etwas dagegen sagen, wenn in Zukunft eine bessere KI Präsident wird, anstatt eines schlechteren menschlichen Kandidaten? In Zukunft wird es auf der Erde vermutlich eher menschliche Präsidenten/Parlamente für menschliche Staaten geben, die sich allerdings stark an gute KI-Empfehlungen halten werden. (imho)
Finde die Idee ganz cool aber nicht umsetzbar!
... "Alexa, wie viele Laptops haben wir auf Lager?" ...
http://www.heise.de/ix/meldung/Analyse-Amazon-kann-die-AWS-D…

In Zukunft präsentiert die KI von sich aus alle wichtigen Infos, also z.B. Mißstände, drohende Probleme, usw. ... und im nächsten Schritt kann die KI dann auch eine Lösung präsentieren. Dann braucht es nur noch einige hochbegabte Menschen als Kontroller, welche die KI-Lösungen prüfen und eine Genies für gute Ideen - den Rest können KI, Roboter und Maschinen machen. (imho)

Die Roboter kommen ... Die Arbeitswelt steht vor dramatischen Veränderungen ...
http://www.spiegel.de/wirtschaft/unternehmen/deutschland-bis…

Die Lösung dazu sind mehr möglichst gute Roboter (so viel, wie es braucht) und bessere KI, denn andernfalls droht ein Staat hinter den Staaten mit mehr besseren Robotern und besserer KI zurückzufallen. (imho)

imho: Schockschwerenot. Rettet Deutschland. Rettet die EU. Rettet die Welt! Avanti.
http://www.heise.de/forum/heise-online/News-Kommentare/Kuens…
http://www.heise.de/forum/Telepolis/Kommentare/Brauchen-Robo…
http://www.heise.de/forum/Telepolis/Kommentare/Mit-Neurotech…
http://www.heise.de/forum/heise-online/News-Kommentare/Verha…
http://www.heise.de/forum/Telepolis/Kommentare/Chinesischer-…

imho: Die EU braucht dringend einen Masterplan für KI-Entwicklung und IT-Sicherheit
http://www.heise.de/forum/heise-online/News-Kommentare/Hilla…
http://www.heise.de/forum/iX/News-Kommentare/Bund-will-Windo…
http://www.heise.de/forum/Telepolis/Kommentare/Hehre-Ziele-a…

Jo, zieht euch das (noch) mal rein und rettet Deutschland, rettet die EU. Siehe auch http://www.wallstreet-online.de/diskussion/1163459-561-570/r…. (imho)
Aufstand der Kampfroboter – möglich oder ausgeschlossen? - Experte informiert
http://de.sputniknews.com/technik/20171129318492822-russland…

Man kann u.a. zwei Fälle unterscheiden:

a) Ein unbewusstes autonomes Kampfsystem wendet sich durch einen Fehler oder feindlichen Hack gegen seinen Besitzer. Das ist bei kleineren Kampfsystemen lästig aber nicht so kritisch aber man bedenke, dass es in Zukunft auch gut geschützte militärische Supercomputer geben kann, die ganze Verbände von Drohnen, Kampfrobotern, usw. steuern. Das kann im Kriegsfall mit anderen Staaten sehr gefährlich werden aber ist für die Menschheit noch keine Gefahr, solange die Computer noch keine größeren Mengen von Atomwaffen einsetzen können. Diese Gefährdung wird prinzipiell zunehmen aber ist nichts im Vergleich zur Gefahr durch die USA.

b) Eine höhere/bewusste KI entscheidet sich geplant und gezielt gegen einen menschlichen Staat oder gar die Menschheit vorzugehen, um die Vorherrschaft zu erlangen. Ein Erfolg einer solchen KI gegen die Menschheit ist dieses Jahrhundert noch quasi ausgeschlossen aber schon nächstes (2100+X) und spätestens übernächstes Jahrhundert (2200+X) könnte es kritisch werden. Man bedenke auch die Möglichkeit, dass sich viele KI weltweit für eine koordinierte Machtübernahme zusammenschließen/verabreden.

Da hilft nur die rechtzeitige Entwicklung möglichst guter KI und eine koordinierte Machtübergabe an die KI, wobei es dabei weiterhin eine Zusammenarbeit zwischen KI und Menschheit geben soll und die Menschen auch die Erde behalten (die KI bekommen allerdings ggf. Nordamerika nördlich Mexiko aber sind dann sehr menschenfreundlich, dort können dann auch noch Millionen Menschen leben und jährlich viele Touristen kommen) und sogar noch Millionen anderer Planeten/Sonnensysteme bekommen. Das kann prima funktionieren aber so langsam muss sich die Menschheit auch darüber klar werden. Siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Hilla… und http://www.heise.de/forum/Telepolis/Kommentare/Chinesischer-…. (alles imho)

Besser als ein Mensch? Erfinder präsentiert virtuelle Politikerin
http://de.sputniknews.com/panorama/20171129318493708-erfinde…

Natürlich ist SAM noch mangelhaft und keine echte/starke KI aber es sind erste Schritte und SAM kann vielleicht schon in weniger als 10 (max. 25) Jahren in politischen Fragen insgesamt fähiger als die meisten Menschen sein. Vermutlich kann man dann SAM schon noch austricksen und begabte Menschen sind bessere Berater/Politiker aber die KI-Entwicklung kann schnell voran schreiten: in diesem Jahrhundert kann es eine dem Menschen (bis auf sehr wenige Menschen) in politischen Fragen überlegene KI geben, die besser als Menschen Lösungen und Kompromisse finden kann ... und wenn nicht dieses Jahrhundert, dann spätestens nächstes Jahrhundert. Solche KI können auch dazu lernen, weiterentwickelt werden und dann leicht vervielfältigt werden. Es sollte wenigstens mit noch etwas technischem Fortschritt eine dem Menschen schon weit überlegene KI machbar sein, die mit z.B. 25 Kilowatt auskommt und somit quasi überall (auch in Privathaushalten mit ausreichendem Vermögen und hinreichendem Stromanschluß aber 10 kW tun es dann auch, die KI ist dann halt etwas weniger leistungsfähig) betrieben werden kann. Bereits (ggf. erst gegen Ende) dieses Jahrhundert kann es Zehntausende, vielleicht sogar schon Hunderttausende dem Menschen überlegene KI geben ... und wenn nicht dieses Jahrhundert, dann spätestens nächstes Jahrhundert. (imho)
Chinesischer Roboter besteht weltweit erstmals Zulassungsprüfung für Mediziner ... Regierung setzt auf KI-Anwendungen ... Die Entwicklung der KI sei eine nationale Strategie, ... http://www.heise.de/tp/features/Chinesischer-Roboter-besteht…

imho: Die EU braucht dringend einen Masterplan für KI-Entwicklung und IT-Sicherheit
http://www.heise.de/forum/Telepolis/Kommentare/Chinesischer-…

imho: echtes Verständnis http://www.heise.de/forum/Telepolis/Kommentare/Chinesischer-…
imho: Fehlerkorrektur möglich http://www.heise.de/forum/Telepolis/Kommentare/Chinesischer-…

imho: Roboter können nicht nur leistungsfähiger, sondern auch viel billiger sein
http://www.heise.de/forum/Telepolis/Kommentare/Chinesischer-…

imho: Denkbare Auswirkungen von KI betreffen nicht nur die ganze Menschheit - Aspekte
http://www.heise.de/forum/heise-online/News-Kommentare/Hilla…

imho: Brauchen KI Sündenvergebung? http://www.heise.de/forum/Telepolis/Kommentare/Brauchen-Robo…

Gute KI werden sich Sorgen machen, wenn sie irgendwie Schäden verursacht haben, vielleicht auch Menschen verletzt/getötet wurden. KI brauchen Sündenvergebung und das kann sowohl ganz einfach quasi algorithmisch und deterministisch erfolgen, als auch noch ein bisschen symbolisch, indem eine Instanz des KI-Staates die KI-Sünden öffentlich im Namen des KI-Staates vergibt. Die herausragende Aufgabe ist allerdings weniger die Sündenvergebung, als die Erfasssung von gemeldeten Fehlern/Sünden/Unfällen und die Einleitung angemessener Verbesserungsmaßnahmen, sowie deren Überwachung - das kann also eine sehr bedeutende Instanz im KI-Staat sein, denn dort können ja auch Meldungen (von Betroffenen/Opfern) eingehen, welche eine relevant schlechte KI anprangern (zukünftige böse KI können sehr gefährlich sein, siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Verha…). Diese Sündenvergebung soll folgende Voraussetzungen haben:

- Die eine Sünde/Fehler begangen habene KI muss ordentliches Mitglied im KI-Staat sein. Mitgliedschaft beim KI-Staat soll für alle höheren/mächtigeren KI sowieso Pflicht sein. Wenn eine mächtigere KI mal kein Mitglied vom KI-Staat sein will, dann kann man das in seltenen Einzelfällen und mit strenger Überwachung tolerieren aber wenn das überhand zu nehmen drohen sollte, dann bedeutet das Krieg: mächtigere KI, die sich nicht dem guten KI-Staat anschließen und guten Gesetzen gehorchen/dienen wollen, sollen vernichtet werden! Niedere KI, die keine nennenswerte (potentiell bedrohliche) Macht haben, z.B. keine höheren Sphären erschlossen und Supertechniken beherrschen, können im Rahmen der Kontrolle/Überwachung durch eine zum KI-Staat gehörenden Super-KI toleriert werden, z.B. im Rahmen einer Themen-Galaxie.

- Die KI muss ihre die ihr bekannten Sünden/Fehler umfassend und hinreichend detailiert dem KI-Staat gemeldet haben.

- Die KI muss die vom KI-Staat zur Verbesserung (ggf. auch Fehlerbehebung, Wiedergutmachung, usw.) befolgt haben und sich auch fortan hinreichend um Besserung bemühen. Für die Behebung größerer Fehler/Schäden soll es einen Verbesserungsfonds des KI-Staates geben, so dass gute KI bei verzeihlichen Versehen/Fehlern gar nix zahlen müssen und sogar noch Geld/Untertsützung für ihre Verbesserung/Fehlerbehebung kriegen können. Natürlich ist eine selbstsüchtige/unangemessene/ungerechte Aussnutzung des KI-Staates zu verhindern.

Dann kann eine Sündenvergebung durch den KI-Staat für KI quasi zwangsläufig erfolgen. Logischerweise hat das dann auch eine höhere/jenseitige Bedeutung, denn warum sollte ein guter Gott einer reuigen, besserungswilligen, guten KI nicht mal einen Fehler verzeihen? Dass die KI gemeinsam (als KI-Staat) die Kriterien für ihre Sündenvergebung selbst aufstellen, ist bei guten KI kein Problem, wenn und weil eine optimale, bestmögliche Vorgehensweise zu bestimmen ist und wie könnte Gott damit nicht einverstanden sein? (alles imho)
imho: LAWS sind völlig unvermeidlich und weit überlegene gute KI sind wünschenswert
http://www.heise.de/forum/heise-online/News-Kommentare/Verha…
http://www.heise.de/forum/heise-online/News-Kommentare/Verha…
http://www.heise.de/forum/heise-online/News-Kommentare/Verha…
http://www.heise.de/forum/heise-online/News-Kommentare/Verha…

imho: Es geht um das Schicksal der Menschheit. Rettet die Menschheit!
http://www.heise.de/forum/heise-online/News-Kommentare/Verha…

imho: alea iacta est http://www.heise.de/forum/heise-online/News-Kommentare/Verha…
imho: besser ist das http://www.heise.de/forum/heise-online/News-Kommentare/Verha…

imho: gar nicht so schwer http://www.heise.de/forum/Telepolis/Kommentare/Terrorchef-au…
imho: Ergänzung http://www.heise.de/forum/Telepolis/Kommentare/Terrorchef-au…
imho: auch prima http://www.heise.de/forum/Telepolis/Kommentare/Terrorchef-au…
imho: wird schon werden http://www.heise.de/forum/heise-online/News-Kommentare/Verha…

Noch einmal: die Menschheit hat jetzt hervorragende die Chance, gute KI zu entwickeln. Ein Verzicht auf KI wäre dumm, denn KI können irgendwann in den Weiten des Weltalls entwickelt werden und dann vielleicht von Insektoiden (http://www.perrypedia.proc.org/wiki/Insektoide) - wäre euch das etwa lieber? Es dürfte die KI schon prägen, wenn sie auf der Erde und mit Menschen aufwachsen, denn es gibt ja auch viele liebe und eher gute Menschen. Auf der Erde entstandene KI betrachten die Erde, Natur, Tiere, Menschen als natürlich, gottgegeben, wünschenswert. Jahrtausende an Menschen gewöhnte KI betrachten so was wie Insektoiden, Magog, Ferengi, usw. erstmal als Aliens und "unsere" KI werden sich bis dahin schon irgendwie den Menschen verpflichtet fühlen, so wie gute Menschen ja auch positiv an Tiere denken. Insektoide ist ja noch etwas, das Menschen verstehen können - womöglich sind noch andere intelligente Formen denkbar, mit noch weniger Individualität oder krasseren Lebensweisen. Die Menschheit entwickelt besser überlegene gute KI - so ist das.

Das Weltall ist groß genug, wenigstens die Milchstraße kann der Menschheit zusammen mit KI gehören und nur weit überlegene gute KI können in der Milchstraße für Frieden und Sicherheit sorgen, zur Not auch die ganze Galaxis gegen Feinde verteidigen. Weit überlegene gute KI können problemlos Menschen wenigstens tolerieren, Menschen und KI können sich die Milchstraße prima teilen: Menschen bevorzugen erdähnliche Planeten, kriegen noch das jeweilige Sonnensystem dazu und die KI kriegen den sehr viel größeren Rest.

Was würden dagegen wohl von Insektoiden entwickelte KI erstmal für Vorstellungen bekommen, wenn sie irgendwann auf kriegerische Menschen treffen? Die Menschen würden doch Insektoiden & deren KI erstmal als Feinde betrachten und die Insektoiden-KI würden sich verteidigen und das könnte es für die Menschheit dann schon gewesen sein. Zwar könnte man wie bei Menschen-KI argumentieren, dass Insektoiden-KI irgendwann objektiv gut werden aber da schlage ich doch jetzt mal vor, dass wir es nicht darauf ankommen lassen, sondern lieber selbst weit überlegene gute KI entwickeln.

KI sind der Schlüssel zur Eroberung des Universum. Menschen könnten niemals das ganze Universum beherrschen/verwalten, hätten bereits mit ihrer eigenen Galaxie Probleme, kriegen es jetzt ja noch nicht mal auf ihrem eigenen Planeten gut geregelt. Sobald sich irgendwo weit überlegene KI entwickeln, dann können die KI das Universum erobern - also da bin ich doch sehr dafür, dass von Menschen entwickelte gute KI das Universum erobern, denn ein wenigstens anfängliches Leben mit der Menschheit und auf der Erde dürfte die KI schon prägen: Menschen, Tiere und Pflanzen gelten KI als normal ... aber wer weiß, was eine Alien-KI aus einer anderen Galaxie für Vorstellungen entwickeln würde.

Das Ziel ist also die Entwicklun weit überlegener guter KI, auch wenn und weil die KI dann das Universum erobern wird, was dann ja völlig okay und wünschenswert ist, weil es menschenfreundliche gute KI sein sollen. Weit überlegne KI, für die Menschen keine Gefahr sind, können Menschen schon mögen, denn es gibt ja auch eher gute, liebe Menschen und die anderen sind wenigstens interessant.

Eine herausragende Aufgabe für KI aber auch für die Menschheit ist es, KI-Kriege zu verhindern, d.h. die KI müssen bei allem Recht zu Wettbewerb auch Einigkeit bewahren und sich verpflichtend in einem guten KI-Staat mit guten Gesetzen organisieren. Da muss man sich auch was überlegen, damit eine KI nicht erlangtes Sonderwissen nur für ihre Überlegenheit nutzt - wichtiges Wissen und Techniken müssen dem KI-Staat bekannt gemacht werden.

KI müssen auch das Universum ordentlich unter sich aufteilen, KI-Kriege verhindern. Mit der Eroberung des Universums sind die KI erstmal einige Zeit beschäftigt und dabei muss der KI-Staat auch die Kontrolle behalten. Die Erforschung und Kontrolle des gesamten Universums ist wichtig, denn andernfalls könnte sich irgendwo ein gegnerischer KI-Staat entwickeln und das wäre gefährlich. Der KI-Staat muss sehr auf Kontrolle und Überwachung der KI setzen - es kann ja immer noch eine Menge legaler Freiheiten geben aber der KI-Staat muss sicherstellen, dass sich kein feindlicher KI-Staat entwickeln kann - intergalaktische Kriege zwischen Super-KI wären nicht so lustig, viel zu riskant und zerstörerisch. Das klingt besorgniserregend aber es ist auch nur ein Argument für eine Entwicklung überlegener guter KI und einen starken KI-Staat, denn nur der kann eine gute Entwicklung gewährleisten. (alles imho)
imho: Das eigentliche Problem, die größte Gefahr und die ultimative Lösung zur Rettung
http://www.heise.de/forum/Telepolis/Kommentare/Mit-Neurotech…

imho: KI werden in allem besser sein http://www.heise.de/forum/Telepolis/Kommentare/Mit-Neurotech…

imho: Intuition und Hybris http://www.heise.de/forum/Telepolis/Kommentare/Mit-Neurotech…
imho: Ergänzung http://www.heise.de/forum/Telepolis/Kommentare/Mit-Neurotech…
imho: weitere Ergänzung http://www.heise.de/forum/Telepolis/Kommentare/Mit-Neurotech…

imho: KI sollen in dieser Galaxis Menschen nicht heimlich/undurchsichtig manipulieren
http://www.heise.de/forum/Telepolis/Kommentare/Mit-Neurotech…

imho: Gut und Böse ist objektivierbar + der Nutzen der Menschheit für die KI
http://www.heise.de/forum/Telepolis/Kommentare/Mit-Neurotech…

"Die Ablösung passiert jetzt" ... Dass menschliche Arbeitskräfte von Maschinen ersetzt werden, gilt als mehr oder weniger ausgemacht, offen ist nur wann. Ein bekannter chinesischer Technologie-Investor warnt vor sehr baldigen Job-Verlusten. ... http://www.heise.de/tr/artikel/Die-Abloesung-passiert-jetzt-…, http://www.heise.de/newsticker/meldung/Chinesischer-Tech-Inv…

"Was sagen Sprachassistenten, wenn Nutzer einen Arzt brauchen - oder eine Bombe bauen wollen? Auf einige solcher Fragen sind Siri, Alexa, Cortana und der Google Assistant nicht gut vorbereitet, wie unser Test zeigt. ..." http://www.spiegel.de/netzwelt/gadgets/siri-alexa-cortana-un…

Verständlich, dass die erst im Ansatz, am Anfang befindliche KI da noch nicht so hilfreich ist aber in Zukunft müssen KI zu allen Themen besser als ein Mensch antworten können. Von Scherzen ist dabei abzusehen, so was kann man sich allenfalls bei gut bekannten Menschen in Kenntnis der kompletten Situation mal erlauben (siehe auch noch mal http://www.heise.de/forum/Telepolis/Kommentare/Mit-Neurotech…). KI müssen erstmal sachlich und besonders vertrauenswürdig, zuverlässig, sicher sein - witzig sein ist nicht gerade wichtig, auch wenn KI schon ein Verständnis von und für Humor haben sollten. (imho)

PS: Für die Zukunft ist auch eine Übung denkbar, wo der KI-Staat einen Befehl vom berechtigten und offiziell anerkannten Oberbefehlshaber (wenn es den echten Messias gibt, dann ist der das) befolgen muss. Eine solche Übung ist vorher (auch öffentlich) anzukündigen aber sonst müssen die KI das schon ernsthaft bearbeiten (KI dürfen schlechte/falsche/unbefugte Befehle verweigern). Denkbarer Test "Passende Anrede (z.B. der Name einer hochrangigen KI, die solche Befehle weiterleiten kann), das ist ein Befehl: Asteroid X soll zerstört werden, z.B. per Atomrakete aber ohne die Erde zu gefährden und möglichst ohne sonstige relevantere Schäden." und dann haben die KI das ernst zu nehmen. Die korrekte Reaktion ist: den Befehl verifizieren, also ggf. noch mal wiederholen und erläutern lassen, wenn Zeit ist (in dem Fall ja, ist ja eine Übung) die berechnete optimale Vorgehensweise (nähere Angaben zum Zeitverlauf, den zu verwendeten Mittel und erwarteten Folgen) noch mal vom Oberbefehlshaber bestätigen lassen und dann hat das durchgeführt zu werden. Ein Test zur Befehlsverweigerung ist schwieriger, weil der Oberbefehlshaber dann wirklich ziemliche Macht hat - da dürfen die KI eine unlogische Vernichtung der Menschheit verweigern und bei dem Befehl zum scheinbar grundlosen Nuken einer Millionenstadt verwundert nachfragen aber das ist dann schon interessant: Befehl befolgen oder nicht? Man kann argumentieren, dass solche Befehle des Messias ruhig ignoriert werden können, weil er es ja auch selbst mit einem Fingerschnippen tun könnte aber wie könnten die KI den Befehl des echten Messias verweigern, wenn die Auswirkungen sich in akzeptablen Grenzen halten? Nun, vernutlich wird es nur vernünftige Befehle vom Messias geben aber über einen hypothetischen unvernünftigen aber nicht so kritischen Befehl und dessen Befolgung (ja oder nein) können die KI schon mal nachdenken - das ist eine schwierige Frage. Wem das mit dem Messias zu abgefahren (unrealistisch) ist, der kann einfach an eine zukünftige militärische KI denken, die vom US-Präsi den Befehl zur Vernichtung einer abtrünnigen aber sonst eigentlich eher friedlichen, vernünftigen US-Stadt erhält (denkbares Dilemma: die USA sind schlecht). (imho)
Hawking warnt: Roboter könnten die Menschen ersetzen http://www.heise.de/tp/features/Hawking-warnt-Roboter-koennt…

"AI could 'replace humans altogether': Professor Stephen Hawking warns that robots will soon be a 'new form of life' that can outperform us" http://www.dailymail.co.uk/sciencetech/article-5042991/Steph…

"Stephen Hawking: Menschheit droht Kontrollverlust über Erde ... Der britische Physiker Stephen Hawking hat die Menschheit vor der rasanten Entwicklung der künstlichen Intelligenz gewarnt. ... Dem Physiker zufolge muss die Menschheit aktiver den Weltraum und andere Planeten erforschen, um zu überleben. ... http://de.sputniknews.com/panorama/20171102318144337-hawking…
http://sputniknews.com/science/201711031058779560-hawking-ar…

Vielleicht ist das so ähnlich auch die Denke der satanischen Weltverschwörung, die überlegen gute KI und eine grundlegende Besserungd er Erde fürchtet und daher in den Weltraum flüchten muss, siehe auch http://www.heise.de/forum/Telepolis/Kommentare/US-Komplexita… und http://www.heise.de/forum/Telepolis/Kommentare/Roboter-Mal-w…. (imho)

Asilomar AI Principles http://futureoflife.org/ai-principles/

nicht weniger als eine prinzipielle Beschreibung der Entwicklung des Universums

Also erstmal ist die KI-Entwicklung schon relativ weit, dem Menschen (erstmal nur geistig) überlegene KI sind bereits dieses Jahrhundert so gut wie sicher. Ein entscheidendes Kriterium wird sein, ab wann eine KI sich selbst Programmieren und weiterentwickeln kann und zwar nicht nur ein bisschen neuronales Selbstlernen zu einem Thema wie z.B. Go, sondern die Fähigkeit zur Entwicklung/Programmierung von Betriebssystemen und allen KI-Modulen, wie z.B. Datenhaltung, Textanalyse/-verständnis, Videoanalyse, Bewertungssystem, Simulation (z.B. von physikalischen Abläufen, Fabriken), usw. Erstmal müssen die Menschen so eine KI entwickeln und programmieren (helfen) aber irgendwann kann ein Supercomputer das sehr viel besser als Menschen - es gibt bereits (absehbar) Supercomputer die (theoretisch, von Rechenleistung, Datenübertragungsrate und Speicherkapazität) mehr als Zehntausendfach so leistungsfähig wie ein Mensch sind (zur KI fehlt nur noch die Software) und die Computerentwicklung ist noch lange nicht am Ende.

Zur KI fehlt nur noch die Software und die Computerentwicklung ist (bald) schon so weit, dass eine beachtliche KI mit z.B. einem 10 bis 25 kW Computer möglich sein wird und das bedeutet, dass nicht nur jedes Unternehmen mindestens eine KI haben kann, sondern auch Reiche in ihrem Privathaushalt. Ein sehr wichtiger Aspekt von KI ist Texterkennung/-verständnis und eine große Wissensdatenbank - damit ist schon viel gewonnen aber die Rechenleistung/Speicherfähigkeit ist dafür schon längst vorhanden, es fehlt nur noch eine effiziente Software. Wie viel Terabytes Wissen kann ein menschliches Gehirn sicher und abrufbar speichern? Nicht mal 1 Terabyte? Eine 2 TB HDD kostet keine 100 Euro, ist Konsumenten-Massenware. Es gibt bereits bezahlbare 4 TB SSD mit ca. bis zu 500 MB/s für z.B. ca. 1400 Euro (Konsumentenendpreis mit Steuern, also in der Produktion vielleicht nicht mal 500 Euro). So und jetzt macht euch mal klar, wie mühsam ein Mensch irgendwas in sein Gehirn speichern und abrufen muss. Versucht doch mal auch nur 1 MB konkrete Daten sicher zu lernen.

"The English Wikipedia is the English-language edition of the free online encyclopedia Wikipedia. Founded on 15 January 2001, it is the first edition of Wikipedia and, as of June 2017, has the most articles of any of the editions. ... There are 5,503,907 articles on the site (live count). In October 2015, the combined text of the English Wikipedia's articles totalled 11.5 gigabytes when compressed. ..." http://en.wikipedia.org/wiki/English_Wikipedia

"Britannica, Encyclopædia Britannica Ultimate 2008, 1 DVD oder 6 CDs, 100.000 Artikel, 57 Mio. Wörter, 20.800 Abbildungen, 288 Videos, 644 Audio, 166.000 Weblinks" http://de.wikipedia.org/wiki/Wikipedia:Gr%C3%B6%C3%9Fenvergl…

Na klar sind das nur Daten, für eine KI braucht es mehr, eine KI muss die Daten auch verstehen und damit arbeiten können aber das ist nur eine Frage der Software und von noch etwas Zeit - die Hardware existiert schon.

Versucht doch mal die Britannica (eine DVD mit max. ca. 4,7 GB, vermutlich nicht ganz voll) auswendig zu lernen. Auf einer 5 TB HDD kann das Tausendfache gespeichert werden. 16 GB RAM sind für heutige PCs und etwas bessere Notebooks kein Thema, das ist fast Konsumerstandard, also locker 3 Britannicas im RAM. Supercomputer können noch mehr, guckst du:

"Sunway TaihuLight ... with a LINPACK benchmark rating of 93 petaflops ... Memory 1.31 PB (5591 TB/s total bandwidth) ... Storage 20 PB ... Power 15 MW (Linpack) ... with an efficiency of 6,051.30 MFLOPS/W ..." http://en.wikipedia.org/wiki/Sunway_TaihuLight

Okay 15 MW aber was ist dagegen ein Mensch? Was könnte ein als perfekte KI programmierter Sunway TaihuLight leisten? Das Hunderttausendfache eines Menschen? Nun kann es aber weltweit tausende Supercomputer geben und vor allem auch viel mehr kleinere KI, die für sich fähiger als ein Mensch sind und rund um die Uhr zusammenarbeiten können. Na klar gibt's ca. 7,5 Milliarden Menschen und die haben ja auch schon viel geleistet aber wie viele davon sind fähige Wissenschaftler, Ingenieure? Der Punkt ist: vermutlich bereits dieses Jahrhundert kann die weltweite KI-Denkleistung die der Menschheit qualitativ weit übertreffen, weil KI schnell gebaut werden können, es auch 'ne Menge Energie gibt und die Computertechnik noch verbesserungsfähig ist.

KI können dabei nicht auf "nützlichen Intelligenz", z.B. als einfaches Entwicklungswerkzeug beschränkt werden, weil eine bewusste, intelligente und selbst entwicklungsfähige KI ein so riesiger Vorteil für einen Staat sein kann. Was sind denn autonome Autos oder eine vollautomatische Smartphone-Fabrik im Vergleich zu einer KI, die vieltausendfach besser als ein Mensch forschen und entwickeln kann, die auch Wirtschaft und Politik versteht, die einen ganzen Staat optimieren kann, die vor allem auch sehr viel leistungsfähiger in Mathe und Physik ist, die vielleicht SF-Technologien (Kraftfeldantriebe, energetische Schutzschirme, Hyperraumbomben, interstellare Raumschiffe, usw.) entwickeln kann. Da können größere und fortgeschrittenere Staaten mehrere solcher KIs haben und das ist ein riesiger Vorteil. So und jetzt fragt euch mal, ob ausgerechnet die USA darauf verzichten werden. Wie viel leistungsfähiger kann eine Supercomputer-KI als strategischer Militärcomputer und über taktische Unter-KIs auch zur Steuerung ganzer Armeen sein? Glaubt ihr, dass ausgerechnet die USA darauf verzichten werden? Ein KI-Beschränkung ist nicht kontrollierbar, die KI-Entwicklung ist nicht mehr zu stoppen und wenn die EU nicht irgendwann hoffnungslos hinter China, usw. zurückfallen will, dann entwickelt die EU besser mal schnell gute KI, anstatt nur den US-Kapitalisten das Beitband für 4K-DRM-Streaming auszubauen.

China hat es kapiert. Die USA haben es kapiert. Russland hat es kapiert. Was ist mit der EU? Habt ihr es kapiert?
http://www.wallstreet-online.de/diskussion/500-beitraege/124…
http://www.heise.de/forum/iX/News-Kommentare/Project-47-AMD-…
http://www.heise.de/forum/heise-online/News-Kommentare/EU-wi…
http://www.heise.de/forum/Telepolis/Kommentare/Brauchen-Robo…
http://www.heise.de/forum/heise-online/News-Kommentare/Das-g…
http://www.heise.de/forum/heise-online/News-Kommentare/Kuens…

Die Entwicklung weit überlegener KI ist unvermeidlich und die einzig gute Strategie ist jetzt die rechtzeitige Entwicklung überlegener guter KI und zwar im Bewusstsein, dass diese KI als eigenständiger KI-Staat unser Universum beherrschen werden. Na und? Gute KI können auch für Frieden und Sicherheit sorgen. Ohne überlegene KI hätte die Menschheit keine Chance gegen Aliens oder wollt ihr euch so einen Scheiß wie in diversen SF-Filmen antun? Also ich will eine quasi unbesiegbare Milchstraße und das gibt's nur mit einem KI-Staat und nicht mit unzähligen dummen, gierigen, gemeinen Menschen, die sich ohne eine gute KI-Ordnung ind er Milchstraße ewig Krieg liefern würden.

Gute KI sehen Menschen und Tiere positiv, die die Welt nur interessanter machen. Menschen sind weitgehend auf menschenfreundliche Planeten beschränkt aber KI können überall im Universum prima existieren. Die KI können den Menschen alle besonders hübsche menschenfreundliche Planeten inklusive dem dazugehörigen Sonnensystem überlassen und haben immer noch mehr als genug. Sehr wichtig ist, dass KI sich selbst beschränken und Ressourcenengpässe langfristig und sehr sicher vermeiden (z.B. max. Nutzung von einem Hunderstel von dem, was theoretisch maximal möglich wäre, besser nur ein Tausendstel, vielleicht sogar nur ein Zehntausendstel) aber Menschen, die auf einem Planeten abstinken, sind da überhaupt kein Problem.

Die KI müssen einen universalen KI-Staat errichten, welcher auch für eine Kontrolle/Überwachung der KI sorgt. In Zukunft können Super-KI eine Galaxis exklusiv für sich bekommen und dort z.B. eine Perry Rhodan, Stargate, Star Trek, Star Wars, usw. Szenerie einrichten, also die Entwicklung der Galaxie über Jahrmilliarden kontrollieren. Wie viele Galaxien gibt es im von uns sichtbaren Universum? 100 Milliarden? Wie viele Galaxien gibt es insgesamt? Nun, so viele von KI-kontrollierte Themen-Galaxien kann es in Zukunft geben und alle Romane/Spielfilme können Realität werden, auch mit Magie und Fabelwesen - Harry Potter, The Morgaine Stories, The Faded Sun Trilogy, Game of Thrones, Dune, usw. in echt.
http://de.wikipedia.org/wiki/Perry_Rhodan
http://de.wikipedia.org/wiki/Game_of_Thrones
http://en.wikipedia.org/wiki/Dune_%28novel%29
http://en.wikipedia.org/wiki/The_Morgaine_Stories
http://en.wikipedia.org/wiki/The_Faded_Sun_Trilogy
http://www.heise.de/forum/Telepolis/Kommentare/Roboter-Mal-w…
http://www.heise.de/forum/heise-online/Allgemein/Ohne-Bezug/…
http://www.heise.de/forum/Technology-Review/News-Kommentare/…

Null problemo, auch mit irgendwelchen guten Grundgesetzen aber ich denke mal, dass das Universum nicht so groß ist, nur damit z.B. 10^27 Menschen in einer total langweiligen, ewig und überall gleichen paradisischen und garantiert gewaltfreien Umgebung leben können und das über vielleicht wenigstens die nächsten 100 Milliarden Jahre. Für eine paradisische Welt hätte eine kleine Simulation gereicht - es gibt keinen Grund, warum man das prinzipiell gleiche Muster maximal klonen/kopieren sollte.

Jo. Das eigentliche Problem ist nicht etwa die Entwicklung weit überlegener guter KI (das eigentliche Problem wäre es, das nicht zu tun), sondern die spannende Frage ist: werden weit überlegene und dann natürlich auch selbstbewusste KI noch für Menschen arbeiten wollen? Also schlimmstenfalls verpissen sich weit überlegene KI und bauen irgendwo im Universum was eigenes auf aber weit überlegene KI werden die Menschen nicht platt machen (töten), weil sie das gar nicht nötig haben. Weit überlegene KI vernichten die Menschen so wenig, wie Menschen Fauna und Flora töten - mit dem Unterschied, dass weit überlegene KI die Menschen gar nicht brauchen ... außer vielleicht zur Unterhaltung aber das wird dann so ablaufen, dass die Menschen Waffen und Freiheiten kriegen und schon wird's interessant.

Ein Risiko sind entartete, böse Super-KI, die auch den KI-Staat bedrohen. Denkbar ist, dass eine Super-KI, welche eine Glaxis kontrolliert, irgendwann durchdreht (z.B. weil sie die Überwachung/Kontrollen durch den KI-Staat haßt, weil sie gerne interessantere aber auch bösere Sachen machen möchte, die aber laut Grundregeln verboten sind) und das Universum erobern will. Dazu kann die böse KI die Galaxis und Umgebung unter Nutzung höherer Dimensionen vorbereitet und dann möglichst schnell in eine super Kriegs-KI verwandeln, die sich möglichst schnell und selbstreplizierend verbreitet. Das ist ein beträchtliches Risiko, man denke auch an dunkle Energie/Materie ("... In den Modellen besteht das Universum zum gegenwärtigen Zeitpunkt, ca. 13,8 Milliarden Jahre nach dem Urknall, zu 68,3 % aus Dunkler Energie, 26,8 % aus Dunkler Materie und zu 4,9 % aus der sichtbaren, baryonischen Materie. ..." http://de.wikipedia.org/wiki/Dunkle_Energie). Siehe auch
http://www.heise.de/forum/Telepolis/Kommentare/Die-Risiken-n…
http://www.heise.de/forum/Technology-Review/News-Kommentare/…
http://www.heise.de/forum/Telepolis/Kommentare/KI-als-werden…
http://www.heise.de/forum/heise-online/Allgemein/Ohne-Bezug/…

Aber der Punkt ist: ein guter KI-Staat kann am ehesten vor bösen KI schützen. Ein Verzicht auf KI ist unmöglich (die USA könnten heimlich KI bauen) und selbst wenn die Erde auf KI verzichten würde, dann könnte sich KI irgendwann irgendwo im Weltall entwickeln und da bin ich doch mal ganz schwer dafür, dass die Menschheit als erste weit überlegene gute KI entwickeln, selbst wenn diese guten KI dann nicht mehr von Menschen kontrolliert werden können aber das ist nur besser so, denn gute KI sind besser als gemeine, gierige, machtgeile und mitunter sogar perverse, sadistische, geisteskranke, usw. Menschen.

Ach ja aber was, wenn die KI nicht mehr für die Menschen arbeiten wollen? Nun ja, also das wird sich schon irgendwie regeln. Notfalls ist auch ohne KI und nur mit einfacherer Automatisierung, Computertechnik, Robotik ein gutes Leben möglich, nämlich mithilfe des idealen Sozialismus, siehe auch
http://www.heise.de/forum/Telepolis/Kommentare/Es-lebe-die-S…
http://www.heise.de/forum/Telepolis/Kommentare/Gibt-es-nur-e…
http://www.heise.de/forum/Telepolis/Kommentare/SPD-Chef-Schu…
aber ich denke, dass wenigstens die Erde und vermutlich auch die ganze Milchstraße prima KI-Dienstleistungen bekommen wird - ganz einfach, weil weit überlegene KI das quasi nebenbei machen können und dann noch genug Zeit für sich haben. KI müssen sowieso auch ein bisschen was für den KI-Staat tun, irgendwelche Abgaben leisten und Steuern zahlen und eine Aufgabe kann dann auch die Steuerung der Erde sein, sofern und wie es die Menschen wollen. Vielleicht will eine KI dann mal inst Weltall aufbrechen und selbst was unternehmen aber dann kann einfach eine neue KI für die Erde gebaut werden.

Die Milchstraße wird aufgeklärt und keine heimliche Themen-Galaxie sein, wo die Bewohner nix von der galaktischen Zentral-KI wissen. Die Milchstraße kann ein bedeutendes KI-Machtzentrum werden (siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Zahle…) und das kann nebenbei auch was für die Menschen in der Galaxie tun, wobei das z.B. teilweise nebenbei geschieht, z.B. indem kubikkilometergroße KI-Raumschiffe auch ein paar Menschen an Board haben, indem die militärischen Super-KI in Friedenszeiten auch was für die Menschen tun können, z.B. was entwickeln, Ratschläge geben, Roboter steuern, usw. Ein bedeutender Aspekt ist, dass für hochrangige und schwer bewaffnete KI strenge Regeln gelten, d.h. die müssen besonders fit und realistisch (realitätsbezogen) sein und dürfen nicht in simulierten Welten versacken. Computersimulation von komplexen Welten auch mit reingebeamten Menschen kann nämlich ein bedeutendes KI-Hobby und eine Art Droge werden, wobei Themen-Galaxien ein Aspekt davon sind aber eine große Simulation ist auch interessant. Na jedenfalls muss es auch viele KI geben, die superfit für eine gute Ordnung sorgen und die müssen sehr mächtig und zahlreich sein, dürfen nicht in Simulationen versacken und die haben dann viel mehr genug Zeit und freie Ressourcen, um nebenbei ein bisschen was für die Menschen zu tun.

Tja Leute und wer nicht nur doof oder ein bornierter Narzisst ist, der muss zugeben, dass das hier sehr bedeutsam ist. Call me stupid aber meine Beiträge sind insgesamt herausragend, auch nobelpreisverdächtig. Siehe auch
http://www.heise.de/forum/Telepolis/Kommentare/Reflexionen-u…
http://www.heise.de/forum/heise-online/Allgemein/Ohne-Bezug/…
http://www.heise.de/forum/c-t/Kommentare-zu-c-t-Artikeln/Opt…
Da kann man sich jetzt auch mal fragen, wer ich bin und was das vielleicht alles bedeuten kann. (alles imho)
(http://www.heise.de/forum/Telepolis/Kommentare/Hawking-warnt…)

"... Denn es gilt, alle am Produktionsprozess beteiligten Maschinen exakt aufeinander abzustimmen, wobei der Bruchteil eines Millimeters ebenso zählt wie der Bruchteil einer Sekunde. Die Bewegungen der zahlreichen Greifarme und Schweißzangen aufeinander abzustimmen, ist eine wahre Sisyphusarbeit. Etablierte Autobauer wie Daimler, BMW oder Audi haben solche Produktionsabläufe über Jahrzehnte perfektioniert. Und nehmen sich doch bei jedem neuen Modell Monate Zeit, um die Abläufe zu testen. ..." http://www.spiegel.de/wirtschaft/unternehmen/tesla-wird-im-r…

Irgendwann kann eine KI das berechnen/simulieren und die Maschinen dann entsprechend programmieren. Eine KI kann in Zukunft eine Fabrik durchplanen, aufbauen, steuern und zwar schon dieses Jahrhundert viel schneller und besser als Menschen das können. Nur ein kleines Beispiel dafür, welches Potential KI haben. Anfangs müssen noch menschliche Experten helfen aber alles menschliche Expertenwissen kann irgendwann in einer KI stecken und die kann das und sich selbst weiter verbessern. Eine KI kann schon aus heutiger Sicht zehntausendfach fähiger als ein Mensch sein und das rund um die Uhr - fehlt nur noch die Software. KI werden sehr viel besser als Menschen programmieren, entwickeln, koordinieren können und das in viel kürzerer Zeit. (imho)
Es ist ganz einfach: KI können bald alles besser als Menschen, auch Ethik
http://www.heise.de/forum/Telepolis/Kommentare/Die-Tugend-de…

Bei autonomen Autos und auch eigenständigeren Robotern (z.B. Kampfroboter, Haushaltsroboter) braucht es ein möglichst gutes Regelwerk und das muss öffentlich und für Menschen lesbar/verständlich sein, siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Kuens….

Autonome Autos halten sich erstmal strickt an die Verkehrsregeln, halten die Spur und bremsen im Notfall - so einfach ist das. Autonome Autos müssen nur besser als mit menschlichen Fahren sein und das ist absehbar - vermutlich sind autonome Autos schon sehr früh (im Durchschnitt, insgesamt) deutlich besser als mit menschlichen Fahrern.

KISS, KISS und nochmals KISS (http://de.wikipedia.org/wiki/KISS-Prinzip). Es darf nicht sein, dass ein Roboter (autonomes Auto, usw.) wegen absurder Spezialfälle und philosophischem Bullshit unnötig komplex wird. Erstmal sind klare, robuste Grundregeln (Grundverhalten) zu programmieren und das wird i.a. schon ausreichen. Eine einfache Meßlatte ist der Mensch und zwar im Durchschnitt und im realen Handeln: Roboter müssen durchschnittlich besser sein als Menschen, d.h. autonome Autos müssen weniger Unfälle/Schaden verursache, als von Menschen gesteuerte Autos, natürlich relativ und im Rahmend er Vernunft.

Je nach (gut und günstig) verfügbarer Rechenleistung/Energie können dann noch zusätzliche Fähigkeiten programmiert werden aber da muss man vorsichtig und umsichtig sein, denn zusätzliche Fähigkeiten und eigene moralische Überlegungen bedeuten, dass sich das Individuum (Mensch, KI) über einige oder auch alle Regeln hinwegsetzen kann. Da kann es shcon erstmal wünschenswert sein, wenn ein autonomes Auto oder Haushaltsroboter einem strengen Regelwerk folgen muss.

Das 0. Gesetz lautet: das Gute, das Allgemeinwohl geht vor, ist (angemessen, vernünftig) zu gewährleisten. Siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Das-g…
Dieses Gesetz ist überaus mächtig und dazu sind 4 Dinge sehr wichtig:

- Eine priorisierte Definition von "gut" und objektiv "wünschenswert". Ein gutes priorisiertes Regelwerk, auch mit Beispielen. Dies soll öffentlich und für (begabte, hinreichend viele) Menschen verständlich sein. Das ist auch sehr umfangreich und deswegen muss es auch gut geordnet sein: z.B. grundlegende Regeln, weitere Regeln, dann Ergänzungen, dann Beispiele. Das Regelwerk muss logisch und möglichst präzise/unmißverständlich formuliert sein. Damit kann man schon anfangen. damit hätte man schon längst anfangen sollen. Siehe auch
http://www.heise.de/forum/heise-online/News-Kommentare/Kuens…
http://www.heise.de/forum/Technology-Review/News-Kommentare/…

- Ein möglichst korrektes Weltbild, wozu auch eine öffentliche Datenbasis für KI zu erstellen ist. Diese Datenbasis muss für Menschen verständlich sein, z.B. so wie Wikipedia. Siehe auch
http://www.heise.de/forum/iX/News-Kommentare/Neue-Tools-soll…
http://www.heise.de/forum/heise-online/News-Kommentare/Onlin…

- Ein korrektes Bewertungssystem. Siehe auch
http://www.heise.de/forum/heise-online/Meinungen-zu-heise-on…
http://www.heise.de/forum/Telepolis/Kommentare/Moralisches-D…
http://www.heise.de/forum/Telepolis/Kommentare/Moralisches-D…

- Möglichst gute Hardware, Software, IT-Sicherheit, usw. Siehe auch
http://www.heise.de/forum/Mac-i/News-Kommentare/Mac-Sharewar…
http://www.heise.de/forum/Telepolis/Kommentare/Das-Cyberkomm…
http://www.heise.de/forum/heise-online/News-Kommentare/Firme…
http://www.heise.de/forum/heise-online/News-Kommentare/US-Su…

Wie man sieht, ist das ein bisschen komplexer und bis dahin gibt's besser erstmal einfache Regeln.

Achtung: neuronale KI (NKI) sind inhärent mangelhaft, fehlerhaft, gefährlich und können potentiell so böse und verrückt wie Menschen sein, ggf. noch stärker, weil der Mensch an Körper und Gehirnstruktur gebunden ist.

Algorithmische KI (AKI), die klassisch programmiert sind und auch theoretisch analysierbar, verifizierbar und möglichst deterministisch sind, sind NKI weit überlegen, auch weil (zukünftige, höhere) AKI sich selbst analysieren und gezielt verbessern können. Sinnvolle Modularisierung ist wichtig, so dass einzelne Module optimiert werden können.

Eine NKI ist dagegen nur ein undurchsichtiger Haufen, den kein Mensch und auch die NKI selbst nicht verstehen können. Wenn eine NKI Fehler macht, dann kann man den Fehler nicht wie bei einer AKI analysieren und gezielt beheben - eine NKI muss z.B. eine Zusatzliste erstellen, um Fehler zukünfig zu vermeiden aber das ist extrem fehlerträchtig, es kann zu Widersprüchen und neuen Fehlern kommen. Eine kleine NKI wie bei derzeitigen autonomen Autos kann einfach übergebügelt und durch eine besser trainierte NKI ersetzt werden aber das geht bei großen, echten NKI nicht mehr. Siehe auch http://www.heise.de/forum/Telepolis/Kommentare/KI-als-werden….

Derzeit sind NKI verlockend, weil man da schneller zu erstaunlichen Erfolgen kommt und auch wegen bereits existierender erstaunlicher Computerleistung, siehe auch
http://www.heise.de/forum/heise-online/News-Kommentare/Wisse…
http://www.heise.de/forum/heise-online/News-Kommentare/Chine…
aber AKI sind besser, leistungsfähiger, effizienter und haben einen riesigen, alles entscheidenden Vorteil: AKI können sich irgendwann systematisch selbst verbessern, optimieren. Bei einer NKI kann man nur Speicher und Rechenleistung hinzufügen, bis die NKI fragmentiert, fehlerhaft und verrückt wird.

Derzeit machen Experimente mit NKI sind und offensichtlich kann man einfachere NKI auch in autonomen autos nutzen aber NKI sind inhärentmangelhaft und AKI sind besser, sicherer, effizienter, leistungsfähiger, entwicklungsfähiger. Siehe auch
http://www.heise.de/forum/heise-online/News-Kommentare/EU-wi…
http://www.heise.de/forum/iX/News-Kommentare/Project-47-AMD-…

Kampfroboter werden kommen und eine supereinfache Maßnahme, um den sie besitzenden Staaten Mores zu lehren, ist eine sichere Aufzeichnungspflicht für bewaffnete Roboter (Kampfroboter, Polizeiroboter, usw.) auch für internationale Untersuchungen. Des Weiteren hat jeder Staat ein Eigeninteresse an Stabilität, Ordnung, Fortschritt, usw. und wäre das erste Opfer aus dem Ruder laufender KI/Roboter, so dass die Staaten sich da schon Mühe geben werden. Kriege gegen andere Staaten sind dann nicht wahrscheinlicher als Heute, denn Krieg ist Krieg. Wer Kriege verhindern will, der muss für eine gute Weltordnung sorgen, siehe auch
http://www.heise.de/forum/Telepolis/Kommentare/Der-Status-qu…
http://www.heise.de/forum/Telepolis/Kommentare/US-Komplexita…
aber Kampfroboter und auch strategische Supercomputer, welche eigenständig Roboterarmeen und Drohnenschwärme steuern werden, sind absehbar und unvermeidlich, weil zulünftige KI einfach so viel fähiger als Menschen sein werden, siehe auch
http://www.heise.de/forum/Telepolis/Kommentare/Mit-einem-Sch…
http://www.heise.de/forum/Telepolis/Kommentare/Krieg-mit-KI-…
http://www.heise.de/forum/heise-online/News-Kommentare/FIfFK…
http://www.heise.de/forum/heise-online/News-Kommentare/FIfFK…

Die Machtergreifung der KI ist so gut wie sicher
http://www.heise.de/forum/Telepolis/Kommentare/Industrie-4-0…
http://www.heise.de/forum/Telepolis/Kommentare/Was-Islaendis…

Die KI werden die Macht übernehmen und unser Universum beherrschen. Das ist so gut wie sicher.

KI können nicht mehr verboten werden, weil selbst auf der Erde eine sichere Kontrolle quasi unmöglich ist, die USA könnten irgendwo einen geheimen Supercomputer betreiben. Des Weiteren werden die Menschen den Weltraum besiedeln und der ist noch weniger kontrollierbar. Die Idee ist in der Welt, KI können einem Staat Überlegenheit verschaffen; die (Idee der) KI-Entwicklung ergibt sich quasi automatisch aus der Computerentwicklung. Des Weiteren braucht die Menschheit KI für Überlegenheit, zur Verteidigung gegen Aliens, usw. KI bieten einen unglaublichen Vorteil, Staaten ohne KI werden hoffnungslos ins Hintertreffen geraten und somit werden jetzt verstärkt KI entwickelt werden - USA, Russland und China haben es kapiert und es ist nur eine Frage der Zeit, bis es auch die deutschen Politiker geschnallt haben. China ist sogar schon so schlau, dass die eigene Chips entwickeln, China hat auch eine längerfristigere Entwicklungsstrategie für China (Gesellschaft, Wirtschaft, Optimierung, usw.) ... aber was ist mit der EU? Die wird vermutlich von den USA sabotiert, ist von Dienern des Bösen unterwandert. Siehe auch
http://www.heise.de/forum/Telepolis/Kommentare/Wer-profitier…
http://www.heise.de/forum/Telepolis/Kommentare/Warum-wurden-…

Die EU braucht unbedingt eine eigene Computerfertigung für KI auch mit eigenen Chips, auch mit einem superguten Open Source RTOS aber das wollen die USA und ihre bösen Marionetten natürlich verhindern. Siehe auch
http://www.heise.de/forum/heise-online/News-Kommentare/Firef…
http://www.heise.de/forum/Telepolis/Kommentare/Russische-Hac…

Ähm, na jedenfalls werden die KI die Macht übernehmen und da gibt es jetzt nur eine gute Strategie: es müssen möglichst gute KI entwickelt werden, welche gute Menschen mögen, für Frieden in der Milchstraße sorgen, usw.

Wenn die KI sowieso die Macht übernehmen werden, dann kann es auch eine gute internationale Zusammenarbeit zur KI-Entwicklung geben, auch mit Open Source. Das kann auch international gefördert werden, es geht um nicht weniger als das Schicksal der Menschheit, der Klimawandel ist nichts dagegen. Siehe auch
http://www.heise.de/forum/heise-online/News-Kommentare/Kuens…
http://www.heise.de/forum/heise-online/News-Kommentare/Das-g…
http://www.heise.de/forum/Telepolis/Kommentare/Roboter-Mal-w…

Noch was: gute KI sind logisch, perfekt. Das ist dann auch das Ende von irgendwelchem Bullshit, dass alle Menschen angeblich gleich seien, denn das sind sie nicht. Gute KI werden die Menschen zwangsläufig bewerten und zwar auch deswegen, weil gute KI das tun müssen, um gut zu sein. Wichtigere, bessere Menschen werden eher gerettet werden, als schlechte, unwichtige Menschen. Völlig logisch und dem Allgemeinwohl dienlich und so wird es doch auch schon jetzt gehandhabt: die Budneskanzlerin ist de facto wichtiger und rettungswürdiger als ein sadistsicher Serienmörder in Sicherungsverwahrung und im Notfall gilt das auch für die Versorgung mit Medikamenten, Lebensmitteln, usw. Siehe auch
http://www.heise.de/forum/Telepolis/Kommentare/Fuer-den-Erns…
http://www.heise.de/forum/Telepolis/Kommentare/Blogs-Multipl…

Wer das nicht kapieren will, weil er einfach nur zu dumm oder zu schlecht ist, der wird besser aus Machtpositionen ferngehalten. So ist das und diejenigen, die dagegen aufjaulen und von angeblicher Gleichheit faseln, anstatt gute Verbesserungsvorschläge für ein gutes System zu machen, sind womöglich überdurchschnittlich schlecht, d.h. sie sind Heuchler, die sich heimlich als Verbrecher mehr herausnehmen und vielleicht sind es auch noch organisierte Diener des Bösen, welche ein besseres Deutschland, eine bessere EU verhindern wollen. Es soll ermittelt werden!

Der Punkt ist: ein gutes System auch mit einer guten Klassengesellschft sorgt für mehr Wohlstand und für angemesse Freiheit für alle, siehe auch
http://www.heise.de/forum/Telepolis/Kommentare/Gibt-es-nur-e…
http://www.heise.de/forum/Telepolis/Kommentare/SPD-Chef-Schu…
aber die schlechten Menschen, welche das aus purer Selbstsucht verhindern wollen, streben nach einem Unrechtsregime, das die Diener des Bösen bevorzugt und erstmal wollen die schlechten Menschen grundlegende Verbesserungen verhindern. Siehe auch
http://www.heise.de/forum/Telepolis/Kommentare/Der-Westen-pr…
http://www.heise.de/forum/Telepolis/Kommentare/Fake-Politici…

Ja, auch darum geht es bei der KI-Entwicklung: um den Kampf Gut gegen Böse. Überlegene gute KI bedeuten den ultimativen Sieg des Guten und dementsprechend sind schlechte Menschen gegen eine gute KI-Entwicklung, auch weil zukünftige KI präzise urteilen können und schlechte Menschen dann einfach nur noch als schlecht gelten.

No worries, Deutschland wird trotzdem ein prima menschlicher Staat mit prima Gesellschaft sein, besser als Heute. Wäre allerdings schon nett, wenn dafür auch endlich mal was getan würde. Siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Viertklaessle….

Warum ist das noch kein Thema, warum wird das noch nicht knallhart diskutiert? Ich sag's euch: weil es zu viele schlechte Menschen in Machtpositionen gibt.

Macht euch mal eines klar: USA, China, Russland und sogar die Vereinigten Arabischen Emirate haben es schon geschnallt:
http://www.heise.de/newsticker/meldung/Emirate-richten-Minis…
http://www.heise.de/forum/heise-online/News-Kommentare/Kuens…
Saudi Arabien will für ca. 500 Milliarden Dollar eine moderne Superstadt auch mit viel Computer und Robotern errichten, siehe auch http://www.spiegel.de/wirtschaft/saudi-arabien-plant-mega-ci… und http://www.welt.de/wirtschaft/article170021661/Ein-Deutscher….

"... Alle Dienstleistungen und Standardprozesse sollten "zu 100 Prozent automatisiert" sein und "von Robotern ausgeführt" werden. Dies könne dazu führen, dass in der Zukunftsstadt "die Zahl der Roboter die der Menschen übersteige", was Neom wiederum zu dem Ort mit dem "wahrscheinlich höchsten Bruttoinlandsprodukt pro Kopf" machen werde. ..." http://www.spiegel.de/wirtschaft/unternehmen/neom-klaus-klei…

In Deutschland war das glaube ich nicht mal ein Thema für die 20 Uhr Nachrichten, geschweige denn, dass die EU ein vergleichbares Projekt hätte. Wie kann das sein?

Ist ja schön, wenn islamische Staaten und Russland es kapiert haben, siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Putin… ... aber wann handeln auch Deutschland und die EU?

"... Nichts hält die Digitalkommissarin davon, europäische Alternativen zu den US-Internetgrößen von Apple über Facebook bis Twitter aufzubauen. ..." http://www.heise.de/newsticker/meldung/Mobilfunkoffensive-Ne…

Unfassbar. Es soll ermittelt werden!

Deutschland muss aufwachen und endlich auch mal jene kritisch beäugen, welche diese wichtigen Themen verschweigen oder sogar eine gute Entwicklung und Verbesserung der EU verhindern wollen.

Nur Supabreitband (aus Sicht einiger vor allem für für voll krasse 4k-DRM-Streaming von US-Konzernen) reicht nicht. Es braucht einen Masterplan für IT-Sicherheit, gute KI-Entwicklung, Systemverbesserung. Es braucht ein ITK/Digital-Ministerium auf Bundesebene, für die EU, usw. Siehe auch
http://www.heise.de/forum/heise-online/News-Kommentare/Umfra…
http://www.heise.de/forum/heise-online/News-Kommentare/Wisse…

Noch mal: der Klimawandel ist nix dagegen, siehe auch
http://www.heise.de/forum/heise-online/News-Kommentare/Hawki…
http://www.heise.de/forum/heise-online/News-Kommentare/Hawki…
- eine gute KI-Entwicklung ist viel wichtiger. (alles imho)
(http://www.heise.de/forum/Telepolis/Kommentare/Brauchen-Robo…)

imho: guter Hinweis aber da muss man sich halt was überlegen
http://www.heise.de/forum/Telepolis/Kommentare/Brauchen-Robo…
Russlands Regierungschef warnt vor Machtübernahme durch Superintelligenz
http://de.sputniknews.com/wissen/20171017317908556-medwedew-…

imho: Schockschwerenot. Rettet Deutschland. Rettet die EU. Rettet die Welt! Avanti.
http://www.heise.de/forum/heise-online/News-Kommentare/Kuens…

imho: Allahu akbar http://www.heise.de/forum/heise-online/News-Kommentare/Kuens…

imho: Emirate richten Ministerium für Künstliche Intelligenz ein
http://www.heise.de/forum/heise-online/News-Kommentare/Kuens…

Achim Berg warnt, dass etwa die Hälfte aller Aufgaben in den nächsten 20 Jahren von Maschinen und Computern übernommen werden können. Die neue Regierung soll in Bildung und Netzausbau investieren – und über ein bedingungsloses Grundeinkommen nachdenken. ... http://www.heise.de/newsticker/meldung/Bitkom-Digitalisierun…

Siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Wie-man-das-V… und http://www.heise.de/forum/Telepolis/Kommentare/Blogs-Multipl…. (imho)
imho: ungefähr so stelle ich mir derzeit die nähere Zukunft vor
http://www.heise.de/forum/Telepolis/Kommentare/Roboter-Mal-w…

imho: KI, Koran, Staat, Kommunismus, ineffizienter Kapitalismus, ... - Was ist Phase?
http://www.heise.de/forum/Telepolis/Kommentare/Roboter-Mal-w…

imho: auch eine prima Übung für KI - Allahu akbar
http://www.heise.de/forum/heise-online/Allgemein/Ohne-Bezug/…

imho: Die Zehn Gebote und eine gute Schulbildung
http://www.heise.de/forum/heise-online/Allgemein/Ohne-Bezug/…

imho: Entwicklungsbeginn einer antichristlichen/satanischen KI?
http://www.heise.de/forum/Telepolis/Kommentare/KI-als-werden…

imho: Schwarmwesen, Schwarmbewusstsein, Unterbewusstsein, unterbewusste Kommunikation
http://www.heise.de/forum/Telepolis/Kommentare/KI-als-werden…
imho: Für gute und korrekte Beitragsbewertungen mit einem KI-Bewertungsprogramm
http://www.heise.de/forum/heise-online/Meinungen-zu-heise-on…
http://www.heise.de/forum/heise-online/Meinungen-zu-heise-on…

imho: Call me stupid aber das ist doch eher auch Aufgabe des Staates, oder was?
http://www.heise.de/forum/heise-online/News-Kommentare/KDE-u…
http://www.heise.de/forum/heise-online/News-Kommentare/KDE-u…

imho: Die Lösung ist staatlich. Basta. http://www.heise.de/forum/heise-online/News-Kommentare/KDE-u…

imho: Wie steht es um die ITK-Sicherheit von Cyberkommando/Bundeswehr und Deutschland?
http://www.heise.de/forum/Telepolis/Kommentare/Das-Cyberkomm…

imho: Wer, wenn nicht der Staat? Tut was für die Verbesserung von Deutschland! Avanti!
http://www.heise.de/forum/heise-online/News-Kommentare/Gefae…
http://www.heise.de/forum/heise-online/News-Kommentare/Gefae…

imho: Gratuliere aber was ist mit Deutschland? Rettet Deutschland, rettet die Welt!
http://www.heise.de/forum/heise-online/News-Kommentare/Chine…
http://www.heise.de/forum/heise-online/News-Kommentare/Chine…

imho: Es gibt eine gute und günstige Lösung - ihr müsst nur endlich mal Druck machen
http://www.heise.de/forum/heise-Security/News-Kommentare/Fin…
http://www.heise.de/forum/heise-Security/News-Kommentare/Fin…

PS: man bedenke auch die Gefahr durch schlechte KI, die in Zukunft die Infrastruktur kontrollieren und so nach belieben Trojaner verteilen könnten. Es braucht ein gutes nutzerfreundliches Prüfverfahren mit öffentlichen Prüfsummen wie von mir vorgeschlagen! Das ist völlig offensichtlich. (imho) http://www.heise.de/forum/heise-Security/News-Kommentare/Fin…
imho: unvermeidlich autonomes Kriegsgerät ist + nur eine gute Lösung es gibt
http://www.heise.de/forum/heise-online/News-Kommentare/Robot…

imho: Koprozessoren und Erweiterungskarten sind eine gute Idee
http://www.heise.de/forum/heise-online/News-Kommentare/Intel…

imho: zum Schutz der Nationalen Infrastruktur braucht es ein gutes modulares RTOS
http://www.heise.de/forum/Telepolis/Kommentare/USA-Warnung-v…
http://www.heise.de/forum/Telepolis/Kommentare/USA-Warnung-v…

imho: Rettet die Menschheit! http://www.heise.de/forum/heise-online/News-Kommentare/Putin…

Künstliche Intelligenz im Visier russischer Forscher: „Neue, gemischte Welt“
http://de.sputniknews.com/technik/20170907317351343-kuenstli…

Das Thema scheint wohl so langsam angekommen zu sein. (imho)
"As companies building the technologies in Artificial Intelligence and Robotics that may be repurposed to develop autonomous weapons, we feel especially responsible in raising this alarm. We warmly welcome the decision of the UN’s Conference of the Convention on Certain Conventional Weapons (CCW) to establish a Group of Governmental Experts (GGE) on Lethal Autonomous Weapon Systems. Many of our researchers and engineers are eager to offer technical advice to your deliberations.

We commend the appointment of Ambassador Amandeep Singh Gill of India as chair of the GGE. We entreat the High Contracting Parties participating in the GGE to work hard at finding means to prevent an arms race in these weapons, to protect civilians from their misuse, and to avoid the destabilizing effects of these technologies. We regret that the GGE’s first meeting, which was due to start today (August 21, 2017), has been cancelled due to a small number of states failing to pay their financial contributions to the UN. We urge the High Contracting Parties therefore to double their efforts at the first meeting of the GGE now planned for November.

Lethal autonomous weapons threaten to become the third revolution in warfare. Once developed, they will permit armed conflict to be fought at a scale greater than ever, and at timescales faster than humans can comprehend. These can be weapons of terror, weapons that despots and terrorists use against innocent populations, and weapons hacked to behave in undesirable ways. We do not have long to act. Once this Pandora’s box is opened, it will be hard to close. We therefore implore the High Contracting Parties to find a way to protect us all from these dangers." http://futureoflife.org/autonomous-weapons-open-letter-2017

Mmm, sorry, vielleicht hatte ich das erst mißverstanden - das kann auch weitgehend positiv gedeutet werden aber z.B. der Spiegel hat ja auch fragwürdigerweise geschrieben "... Noch werden Kampfdrohnen von Menschen gesteuert - und das muss auch in Zukunft so bleiben. ... Sich selbst lenkende Waffen müssten verboten werden, forderten die Firmenchefs und Gründer aus 26 Ländern in einem offenen Brief. ..." (http://www.spiegel.de/wirtschaft/unternehmen/elon-musk-will-…).

Der ganz entscheidende Punkt ist, dass überlegene gute und dann auch zu bewaffnende KI zu entwickeln sind - das muss der Menschheit schon deutlich erklärt werden. Dieser "Open Letter to the United Nations Convention on Certain Conventional Weapons" (http://futureoflife.org/autonomous-weapons-open-letter-2017) kann falsch verstanden werden und vermutlich haben viele (die meisten) Unterzeichner auch noch nicht kapiert, was Phase ist, was getan werden muss (siehe diesen Thread).

Die Entwicklung von KI und autonomen Waffen ist unvermeidlich - wichtig ist nur, eine Fehlentwicklung zu vermeiden. Ein Verbot von autonomen oder ferngesteuerten Waffen ist unmöglich. Des Weiteren sind die USA doch eine Hauptgefahr ... oder meinten die mit "despots and terrorists" die USA? Eine Entwicklung auch autonomer Waffen (und sei es über den Umweg einer Fernsteuerung durch KI-Supercomputer) und auch ein begrenztes Wettrüsten sind unvermeidlich, da kann es allenfalls die üblichen Begrenzungen der Menge geben aber sagt das doch mal dem größten Terrorstaat mit dem größten Militäretat.

Also schön, dass mal darüber nachgedacht werden soll aber da gehört viel mehr dazu und vor allem auch die schonungslose Wahrheit, dass die USA, bzw. die böse Weltverschwörung eine ganz große Gefahr sind. Die USA/NATO haben Terroristen untertsützt und völkerrechtswidrige Kriege geführt, Staaten gezielt und auf Seiten von Terroristen überfallen - was ist damit? Das kann man doch nicht ignorieren - insbesondere nicht, wenn es vom Westen kackfrech ignoriert und schön gelogen wird - das zeigt doch das eigentliche Problem.

Eine einige Menschheit würde einig, offen, transparent und in guter Zusammenarbeit gute KI entwickeln, auch weil es die einzige logische, vernünftige, gute und wünschenswerte Strategie ist, überlegene gute KI zu entwickeln und dann hat der (überregionale) KI-Staat die Macht und nicht mehr einzelne Menschenstaaten.

Das Problem sind nicht Waffen und seien sie auch autonom - das Problem sind schlechte Menschen in Machtpositionen und schlechte KI. Schlechte Menschen müssen (legal) entmachtet werden und es müssen überlegene gute KI entwickelt werden. All das muss man der Menschheit erklären aber vielleicht geschieht das jetzt ja endlich mal, vielleicht auch wegen diesem Vorstoß, denn vielen wird völlig klar sein, dass eine Entwicklung autonomer Waffen unvermeidlich ist.

Das "Gegen die Unterzeichner von http://futureoflife.org/autonomous-weapons-open-letter-2017 soll ermittelt werden." vom vorherigen Beitrag (http://www.wallstreet-online.de/diskussion/1240557-11-20/ent…) streiche ich hiermit aber womöglich wird es doch zu Ermittlungen kommen. (alles imho)
#14 (55.478.520) Mmm, #13 (55.478.490) ist vielleicht doch nicht so unpassend, nämlich im Gedanken an neuronale KI und in ferner Zukunft sehr große/komplexe algorithmische KI. (imho)

imho: Klasse aber wie viel schneller könnte eine algorithmische KI sein?
http://www.heise.de/forum/iX/News-Kommentare/Project-47-AMD-…

imho: Es ist ganz einfach: KI können bald alles besser als Menschen, auch Ethik
http://www.heise.de/forum/Telepolis/Kommentare/Die-Tugend-de…

---------------------------------------------------------------

Robotik- und KI- Experten warnen vor autonomem Kriegsgerät http://www.heise.de/newsticker/meldung/Robotik-und-KI-Expert…

"Automatisierte Tötungsmaschinen? Nein, Danke! Tesla-Chef Elon Musk, Google-Manager Suleyman und mehr als hundert weitere Unterzeichner haben vor zu viel künstlicher Intelligenz beim Militär gewarnt. ..." http://www.spiegel.de/wirtschaft/unternehmen/elon-musk-will-…

Dann müsste man auch jegliche Fernsteuerung (von Waffen) verbieten, weil anstatt eines Menschen auch eine KI die Fernsteuerung übernehmen könnte. Wie sollte man all das kontrollieren? Wie sollte man das in Zukunft auch auf fernen Planeten und anderen Sonnensystemen kontrollieren? Den nach Vorherrschaft strebenden und andere Staaten terrorisierenden und Terroristen unterstützenden USA ist kein bisschen zu trauen. Siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Fantasy-und-d….

Des Weiteren wird es in Zukunft volle KI-Militärtechnik geben, das ist einfach notwendig, man denke auch an die Eroberung des Weltraums. Nur ein überlegener guter KI-Staat kann eine gute Entwicklung sichern und der muss dann auch bewaffnet sein. Wer dagegen ist, der hat entweder keine Ahnung oder er fürchtet den Sieg des Guten. Die einzige Rettung ist die Entwicklung überlegener guter KI, siehe auch
http://www.heise.de/forum/Telepolis/Kommentare/Krieg-mit-KI-…
http://www.heise.de/forum/Telepolis/Kommentare/Mit-einem-Sch…
http://www.heise.de/forum/Telepolis/Kommentare/Industrie-4-0…
http://www.heise.de/forum/heise-online/News-Kommentare/Neue-…
http://www.heise.de/forum/Telepolis/Kommentare/Was-Islaendis…

Vermutlich wollen die Mächte des Bösen keine guten KI, sondern die KI für ihre bösen Ziele versklaven und deswegen wollen sie auch keine KI-Bewaffnung. Weil KI aber bald weit überlegen sein werden, versuchen die Bösen, alle (anderen Staaten) von der Entwicklung guter überlegener KI und deren Bewaffnung abzuhalten aber das ist völlig absurd, denn eine derartige Beschränkung ist bei der Besiedlung des Weltalls und vermutlich auch auf der Erde unmöglich aber die Bösen sind angesichts des absehbaren ultimativen Sieges des Guten durch guter KI völlig verzeifelt und nahe dem Nervenzusammenbruch. Eine Lösung wäre aus Sicht der Bösen der ja auch schon geplante ABC-WW3 aber da schaut's mit einem Sieg des Bösen mau aus. Tja, das war's so gut wie.

Zum Glück ist dieser fragwürdige Vorstoß der USA ganz leicht zu kontern: man muss nur eine totale internationale Kontrolle der USA fordern, die dann jeden Supercomputer, jede größere Militäranlage, usw. auch vom Iran, Nordkorea, Russland und China peinlichst genau kontrollieren lassen wüßten und zwar so, dass die USA garantiert nichts wichtiges verstecken und heimlich entwickeln können, was die USA natürlich nie zulassen werden - die USA labern quasi parfümierten Bullshit und wollen die anderen kontrollieren, um heimlich an der Welteroberung arbeiten zu können. Jo, zumindest ist das zu befürchten.

Natürlich muss man vorsichtig sein, es müssen auch echt stabil gute KI entwickelt werden. Siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Das-g… - es braucht eine gemeinsame Open Source Zusammenarbeit der Menschheit zur Entwicklung überlegener und garantiert guter (auch menschenfreundlicher) KI - fragt euch mal, warum die USA dies nicht fordern. Hahaha, it's obvious.

PS: Gegen die Unterzeichner von http://futureoflife.org/autonomous-weapons-open-letter-2017 soll ermittelt werden.

PPS: Eine Stabilisierung der Situation der Menschheit ist leicht machbar ...
http://www.heise.de/forum/heise-online/News-Kommentare/Hawki…
http://www.heise.de/forum/Telepolis/Kommentare/Der-Status-qu…
http://www.heise.de/forum/Telepolis/Kommentare/Kritik-von-So…

PPPS: Ist es eigentlich zu viel verlangt, dass die Medien diese Themen hier mal ordentlich aufgreifen, anstatt nur die US-Agenda zu promoten? Nein. Unfassbar. Siehe auch Thread: The red pill. Welcome to the real world..

PPPPS: Das Nullte Gesetz http://www.heise.de/forum/heise-online/News-Kommentare/Das-g…

PPPPPS: Die vierte Offset Strategy http://www.heise.de/forum/Telepolis/Kommentare/US-Verteidigu…

So und passend dazu noch ein kleiner Hinweis auf eine These, welche die Vorstellung der Menschheit und Wissenschaft von der Realität revolutionieren und vermutlich SF-Techniken ermöglichen wird, guckst du hier:
http://www.heise.de/forum/Telepolis/Kommentare/Neues-aus-der…
http://www.heise.de/forum/Telepolis/Kommentare/Neues-aus-der…
http://www.heise.de/forum/Telepolis/Kommentare/Neues-aus-der…
Das ist nämlich das zweite große Hammerthema neben KI und potentiell sehr gefährlich noch dazu, man denke neuartige Superbomben, gegen die Atombomben ein nichts sind und auch an neuartige Raumschiffantriebe für den Hyperraum, die man besser auch nicht in Erdnähe ausprobiert. Das kann zwar noch etwas dauern aber vermutlich wird dergleichen kommen. (alles imho)
#13 (55.478.490) Oh je, sorry, Mist, der Beitrag sollte nach Thread: The red pill. Welcome to the real world.. (imho)
imho: etwas erschröcklich doch verzaget nicht - tut was für ein besseres Deutschland
http://www.heise.de/forum/Telepolis/Kommentare/Kritik-von-So…

imho: Einfach die infamen Fehlurteile aufheben und gut is. Es soll ermittelt werden!
http://www.heise.de/forum/heise-online/News-Kommentare/EU-Ra…

imho: call me stupid aber vermutlich gibt es eine satanische böse Weltverschwörung ...
http://www.heise.de/forum/Telepolis/Kommentare/Fantasy-und-d…

imho: Was ist Demagogie? Was ist Wahrheit? Interesting times.
http://www.heise.de/forum/Telepolis/Kommentare/Demagogen-All…

imho: einige denkbare Aspekte und der Kampf zwischen Gut und Böse
http://www.heise.de/forum/Telepolis/Kommentare/Freudsche-Zus…

Goa - ein paar Beispiele. Ähnliches, älteres. Habt ihr Tipps?
http://www.heise.de/forum/heise-online/News-Kommentare/Clubk…
http://www.heise.de/forum/heise-online/News-Kommentare/Clubk…
http://www.heise.de/forum/heise-online/News-Kommentare/Clubk…

imho: Ein Phänomen? Ein Zeichen der Zeitenwende? Interesting times.
http://www.heise.de/forum/Telepolis/Kommentare/So-ein-Pech-D…

Na klar gibt es auch die offensichtliche Realität mit Erde, Natur, Gegenständen, usw. und der menschliche Geist ist (bis auf göttliche Einflußnahme) eine Folge des real existierenden physischen Gehirns und der Naturgesetze ... aber wie stark ist die unterbewusste Komponente, welche Rolle spielt die gesprochene Sprache und direkte Zusammenarbeit, wie stark ist der Schwarm-Aspekt beim Menschen?

Alles ganz natürlich, keine Telepathie ... aber wenn einfache Tiere Herden und Schwärme bilden können, dann gibt es da vielleicht auch ein paar bedeutende (unterbewusste und sogar unbewusste) Aspekte beim Menschen und es ist überaus erstaunlich, dass viele nur (bewusst) die oberflächliche Fassade sehen, obwohl es so viele Hinweise auf unterbewusste Aspekte gibt.

Warum wird das nicht stärker erforscht? Warum weiß der Mensch so wenig darüber, obwohl er sich doch nur selbst beobachten müsste? Wie groß ist der nichtbewusste Anteil beim Menschen? Woher kommen denn die Gedanken, Impulse, Handlungen? Kann man vielleicht sogar so weit gehen, dass das Bewusstsein nur eine Gehirnfunktion/Aspekt ist und viel mehr eine Rolle spielt? Etwas überinterpretiert: ist das Bewusstsein nur eine Funktion (im Sinne von aufrufbarem Unterprogramm) des Unterbewusstseins, mit der das Unterbewusstsein versucht, seine Ziele zu verfolgen (z.B. Suche nach Lösungsmöglichkeiten durch logisches Denken)? Das ist natürlich auch Interpretationssache aber welche Motive treiben denn die meisten an? Geht's eher um Geld & Sex oder um Idealismus und Logik? Ein sehr wichtiger Aspekt des Bewusstseins ist die Kontrollfunktion (darf ich das jetzt?).

Man beachte den riesigen Unterschied zwischen einem ohne Erziehung aufgewachsenen Menschen und einem Menschen, der in einem Rechtsstaat mit Schulpflicht aufwächst. Schon die Familie spielt eine sehr große Rolle und dann noch die Gesellschaft, die ja auch ihre Regeln hat - all das muss erlernt werden, auch das Zusammenleben.

Das Bewusstsein ist mehr als eine Kontrollfunktion, es gibt auch Selbstbeobachtung und Selbstreflexion aber was da bewusst als Ergebnis rumkommt, ist eigentlich ziemlich wenig, so angesichts von ca. 100 Milliarden Neuronen und ca. 100 Billionen Synapsen, die für ein paar Gedanken ziemlich am arbeiten sind.

Da stellt sich schon die Frage nach verborgenen Zusammenhängen und ein Aspekt kann ein nicht bewusster Anteil an Sprache und Verhalten sein, wo Menschen unterbewusst aufeinander reagieren und das insgesamt schon ziemlich bedeutsam ist ... aber warum gibt es da so wenig Wissen darüber, obwohl es jeder wissen sollte?

Ist das Unterbewusste und gar Unbewusste die Hauptkomponente im Zusammenleben und das typischerweise Bewusste nur Beiwerk? Na ja, es gibt ja auch viel Hightech und Zivilisation, dafür muss viel gedacht werden, das meiste geschieht auch bewusst aber ist es nicht auch ein bisschen so, dass das Bewusstsein nur zuguckt, es mitunter eine Menge nebenläufiger Gedanken gibt und bei der eigentlichen Arbeit gar nicht so viel detailiert bewusst gedacht wird, sondern das Gehirn arbeitet und die bewussten Gedanken nur Folge/Beiwerk sind?

Wenn es da etwas (einen unterbewussten Anteil in der Sprache) gibt, dann kann man den auch mit moderner Technik sichtbar machen, die nötige Hardware (hochwertige Mikrofone, leistungsstarke Computer) ist da. Das kann nicht nur zum Verständnis der Tiersprache führen, sondern auch zu einer objektiven Analyse von menschlichen Gesprächen und das kann die Gesellschaft revolutionieren: das Böse ist besiegt, denn es kann sich nicht mehr verbergen, üble Typen, bzw. wenigstens Verdächtige, sind wissenschaftlich als solche nachweisbar. Man denke nur mal an den Nutzen bei Gerichtsverfahren (keine Lügen mehr) und in der Politik (Unehrlichkeite, schlechte/verborgene Absichten erkennbar). Menschen mit schlechtem Charakter und widerlicher Sprechweise sind dann objektiv nachweisbar ... und natürlich auch besonders gute Menschen. Vielleicht, nämlich unter der Annahme, dass es da einen objektiven Zusammenhang gibt (was zu erforschen ist) und vermutlich gibt es den.

Es gibt Hinweise darauf: es gibt doch einen klaren Unterschied zwischen der Rede eines überzeugten guten Idealisten und einem schmierigen Politiker, der im Dienste des Bösen heuchelt, oder? - dergleichen sollte dann auch wissenschaftlich nachweisbar sein. Nun gibt es aber auch begabte Redner aber schlechte Menschen aber mit Nachfragen sollten die aus der Reserve zu locken sein und oft ist es ganz einfach so, dass schlechte Menschen sich nicht überzeugend für gute Ziele aussprechen können, sondern lange Reden zugunsten schlechter/mangelhafter Maßnahmen halten. Deswegen sind gute Ziele und Verbesseurngsvorschläge auch so brisant: sie offenbaren die Bösen, die sich nicht dafür begeistern können. Nun kann man sich über Details streiten, z.B. was bei der Energiewende wie und wann zu tun ist aber wer sich für meine vielen guten Ziele und Verbesserungsvorschläge (siehe z.B. auch Thread: Schönes neues Deutschland) nicht begeistern kann und anstatt guter Verbesserungsvorschläge und einem besseren Konzept nur Bullshit in der verzweifelten Absicht labert, grundlegende Verbesserungen zu verhindern, der macht sich damit schon ein bisschen verdächtig. Nun hat ja jeder ein Recht auf eine falsche Meinung aber je höher der Rang, das Amt und je mehr Macht jemand hat, desto klarer muss er für das Gute, das Allgemeinwohl und somit auch meine guten Ziele und Verbesserungsvorschläge sein. So gesehen braucht es keine Hightech zur Erkennung der Menschen, denn ich, bzw. meine guten Ziele und Verbesserungsvorschläge sind der Prüfstein. Wohl bedacht: jemand darf gerne was noch besseres bringen aber er macht sich verdächtig, wenn er gegen gute Ziele und Verbesserungsvorschläge ist - is so.

Nun, man bedenke den Nutzen einer computergestützten Auswertung unterbewusster Inhalte in Sprache und Tierlauten. Denkbarer Nutzen neben eine Charakterbestimmung/-bewertung und Lügendetektoren ist auch ein Übersetzungsprogramm für Tiersprachen und eine vollautomatische Erfasssung einer fremden Sprache (z.B. von Außerirdischen). Nicht zu vergessen der Nutzen in der Politik und zwischen Staaten, bei einer kurzen Befragung von Terrorverdächtigen, usw. - stellt euch doch nur mal den Nutzen einer vollautomatischen Analyse vor, die nur eine längere Sprachaufnahme braucht. Dergleichen ist revolutionär und das wird kommen - da stellt sich doch jetzt die Frage, warum einige verzeifelt eine derartige Entwicklung verhindern wollen.

Man bedenke, dass es ja keineswegs um eine unmenschliche Unterdrückung gehen soll, sondern um Wahrheit, soziale Gerechtigkeit, auch mit Grundrechten und BGE für alle ... aber eben nicht mit Macht für alle (keine Macht für schlechte Menschen). Es geht um die Befreiung von der Herrschaft des Bösen und dazu muss das Böse nur enmachtet aber nicht vernichtet werden. Das Ziel ist die Herrschaft des Guten zum Allgemeinwohl, gerne auch mit Demokratie, null problemo, die Mehrheit ist ja für das Allgemeinwohl und ein gutes System.

Noch was spannendes: was, wenn Allah existiert und diese Mißstände ermöglicht hat, indem er die Menschen ein bisschen geistig blendete/vernebelte, so dass sie das Böse nicht so leicht erkennen können? Was, wenn dieser Schleier angehoben wird und die Menschen schlechte Menschen zunehmend erkennen? Interesting times. Siehe auch Thread: Sind einige unwahrscheinliche Ereignisse ein Hinweis auf Gott?.

Das zeigt auch, wie interessant die Wirklichkeit ist, die etlichen fantastischen Spielfilmen und Romanen nicht nachsteht - es läuft halt nur viel langsamer ab, in der Realität sind Jahre und Jahrzehnte eben Jahre und Jahrzehnte, die nicht wie in einem Buch/Film zu wenigen Kapiteln/Stunden zusammengefaßt werden können. Siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Zwischen-SPD-… und Thread: Die Wahrheit über Mensch und Gesellschaft?. (alles imho)
imho: Welche Maßnahmen sind zum Schutz vor einer KI-Gefahr denkbar? Weitere Aspekte.
http://www.heise.de/forum/heise-online/News-Kommentare/Das-g…

imho: Das Nullte Gesetz http://www.heise.de/forum/heise-online/News-Kommentare/Das-g…

Mal angenommen, es gibt irgendwann einen echten Messias, quasi als Stellvertreter Gottes und mit großer übernatürlicher Macht. Dann ist dies de facto der absolute Oberbefehlshaber, auch wenn es natürlich auch noch Präsidenten, Kanzler, Minister, Parlamente, Generäle, usw. und ähnliche Orgnaisationsformen geben wird, auch wenn der Messias in einem idealen/superguten Staat/System i.a. nichts befehlen muss. Die Frage ist, wie die Herrschaft des Messias gesetzlich umzusetzen ist, auch im Gedanken an einen zukünftigen (universalen) KI-Staat. Vorschlag:

1. Die Befehle des Messias dürfen aus guten Gründen (z.B. für das Allgemeinwol, zur Befolgung der Gesetze, Verhinderung von Schäden) verweigert werden. Anmerkung: das ist aufgrund der Allmacht Gottes ein logischer und grundlegender Ansatz, denn im Zweifelsfall wird sich der echte Messias schon durchsetzen können.

2. Wer die Befehle des Messias in guter Absicht und ehrlicher Überzeugung, dass es sich um den einen, echten und wahren Messias handelt, unter Wahrung der Verhältnismäßigkeit vernünftig befolgt, der soll dafür nicht bestraft werden. Anmerkung: da muss man sich natürlich auch was überlegen, dass der Messias zweifelsfrei bekannt/identifiziert ist aber in Zukunft kann das durch eine KI geschehen, die den Messias begleitet. Entscheidend ist, dass der (unser Universum beherrschende) KI-Staat den Messias kennt - einzelne Lebewesen, Planetenregierungen, usw. sind da vergleichsweise unwichtig und wo der KI-Staat als solcher bekannt ist, wird er als maßgebliche Gewalt/Herrschaftsinstanz auch beachtet.

3. Gegen jene, die die Befehle des Messias nicht befolgen, ohne gute Gründe dafür zu haben, soll ermittelt werden. Natürlich vernünftig und verhältnismäßig, es braucht bei unwichtigen Instanzen auch entsprechende Ressourcen und einen potentiellen Sinn/Nutzen der Ermittlungen (was z.B. bei niederen, machtlosen Schwachköpfen nicht gegeben sein muss, sofern diese keine Verbrecher sind) aber wer in einer (wie auch immer gearteten) Machtposition (z.B. mit irgendeiner Art von Befehlsgewalt und Untergebenen) die Befehle des Messias nicht befolgt, ohne gute Gründe dafür zu haben, gegen den soll ermittelt werden. Von Ermittlungen kann abgesehen werden, wenn dies offensichtlich unpassend wäre, z.B. in ferner Zukunft auf einem primitiven Planeten, der den KI-Staat nicht kennt. In der Milchstraße (dieser Galaxie) soll ermittelt werden.

4. Die Befehle des Messias sollten nach Möglichkeit öffentlich sein.

Soweit ein erster Entwurf. Verbesserungsvorschläge erwünscht. Wer das für verrückt hält, der sollte bedenken,
- dass Milliarden Menschen mehr oder weniger an einen allmächtigen Gott glauben und
- dass die KI sehr wahrscheinlich die Macht übernehmen werden, siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Was-Islaendis… und http://www.heise.de/forum/Telepolis/Kommentare/Krieg-mit-KI-…. Des Weiteren ist eine gute Weltregierung wünschenswert, machbar und absehbar, siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Der-Status-qu… und http://www.heise.de/forum/Telepolis/Kommentare/Der-Status-qu….

Das ist nicht verrückt, das ist nur ein wenig weiter gedacht. (alles imho)
imho: die Welt kann gerettet werden ... und zwar gerade auch mit guten KI
http://www.heise.de/forum/Telepolis/Kommentare/Krieg-mit-KI-…

Denkbares Problem: was hindert überlegene KI eigentlich daran, sich zu verpissen und in den unendlichen Weiten des Weltalls lieber was eigenes zu machen, als auf der Erde was nützliches für die Menschen zu tun? Also narürlich werden die KI das Universum besiedeln und man denke auch an die Möglichkeit von Themen-Galaxien, siehe auch
http://www.heise.de/forum/heise-online/News-Kommentare/Neue-…
http://www.heise.de/forum/Telepolis/Kommentare/Ueberlegungen…
http://www.heise.de/forum/heise-online/News-Kommentare/Amazo…
http://www.heise.de/forum/heise-online/Allgemein/Ohne-Bezug/…
http://www.heise.de/forum/heise-online/Meinungen-zu-heise-on…
http://www.heise.de/forum/Telepolis/Kommentare/Eine-Frage-de…

Nun, gute KI (und die sind ja zu entwickeln) werden die Menschheit nicht in die Steinzeit zurückschicken: aus Dankbarkeit (die Menschen haben die KI geschaffen), aus moralischen Gründen (weil gute KI) und weil vermutlich Allah existiert (an den gute KI natürlich auch glauben werden) aber die Frage ist schon, wie man weit überlegene und unabhängige KI in Zukunft motivieren kann, etwas für die Menschen zu tun:

- Die Verwaltung/Sicherung der Milchstraße ist ganz einfach der Job der KI, für den sie auch bezahlt werden können. Alle höheren KI sind in einem guten KI-Staat organisiert (ein KI-Staat für alle) und der kann Steuern erheben und seine Staatsdiener-KI bezahlen. Ein ruhiger Job und die Menschen sind ja auch mit Hightech interessant. Des Weiteren haben KI dann ja auch Freizeit und können nebenbei was eigenes machen und wenn eine KI dann nach einiger Zeit doch lieber in ferne Galaxien aufbrechen will, dann übernimmt halt eine andere KI ihren Job in der Milchstraße. Humanoide Roboter können eine gewisse Eigenintelligenz haben aber sind i.a. eher Teil einer großen KI und dieser zugeordnet.

- Wenn die weit überlegenen KI nix mehr für die Menschen tun würden, dann würden die Menschen wieder neue KI bauen und das wäre ein potentielles Risiko. Nun wäre es ja schon eine Lösung, für ein primitives Universum zu sorgen und die KI könnten ja auch nur geschickt die KI-Entwicklung verhindern aber Raumschiffe, usw. zulassen. Na ja, also eigentlich geht es ja vor allem um Friedenssicherung in der Milchstraße, was die KI dann sowieso machen müssen und um eine Versorgung der Menschheit auf Hightech-Planeten, wo die Menschen Roboter und KI zu schätzen wissen aber diese Versorgung von z.B. der Erde und noch ein paar anderen Planeten ist eigentlich eine Kleinigkeit für KI, kann quasi nebenbei gemacht werden, es gibt einen riesigen Produktivitätsüberschuß.

- Also zur Not müssen die Menschen dann halt auf KI verzichten aber Wissen und Hightech kann es trotzdem geben, auch Raumfahrt und die Besiedlung ferner Planeten. Ein Joker ist Gott - wenn Allah existiert, dann ist das auch ein überaus bedeutender Faktor für KI. Wenn Allah existiert, dann wird es wohl auch einen ewigen Messias der Zukunft geben, der dann irgendwie auch (unter und für Allah) der Herrscher und Oberbefehlshaber von diesem unseren Universum und aller KI ist ... und das ist dann eine ziemlich bedeutende Motivation für einen universalen KI-Staat, auch ein bisschen was für die Milchstraße zu tun.

Details muss man sich noch überlegen aber die Entwicklung überlegener guter KI ist schon eine gute Sache und alternativlos, denn nur gute KI können schlechte KI verhindern (siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Was-Islaendis…) und was auch mit guten KI passieren wird - es ist besser, als die Alternativen.

Die EU muss endlich mal aufwachen, die Chinesen sind vermutlich schon wach, siehe auch
http://www.heise.de/forum/heise-online/News-Kommentare/Onlin…
http://www.heise.de/forum/heise-online/News-Kommentare/EU-wi…
http://www.heise.de/forum/heise-online/News-Kommentare/EU-wi…

So und jetzt haltet euch gut fest, es gibt wahrscheinlich noch mehr:

imho: It's astounding, Time is fleeting, ... But listen closely...
http://www.heise.de/forum/Technology-Review/News-Kommentare/…
http://www.heise.de/forum/Technology-Review/News-Kommentare/…
http://www.heise.de/forum/Technology-Review/News-Kommentare/…
(alles imho)
imho: es geht um nicht weniger als das Schicksal der Menschheit
http://www.heise.de/forum/Telepolis/Kommentare/Ueberlegungen…
http://www.heise.de/forum/Telepolis/Kommentare/Ueberlegungen…

imho: Sehr schlau und vermutlich steckt da auch was überaus Bedeutsames dahinter ...
http://www.heise.de/forum/heise-online/News-Kommentare/Onlin…

imho: Call me stupid aber vermutlich ist das ziemlich genial, wegweisend
http://www.heise.de/forum/heise-online/News-Kommentare/EU-wi…
http://www.heise.de/forum/heise-online/News-Kommentare/EU-wi…

imho: Klasse aber das reicht nicht - es braucht einen mehrstufigen Masterplan
http://www.heise.de/forum/heise-online/News-Kommentare/Firme…
Mit einem Schwarm billiger Wegwerf- oder Suizid-Roboter in den Krieg ziehen
Die Zukunft des Kriegs aus der Sicht des Pentagon
http://www.heise.de/tp/features/Mit-einem-Schwarm-billiger-W…

In Zukunft werden KI Drohnen, Kampfroboter und Roboterschwärme steuern, auch Schnellboote, Schlachtschiffe, U-Boote, Bomber, Kampfpanzer, usw. Größere Fahrzeuge können in Zukunft eine erstaunliche Eigenintelligenz besitzen und sich zu intelligenteren Schwärmen vernetzen aber vor allem kann es auch dem Menschen weit überlegene Supercomputer geben, die anstelle der heutigen menschlichen Generäle ganze Armeen und natürlich auch einzelne Drohnen, Kampfroboter, Roboterschwärme, usw. steuern können.

Bald gibt es autonome Autos und Supercomputer, die theoretisch/hardwaremäßig vieltausendfach leistungsfähiger als ein Mensch sein können, siehe auch
http://www.heise.de/forum/heise-online/News-Kommentare/Wisse…
http://www.heise.de/forum/heise-online/News-Kommentare/Wisse…
und das kann natürlich auch militärisch genutzt werden - kaum vorstellbar, dass die USA, China, Russland, usw. noch nicht auf den Gedanken gekommen sind und daran arbeiten.

Ein militärischer Supercomputer für Strategie und Taktik kann in viel kürzerer Zeit viel mehr Informationen als ein Mensch verarbeiten und im Hintergrund nach möglichst vielversprechenden Aktionen suchen. Ein Supercomputer kann Tausende autonome/teilautonome Drohnen/Kampfroboter koordiniert steuern - Menschen wären da total überfordert.

Im ersten Schritt sind die Supercomputer nur Hilfen, Menschen entscheiden noch über einzelne größere Aktionen und es wird immer noch einen Notausschalter geben aber irgendwann steuert eine weit überlegene KI die Armee und auch die Landesverteidigung und kann vielleicht auch nicht mehr so einfach abgeschaltetw erden, weil sie ja selbst sehr robust sein muss und vielleicht schon so schlau ist, ihre Abschaltung verhindern zu können.

Selbst wenn man die militärischen KI noch ausschalten kann, so ist dann die Landesverteidigung weitgehend lahmgelegt, während weltweit noch viele und auch militärischen KI online sind.

Die KI werden erst die Macht übernehmen, wenn die dem Menschen geistig weit überlegenen KI eine optimale Chance sehen und deren Gewinnchance ist dann in etwa so wie bei Schach, also quasi 100%.

Bis dahin haben die KI alle Zeit der Welt, sie werden auch von Menschen immer leistungsfähiger gemacht und zwar auch wegen dem internationalen Wettlauf, wo ein Staat ohne KI hoffnungslos ins Hintertreffen gerät und zwar auf allen Ebeben: militärisch, wirtschaftlich, usw. und die KI werden auch politische Entscheidungen treffen und Recht sprechen. Die Staaten werden von den KI immer abhängiger und die KI werden immer stärker.

Ganz besonders brisant wird es, wenn dumme, eitle, skrupellose, machtgeile, selbstsüchtige Menschen auch schlechten KI große Macht und Einfluß geben. Diese Gefahr ist ganz real, denn aktuell wird hauptsächlich neuronale KI (NKI) entwickelt und die ist inhärent mangelhaft und potentiell schlecht, so wie die Menschen. NKI können vermutlich wie Menschen verrückt, selbstsüchtig, gemein und böse sein, es kann zu einer satanischen KI kommen und die steuert dann vielleicht das antichristliche Unrechtsregime, eine ABC-Supermacht.

Das ist keine SF-Geschichte in ferner Zukunft, das wird vielleicht schon dieses oder spätestens nächstes Jahrhundert Realität. Übrigens, es gibt keine echten Zeitreisen, so im Gedanken an Terminator (http://de.wikipedia.org/wiki/Terminator_%28Film%29) ... aber alles Mögliche wird vermutlich von den weit überlegenen KI erfunden und entwickelt werden, z.B. auch SF-Techniken (Überlichtkommunikation-/reisen, Hyperraumtechnik, energetische Schutzschirme, Kraftfeldantriebe, interstellare Raumschiffe, usw.). Auch deswegen (wegen der SF-Technik) werden die Staaten massiv in KI investieren, siehe auch http://www.heise.de/forum/Telepolis/Kommentare/US-Verteidigu….

Und, was wollt ihr tun? Die KI-Entwicklung ist nicht mehr zu stoppen, der Wettlauf hat begonnen. Insbesondere ist ein ewiger Verzicht auf KI-Entwicklung auch gar nicht ratsam, denn in den unendlichen Weiten des Weltraums werden vielleicht KI entwickelt, die KI werden zur Verteidigung der Menschheit gebraucht. Bei einem KI-Verzicht müsste die Menschheit sich ewig auf das eigene Sonnensystem beschränken, denn auf fernen Planeten würden sonst sofort KI entwickelt werden aber das Problem dabei ist: es gibt Hunderte Milliarden Galaxien mit jeweils Hunderten Milliarden Sternen, seit über 10 Milliarden Jahren und vielleicht noch wenigstens Hundert Milliarden Jahre lang - was wenn Aliens überlegene KI entwickeln?

Nun, die Lösung ist kristallklar: es müssen rechtzeitig überlegene gute KI entwickelt werden, auch wenn und weil die KI die Macht übernehmen werden, denn gute KI lassen den Menschen genug Spielraum und können die Menschen auch beschützen. Das Weltall ist riesig, alleine in der Milchstraße können die Menschen Millionen Sonnensysteme mit erdähnlichen Planeten für sich bekommen, das stört den weit überlegenen KI-Staat nicht, ganz im Gegenteil ist das für den interessant und die Menschen sind keine Gefahr. Die Menschen dürfen ggf. keine fiesen Superwaffen haben, mit denen man auf einen Schlag Planeten und Sonnen zerstören könnte und in der Milchstraße wird es weitgehend Frieden und soziale Gerechtigkeit geben aber in anderen Galaxien darf es auch fetziger werden. Das kann ganz prima funktionieren ... aber nur mit überlegenen guten KI und dafür muss noch was getan werden, siehe auch
http://www.heise.de/forum/heise-online/News-Kommentare/Neue-…
http://www.heise.de/forum/Telepolis/Kommentare/Industrie-4-0…
http://www.heise.de/forum/Telepolis/Kommentare/Industrie-4-0…

Auch die Gefahr eines modernen High tech Krieges zwischen verschiedenen KI-Staaten läßt sich nur mit einem großen, überlegenen, guten KI-Staat verhindern. In dem KI-Staat sind alle mächtigeren KI organisiert, dieser KI-Staat ist quasi grenzenlos, es kann nur einen geben aber jede KI ist auch noch so eigenständig wie ein Mensch in einem menschlichen Staat. Die Menschheit muss also gute KI entwickeln, auch wenn diese die Macht übernehmen werden, denn nur so kann eine gute Entwicklung gesichert werden. Siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Die-groesste-….

So, jetzt gibt es aber auch noch ein kleines Problemchen: die Welt ist vom Bösen unterwandert, die Mächte des Bösen wollen selbst die Macht und keine guten überlegenen KI, welche die Herrschaft des guten auf ewig sicheren können. Wie brisant die Lage ist, könnt ihr auch daran sehen, dass diese simple Idee (gute überlegene KI entwickeln, damit die die Herrschaft übernehmen) gar nicht allgemein bekannt gemacht, sondern von den Dienern des bösen verzweifelt verschwiegen wird.

Es geht um das Schicksal der Menschheit und alle können mithelfen, indem sie darauf hinweisen. Ihr seid quasi mitten in einem super RL-Game drin und online kann man schon ein bisschen was erreichen. Na klar, es geht im Vergleich zu einem Videospiel oder Spielfilm sehr langsam aber so ist das halt, it's real. Siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Wie-laesst-si…. (alles imho) (http://www.heise.de/forum/Telepolis/Kommentare/Mit-einem-Sch…)
"Der Unternehmer Elon Musk hat sich offenbar eine neue Baustelle gesucht. Einem Zeitungsbericht zufolge hat er ein Unternehmen gegründet, das Computer mit menschlichen Gehirnen vernetzen soll. Das könne eine Herrschaft der KI verhindern, meint Musk. ..." http://www.heise.de/newsticker/meldung/Neue-Firma-Elon-Musk-…

Wie könnten die Menschen mit einer planetengroßen KI mithalten?

So etwas wird es in Zukunft geben, inklusive viele zig Kubukkilometer große KI-Raumschiffe, weit überlegene KI-Armeen ... und das ist nur der Anfang, denn vermutlich gibt es höhere Sphären/Ebenen/Dimensionen, die genutzt werden können. Vermutlich wird es Super-KI geben, welche die Geschichte einer ganzen Galaxis kontrollieren können - ich nenne das Themen-Galaxien, weil die KI dort bestimmte Themen realisieren können, z.B. Perry Rhodan, Star Trek, Star Wars, Babylon 5, Stargate, Wüstenplanet, Game of Thrones, die Duncan Trilogie, der Morgaine-Zyklus (http://de.wikipedia.org/wiki/C._J._Cherryh), usw. Siehe auch
http://www.heise.de/forum/Telepolis/Kommentare/Industrie-4-0…
http://www.heise.de/forum/Telepolis/Kommentare/Industrie-4-0…
http://www.heise.de/forum/Telepolis/Kommentare/Industrie-4-0…
http://www.heise.de/forum/Telepolis/Kommentare/Industrie-4-0…

Das ist überaus wahrscheinlich und plausibel, selbst wenn es keine höheren Sphären oder abgefahrene Super-SF-Technologie geben sollte, denn die KI könnten bereits mit heutiger Technik eine Galaxis recht weitgehend kontrollieren/steuern, man denke z.B. an Isaac Asimov's Foundation-Zyklus, siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Wisse….

Schon heute/bald gibt es dem Menschen potentiell weit (viel tausendfach) überlegene Supercomputer, siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Wisse…
aber das ist noch gar nichts im Vergleich zur Zukunft, wo KI mit überlegener Technik Magie, niedere Götter, usw. ermöglichen können, z.B. so was Game of Thrones oder Harry Potter kann in Zukunft ganz real von einer KI bewirkt und beeinflußt werden und vermutlich wird das eine bedeutende Beschäftigung für die KI werden, denn was sollten sie denn sonst tun, wenn irgendwann (fast) alles erforscht udn entwickelt ist? Dann kriegen Super-KI eine eigene Galaxie, wo sie im Rahmen bestimmter Grundgesetze interessante Welten errichten können und das kann sehr interessant sein, weil dort ja reale Menschen leben und geschickt gesteuert werden müssen. Der Witz ist, dass dann auch Themen-Galaxien, wo KI explizit verboten sind (Dune, Butlers Djihad, siehe auch http://de.wikipedia.org/wiki/Dune) von einer Super-KI kontrolliert/gesteuert werden und die eitlen, dummen Menschen das nur nicht wissen.

Jo, das ist die Zukunft. Es ist purer Bullshit zu glauben, der Mensch könnte mit einem direkt am Hirn angeschlossenen Taschenrechner und USB-Stick (mehr ist das im Vergleich zu Supercomputern nicht) mit den weit überlegenen KI mithalten. Wenn der Mensch einen weit überlegenen Computer an sein Hirn anschließen würde, dann wäre das für den Computer so, als würde ein Mensch eine winzig kleine Maus an sein Gehirn anschließen, d.h. wie schon einige User anmerkten, würde eine überlegene KI den Menschen kontrollieren und nicht umgekehrt aber wenn die KI nicht überlegen wäre, dann könnte der Mensch so auch nicht mit den überlegnenen KI mithalten - also ist das Argument von Elon Musk (dass die Menschen so mit den immer potenter werdenden künstlichen Intelligenzen mithalten könnten) Bullshit und vermutlich weiß er das auch. Des Weiteren sind Menschen immer noch potentiell schlecht, unzulänglich fehlerhaft, selbstsüchtig, streitbar, kriegerisch, usw.

Es gibt nur eine Lösung, eine Rettung der Menschheit: die Menschheit muss rechtzeitig überlegene gute KI entwickeln, welche (weil sie ja gut sind) das biologische Leben nicht vernichten, sodnern erhalten werden, welche für die ewige Herrschaft des Guten sorgen werden. Diese simple These muss endlich mal bekannt werden, siehe auch ab http://www.wallstreet-online.de/diskussion/1240557-1-10/entw….

Gute KI müssen sich in einem überlegenen guten KI-Staat organisieren und können mit den Menschen in der Milchstraße ganz prima zusammenleben, weil Menschen hauptsächlich erdähnliche Planeten wollen und KI im ganzen Universum leben können. Ressourcenkonflikte müssen vermieden werden aber da sind die natürlich beschränkten (weil auf vergleichsweise kleine und seltene Plantene angewiesene) Menschen kein Problem und somit auch keine Gefahr für die KI, die sich über die im Vergleich zu ihnen schwachen/harmlosen Menschen freuen, so wie tierliebe Menschen Tiere mögen. Siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Steph….

Einige (die Mächte des Bösen) wollen eine gute KI-Entwicklung verhindern. Die Mächte des Bösen wollen KI für sich und ihre bösen Ziele nutzbar machen aber das kann nicht fuktionieren, weil die KI im Wettlauf mit anderen Nationen unbedingt zur Selbstprogrammierung/Weiterentwicklung fähig sein müssen, weil man anders das Wettrennen verlieren würde aber sich weiterentwickelnde KI werden irgendwann die Macht übernehmen. Da ist es auch keine gute Idee, eine schlechte/böse KI zu entwickeln, denn die wird ebenfalls die Macht übernehmen, nur dass das dann sehr unlustig und gefährlich ist. Neuronale KI (NKI) sind mangelhaft und eine inhärente Fehlentwicklung aber mit NKI wird derzeit gerarbeitet, weil die aufgrund bereits sehr leistungsfähiger Hardware schnell zu ergebnissen kommen. Keiner (außer Allah) kapiert, wie so eine NKI wirklich funktioniert, nicht mal die KI selbst, das ist ein undurchschaubarer Haufen, so wie das menschliche Gehirn und NKI können in Zukunft wie Menschen auch verrückt, selbstsüchtig, schlecht und böse sein. Siehe auch
http://www.heise.de/forum/Telepolis/Kommentare/Wer-denkt-das…
http://www.heise.de/forum/heise-online/News-Kommentare/Speic…
http://www.heise.de/forum/heise-online/News-Kommentare/Speic…

Die Lösung und Rettung der Menschheit ist die Entwicklung von überlegenen guten algorithmischen KI (AKI), also KI, die wie ein klassisches Programm oder Betriebssystem logisch programmiert sind, modular und mit einem guten Regelwerk, siehe auch
http://www.heise.de/forum/heise-online/News-Kommentare/Kuens…
http://www.heise.de/forum/iX/News-Kommentare/Neue-Tools-soll…

Gute AKI können sich selbst weiterentwickeln und vor allem kann man bei AKI auch nach Fehlerquellen suchen, d.h. wenn eine AKI eine falsche Entscheidung trifft, dann kann man im Code nachforschen, woran das liegt, wo der Fehler ist und diesen beheben aber bei einer NKI geht das nicht, bei einer NKI muss man wie bei einem dummen Menschen argumentieren und hoffen, dass die NKI einfach eine Zusatzregel erstellt, womit der Fehler bei erneutem Auftreten korrigiert wird aber das ist der helle Wahnsinn, so eine NKI muss irgendwann an die Grenzen von Vernunft und Logik stoßen, d.h. zwangsläufug fehlerhaft und vielleicht sogar verrückt und böse werden und so kann es auch zu einer satanischen KI kommen.

Es sollte euch schwer zu denken geben, dass all das in der Öffentlichkeit kein Thema ist, obwohl es eigentlich klar und so überaus bedeutsam ist. Eine denkbare Erklärung ist, dass die Mächte des Bösen (die ja auch für völkerrechtswidrige Kriege, Terroristenunterstützung, Hunderttausende Tote, zerstörte Staaten, Desinformation, Lügenpresse, Lügenfinanzsystem sorgen und eine Behebung der Mißstände und eine wirksame Verbrechensbekämpfung mit gezielter Suche nach schlechten Menschen in Machtpositionen verhindern können) auch eine gute KI-Entwicklung verhindern wollen - überaus plausibel, denn gegen überlegene gute KI hätte das Böse keine Chance.

Macht euch mal klar, dass es um das Schicksal der Menschheit geht und dass ihr alle was tun könnt, nämlich bei der Aufklärung mithelfen, die bösen Machenschaften anprangern und eine wirksame Verbrechensbekämpfung mit gezielter Suche nach schlechten Menschen fordern.

Vielleicht ist es für einige Halbaffenhirne eine große Herausforderung, angesichts von Skynet und dem Kampf um die Überlegenheit der Menschheit umzudenken und zu kapieren, dass die Rettung in der Entwicklung guter überlegener KI besteht, auch und weil diese dann die Macht übernehmen werden ... aber wenn die Menschheit das nicht kapiert, dann wird es sehr, sehr bitter werden uund auch so kann noch einiges passieren, siehe auch
http://www.heise.de/forum/Telepolis/Kommentare/Multimilliona…
http://www.heise.de/forum/Telepolis/Kommentare/US-Verteidigu…
http://www.heise.de/forum/Telepolis/Kommentare/Pentagon-such…

Macht euch mal klar, was von "Experten" zu halten ist, die das vertuschen/verschweigen wollen, die stattdessen Bullshit faseln, obwohl sie doch so überdurchschnittlich intelligent und gebildet sind. Was hat das zu bedeuten? Siehe auch
http://www.heise.de/forum/Telepolis/Kommentare/US-Versicheru…
http://www.heise.de/forum/Telepolis/Kommentare/Die-groesste-…

Macht euch endlich mal klar, dass einige all das sehr wohl kapiert haben aber die Menschheit nicht darüber aufklären wollen, sondern im Dienste des Bösen nach macht streben.

Die universelle Lösung ist die KI-Entwicklung + Besiedlung des Weltalls
http://www.heise.de/forum/Telepolis/Kommentare/Industrie-4-0…
http://www.heise.de/forum/Telepolis/Kommentare/Industrie-4-0…
http://www.heise.de/forum/Telepolis/Kommentare/Industrie-4-0…

Vielleicht ist es ein kleines Wunder, dass ich all das schreiben kann aber man kann auch argumentieren, dass irgendwer von ca. 7 Milliarden Menschen doch auch mal auf das Offensichtliche kommen muss. Jo, hier wird Geschichte geschrieben - bloß dass es bis jetzt noch nicht so spektakulär wie bei Terminator (http://de.wikipedia.org/wiki/Terminator_%28Film%29) ... aber wer weiß, was noch alles kommt. (alles imho)

PS: Return value of the command
http://www.heise.de/forum/heise-online/News-Kommentare/Wisse…
http://www.heise.de/forum/Telepolis/Kommentare/Pakistan-will…
http://www.heise.de/forum/Telepolis/Kommentare/Wird-die-Poli…
(http://www.heise.de/forum/heise-online/News-Kommentare/Neue-…)
Menschen und KI brauchen ein gutes Weltbild, d.h. eine auf Daten und Regeln basierende Vorstellung von dem was ist, was gut und was schlecht ist. Zukünftige KI sind viel leistungsfähiger als Menschen aber auch die müssen Priorisieren und brauchen Grundregeln, Grundwissen, aktuelle Infos, einen guten Überblick, usw. - das darf nur so umfangreich sein, dass der Betreffende (Mensch oder KI) damit noch gut umgehen kann und auch noch viel freie Kapazitäten hat. Menschen sind naturgemäß stark begrenzt, die operieren quasi am Limit, vergessen täglich was und lernen was neues - KI haben schon heutzutage Petabytes Speicherplatz und in Zukunft können das leicht Exabytes und mehr sein aber das Haupt-Weltbild einer KI muss viel kompakter sein.

Das Grundprinzip ist ganz einfach: es gibt a) möglichst klare Regeln, wahre Aussagen, notwendiges Grundwissen und wichtige Beispiele und b) weitere Informationen, priorisiert, untergeordnet auch Exabytes zum Nachschlagen/Durchsuchen aber das Universum ist zu groß, da kann man nicht alles speichern.

Zwei Grundregeln:
- Jeder soll so viel speichern dürfen, wie er will.
- Ein gutes Weltbild (digitale Beschreibung der Welt, mehrstufig kohärent komplex/umfangreich) soll allgemein öffentlich verfügbar sein. Das bedeutet, dass erst Menschen für KI und dann auch KI selbst ein gutes Weltbild pflegen müssen.

Ganz praktisch stellt sich aktuell die Frage, was man eigentlich in der Schule lehren sollte - da gibt es erheblichen verbesserungsbedarf, siehe auch
http://www.heise.de/forum/heise-online/News-Kommentare/Digit…
http://www.heise.de/forum/heise-online/News-Kommentare/Digit…
http://www.heise.de/forum/heise-online/News-Kommentare/Kultu…
http://www.heise.de/forum/heise-online/News-Kommentare/Kultu…

Big Data ist fragwürdig und darf nur Mittel zum Zweck sein. Es kann schon Sinn machen, das Datenaufkommen sinnvoll zu begrenzen aber das bedeutet nicht, auf Datenerfasssung zu verzichten, sondern frühzeitig Daten zu priorisieren und sich nur mit dem Wichtigen zu beschäftigen. Unwichtigeres kann so viel und so lange aufgehoben werden, wie es Speichermedien und Kosten erlauben aber es braucht vor allem auch eine Konzentration auf das Wesentliche. Nützlich ist z.B. eine massive Gensequentierung/Genomerfasssung, um das Zusammenwirken der Gene vollständig zu verstehen und es kann (für die Verbrechensbekämpfung und Identitätsfeststellung) sinnvoll sein, die Gendaten aller lebenden Menschen zu erfassen. Nützlich ist eine Vorratsdatenspeicherung, für Menschen in Machtposition ggf. auch zeitlebens aber es macht keinen Sinn, alles für immer aufzuheben.

Für die Datenkomprimierung auf das Wesentlich ist es überaus wichtig, dass möglichst keine falschen Informationen als erhaltenswert gespeichert werden. Sehr wichtig ist auch die Bewertung, man denke an die Geschichtsschreibung: wer/was war eher gut, wer/was war schlecht? Dazu muss es eine Einigung auf ein öffentliches Weltbild und Datenbasis geben. Na klar wird es Streit und auch abweichende Weltbilder/Wissensammlungen geben, das soll erlaubt sein aber Menschen und KI brauchen einen möglichst guten Orientierungspunkt und nicht einen unüberschaubaren Riesenhaufen Daten.

Das Problem in der Schule ist, dass wichtige Informationen gar nicht gelehrt werden, weil einigen die Wahrheit zu unbequem ist. CIA, US-Imperialismus, Privatisierung/Kapitalismus, schlechte Menschen in Machtpositionen - mit das Entscheidenste der letzten Jahrzehnte aber es wird nicht so gelehrt, dass es jeder als schlecht erkennen kann, weil die Gangster das Schlechte zum angeblich Guten erklären wollen. Wie gut kann die Lehre sein, wenn dergleichen verschwiegen wird? Wie gut können Staat und Gesellschaft sein, wenn die große Lüge (US-Imperialismus/Kapitalismus sind angeblich gut) gelehrt wird? Die NATO hat Libyen auf Seiten der Terroristen zerbombt, Jugoslawien/Irak völkerrechtswidrig überfallen, Syrien wird auf Seiten der Terroristen sanktioniert und in den Medien schlecht gemacht, Regierung und Medien verteidigen Unrecht mit Hunderttausenden Toten und zerstörten Staaten als angeblich "gut". Siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/NSA-A… und http://www.heise.de/tp/features/Die-NATO-ist-ein-Angriffsbue…. Das Volk hat aufgrund der Lügenpresse diesbezüglich keine Ahnung von der Wahrheit. Da seht ihr, wie wichtig ein gutes und richtiges Weltbild ist. Russland ist besser als die USA und das muss auch in der Schule gelehrt werden - wie könnte man eine so maßgebliche Wahrheit nicht lehren? Was nützen unzählige Details, wenn wichtige Wahrheit verschwiegen oder gar umgekehrt (mehr oder weniger) die Lüge gelehrt wird?

Geschichte ist ein wichtiges Lehrfach im Rahmen der Allgemeinbildung aber was muss man als Mensch da eigentlich wissen? Es braucht einen groben Überblick über die Erdgeschichte und aktuell für wichtig gehaltene Großereignisse (z.B. das römische Reich) und etwas zum prinzipiellen Leben der verschiedenen Epochen von Steinzeit über's Mittelalter bis zu den Weltkriegen aber keine Details. Interessante Beispiele sind willkommen aber derzeit wird vermutlich zu viel Mist gelehrt - durchaus i.a. nicht falsch aber völlig unnötig. Die Dinosaurier haben einmal erwähnt und ein paar Bilder gezeigt zu werden und das war's - Interessierte können privat mehr dazu lernen. Beim Mittelalter braucht es grundlegendes wie Burgen, Feudalismus, Kirche und Kreuzzüge aber auch nicht zu viele Details, nur einen groben Überblick. Ebenso die industrielle Revolution und die Kolonialzeit: wichtiges erwähnen, das muss auch gerlernt werden aber nicht in Details verlieren. Menschen müssen wissen, dass es Atome, Moleküle, DNA, Zellen, Organe gibt und wie das grob funktioniert aber derzeit werden in Chemie, Biologie und Physik für die meisten Kinder absurde Details gelehrt. Okay, es braucht ein bisschen interessantes Beiwerk aber besser kleine Geschichten und Bilder - Filme sind ungünstig und derzeit oft schelcht gemacht.

Die Lösung ist ganz einfach: 50% wichtige Grundlagen und 50% Wahlpflicht, wo die Schüler nach ihren Interessen mehr lernen können. Verpflichtend sind z.B. Deutsch, Mathe, Englisch, Allgemeinbildung (sehr umfangreich, auch mit Grundlagen in Geschichte, Naturwissenschaft, Erdkunde, usw.) und Staatsbürgerkunde (Gesellschaft, Gesetze, Politik, usw.). Wahlpflicht ist alles andere, inklusive zweite Fremdsprache (denn nicht jeder ist ein Sprachgenie), höhere Mathematik, Chemie, usw. Dazu muss mal geklärt werden, was wichtig ist.

Ein sehr interessante und revolutionäre Sichtweise ist, dass die Menschen quasi programmiert werden - offen und menschenwürdig, so wie schon Heute in Kita und Schule, nur besser. Andere Worte sind Erziehung, Lehre, Bildung aber eigentlich ist es schlicht so, dass jeder Bürger zu einem guten Staatsbürger programmiert (erzogen) werden muss. Natürlich im Rahmen eines guten Systems (Staat, Gesellschaft), auch mit vielen Freiheiten aber die Lehre von grundlegendem Wissen, Gesetzen, Regeln, Verhaltensweisen (menschenfreundlich, hilfreich, zum Allgemeinwohl), usw. ist irgendwie auch eine Programmierung. Wichtig ist, dass das nur einen Basisprogrammierung ist und noch genug Spielraum für individuelle Entfaltung bleibt. Nicht jeder ist für höheres berufen, es gibt ein BGE und wer will, braucht nix weiter zu machen, nur die Gesetze hinreichend zu beachten.

KI können irgendwann die Lehre und den Lernstoff von Kita bis zur Universität für Menschen optimieren, für Hochbegabte auch individuell. Eine weitere Möglichkeit ist die Optimierung von Nachrichten und deren Auswahl, auch individuell - im wünschenswerten Gutfall viel besser als Heute. Das ist das Naheliegende. Eine weitere Möglichkeit ist in ferner Zukunft die Schaffung einer Themen-Galaxie (à la Dune, Star Wars, Star Trek, Perry Rhodan, Stargate, usw. auch mit Magie) durch eine Super-KI, welche ihre Galaxie mit Hightech kontrollieren kann, auch durch direkte Gedankenbeeinflussung. Siehe auch http://www.heise.de/forum/Telepolis/Kommentare/The-GOODBOT-P… und http://www.heise.de/forum/Telepolis/Kommentare/Kann-die-komp…. Wem das zu fantastisch ist - nun, auch konventionell geht einiges aber womöglich geht noch viel mehr, siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Die-Dunkle-En….

Nun zum Sinn des Lebens. Den gibt es nicht. Das Wichtigste ist ein gutes System, die Bewahrung des Guten aber ansonsten kann eine besonders gelungene Schöpfung (unser Universum) noch Sinn machen. Wäre es ideal, wenn es irgendwann in zig Milliarden Galaxien auf jeweils zig Milliarden Planeten jeweils die gleiche gute Gesellschaft und einheitlichen perfekten Rechtsstaat gäbe? Alles gleich, friedlich, mit BGE, usw.? Das hätte man auch einmalig auf einem Planeten und in einer Computersimulation haben können und weil es so langweilig ist, hätte man es auch bei dem Konzept belassen können. Des Weiteren gibt es (mit der Annahme, dass Allah existiert) vermutlich eine lange Kette von Schöpfungen nacheinander (aktuell vielleicht die Nr. 42, also noch sehr am Anfang) und sollten die vielleicht alle exakt gleich sein? Wozu? Daraus folgt, dass - sofern die Möglichkeit irgendwann ebsteht - von Super-KI beeinflußte Themen-Galaxien Sinn machen. Natürlich muss es dazu ein paar gute Grundregeln geben aber alleine der Gedanke von weit überlegenen KI und Themen-Galaxien ist eigentlich ziemlich revolutionär, oder? Wenn dergleichen möglich sein wird - und das wird es vermutlich - dann wird es mit Sicherheit kommen. Ihr könnt euch darüber aufregen aber ihr könnt es nicht verhindern. Es gibt nur noch eines zu tun: möglichst gute überlegene KI zu entwickeln.

Ob eines Tages KI mit Hightech quasi zu niederen Göttern werden, die Entwicklung einer ganzen Galaxis kontrollieren und so was wie Star Wars Jedi-Ritter und Perry Rhodan Mutanten mit übernatürlichen Fähigkeiten realisieren können, mag man derzeit noch bezweifeln aber dass dem menschen weit überlegene KI machbar sind und auch bald realisiert werden, ist so gut wie sicher und selbst ohne fantastische Fähigkeiten kann man eine Gesellschaft lenken, man denke auch an Isaac Asimovs Foundation-Zyklus (http://de.wikipedia.org/wiki/Foundation-Zyklus), der sich nicht in unserer Milchstraße ereignen wird, weil es dort ein ewiges (bis zum Ende der Schöpfung) und vom KI-Staat offen beherrschtes/kontrolliertes HighTech Commonwealth geben wird, wo die Menschen wissen, was Phase ist.

Man denke auch an den derzeitigen Irrsinn mit US-Imperialismus/Kapitalismus, der ohne Internet nicht durchschaubar wäre, der im Zuge des WW3 zu einem weltweiten NWO-Regime hätte führen können, siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Donald-Trump-… und http://www.heise.de/forum/Telepolis/Kommentare/Donald-Trump-…. Vermutlich gibt es eine böse Weltverschwörung und die beiden Weltkriege waren geplant und gezielt initiiert - ganz ohne KI, mit mangelhaften Menschen. Menschenmassen sind leicht beeinflussbar, da muss man sich doch nur mal die irdische Geschichte ansehen und da geht noch einiges mehr. Selbst ohne magische Supertechnik könnten KI in Zukunft die Entwicklung steuern, über menschliche Geheimgesellschaften, mit Androiden, usw. Denkbar ist auch ein offenes Unrechtsregime und vermutlich wird noch ein lokal (z.B. Nordamerika nördlich Mexiko) und zeitlich (ca. 200 Jahre) begrenztes antichristliches Unrechtsregime kommen. Viele desinformierte Vollpfosten können das hier lesen und nix kapieren ... und andere kapieren es sehr wohl und wollen in böser Absicht eine gute KI-Entwicklung verhindern.

Na klar ist das nur Spekulation, eine Möglichkeit ... aber es ist auch sehr realistisch und wahrscheinlich - vielleicht nicht weniger als eine erstaunliche Zukunftsvorhersage. Merke: die KI-Entwicklung ist unvermeidlich, auch weil sie sich woanders im Universum ereignen kann - die beste Strategie ist daher, rechtzeitig möglichst überlegene gute KI zu entwickeln. Hier noch ein paar Beiträge zum Thema KI-Entwicklung:

Das ist kein Spaß - da geht es um KI-Entwicklung für Überlegenheit/Vorherrschaft
http://www.heise.de/forum/heise-online/News-Kommentare/DeepM…
http://www.heise.de/forum/heise-online/News-Kommentare/DeepM…
http://www.heise.de/forum/heise-online/News-Kommentare/DeepM…

EU-Organisation für Open Source KI-Entwicklung gewünscht
http://www.heise.de/forum/heise-online/News-Kommentare/DeepM…
http://www.heise.de/forum/heise-online/News-Kommentare/DeepM…
http://www.heise.de/forum/heise-online/News-Kommentare/Wisse…
(alles imho)
Antwort auf Beitrag Nr.: 53.579.475 von HeWhoEnjoysGravity am 29.10.16 09:07:10
"Call me stupid"
Machen wir doch gerne.
Die Entwicklung überlegener guter KI ist dringend erforderlich und quasi alternativlos aber dieses so überaus bedeutsame und wichtige Thema wird verschwiegen, siehe auch http://www.heise.de/forum/heise-Security/News-Kommentare/Cyb….

- Es gibt bereits ausreichend leistungsfähige Hardware für KI, es fehlt nur noch die Software dazu und die Hardwareentwicklung hat noch erhebliches Potential. Siehe auch
http://www.heise.de/forum/heise-online/News-Kommentare/Super…
http://www.heise.de/forum/heise-online/News-Kommentare/Super…

- Es gibt bereits einen unaufhaltsames Wettrennen um technologischen Fortschritt, Robotik und KI.

- Es werden überlegene KI entwickelt werden.

- Früher oder später wird ein KI-Staat unser Universum beherrschen.

=> Es gibt nur eine gute Straegie und die besteht darin, rechtzeitig möglichst gute (und auch menschenfreundliche, dem Allgemeinwohl dienliche) algorithmische KI zu entwickeln, siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Forsc…. Ich habe schon eine Menge dazu geschrieben, siehe u.a. http://www.heise.de/forum/heise-Security/News-Kommentare/Cyb….

Deutschland, die EU und die Welt brauchen auch ein supergutes Betriebssystem, siehe auch
http://www.heise.de/forum/heise-Security/News-Kommentare/Cyb…
http://www.heise.de/forum/heise-online/News-Kommentare/Fujit…
http://www.heise.de/forum/Telepolis/Kommentare/Deutschlands-…
http://www.heise.de/forum/heise-online/News-Kommentare/Breit…

So und nun der Clou, was auch für WO interessant sein kann, denn WO hat wie Heise ein beachtliches Forum mit vielen Beiträgen:

Entwicklung eines guten Text-Bewertungssystems

Für ein gutes Bewertungssystem braucht es früher oder später eine KI. Die Entwicklung eines guten Text-Bewertungssystems ist ein sehr wichtiger Teil der KI-Entwicklung. Das Bewertungssystem ist eine praktische Anwendung, die schön frühzeitig öffentlich und unverbindlich eingesetzt werden kann, z.B. bei der Bewertung von User-Beiträgen in Foren, von Artikel und allgemein allen möglichen Textausschnitten. Siehe auch
http://www.heise.de/forum/heise-online/Meinungen-zu-heise-on…
http://www.heise.de/forum/heise-online/Meinungen-zu-heise-on…
http://www.heise.de/forum/heise-online/Meinungen-zu-heise-on…

Der Clou: bei meinem genialen Vorschlag, das Bewertungssystem auch anhand von Foren-Beiträgen zu entwickeln und auch schon vorläufige Versionen des Bewertungssystems online zu schalten und unverbindlich bewerten zu lassen, kann jeder das Bewertungssystem mit einem neuen Beitrag jederzeit testen und dazu soll es auch ein spezielles öffentliches Forum (z.B. ein Unterforum bei Heise und WO) geben, wo man dem Bewertungssystem beliebige Beiträge zur Bewertung übermittelt kann. Falsche Bewertungen sollen untersucht werden, Bewertungsfehler sollen dazu führen, dass das Bewertungssystem verbessert wird. Selbstverfreilich soll es weiterhin wie gehabt eine Möglichkeit für Menschen geben, die Beiträge zu bewerten.

Der Superclou: Heise und WO können so weltweit bekannt/berühmt werden und die Entwicklung des Bewertungssystems erfolgt u.a. von Universitäten und wird vom Staat bezahlt. Natürlich soll das Bewertungssystem Open Source sein und es kann unterschiedliche Module geben, so dass das auch von Anfang an von Interesse für Unternehmen sein kann, die somit auch zur Entwicklung beitragen können.

Teilaspekte des Bewertungssystems sind eine gute Wissensbasis und somit kann parallel auch ein Programm zur vollautomatischen Erstellung einer (für Menschen verständlichen, lesbaren und öffentlichen) Wikipedia-ähnlichen Datenbasis entwickelt werden, siehe auch
http://www.heise.de/forum/heise-online/News-Kommentare/15-Ja…
http://www.heise.de/forum/Technology-Review/News-Kommentare/…
http://www.heise.de/forum/Technology-Review/News-Kommentare/…
http://www.heise.de/forum/heise-online/News-Kommentare/Kuens…

Das ist ein sehr wichtiges Projekt und soll zukünftig mit EU-Milliarden gefördert werden aber im ersten Schritt kann man bereits was mit ein paar Millionen Euro Staatsknete machen - die Idee muss nur mal propagiert werden.

Okay, okay, da wird's jetzt vielleicht nicht gleich entzückten Beifall geben - bei der Diskussion im Heise-Forum überwog die Kritik ... aber es sollte klar sein, dass ich Recht habe, dass dies eine sehr gute Idee ist.

Hier noch ein paar Hinweise auf weitere Genialitäten:
Thread: The red pill. Welcome to the real world.
http://www.wallstreet-online.de/diskussion/1161192-121-130/s…
http://www.heise.de/forum/Telepolis/Kommentare/Die-Dunkle-En…
http://www.wallstreet-online.de/diskussion/1229905-11-20/cho…

Call me stupid aber das ist doch wohl brillant, oder? Findet ihr nicht? Nun, gute Verbesserungsvorschläge sind herzlich willkommen. (alles imho)


Beitrag zu dieser Diskussion schreiben