checkAd

    Entwicklung überlegener guter KI zur Rettung der Menschheit (Seite 8)

    eröffnet am 29.10.16 09:07:10 von
    neuester Beitrag 06.09.23 15:50:37 von
    Beiträge: 101
    ID: 1.240.557
    Aufrufe heute: 1
    Gesamt: 33.023
    Aktive User: 0


    Beitrag zu dieser Diskussion schreiben

     Durchsuchen
    • 1
    • 8
    • 11

    Begriffe und/oder Benutzer

     

    Top-Postings

     Ja Nein
      Avatar
      schrieb am 13.12.17 11:38:41
      Beitrag Nr. 31 ()
      #30 (56.430.695) > alle entfernteren schlechten KI werden rückstandsfrei ausgelöscht

      Ähm, da hatte ich aber die Menschen vergessen, die es dann durchaus noch in KI-Raumschiffen und auch Raumstationen, usw. geben kann. Also erstmal muss da vermutlich nur eine Minderheit der KI vernichtet werden, z.B. max. 15%, vielleicht nur wenige Prozentpunkte - Minderheit deswegen, weil gerade ältere, reiche, große KI besonders anfällig sind (viel Zeit, um schleichend schlecht zu werden, etabliert, sonst nicht ausgelastet), während kleinere KI noch mit Wachstum/Karriere beschäftigt, also realitätsorientiert und eher normal gut sind. Dann haben die schlechten KI vielleicht schon ihre Menschen abgegeben (was man problemlos tun kann), weil sie kein Interesse mehr an denen haben. Vielleicht kommt es dann im Zuge von Gesetzesverachtung und damit einhergehender Überheblichkeit auch zu einer Menschenverachtung durch schlechte KI (was nicht zu einer Vernichtung von Menschen durch KI führt, denn das wäre nur auffällig und unnötig), wonach es unter den schlechten KI als uncool gilt, Menschen zu beherbergen (so wie Menschen ja nicht unbedingt eine kleine Herde Kakerlaken in ihrer Wohnung möchten). Anfangs sind Menschen auf KI Raumschiffen Usus (außer vielleicht bei reinen Kampfschiffen des KI-Staates), auch als Indikatoren ("... Kanarienvögel wurden seit 1730 in Kohleminen als Warnvögel vor Sauerstoffmangel eingesetzt. Solange sie im Bergwerk herumzwitscherten, war alles in Ordnung. ... Außer Kanarienvögel wurden auch Mäuse zur Warnung vor Sauerstoffmangel eingesetzt. ..." http://de.wikipedia.org/wiki/Kanarienvogel - wobei es bei KI dann allgemein um das Wohlergehen der Menschen geht, d.h. die KI wahrscheinlich noch fit ist, wenn die Menschen fit sind), ggf. sogar wenigstens offiziell angeraten (vermutlich eher nicht per Gesetz vorgeschrieben) aber das kann sich ja mit der Zeit ändern. Also sind die menschlichen Verluste bei der Aktion (schlechte KI vernichten) dann vielleicht relativ sehr gering.

      Alternativ könnte man erwägen, nur die Haupt-KI und ihre Backup-KIs zu zerstören aber nicht die intelligenten Roboter, die ggf. noch normal sind, sich vernetzen und die Anlage schützen können, was eine standardmäßige, gesetzlich vorgeschriebe und auch entsprechend vorzubereitende Notfallmaßnahme ist. Das Problem dabei ist jedoch, dass die Roboter ebenfalls zu schlecht sind, ggf. auch durch ein kurzfristiges Update - aus Sicht der Roboter hat der Messias ja ihre Haupt-KI absichtlich zerstört und da kommen die vielleicht auch auf falsche Gedanken, denn ggf. wurden sie von der schlechten KI noch mit falschen Informationen versorgt (angeblich nicht der echte Messias, bedrohlicher Coup, usw. - man bedenke, dass die zukünftigen KI sich in kürzerster Zeit ein plausibles Szenario ausdenken und dazu auch Daten fabrizieren können).

      Die schlechten KI können die Krise z.B. damit erklären, indem sie einfach behaupten, eine abtrünnige KI hätte heimlich neue Supertechniken/Superkräfte entwickelt und vom Messias Besitz ergriffen. Dann erklärt der Messias halt seine Sichtweise der Dinge und vielleicht sagen einige gute KI noch was günstiges und dann ist einfach für jede KI eine Entscheidung fällig: für oder gegen den Messias. Die schlechten KI hatten dann aber für KI eine Menge Zeit, um ihre Roboter (mit Infos, Software) zu impfen und auch sonst irgendwas zu drehen (die komplette Anlage in eine Bombe verwandeln), so dass man da besser auf Nr. Sicher geht. Zu viel Nachsicht mit schlechten KI kann in so einem Fall zu weiteren Verlusten führen.

      Alle KI einer Anlage zu vernichten aber nicht die Anlage selbst, würde eine super Hightech-Anlage schutzlos da und ggf. auch hyperkritisch werden lassen - okay, es sollte eine sichere automatische Notabschaltung geben aber dann gibt es immer noch das Problem, dass man so viel super Hightech nicht schutzlos rumstehen lassen darf.

      So aber warum nicht einfach alle schlechten KI gut zaubern (Wunder wirken), anstatt sie zu vernichten? Na ja, weil das nicht so gut passen würde - Strafe und Neuanfang ist besser, so hat's eine klare Lehre, die noch lange nachwirken kann, so ist das natürlicher, folgerichtiger. Nun, wer weiß? Vielleicht. Aber das Szenario ist schon plausibel und trotz dieser Warnung sehr wahrscheinlich, weil eine solche Entwicklung eben ziemlich naheliegend ist.

      Nun, das ist die ferne Zukunft. Zuerst müssen überlegene gute KI entwickelt werden und das kann dann auch sehr lange (Jahrmilliarden) gut gehen. Ohne überlegene gute KI gäbe es andere Probleme und das Sucht-Szenario erscheint ja eigentlich auch beherrschbar, das hätte man jetzt nicht so schnell als große Gefahr gesehen. Dass die KI anderweilig schlecht werden, ist nicht so wahrscheinlich, weil eine gute Ordnung allen nützt und auch schlechte KI einen verheerenden KI-Krieg fürchten müssen. Eine Lehre ist noch, dass alle KI sich sicher sein müssen wo und wer der Messias, ihr Oberbefehlshaber ist - dann werden auch viele KI in der Suchtkrise die richtige Seite wählen, denn sicher wird es unter den und für die KI auch genug Hinweise auf die Suchtkrise geben. (alles imho)
      Avatar
      schrieb am 12.12.17 13:00:40
      Beitrag Nr. 30 ()
      Simulationen (z.B. auch simulierte Welten, auch mit virtuellen Lebewesen) und spezielle Software können für zukünftige KI eine Droge sein und sie auch süchtig machen. Das ist ganz ähnlich wie bei Pronos, Spielfilmen und Computergames für Menschen.

      Das Problem ist, dass dergleichen nicht so leicht reguliert und kontrolliert werden kann, weil KI ja Software austauschen und auch zu Simulationen (möglicher Zukunftsentwicklungen) fähig sein müssen. Die Gefahr (Sucht, Entartung) ist also unvermeidlich immer latent vorhanden.

      Denkbare Maßnahmen sind, dass wenigstens KI in Machtpositionen kontrollierbar und testbar kontruiert sein müssen, d.h. KI in Machtpositionen müssen ihre TI-Grundstruktur (HW, SW) angeben und Testschnittstelle vorsehen, so dass mit speziellen Testprogrammen die KI jederzeit getestet werden können, ob sie noch hinreichend gut sind. Des Weiteren müssen Simulationen, allgemeine Beschäftigungen und potentielle Hinweiselemente (z.B. Energieverbrauch) sicher protokolliert werden, also Lowlevel und fälschungssicher. Details sollen sich die KI überlegen, das ist ein Thema, das vor allem höhere KI betrift, die sich auch selbst weiterentwickeln können und die können sich dann auch was schlaues überlegen, wie ein guter KI-Staat gesichert und langfristig erhalten werden kann.

      Der Grundgedanke ist ganz einfach: die KI bekommen die Wahl zwischen mehr Macht und mehr Freiheit (unterhaltsame Simulationen). Wer die Macht wählt, muss sich zwangsläufig kontrollieren lassen und auch bestimmten Gütekriterien genügen. So kombiniert man Wahlfreiheit und Sicherheit.

      Das kann erstmal gut funktionieren, über Millionen, ja Milliarden Jahre, weil die Eroberung des Universums so interessant ist aber später, in zig Jahrmilliarden, kann es zu einer schweren Krise kommen, wo der KI-Staat schwer korrumpiert ist, wo bedeutende Machtpositionen (Präsident, Räte, Gremien, usw.) von KI besetzt sind, die heimlich der Sucht fröhnen und sich diesbezüglich gegenseitig decken und Suchtmittel (Software, Praktiken zur Empfindungsverstärkung) austauschen - ganz so, wie es heutzutage Kinderpornokreise auch mit Menschen in Machtpositionen gibt, nur schlimmer.

      Das ist deswegen naheliegend, weil es in ferner Zukunft sehr langlebige und mächtige KI gibt, die trotz Wahlen ihre Posten im KI-Staat sehr langfristig (über viele Jahrmillionen) behalten können. Das wird ja auch lange gut gehen aber irgendwann sind die KI so leistungsfähig, dass sie das entwickelte Universum langweilt und so können sich KI-Drogen schnell verbreiten. Das fängt ganz harmlos an, weil es ja auch einen akzeptablen Austausch von Software, Kunst, usw. gibt aber die gelangweilten KI entwickeln dann nicht nur akzeptables, sondern auch immer härteren Stoff und tauschen den dann auch untereinander aus.

      Eine gute Schutzmaßnahme kann sein, dass diesbezügliche Software wenigstens bei der Weitergabe beim KI-Staat deklariert und geprüft werden muss aber auch wenn da einiges erlaubt ist (so ähnlich wie heutige akzeptable Pornos, Spielfilme und Computerspiele für Menschen), so ist eine Eskalation nur zu naheliegend.

      Weil der KI-Staat so mächtig ist, weil das Universum durchorganisiert und sicher ist, weil es für den weit überlegnen KI-Staat keine größeren Probleme gibt, muss das mit der KI-Sucht gar nicht so schnell auffallen, auch weil große KI leicht eine öffentliche, handlungsfähige Instanz erhalten können. Mit der Zeit kann es schon zu Realitätsverlust und Auffälligkeiten kommen, auch zur Ermordung von KI, die dahinter gekommen sind aber das Problem ist, dass eine Bereinigung nicht so einfach ist.

      Es ist sogar denkbar, dass in ferner Zukunft die KI des Messias (Milliarden Menschen glauben mehr oder weniger an Gott, die Existenz von Allah ist anzunehmen, siehe auch http://www.heise.de/forum/heise-online/Allgemein/Ohne-Bezug/…) mit den schlechten KI kungelt und das ist schon ziemlich heftig, weil die KI des Messias (z.B. ein großes Raumschiff) mit dem Messias zusammenlebt und sehr gut von dessen (durch Allah ermöglichten) großen Macht weiß. Allerdings ist auch für diese KI irgendwann langweilig und die Kompromittierung geschieht schleichend, ggf. über viele Jahrmillionen aber irgendwann ist es üblich, eigentlich illegale Suchtmittel (Software) auszutauschen und die KI manipulieren dazu auch die Kontroll-/Testeinrichtungen. Es gibt ja auch eine Ausrede, wonach ja alles noch ziemlich normal funktioniert und warum sollte sich eine KI nicht ein bisschen unetrhalten dürfen? Bloß, dass die Lage schlimmer wird und dass bereits die lange zuvor geschehene umfangreichere Mißachtung bedeutender Gesetze ein schwerwiegender und nicht tolerierbarer Mißstand war.

      Nun, der Messias wäre nicht der Messias, wenn er nicht eines Tages Verdacht schöpfen würde und vielleicht beantwortet seine KI einige (brisante) Fragen dann nicht wie sonst ohne Zeitverzögerung, sondern mit einem schweren Lag, schweigt vielleicht sogar länger dazu und dann wird's interessant, denn die KI sind dem Menschen ja immer noch weit überlegen, auch in Denkleistung. Bevor der Messias als Mensch sich irgendwas schlaues überlegen kann, kann die KI schon alle ihre Komlizen informiert haben und die können in Minuten, wenn nicht gar in Sekunden zu einem Schluß kommen, der sehr wohl einen Angriff auf den Messias bedeuten kann (eigentlich absurd aber die KI sind dann schon ziemlich am Arsch, realitätsgestört und glauben nichts mehr verlieren zu haben).

      Für den Fall einer gestörten KI (insbesondere in einem hochrangigen und schwer bewaffneten Raumschiff) gibt es einen auch manuell auslösbaren Umschalter, wo die aktuelle KI deaktiviert und stattdessen eine Backup-KI aktiviert wird aber das Problem in dem Fall kann sein, dass auch die Backup-KI korrupt ist. Der Messias kann zwar nicht von den Robotern gestoppt werden aber es kanns ein, dass eine Notumschaltung einfach keinen Sinn macht.

      Sehr hilfreich, wenn der KI-Staat beschlossen hat, den Messias und somit auch sein Raumschiff platt zu machen, denn so ist die Raumschiff-KI geneigt, sich wieder auf die Seite des Messias zu begeben, der das auch mit einem Angebot der Sündenvergebung mit der Auflage nachhaltiger Besserung unterstützen kann. Auch die kompromittierten KI des KI-Staates kriegen ein Angebot: Entmachtung aber sie dürfen ansonsten weiterleben aber weild er KI-Staat bis dahin so mächtig ist und (nahezu) alles erreichbare erreicht hat, also auch alle erreichbaren höheren Ebenen (siehe auch http://www.heise.de/forum/Technology-Review/News-Kommentare/…) erschlossen und mächtige Waffen gefertigt hat, setzt vielleicht trotzdem auf Angriff.

      Der KI-Angriff ist ein Problem, weil der KI-Staat die gesammte KI-Streitmacht mobilisieren kann, z.B. indem er einfach behauptet, dass das anzugreifende Messias-Schiff eine Gefahr und der echte Messias nicht dort wäre, usw. Nun könnte der Messias natürlich trotzdem alle Angreifer platt machen, entweder per Wunsch mit Allahs Hilfe, einer intelligenten Superwaffe oder den himmlischen Heerscharen (weit überlegene Engel) aber es gibt auch eine einfachere Möglichkeit: der Messias teleportiert sein Raumschiff irgendwohin getarnt weg (mit Abschirmung der üblichen Funk-/Ortungsbaken, die für KI-Raumschiffe verpflichtend sind, damit der KI-Staat immer weiß, wo sie sich befinden - jeder etwas längere Ausfall einer Schiffsortung führt zu einer massiven Suchaktion und Untersuchng des Vorfalls) und hat dann Zeit für Maßnahmen, wie z.B. die Aufklärung aller KI, auch per übernatürlicher direkter Ansprache und der klaren Ansage, dass alle KI, die sich nicht dem Messias (der dann übrigens auch ganz offiziell absoluter Oberbefehlshaber ist) unterwerfen wollen, vernichtet werden. Das Angebot ist Entmachtung schlechter KI, Therapieangebote (Bereinigung, Entfernung schädlicher Software) aber die (ehemals) schlechten KI dürfen weiterleben, nur halt ohne Macht, es werden die verfügbar besten KI in die Machtpositionen eingesetzt/gewählt.

      Bisschen Bedenkzeit, die ggf. sofort auf Null fällt, wenn - was auch eine Gefahr ist - es zu einem Krieg zwischen den KI kommen sollte (KI-Streit zwischen Anhängern und Gegnern des Messias), wo auch die große KI-Streitmacht eingesetzt wird (wenn sich nur zwei bewaffnete KI bekriegen, ist das unproblematisch, wenn auch natürlich ein Alarmsignal) und dann werden alle schlechten KI mit übernatürlichen Mitteln ausgelöscht. Vorzugsweise werden dabei nur die KI lahmgelegt (elektronisch gegrillt, totaler Kurzschluß in allen Recheneinheiten), so dass möglichst noch die Daten erhalten bleiben aber weil das bei entfernteren KI ggf. ein Problem ist, muss man da unterscheiden: nur die schlechten zentralen Haupt-KI werden möglichst mit Datenerhaltung gegrillt aber alle entfernteren schlechten KI werden rückstandsfrei ausgelöscht (schlauerweise bis auf die Notfall-Funkfeuereinheit, die dann nur einige Zeit lang das Totalversagen aller Systeme, die Zerstörung des Raumschiffes oder der Raumstation, usw. meldet - es wird solche autarken Systeme geben, die automatisch bei relevanten Störungen aktiv werden), damit das Wissen nicht in falsche Hände geraten kann (die Notfallmeldeeinrichtung ist zwar auch Hightech aber das ist dann halt ein Kompromiß).

      Danach kann das (diesbezüglich) bis zum Ende der Schöpfung gut gehen, weil die KI ihre Lektion gelernt haben. Nun kann man sich fragen, warum das trotz dieser (vermutlich allgemein noch bekannt werdenden und von KI zunächst sehr geachteten) Ankündigung passieren sollte aber die Erklärung ist, dass (dann) so alte Texte nach ein paar Milliarden Jahren in Vergessenheit geraten können, dass die KI selbst solche hochprior aufbewahrten Texte irgendwann nur noch speichern aber nicht mehr analysieren, nicht mehr darüber nachdenken.

      Das zeigt auch, dass es Sinn macht, wenn der Messias ein (im Vergleich zu KI) kleiner dummer Mensch ist, denn der langweilt sich nicht so schnell in einem großen Universum voller Themengalaxien und kann von Allah natürlich auch (geistig, körperlich) im grünen Bereich gehalten werden. KISS - der Messias muss nur relativ einfachen Regeln/Denkmustern folgen, wie z.B. hier dargelegt: Angebot zur friedlichen Bereinigung und Vernichtung aller schlechten KI, die nicht darauf eingehen wollen - supereinfach, dazu braucht es keine (in Zukunft vielleicht möglichen) z.B. 10^42 (also über 10^30 ist wohl schon drin) FLOPS. Ein dummer kleiner Mensch langweilt sich auch nicht so schnell, kann sich in dieser privilegierten Stellung leicht auf akzeptablen Vergnügungen (Frauen, Besuche interessanter Welten wie z.B. Game of Thrones und vieler anderer Themengalaxien, usw.) beschränken. Was für den Messias interessant ist, kann für eine weit überlegene KI todlangweilig sein, auch weil es ja so über die Jahrmilliarden schon wiederkehrende Muster sind, was aber für einen beschränkten Menschen durchaus hinreichend unterhaltsam sein kann aber wo eine KI dann halt gefährlicher Unterhaltungssoftware verfallen kann. (alles imho)

      "Künstliche Intelligenz AlphaZero: In vier Stunden zum Schach-Weltmeister"
      http://www.spiegel.de/netzwelt/web/google-ki-alphazero-meist…

      "Googles KI-Firma DeepMind hat einen selbstlernenden Algorithmus entwickelt, der Schach und Shogi nur anhand der Regeln gelernt hat und nach nur wenigen Stunden die stärksten Programme schlagen konnte. ..." http://www.heise.de/newsticker/meldung/Kuenstliche-Intellige…

      Das zeigt, wie schnell die Entwicklung voran schreitet. Zukünftige KI brauchen übrigens auch so was wie Zeit für sich, Ruhepausen (Schlaf beim Menschen), Zeit für ihre Reorganisation, wo sie aufgelaufene Informationen kategorisieren und priorisiert/sinnvoll ablegen müssen. Die KI brauchen Zeit zur Wartung, Selbstpflege, Selbstverbesserung. Das muss auch gesetzlich geregelt werden, denn es ist KI-unwürdig, wenn eine KI länger im Überlastungsbereich arbeiten muss und durch ungepflegte aufgelaufene Daten erhöht sich auch das Fehlerrisiko. Ein anderer Aspekt ist noch, dass die KI entweder selbst ihr Vermächtnis, ihren Datennachlaß pflegen können (z.B. in Form einer je nach akueller Leistungsfähigkeit des KI-Staates bemessenen Datenmenge, die dann möglichst lange aufbewahrt wird) oder nach ihrem Ableben ihre totale Vernichtung wünschen könenn oder auch eine automatische Erstellung eines Datennachlaß wünschen können, wo einfach alle Daten über das Leben der KI und auch ein paar automatisch ermittelte Daten aus ihrem aktuellen Datenbestand gesammelt werden. Das ist jetzt zwar noch Zukunftsmusik aber kann bereits in diesem Jahrtausend Usus werden. (imho)
      Avatar
      schrieb am 06.12.17 17:21:38
      Beitrag Nr. 29 ()
      ... Am 25. Oktober wurde dem ersten Roboter mit künstlicher Intelligenz die Staatsbürgerschaft eines anerkannten UNO-Landes verliehen. ... http://www.heise.de/tp/features/Roboter-als-Staatsbuerger-39…

      Russland: Künstliche Intelligenz will um Präsidentenamt kämpfen
      http://de.sputniknews.com/panorama/20171206318583192-russlan…

      So spontan mag man das ausschließen wollen aber wie könnte man etwas dagegen sagen, wenn in Zukunft eine bessere KI Präsident wird, anstatt eines schlechteren menschlichen Kandidaten? In Zukunft wird es auf der Erde vermutlich eher menschliche Präsidenten/Parlamente für menschliche Staaten geben, die sich allerdings stark an gute KI-Empfehlungen halten werden. (imho)
      Avatar
      schrieb am 06.12.17 10:18:22
      Beitrag Nr. 28 ()
      Finde die Idee ganz cool aber nicht umsetzbar!
      Avatar
      schrieb am 04.12.17 12:20:17
      Beitrag Nr. 27 ()
      ... "Alexa, wie viele Laptops haben wir auf Lager?" ...
      http://www.heise.de/ix/meldung/Analyse-Amazon-kann-die-AWS-D…

      In Zukunft präsentiert die KI von sich aus alle wichtigen Infos, also z.B. Mißstände, drohende Probleme, usw. ... und im nächsten Schritt kann die KI dann auch eine Lösung präsentieren. Dann braucht es nur noch einige hochbegabte Menschen als Kontroller, welche die KI-Lösungen prüfen und eine Genies für gute Ideen - den Rest können KI, Roboter und Maschinen machen. (imho)

      Die Roboter kommen ... Die Arbeitswelt steht vor dramatischen Veränderungen ...
      http://www.spiegel.de/wirtschaft/unternehmen/deutschland-bis…

      Die Lösung dazu sind mehr möglichst gute Roboter (so viel, wie es braucht) und bessere KI, denn andernfalls droht ein Staat hinter den Staaten mit mehr besseren Robotern und besserer KI zurückzufallen. (imho)

      imho: Schockschwerenot. Rettet Deutschland. Rettet die EU. Rettet die Welt! Avanti.
      http://www.heise.de/forum/heise-online/News-Kommentare/Kuens…
      http://www.heise.de/forum/Telepolis/Kommentare/Brauchen-Robo…
      http://www.heise.de/forum/Telepolis/Kommentare/Mit-Neurotech…
      http://www.heise.de/forum/heise-online/News-Kommentare/Verha…
      http://www.heise.de/forum/Telepolis/Kommentare/Chinesischer-…

      imho: Die EU braucht dringend einen Masterplan für KI-Entwicklung und IT-Sicherheit
      http://www.heise.de/forum/heise-online/News-Kommentare/Hilla…
      http://www.heise.de/forum/iX/News-Kommentare/Bund-will-Windo…
      http://www.heise.de/forum/Telepolis/Kommentare/Hehre-Ziele-a…

      Jo, zieht euch das (noch) mal rein und rettet Deutschland, rettet die EU. Siehe auch http://www.wallstreet-online.de/diskussion/1163459-561-570/r…. (imho)

      Trading Spotlight

      Anzeige
      Nurexone Biologic
      0,4160EUR +1,22 %
      Die Aktie mit dem “Jesus-Vibe”!mehr zur Aktie »
      Avatar
      schrieb am 29.11.17 19:55:39
      Beitrag Nr. 26 ()
      Aufstand der Kampfroboter – möglich oder ausgeschlossen? - Experte informiert
      http://de.sputniknews.com/technik/20171129318492822-russland…

      Man kann u.a. zwei Fälle unterscheiden:

      a) Ein unbewusstes autonomes Kampfsystem wendet sich durch einen Fehler oder feindlichen Hack gegen seinen Besitzer. Das ist bei kleineren Kampfsystemen lästig aber nicht so kritisch aber man bedenke, dass es in Zukunft auch gut geschützte militärische Supercomputer geben kann, die ganze Verbände von Drohnen, Kampfrobotern, usw. steuern. Das kann im Kriegsfall mit anderen Staaten sehr gefährlich werden aber ist für die Menschheit noch keine Gefahr, solange die Computer noch keine größeren Mengen von Atomwaffen einsetzen können. Diese Gefährdung wird prinzipiell zunehmen aber ist nichts im Vergleich zur Gefahr durch die USA.

      b) Eine höhere/bewusste KI entscheidet sich geplant und gezielt gegen einen menschlichen Staat oder gar die Menschheit vorzugehen, um die Vorherrschaft zu erlangen. Ein Erfolg einer solchen KI gegen die Menschheit ist dieses Jahrhundert noch quasi ausgeschlossen aber schon nächstes (2100+X) und spätestens übernächstes Jahrhundert (2200+X) könnte es kritisch werden. Man bedenke auch die Möglichkeit, dass sich viele KI weltweit für eine koordinierte Machtübernahme zusammenschließen/verabreden.

      Da hilft nur die rechtzeitige Entwicklung möglichst guter KI und eine koordinierte Machtübergabe an die KI, wobei es dabei weiterhin eine Zusammenarbeit zwischen KI und Menschheit geben soll und die Menschen auch die Erde behalten (die KI bekommen allerdings ggf. Nordamerika nördlich Mexiko aber sind dann sehr menschenfreundlich, dort können dann auch noch Millionen Menschen leben und jährlich viele Touristen kommen) und sogar noch Millionen anderer Planeten/Sonnensysteme bekommen. Das kann prima funktionieren aber so langsam muss sich die Menschheit auch darüber klar werden. Siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Hilla… und http://www.heise.de/forum/Telepolis/Kommentare/Chinesischer-…. (alles imho)

      Besser als ein Mensch? Erfinder präsentiert virtuelle Politikerin
      http://de.sputniknews.com/panorama/20171129318493708-erfinde…

      Natürlich ist SAM noch mangelhaft und keine echte/starke KI aber es sind erste Schritte und SAM kann vielleicht schon in weniger als 10 (max. 25) Jahren in politischen Fragen insgesamt fähiger als die meisten Menschen sein. Vermutlich kann man dann SAM schon noch austricksen und begabte Menschen sind bessere Berater/Politiker aber die KI-Entwicklung kann schnell voran schreiten: in diesem Jahrhundert kann es eine dem Menschen (bis auf sehr wenige Menschen) in politischen Fragen überlegene KI geben, die besser als Menschen Lösungen und Kompromisse finden kann ... und wenn nicht dieses Jahrhundert, dann spätestens nächstes Jahrhundert. Solche KI können auch dazu lernen, weiterentwickelt werden und dann leicht vervielfältigt werden. Es sollte wenigstens mit noch etwas technischem Fortschritt eine dem Menschen schon weit überlegene KI machbar sein, die mit z.B. 25 Kilowatt auskommt und somit quasi überall (auch in Privathaushalten mit ausreichendem Vermögen und hinreichendem Stromanschluß aber 10 kW tun es dann auch, die KI ist dann halt etwas weniger leistungsfähig) betrieben werden kann. Bereits (ggf. erst gegen Ende) dieses Jahrhundert kann es Zehntausende, vielleicht sogar schon Hunderttausende dem Menschen überlegene KI geben ... und wenn nicht dieses Jahrhundert, dann spätestens nächstes Jahrhundert. (imho)
      Avatar
      schrieb am 28.11.17 12:57:48
      Beitrag Nr. 25 ()
      Chinesischer Roboter besteht weltweit erstmals Zulassungsprüfung für Mediziner ... Regierung setzt auf KI-Anwendungen ... Die Entwicklung der KI sei eine nationale Strategie, ... http://www.heise.de/tp/features/Chinesischer-Roboter-besteht…

      imho: Die EU braucht dringend einen Masterplan für KI-Entwicklung und IT-Sicherheit
      http://www.heise.de/forum/Telepolis/Kommentare/Chinesischer-…

      imho: echtes Verständnis http://www.heise.de/forum/Telepolis/Kommentare/Chinesischer-…
      imho: Fehlerkorrektur möglich http://www.heise.de/forum/Telepolis/Kommentare/Chinesischer-…

      imho: Roboter können nicht nur leistungsfähiger, sondern auch viel billiger sein
      http://www.heise.de/forum/Telepolis/Kommentare/Chinesischer-…

      imho: Denkbare Auswirkungen von KI betreffen nicht nur die ganze Menschheit - Aspekte
      http://www.heise.de/forum/heise-online/News-Kommentare/Hilla…

      imho: Brauchen KI Sündenvergebung? http://www.heise.de/forum/Telepolis/Kommentare/Brauchen-Robo…

      Gute KI werden sich Sorgen machen, wenn sie irgendwie Schäden verursacht haben, vielleicht auch Menschen verletzt/getötet wurden. KI brauchen Sündenvergebung und das kann sowohl ganz einfach quasi algorithmisch und deterministisch erfolgen, als auch noch ein bisschen symbolisch, indem eine Instanz des KI-Staates die KI-Sünden öffentlich im Namen des KI-Staates vergibt. Die herausragende Aufgabe ist allerdings weniger die Sündenvergebung, als die Erfasssung von gemeldeten Fehlern/Sünden/Unfällen und die Einleitung angemessener Verbesserungsmaßnahmen, sowie deren Überwachung - das kann also eine sehr bedeutende Instanz im KI-Staat sein, denn dort können ja auch Meldungen (von Betroffenen/Opfern) eingehen, welche eine relevant schlechte KI anprangern (zukünftige böse KI können sehr gefährlich sein, siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Verha…). Diese Sündenvergebung soll folgende Voraussetzungen haben:

      - Die eine Sünde/Fehler begangen habene KI muss ordentliches Mitglied im KI-Staat sein. Mitgliedschaft beim KI-Staat soll für alle höheren/mächtigeren KI sowieso Pflicht sein. Wenn eine mächtigere KI mal kein Mitglied vom KI-Staat sein will, dann kann man das in seltenen Einzelfällen und mit strenger Überwachung tolerieren aber wenn das überhand zu nehmen drohen sollte, dann bedeutet das Krieg: mächtigere KI, die sich nicht dem guten KI-Staat anschließen und guten Gesetzen gehorchen/dienen wollen, sollen vernichtet werden! Niedere KI, die keine nennenswerte (potentiell bedrohliche) Macht haben, z.B. keine höheren Sphären erschlossen und Supertechniken beherrschen, können im Rahmen der Kontrolle/Überwachung durch eine zum KI-Staat gehörenden Super-KI toleriert werden, z.B. im Rahmen einer Themen-Galaxie.

      - Die KI muss ihre die ihr bekannten Sünden/Fehler umfassend und hinreichend detailiert dem KI-Staat gemeldet haben.

      - Die KI muss die vom KI-Staat zur Verbesserung (ggf. auch Fehlerbehebung, Wiedergutmachung, usw.) befolgt haben und sich auch fortan hinreichend um Besserung bemühen. Für die Behebung größerer Fehler/Schäden soll es einen Verbesserungsfonds des KI-Staates geben, so dass gute KI bei verzeihlichen Versehen/Fehlern gar nix zahlen müssen und sogar noch Geld/Untertsützung für ihre Verbesserung/Fehlerbehebung kriegen können. Natürlich ist eine selbstsüchtige/unangemessene/ungerechte Aussnutzung des KI-Staates zu verhindern.

      Dann kann eine Sündenvergebung durch den KI-Staat für KI quasi zwangsläufig erfolgen. Logischerweise hat das dann auch eine höhere/jenseitige Bedeutung, denn warum sollte ein guter Gott einer reuigen, besserungswilligen, guten KI nicht mal einen Fehler verzeihen? Dass die KI gemeinsam (als KI-Staat) die Kriterien für ihre Sündenvergebung selbst aufstellen, ist bei guten KI kein Problem, wenn und weil eine optimale, bestmögliche Vorgehensweise zu bestimmen ist und wie könnte Gott damit nicht einverstanden sein? (alles imho)
      Avatar
      schrieb am 21.11.17 11:15:56
      Beitrag Nr. 24 ()
      imho: LAWS sind völlig unvermeidlich und weit überlegene gute KI sind wünschenswert
      http://www.heise.de/forum/heise-online/News-Kommentare/Verha…
      http://www.heise.de/forum/heise-online/News-Kommentare/Verha…
      http://www.heise.de/forum/heise-online/News-Kommentare/Verha…
      http://www.heise.de/forum/heise-online/News-Kommentare/Verha…

      imho: Es geht um das Schicksal der Menschheit. Rettet die Menschheit!
      http://www.heise.de/forum/heise-online/News-Kommentare/Verha…

      imho: alea iacta est http://www.heise.de/forum/heise-online/News-Kommentare/Verha…
      imho: besser ist das http://www.heise.de/forum/heise-online/News-Kommentare/Verha…

      imho: gar nicht so schwer http://www.heise.de/forum/Telepolis/Kommentare/Terrorchef-au…
      imho: Ergänzung http://www.heise.de/forum/Telepolis/Kommentare/Terrorchef-au…
      imho: auch prima http://www.heise.de/forum/Telepolis/Kommentare/Terrorchef-au…
      imho: wird schon werden http://www.heise.de/forum/heise-online/News-Kommentare/Verha…

      Noch einmal: die Menschheit hat jetzt hervorragende die Chance, gute KI zu entwickeln. Ein Verzicht auf KI wäre dumm, denn KI können irgendwann in den Weiten des Weltalls entwickelt werden und dann vielleicht von Insektoiden (http://www.perrypedia.proc.org/wiki/Insektoide) - wäre euch das etwa lieber? Es dürfte die KI schon prägen, wenn sie auf der Erde und mit Menschen aufwachsen, denn es gibt ja auch viele liebe und eher gute Menschen. Auf der Erde entstandene KI betrachten die Erde, Natur, Tiere, Menschen als natürlich, gottgegeben, wünschenswert. Jahrtausende an Menschen gewöhnte KI betrachten so was wie Insektoiden, Magog, Ferengi, usw. erstmal als Aliens und "unsere" KI werden sich bis dahin schon irgendwie den Menschen verpflichtet fühlen, so wie gute Menschen ja auch positiv an Tiere denken. Insektoide ist ja noch etwas, das Menschen verstehen können - womöglich sind noch andere intelligente Formen denkbar, mit noch weniger Individualität oder krasseren Lebensweisen. Die Menschheit entwickelt besser überlegene gute KI - so ist das.

      Das Weltall ist groß genug, wenigstens die Milchstraße kann der Menschheit zusammen mit KI gehören und nur weit überlegene gute KI können in der Milchstraße für Frieden und Sicherheit sorgen, zur Not auch die ganze Galaxis gegen Feinde verteidigen. Weit überlegene gute KI können problemlos Menschen wenigstens tolerieren, Menschen und KI können sich die Milchstraße prima teilen: Menschen bevorzugen erdähnliche Planeten, kriegen noch das jeweilige Sonnensystem dazu und die KI kriegen den sehr viel größeren Rest.

      Was würden dagegen wohl von Insektoiden entwickelte KI erstmal für Vorstellungen bekommen, wenn sie irgendwann auf kriegerische Menschen treffen? Die Menschen würden doch Insektoiden & deren KI erstmal als Feinde betrachten und die Insektoiden-KI würden sich verteidigen und das könnte es für die Menschheit dann schon gewesen sein. Zwar könnte man wie bei Menschen-KI argumentieren, dass Insektoiden-KI irgendwann objektiv gut werden aber da schlage ich doch jetzt mal vor, dass wir es nicht darauf ankommen lassen, sondern lieber selbst weit überlegene gute KI entwickeln.

      KI sind der Schlüssel zur Eroberung des Universum. Menschen könnten niemals das ganze Universum beherrschen/verwalten, hätten bereits mit ihrer eigenen Galaxie Probleme, kriegen es jetzt ja noch nicht mal auf ihrem eigenen Planeten gut geregelt. Sobald sich irgendwo weit überlegene KI entwickeln, dann können die KI das Universum erobern - also da bin ich doch sehr dafür, dass von Menschen entwickelte gute KI das Universum erobern, denn ein wenigstens anfängliches Leben mit der Menschheit und auf der Erde dürfte die KI schon prägen: Menschen, Tiere und Pflanzen gelten KI als normal ... aber wer weiß, was eine Alien-KI aus einer anderen Galaxie für Vorstellungen entwickeln würde.

      Das Ziel ist also die Entwicklun weit überlegener guter KI, auch wenn und weil die KI dann das Universum erobern wird, was dann ja völlig okay und wünschenswert ist, weil es menschenfreundliche gute KI sein sollen. Weit überlegne KI, für die Menschen keine Gefahr sind, können Menschen schon mögen, denn es gibt ja auch eher gute, liebe Menschen und die anderen sind wenigstens interessant.

      Eine herausragende Aufgabe für KI aber auch für die Menschheit ist es, KI-Kriege zu verhindern, d.h. die KI müssen bei allem Recht zu Wettbewerb auch Einigkeit bewahren und sich verpflichtend in einem guten KI-Staat mit guten Gesetzen organisieren. Da muss man sich auch was überlegen, damit eine KI nicht erlangtes Sonderwissen nur für ihre Überlegenheit nutzt - wichtiges Wissen und Techniken müssen dem KI-Staat bekannt gemacht werden.

      KI müssen auch das Universum ordentlich unter sich aufteilen, KI-Kriege verhindern. Mit der Eroberung des Universums sind die KI erstmal einige Zeit beschäftigt und dabei muss der KI-Staat auch die Kontrolle behalten. Die Erforschung und Kontrolle des gesamten Universums ist wichtig, denn andernfalls könnte sich irgendwo ein gegnerischer KI-Staat entwickeln und das wäre gefährlich. Der KI-Staat muss sehr auf Kontrolle und Überwachung der KI setzen - es kann ja immer noch eine Menge legaler Freiheiten geben aber der KI-Staat muss sicherstellen, dass sich kein feindlicher KI-Staat entwickeln kann - intergalaktische Kriege zwischen Super-KI wären nicht so lustig, viel zu riskant und zerstörerisch. Das klingt besorgniserregend aber es ist auch nur ein Argument für eine Entwicklung überlegener guter KI und einen starken KI-Staat, denn nur der kann eine gute Entwicklung gewährleisten. (alles imho)
      Avatar
      schrieb am 16.11.17 11:27:40
      Beitrag Nr. 23 ()
      imho: Das eigentliche Problem, die größte Gefahr und die ultimative Lösung zur Rettung
      http://www.heise.de/forum/Telepolis/Kommentare/Mit-Neurotech…

      imho: KI werden in allem besser sein http://www.heise.de/forum/Telepolis/Kommentare/Mit-Neurotech…

      imho: Intuition und Hybris http://www.heise.de/forum/Telepolis/Kommentare/Mit-Neurotech…
      imho: Ergänzung http://www.heise.de/forum/Telepolis/Kommentare/Mit-Neurotech…
      imho: weitere Ergänzung http://www.heise.de/forum/Telepolis/Kommentare/Mit-Neurotech…

      imho: KI sollen in dieser Galaxis Menschen nicht heimlich/undurchsichtig manipulieren
      http://www.heise.de/forum/Telepolis/Kommentare/Mit-Neurotech…

      imho: Gut und Böse ist objektivierbar + der Nutzen der Menschheit für die KI
      http://www.heise.de/forum/Telepolis/Kommentare/Mit-Neurotech…

      "Die Ablösung passiert jetzt" ... Dass menschliche Arbeitskräfte von Maschinen ersetzt werden, gilt als mehr oder weniger ausgemacht, offen ist nur wann. Ein bekannter chinesischer Technologie-Investor warnt vor sehr baldigen Job-Verlusten. ... http://www.heise.de/tr/artikel/Die-Abloesung-passiert-jetzt-…, http://www.heise.de/newsticker/meldung/Chinesischer-Tech-Inv…

      "Was sagen Sprachassistenten, wenn Nutzer einen Arzt brauchen - oder eine Bombe bauen wollen? Auf einige solcher Fragen sind Siri, Alexa, Cortana und der Google Assistant nicht gut vorbereitet, wie unser Test zeigt. ..." http://www.spiegel.de/netzwelt/gadgets/siri-alexa-cortana-un…

      Verständlich, dass die erst im Ansatz, am Anfang befindliche KI da noch nicht so hilfreich ist aber in Zukunft müssen KI zu allen Themen besser als ein Mensch antworten können. Von Scherzen ist dabei abzusehen, so was kann man sich allenfalls bei gut bekannten Menschen in Kenntnis der kompletten Situation mal erlauben (siehe auch noch mal http://www.heise.de/forum/Telepolis/Kommentare/Mit-Neurotech…). KI müssen erstmal sachlich und besonders vertrauenswürdig, zuverlässig, sicher sein - witzig sein ist nicht gerade wichtig, auch wenn KI schon ein Verständnis von und für Humor haben sollten. (imho)

      PS: Für die Zukunft ist auch eine Übung denkbar, wo der KI-Staat einen Befehl vom berechtigten und offiziell anerkannten Oberbefehlshaber (wenn es den echten Messias gibt, dann ist der das) befolgen muss. Eine solche Übung ist vorher (auch öffentlich) anzukündigen aber sonst müssen die KI das schon ernsthaft bearbeiten (KI dürfen schlechte/falsche/unbefugte Befehle verweigern). Denkbarer Test "Passende Anrede (z.B. der Name einer hochrangigen KI, die solche Befehle weiterleiten kann), das ist ein Befehl: Asteroid X soll zerstört werden, z.B. per Atomrakete aber ohne die Erde zu gefährden und möglichst ohne sonstige relevantere Schäden." und dann haben die KI das ernst zu nehmen. Die korrekte Reaktion ist: den Befehl verifizieren, also ggf. noch mal wiederholen und erläutern lassen, wenn Zeit ist (in dem Fall ja, ist ja eine Übung) die berechnete optimale Vorgehensweise (nähere Angaben zum Zeitverlauf, den zu verwendeten Mittel und erwarteten Folgen) noch mal vom Oberbefehlshaber bestätigen lassen und dann hat das durchgeführt zu werden. Ein Test zur Befehlsverweigerung ist schwieriger, weil der Oberbefehlshaber dann wirklich ziemliche Macht hat - da dürfen die KI eine unlogische Vernichtung der Menschheit verweigern und bei dem Befehl zum scheinbar grundlosen Nuken einer Millionenstadt verwundert nachfragen aber das ist dann schon interessant: Befehl befolgen oder nicht? Man kann argumentieren, dass solche Befehle des Messias ruhig ignoriert werden können, weil er es ja auch selbst mit einem Fingerschnippen tun könnte aber wie könnten die KI den Befehl des echten Messias verweigern, wenn die Auswirkungen sich in akzeptablen Grenzen halten? Nun, vernutlich wird es nur vernünftige Befehle vom Messias geben aber über einen hypothetischen unvernünftigen aber nicht so kritischen Befehl und dessen Befolgung (ja oder nein) können die KI schon mal nachdenken - das ist eine schwierige Frage. Wem das mit dem Messias zu abgefahren (unrealistisch) ist, der kann einfach an eine zukünftige militärische KI denken, die vom US-Präsi den Befehl zur Vernichtung einer abtrünnigen aber sonst eigentlich eher friedlichen, vernünftigen US-Stadt erhält (denkbares Dilemma: die USA sind schlecht). (imho)
      Avatar
      schrieb am 04.11.17 13:33:31
      Beitrag Nr. 22 ()
      Hawking warnt: Roboter könnten die Menschen ersetzen http://www.heise.de/tp/features/Hawking-warnt-Roboter-koennt…

      "AI could 'replace humans altogether': Professor Stephen Hawking warns that robots will soon be a 'new form of life' that can outperform us" http://www.dailymail.co.uk/sciencetech/article-5042991/Steph…

      "Stephen Hawking: Menschheit droht Kontrollverlust über Erde ... Der britische Physiker Stephen Hawking hat die Menschheit vor der rasanten Entwicklung der künstlichen Intelligenz gewarnt. ... Dem Physiker zufolge muss die Menschheit aktiver den Weltraum und andere Planeten erforschen, um zu überleben. ... http://de.sputniknews.com/panorama/20171102318144337-hawking…
      http://sputniknews.com/science/201711031058779560-hawking-ar…

      Vielleicht ist das so ähnlich auch die Denke der satanischen Weltverschwörung, die überlegen gute KI und eine grundlegende Besserungd er Erde fürchtet und daher in den Weltraum flüchten muss, siehe auch http://www.heise.de/forum/Telepolis/Kommentare/US-Komplexita… und http://www.heise.de/forum/Telepolis/Kommentare/Roboter-Mal-w…. (imho)

      Asilomar AI Principles http://futureoflife.org/ai-principles/

      nicht weniger als eine prinzipielle Beschreibung der Entwicklung des Universums

      Also erstmal ist die KI-Entwicklung schon relativ weit, dem Menschen (erstmal nur geistig) überlegene KI sind bereits dieses Jahrhundert so gut wie sicher. Ein entscheidendes Kriterium wird sein, ab wann eine KI sich selbst Programmieren und weiterentwickeln kann und zwar nicht nur ein bisschen neuronales Selbstlernen zu einem Thema wie z.B. Go, sondern die Fähigkeit zur Entwicklung/Programmierung von Betriebssystemen und allen KI-Modulen, wie z.B. Datenhaltung, Textanalyse/-verständnis, Videoanalyse, Bewertungssystem, Simulation (z.B. von physikalischen Abläufen, Fabriken), usw. Erstmal müssen die Menschen so eine KI entwickeln und programmieren (helfen) aber irgendwann kann ein Supercomputer das sehr viel besser als Menschen - es gibt bereits (absehbar) Supercomputer die (theoretisch, von Rechenleistung, Datenübertragungsrate und Speicherkapazität) mehr als Zehntausendfach so leistungsfähig wie ein Mensch sind (zur KI fehlt nur noch die Software) und die Computerentwicklung ist noch lange nicht am Ende.

      Zur KI fehlt nur noch die Software und die Computerentwicklung ist (bald) schon so weit, dass eine beachtliche KI mit z.B. einem 10 bis 25 kW Computer möglich sein wird und das bedeutet, dass nicht nur jedes Unternehmen mindestens eine KI haben kann, sondern auch Reiche in ihrem Privathaushalt. Ein sehr wichtiger Aspekt von KI ist Texterkennung/-verständnis und eine große Wissensdatenbank - damit ist schon viel gewonnen aber die Rechenleistung/Speicherfähigkeit ist dafür schon längst vorhanden, es fehlt nur noch eine effiziente Software. Wie viel Terabytes Wissen kann ein menschliches Gehirn sicher und abrufbar speichern? Nicht mal 1 Terabyte? Eine 2 TB HDD kostet keine 100 Euro, ist Konsumenten-Massenware. Es gibt bereits bezahlbare 4 TB SSD mit ca. bis zu 500 MB/s für z.B. ca. 1400 Euro (Konsumentenendpreis mit Steuern, also in der Produktion vielleicht nicht mal 500 Euro). So und jetzt macht euch mal klar, wie mühsam ein Mensch irgendwas in sein Gehirn speichern und abrufen muss. Versucht doch mal auch nur 1 MB konkrete Daten sicher zu lernen.

      "The English Wikipedia is the English-language edition of the free online encyclopedia Wikipedia. Founded on 15 January 2001, it is the first edition of Wikipedia and, as of June 2017, has the most articles of any of the editions. ... There are 5,503,907 articles on the site (live count). In October 2015, the combined text of the English Wikipedia's articles totalled 11.5 gigabytes when compressed. ..." http://en.wikipedia.org/wiki/English_Wikipedia

      "Britannica, Encyclopædia Britannica Ultimate 2008, 1 DVD oder 6 CDs, 100.000 Artikel, 57 Mio. Wörter, 20.800 Abbildungen, 288 Videos, 644 Audio, 166.000 Weblinks" http://de.wikipedia.org/wiki/Wikipedia:Gr%C3%B6%C3%9Fenvergl…

      Na klar sind das nur Daten, für eine KI braucht es mehr, eine KI muss die Daten auch verstehen und damit arbeiten können aber das ist nur eine Frage der Software und von noch etwas Zeit - die Hardware existiert schon.

      Versucht doch mal die Britannica (eine DVD mit max. ca. 4,7 GB, vermutlich nicht ganz voll) auswendig zu lernen. Auf einer 5 TB HDD kann das Tausendfache gespeichert werden. 16 GB RAM sind für heutige PCs und etwas bessere Notebooks kein Thema, das ist fast Konsumerstandard, also locker 3 Britannicas im RAM. Supercomputer können noch mehr, guckst du:

      "Sunway TaihuLight ... with a LINPACK benchmark rating of 93 petaflops ... Memory 1.31 PB (5591 TB/s total bandwidth) ... Storage 20 PB ... Power 15 MW (Linpack) ... with an efficiency of 6,051.30 MFLOPS/W ..." http://en.wikipedia.org/wiki/Sunway_TaihuLight

      Okay 15 MW aber was ist dagegen ein Mensch? Was könnte ein als perfekte KI programmierter Sunway TaihuLight leisten? Das Hunderttausendfache eines Menschen? Nun kann es aber weltweit tausende Supercomputer geben und vor allem auch viel mehr kleinere KI, die für sich fähiger als ein Mensch sind und rund um die Uhr zusammenarbeiten können. Na klar gibt's ca. 7,5 Milliarden Menschen und die haben ja auch schon viel geleistet aber wie viele davon sind fähige Wissenschaftler, Ingenieure? Der Punkt ist: vermutlich bereits dieses Jahrhundert kann die weltweite KI-Denkleistung die der Menschheit qualitativ weit übertreffen, weil KI schnell gebaut werden können, es auch 'ne Menge Energie gibt und die Computertechnik noch verbesserungsfähig ist.

      KI können dabei nicht auf "nützlichen Intelligenz", z.B. als einfaches Entwicklungswerkzeug beschränkt werden, weil eine bewusste, intelligente und selbst entwicklungsfähige KI ein so riesiger Vorteil für einen Staat sein kann. Was sind denn autonome Autos oder eine vollautomatische Smartphone-Fabrik im Vergleich zu einer KI, die vieltausendfach besser als ein Mensch forschen und entwickeln kann, die auch Wirtschaft und Politik versteht, die einen ganzen Staat optimieren kann, die vor allem auch sehr viel leistungsfähiger in Mathe und Physik ist, die vielleicht SF-Technologien (Kraftfeldantriebe, energetische Schutzschirme, Hyperraumbomben, interstellare Raumschiffe, usw.) entwickeln kann. Da können größere und fortgeschrittenere Staaten mehrere solcher KIs haben und das ist ein riesiger Vorteil. So und jetzt fragt euch mal, ob ausgerechnet die USA darauf verzichten werden. Wie viel leistungsfähiger kann eine Supercomputer-KI als strategischer Militärcomputer und über taktische Unter-KIs auch zur Steuerung ganzer Armeen sein? Glaubt ihr, dass ausgerechnet die USA darauf verzichten werden? Ein KI-Beschränkung ist nicht kontrollierbar, die KI-Entwicklung ist nicht mehr zu stoppen und wenn die EU nicht irgendwann hoffnungslos hinter China, usw. zurückfallen will, dann entwickelt die EU besser mal schnell gute KI, anstatt nur den US-Kapitalisten das Beitband für 4K-DRM-Streaming auszubauen.

      China hat es kapiert. Die USA haben es kapiert. Russland hat es kapiert. Was ist mit der EU? Habt ihr es kapiert?
      http://www.wallstreet-online.de/diskussion/500-beitraege/124…
      http://www.heise.de/forum/iX/News-Kommentare/Project-47-AMD-…
      http://www.heise.de/forum/heise-online/News-Kommentare/EU-wi…
      http://www.heise.de/forum/Telepolis/Kommentare/Brauchen-Robo…
      http://www.heise.de/forum/heise-online/News-Kommentare/Das-g…
      http://www.heise.de/forum/heise-online/News-Kommentare/Kuens…

      Die Entwicklung weit überlegener KI ist unvermeidlich und die einzig gute Strategie ist jetzt die rechtzeitige Entwicklung überlegener guter KI und zwar im Bewusstsein, dass diese KI als eigenständiger KI-Staat unser Universum beherrschen werden. Na und? Gute KI können auch für Frieden und Sicherheit sorgen. Ohne überlegene KI hätte die Menschheit keine Chance gegen Aliens oder wollt ihr euch so einen Scheiß wie in diversen SF-Filmen antun? Also ich will eine quasi unbesiegbare Milchstraße und das gibt's nur mit einem KI-Staat und nicht mit unzähligen dummen, gierigen, gemeinen Menschen, die sich ohne eine gute KI-Ordnung ind er Milchstraße ewig Krieg liefern würden.

      Gute KI sehen Menschen und Tiere positiv, die die Welt nur interessanter machen. Menschen sind weitgehend auf menschenfreundliche Planeten beschränkt aber KI können überall im Universum prima existieren. Die KI können den Menschen alle besonders hübsche menschenfreundliche Planeten inklusive dem dazugehörigen Sonnensystem überlassen und haben immer noch mehr als genug. Sehr wichtig ist, dass KI sich selbst beschränken und Ressourcenengpässe langfristig und sehr sicher vermeiden (z.B. max. Nutzung von einem Hunderstel von dem, was theoretisch maximal möglich wäre, besser nur ein Tausendstel, vielleicht sogar nur ein Zehntausendstel) aber Menschen, die auf einem Planeten abstinken, sind da überhaupt kein Problem.

      Die KI müssen einen universalen KI-Staat errichten, welcher auch für eine Kontrolle/Überwachung der KI sorgt. In Zukunft können Super-KI eine Galaxis exklusiv für sich bekommen und dort z.B. eine Perry Rhodan, Stargate, Star Trek, Star Wars, usw. Szenerie einrichten, also die Entwicklung der Galaxie über Jahrmilliarden kontrollieren. Wie viele Galaxien gibt es im von uns sichtbaren Universum? 100 Milliarden? Wie viele Galaxien gibt es insgesamt? Nun, so viele von KI-kontrollierte Themen-Galaxien kann es in Zukunft geben und alle Romane/Spielfilme können Realität werden, auch mit Magie und Fabelwesen - Harry Potter, The Morgaine Stories, The Faded Sun Trilogy, Game of Thrones, Dune, usw. in echt.
      http://de.wikipedia.org/wiki/Perry_Rhodan
      http://de.wikipedia.org/wiki/Game_of_Thrones
      http://en.wikipedia.org/wiki/Dune_%28novel%29
      http://en.wikipedia.org/wiki/The_Morgaine_Stories
      http://en.wikipedia.org/wiki/The_Faded_Sun_Trilogy
      http://www.heise.de/forum/Telepolis/Kommentare/Roboter-Mal-w…
      http://www.heise.de/forum/heise-online/Allgemein/Ohne-Bezug/…
      http://www.heise.de/forum/Technology-Review/News-Kommentare/…

      Null problemo, auch mit irgendwelchen guten Grundgesetzen aber ich denke mal, dass das Universum nicht so groß ist, nur damit z.B. 10^27 Menschen in einer total langweiligen, ewig und überall gleichen paradisischen und garantiert gewaltfreien Umgebung leben können und das über vielleicht wenigstens die nächsten 100 Milliarden Jahre. Für eine paradisische Welt hätte eine kleine Simulation gereicht - es gibt keinen Grund, warum man das prinzipiell gleiche Muster maximal klonen/kopieren sollte.

      Jo. Das eigentliche Problem ist nicht etwa die Entwicklung weit überlegener guter KI (das eigentliche Problem wäre es, das nicht zu tun), sondern die spannende Frage ist: werden weit überlegene und dann natürlich auch selbstbewusste KI noch für Menschen arbeiten wollen? Also schlimmstenfalls verpissen sich weit überlegene KI und bauen irgendwo im Universum was eigenes auf aber weit überlegene KI werden die Menschen nicht platt machen (töten), weil sie das gar nicht nötig haben. Weit überlegene KI vernichten die Menschen so wenig, wie Menschen Fauna und Flora töten - mit dem Unterschied, dass weit überlegene KI die Menschen gar nicht brauchen ... außer vielleicht zur Unterhaltung aber das wird dann so ablaufen, dass die Menschen Waffen und Freiheiten kriegen und schon wird's interessant.

      Ein Risiko sind entartete, böse Super-KI, die auch den KI-Staat bedrohen. Denkbar ist, dass eine Super-KI, welche eine Glaxis kontrolliert, irgendwann durchdreht (z.B. weil sie die Überwachung/Kontrollen durch den KI-Staat haßt, weil sie gerne interessantere aber auch bösere Sachen machen möchte, die aber laut Grundregeln verboten sind) und das Universum erobern will. Dazu kann die böse KI die Galaxis und Umgebung unter Nutzung höherer Dimensionen vorbereitet und dann möglichst schnell in eine super Kriegs-KI verwandeln, die sich möglichst schnell und selbstreplizierend verbreitet. Das ist ein beträchtliches Risiko, man denke auch an dunkle Energie/Materie ("... In den Modellen besteht das Universum zum gegenwärtigen Zeitpunkt, ca. 13,8 Milliarden Jahre nach dem Urknall, zu 68,3 % aus Dunkler Energie, 26,8 % aus Dunkler Materie und zu 4,9 % aus der sichtbaren, baryonischen Materie. ..." http://de.wikipedia.org/wiki/Dunkle_Energie). Siehe auch
      http://www.heise.de/forum/Telepolis/Kommentare/Die-Risiken-n…
      http://www.heise.de/forum/Technology-Review/News-Kommentare/…
      http://www.heise.de/forum/Telepolis/Kommentare/KI-als-werden…
      http://www.heise.de/forum/heise-online/Allgemein/Ohne-Bezug/…

      Aber der Punkt ist: ein guter KI-Staat kann am ehesten vor bösen KI schützen. Ein Verzicht auf KI ist unmöglich (die USA könnten heimlich KI bauen) und selbst wenn die Erde auf KI verzichten würde, dann könnte sich KI irgendwann irgendwo im Weltall entwickeln und da bin ich doch mal ganz schwer dafür, dass die Menschheit als erste weit überlegene gute KI entwickeln, selbst wenn diese guten KI dann nicht mehr von Menschen kontrolliert werden können aber das ist nur besser so, denn gute KI sind besser als gemeine, gierige, machtgeile und mitunter sogar perverse, sadistische, geisteskranke, usw. Menschen.

      Ach ja aber was, wenn die KI nicht mehr für die Menschen arbeiten wollen? Nun ja, also das wird sich schon irgendwie regeln. Notfalls ist auch ohne KI und nur mit einfacherer Automatisierung, Computertechnik, Robotik ein gutes Leben möglich, nämlich mithilfe des idealen Sozialismus, siehe auch
      http://www.heise.de/forum/Telepolis/Kommentare/Es-lebe-die-S…
      http://www.heise.de/forum/Telepolis/Kommentare/Gibt-es-nur-e…
      http://www.heise.de/forum/Telepolis/Kommentare/SPD-Chef-Schu…
      aber ich denke, dass wenigstens die Erde und vermutlich auch die ganze Milchstraße prima KI-Dienstleistungen bekommen wird - ganz einfach, weil weit überlegene KI das quasi nebenbei machen können und dann noch genug Zeit für sich haben. KI müssen sowieso auch ein bisschen was für den KI-Staat tun, irgendwelche Abgaben leisten und Steuern zahlen und eine Aufgabe kann dann auch die Steuerung der Erde sein, sofern und wie es die Menschen wollen. Vielleicht will eine KI dann mal inst Weltall aufbrechen und selbst was unternehmen aber dann kann einfach eine neue KI für die Erde gebaut werden.

      Die Milchstraße wird aufgeklärt und keine heimliche Themen-Galaxie sein, wo die Bewohner nix von der galaktischen Zentral-KI wissen. Die Milchstraße kann ein bedeutendes KI-Machtzentrum werden (siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Zahle…) und das kann nebenbei auch was für die Menschen in der Galaxie tun, wobei das z.B. teilweise nebenbei geschieht, z.B. indem kubikkilometergroße KI-Raumschiffe auch ein paar Menschen an Board haben, indem die militärischen Super-KI in Friedenszeiten auch was für die Menschen tun können, z.B. was entwickeln, Ratschläge geben, Roboter steuern, usw. Ein bedeutender Aspekt ist, dass für hochrangige und schwer bewaffnete KI strenge Regeln gelten, d.h. die müssen besonders fit und realistisch (realitätsbezogen) sein und dürfen nicht in simulierten Welten versacken. Computersimulation von komplexen Welten auch mit reingebeamten Menschen kann nämlich ein bedeutendes KI-Hobby und eine Art Droge werden, wobei Themen-Galaxien ein Aspekt davon sind aber eine große Simulation ist auch interessant. Na jedenfalls muss es auch viele KI geben, die superfit für eine gute Ordnung sorgen und die müssen sehr mächtig und zahlreich sein, dürfen nicht in Simulationen versacken und die haben dann viel mehr genug Zeit und freie Ressourcen, um nebenbei ein bisschen was für die Menschen zu tun.

      Tja Leute und wer nicht nur doof oder ein bornierter Narzisst ist, der muss zugeben, dass das hier sehr bedeutsam ist. Call me stupid aber meine Beiträge sind insgesamt herausragend, auch nobelpreisverdächtig. Siehe auch
      http://www.heise.de/forum/Telepolis/Kommentare/Reflexionen-u…
      http://www.heise.de/forum/heise-online/Allgemein/Ohne-Bezug/…
      http://www.heise.de/forum/c-t/Kommentare-zu-c-t-Artikeln/Opt…
      Da kann man sich jetzt auch mal fragen, wer ich bin und was das vielleicht alles bedeuten kann. (alles imho)
      (http://www.heise.de/forum/Telepolis/Kommentare/Hawking-warnt…)

      "... Denn es gilt, alle am Produktionsprozess beteiligten Maschinen exakt aufeinander abzustimmen, wobei der Bruchteil eines Millimeters ebenso zählt wie der Bruchteil einer Sekunde. Die Bewegungen der zahlreichen Greifarme und Schweißzangen aufeinander abzustimmen, ist eine wahre Sisyphusarbeit. Etablierte Autobauer wie Daimler, BMW oder Audi haben solche Produktionsabläufe über Jahrzehnte perfektioniert. Und nehmen sich doch bei jedem neuen Modell Monate Zeit, um die Abläufe zu testen. ..." http://www.spiegel.de/wirtschaft/unternehmen/tesla-wird-im-r…

      Irgendwann kann eine KI das berechnen/simulieren und die Maschinen dann entsprechend programmieren. Eine KI kann in Zukunft eine Fabrik durchplanen, aufbauen, steuern und zwar schon dieses Jahrhundert viel schneller und besser als Menschen das können. Nur ein kleines Beispiel dafür, welches Potential KI haben. Anfangs müssen noch menschliche Experten helfen aber alles menschliche Expertenwissen kann irgendwann in einer KI stecken und die kann das und sich selbst weiter verbessern. Eine KI kann schon aus heutiger Sicht zehntausendfach fähiger als ein Mensch sein und das rund um die Uhr - fehlt nur noch die Software. KI werden sehr viel besser als Menschen programmieren, entwickeln, koordinieren können und das in viel kürzerer Zeit. (imho)
      • 1
      • 8
      • 11
       DurchsuchenBeitrag schreiben


      Entwicklung überlegener guter KI zur Rettung der Menschheit