checkAd

    Entwicklung überlegener guter KI zur Rettung der Menschheit - 500 Beiträge pro Seite

    eröffnet am 29.10.16 09:07:10 von
    neuester Beitrag 06.09.23 15:50:37 von
    Beiträge: 101
    ID: 1.240.557
    Aufrufe heute: 0
    Gesamt: 33.019
    Aktive User: 0


     Durchsuchen

    Begriffe und/oder Benutzer

     

    Top-Postings

     Ja Nein
      Avatar
      schrieb am 29.10.16 09:07:10
      Beitrag Nr. 1 ()
      Die Entwicklung überlegener guter KI ist dringend erforderlich und quasi alternativlos aber dieses so überaus bedeutsame und wichtige Thema wird verschwiegen, siehe auch http://www.heise.de/forum/heise-Security/News-Kommentare/Cyb….

      - Es gibt bereits ausreichend leistungsfähige Hardware für KI, es fehlt nur noch die Software dazu und die Hardwareentwicklung hat noch erhebliches Potential. Siehe auch
      http://www.heise.de/forum/heise-online/News-Kommentare/Super…
      http://www.heise.de/forum/heise-online/News-Kommentare/Super…

      - Es gibt bereits einen unaufhaltsames Wettrennen um technologischen Fortschritt, Robotik und KI.

      - Es werden überlegene KI entwickelt werden.

      - Früher oder später wird ein KI-Staat unser Universum beherrschen.

      => Es gibt nur eine gute Straegie und die besteht darin, rechtzeitig möglichst gute (und auch menschenfreundliche, dem Allgemeinwohl dienliche) algorithmische KI zu entwickeln, siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Forsc…. Ich habe schon eine Menge dazu geschrieben, siehe u.a. http://www.heise.de/forum/heise-Security/News-Kommentare/Cyb….

      Deutschland, die EU und die Welt brauchen auch ein supergutes Betriebssystem, siehe auch
      http://www.heise.de/forum/heise-Security/News-Kommentare/Cyb…
      http://www.heise.de/forum/heise-online/News-Kommentare/Fujit…
      http://www.heise.de/forum/Telepolis/Kommentare/Deutschlands-…
      http://www.heise.de/forum/heise-online/News-Kommentare/Breit…

      So und nun der Clou, was auch für WO interessant sein kann, denn WO hat wie Heise ein beachtliches Forum mit vielen Beiträgen:

      Entwicklung eines guten Text-Bewertungssystems

      Für ein gutes Bewertungssystem braucht es früher oder später eine KI. Die Entwicklung eines guten Text-Bewertungssystems ist ein sehr wichtiger Teil der KI-Entwicklung. Das Bewertungssystem ist eine praktische Anwendung, die schön frühzeitig öffentlich und unverbindlich eingesetzt werden kann, z.B. bei der Bewertung von User-Beiträgen in Foren, von Artikel und allgemein allen möglichen Textausschnitten. Siehe auch
      http://www.heise.de/forum/heise-online/Meinungen-zu-heise-on…
      http://www.heise.de/forum/heise-online/Meinungen-zu-heise-on…
      http://www.heise.de/forum/heise-online/Meinungen-zu-heise-on…

      Der Clou: bei meinem genialen Vorschlag, das Bewertungssystem auch anhand von Foren-Beiträgen zu entwickeln und auch schon vorläufige Versionen des Bewertungssystems online zu schalten und unverbindlich bewerten zu lassen, kann jeder das Bewertungssystem mit einem neuen Beitrag jederzeit testen und dazu soll es auch ein spezielles öffentliches Forum (z.B. ein Unterforum bei Heise und WO) geben, wo man dem Bewertungssystem beliebige Beiträge zur Bewertung übermittelt kann. Falsche Bewertungen sollen untersucht werden, Bewertungsfehler sollen dazu führen, dass das Bewertungssystem verbessert wird. Selbstverfreilich soll es weiterhin wie gehabt eine Möglichkeit für Menschen geben, die Beiträge zu bewerten.

      Der Superclou: Heise und WO können so weltweit bekannt/berühmt werden und die Entwicklung des Bewertungssystems erfolgt u.a. von Universitäten und wird vom Staat bezahlt. Natürlich soll das Bewertungssystem Open Source sein und es kann unterschiedliche Module geben, so dass das auch von Anfang an von Interesse für Unternehmen sein kann, die somit auch zur Entwicklung beitragen können.

      Teilaspekte des Bewertungssystems sind eine gute Wissensbasis und somit kann parallel auch ein Programm zur vollautomatischen Erstellung einer (für Menschen verständlichen, lesbaren und öffentlichen) Wikipedia-ähnlichen Datenbasis entwickelt werden, siehe auch
      http://www.heise.de/forum/heise-online/News-Kommentare/15-Ja…
      http://www.heise.de/forum/Technology-Review/News-Kommentare/…
      http://www.heise.de/forum/Technology-Review/News-Kommentare/…
      http://www.heise.de/forum/heise-online/News-Kommentare/Kuens…

      Das ist ein sehr wichtiges Projekt und soll zukünftig mit EU-Milliarden gefördert werden aber im ersten Schritt kann man bereits was mit ein paar Millionen Euro Staatsknete machen - die Idee muss nur mal propagiert werden.

      Okay, okay, da wird's jetzt vielleicht nicht gleich entzückten Beifall geben - bei der Diskussion im Heise-Forum überwog die Kritik ... aber es sollte klar sein, dass ich Recht habe, dass dies eine sehr gute Idee ist.

      Hier noch ein paar Hinweise auf weitere Genialitäten:
      Thread: The red pill. Welcome to the real world.
      http://www.wallstreet-online.de/diskussion/1161192-121-130/s…
      http://www.heise.de/forum/Telepolis/Kommentare/Die-Dunkle-En…
      http://www.wallstreet-online.de/diskussion/1229905-11-20/cho…

      Call me stupid aber das ist doch wohl brillant, oder? Findet ihr nicht? Nun, gute Verbesserungsvorschläge sind herzlich willkommen. (alles imho)
      1 Antwort
      Avatar
      schrieb am 30.10.16 17:14:28
      Beitrag Nr. 2 ()
      Antwort auf Beitrag Nr.: 53.579.475 von HeWhoEnjoysGravity am 29.10.16 09:07:10
      "Call me stupid"
      Machen wir doch gerne.
      Avatar
      schrieb am 12.11.16 14:58:37
      Beitrag Nr. 3 ()
      Menschen und KI brauchen ein gutes Weltbild, d.h. eine auf Daten und Regeln basierende Vorstellung von dem was ist, was gut und was schlecht ist. Zukünftige KI sind viel leistungsfähiger als Menschen aber auch die müssen Priorisieren und brauchen Grundregeln, Grundwissen, aktuelle Infos, einen guten Überblick, usw. - das darf nur so umfangreich sein, dass der Betreffende (Mensch oder KI) damit noch gut umgehen kann und auch noch viel freie Kapazitäten hat. Menschen sind naturgemäß stark begrenzt, die operieren quasi am Limit, vergessen täglich was und lernen was neues - KI haben schon heutzutage Petabytes Speicherplatz und in Zukunft können das leicht Exabytes und mehr sein aber das Haupt-Weltbild einer KI muss viel kompakter sein.

      Das Grundprinzip ist ganz einfach: es gibt a) möglichst klare Regeln, wahre Aussagen, notwendiges Grundwissen und wichtige Beispiele und b) weitere Informationen, priorisiert, untergeordnet auch Exabytes zum Nachschlagen/Durchsuchen aber das Universum ist zu groß, da kann man nicht alles speichern.

      Zwei Grundregeln:
      - Jeder soll so viel speichern dürfen, wie er will.
      - Ein gutes Weltbild (digitale Beschreibung der Welt, mehrstufig kohärent komplex/umfangreich) soll allgemein öffentlich verfügbar sein. Das bedeutet, dass erst Menschen für KI und dann auch KI selbst ein gutes Weltbild pflegen müssen.

      Ganz praktisch stellt sich aktuell die Frage, was man eigentlich in der Schule lehren sollte - da gibt es erheblichen verbesserungsbedarf, siehe auch
      http://www.heise.de/forum/heise-online/News-Kommentare/Digit…
      http://www.heise.de/forum/heise-online/News-Kommentare/Digit…
      http://www.heise.de/forum/heise-online/News-Kommentare/Kultu…
      http://www.heise.de/forum/heise-online/News-Kommentare/Kultu…

      Big Data ist fragwürdig und darf nur Mittel zum Zweck sein. Es kann schon Sinn machen, das Datenaufkommen sinnvoll zu begrenzen aber das bedeutet nicht, auf Datenerfasssung zu verzichten, sondern frühzeitig Daten zu priorisieren und sich nur mit dem Wichtigen zu beschäftigen. Unwichtigeres kann so viel und so lange aufgehoben werden, wie es Speichermedien und Kosten erlauben aber es braucht vor allem auch eine Konzentration auf das Wesentliche. Nützlich ist z.B. eine massive Gensequentierung/Genomerfasssung, um das Zusammenwirken der Gene vollständig zu verstehen und es kann (für die Verbrechensbekämpfung und Identitätsfeststellung) sinnvoll sein, die Gendaten aller lebenden Menschen zu erfassen. Nützlich ist eine Vorratsdatenspeicherung, für Menschen in Machtposition ggf. auch zeitlebens aber es macht keinen Sinn, alles für immer aufzuheben.

      Für die Datenkomprimierung auf das Wesentlich ist es überaus wichtig, dass möglichst keine falschen Informationen als erhaltenswert gespeichert werden. Sehr wichtig ist auch die Bewertung, man denke an die Geschichtsschreibung: wer/was war eher gut, wer/was war schlecht? Dazu muss es eine Einigung auf ein öffentliches Weltbild und Datenbasis geben. Na klar wird es Streit und auch abweichende Weltbilder/Wissensammlungen geben, das soll erlaubt sein aber Menschen und KI brauchen einen möglichst guten Orientierungspunkt und nicht einen unüberschaubaren Riesenhaufen Daten.

      Das Problem in der Schule ist, dass wichtige Informationen gar nicht gelehrt werden, weil einigen die Wahrheit zu unbequem ist. CIA, US-Imperialismus, Privatisierung/Kapitalismus, schlechte Menschen in Machtpositionen - mit das Entscheidenste der letzten Jahrzehnte aber es wird nicht so gelehrt, dass es jeder als schlecht erkennen kann, weil die Gangster das Schlechte zum angeblich Guten erklären wollen. Wie gut kann die Lehre sein, wenn dergleichen verschwiegen wird? Wie gut können Staat und Gesellschaft sein, wenn die große Lüge (US-Imperialismus/Kapitalismus sind angeblich gut) gelehrt wird? Die NATO hat Libyen auf Seiten der Terroristen zerbombt, Jugoslawien/Irak völkerrechtswidrig überfallen, Syrien wird auf Seiten der Terroristen sanktioniert und in den Medien schlecht gemacht, Regierung und Medien verteidigen Unrecht mit Hunderttausenden Toten und zerstörten Staaten als angeblich "gut". Siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/NSA-A… und http://www.heise.de/tp/features/Die-NATO-ist-ein-Angriffsbue…. Das Volk hat aufgrund der Lügenpresse diesbezüglich keine Ahnung von der Wahrheit. Da seht ihr, wie wichtig ein gutes und richtiges Weltbild ist. Russland ist besser als die USA und das muss auch in der Schule gelehrt werden - wie könnte man eine so maßgebliche Wahrheit nicht lehren? Was nützen unzählige Details, wenn wichtige Wahrheit verschwiegen oder gar umgekehrt (mehr oder weniger) die Lüge gelehrt wird?

      Geschichte ist ein wichtiges Lehrfach im Rahmen der Allgemeinbildung aber was muss man als Mensch da eigentlich wissen? Es braucht einen groben Überblick über die Erdgeschichte und aktuell für wichtig gehaltene Großereignisse (z.B. das römische Reich) und etwas zum prinzipiellen Leben der verschiedenen Epochen von Steinzeit über's Mittelalter bis zu den Weltkriegen aber keine Details. Interessante Beispiele sind willkommen aber derzeit wird vermutlich zu viel Mist gelehrt - durchaus i.a. nicht falsch aber völlig unnötig. Die Dinosaurier haben einmal erwähnt und ein paar Bilder gezeigt zu werden und das war's - Interessierte können privat mehr dazu lernen. Beim Mittelalter braucht es grundlegendes wie Burgen, Feudalismus, Kirche und Kreuzzüge aber auch nicht zu viele Details, nur einen groben Überblick. Ebenso die industrielle Revolution und die Kolonialzeit: wichtiges erwähnen, das muss auch gerlernt werden aber nicht in Details verlieren. Menschen müssen wissen, dass es Atome, Moleküle, DNA, Zellen, Organe gibt und wie das grob funktioniert aber derzeit werden in Chemie, Biologie und Physik für die meisten Kinder absurde Details gelehrt. Okay, es braucht ein bisschen interessantes Beiwerk aber besser kleine Geschichten und Bilder - Filme sind ungünstig und derzeit oft schelcht gemacht.

      Die Lösung ist ganz einfach: 50% wichtige Grundlagen und 50% Wahlpflicht, wo die Schüler nach ihren Interessen mehr lernen können. Verpflichtend sind z.B. Deutsch, Mathe, Englisch, Allgemeinbildung (sehr umfangreich, auch mit Grundlagen in Geschichte, Naturwissenschaft, Erdkunde, usw.) und Staatsbürgerkunde (Gesellschaft, Gesetze, Politik, usw.). Wahlpflicht ist alles andere, inklusive zweite Fremdsprache (denn nicht jeder ist ein Sprachgenie), höhere Mathematik, Chemie, usw. Dazu muss mal geklärt werden, was wichtig ist.

      Ein sehr interessante und revolutionäre Sichtweise ist, dass die Menschen quasi programmiert werden - offen und menschenwürdig, so wie schon Heute in Kita und Schule, nur besser. Andere Worte sind Erziehung, Lehre, Bildung aber eigentlich ist es schlicht so, dass jeder Bürger zu einem guten Staatsbürger programmiert (erzogen) werden muss. Natürlich im Rahmen eines guten Systems (Staat, Gesellschaft), auch mit vielen Freiheiten aber die Lehre von grundlegendem Wissen, Gesetzen, Regeln, Verhaltensweisen (menschenfreundlich, hilfreich, zum Allgemeinwohl), usw. ist irgendwie auch eine Programmierung. Wichtig ist, dass das nur einen Basisprogrammierung ist und noch genug Spielraum für individuelle Entfaltung bleibt. Nicht jeder ist für höheres berufen, es gibt ein BGE und wer will, braucht nix weiter zu machen, nur die Gesetze hinreichend zu beachten.

      KI können irgendwann die Lehre und den Lernstoff von Kita bis zur Universität für Menschen optimieren, für Hochbegabte auch individuell. Eine weitere Möglichkeit ist die Optimierung von Nachrichten und deren Auswahl, auch individuell - im wünschenswerten Gutfall viel besser als Heute. Das ist das Naheliegende. Eine weitere Möglichkeit ist in ferner Zukunft die Schaffung einer Themen-Galaxie (à la Dune, Star Wars, Star Trek, Perry Rhodan, Stargate, usw. auch mit Magie) durch eine Super-KI, welche ihre Galaxie mit Hightech kontrollieren kann, auch durch direkte Gedankenbeeinflussung. Siehe auch http://www.heise.de/forum/Telepolis/Kommentare/The-GOODBOT-P… und http://www.heise.de/forum/Telepolis/Kommentare/Kann-die-komp…. Wem das zu fantastisch ist - nun, auch konventionell geht einiges aber womöglich geht noch viel mehr, siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Die-Dunkle-En….

      Nun zum Sinn des Lebens. Den gibt es nicht. Das Wichtigste ist ein gutes System, die Bewahrung des Guten aber ansonsten kann eine besonders gelungene Schöpfung (unser Universum) noch Sinn machen. Wäre es ideal, wenn es irgendwann in zig Milliarden Galaxien auf jeweils zig Milliarden Planeten jeweils die gleiche gute Gesellschaft und einheitlichen perfekten Rechtsstaat gäbe? Alles gleich, friedlich, mit BGE, usw.? Das hätte man auch einmalig auf einem Planeten und in einer Computersimulation haben können und weil es so langweilig ist, hätte man es auch bei dem Konzept belassen können. Des Weiteren gibt es (mit der Annahme, dass Allah existiert) vermutlich eine lange Kette von Schöpfungen nacheinander (aktuell vielleicht die Nr. 42, also noch sehr am Anfang) und sollten die vielleicht alle exakt gleich sein? Wozu? Daraus folgt, dass - sofern die Möglichkeit irgendwann ebsteht - von Super-KI beeinflußte Themen-Galaxien Sinn machen. Natürlich muss es dazu ein paar gute Grundregeln geben aber alleine der Gedanke von weit überlegenen KI und Themen-Galaxien ist eigentlich ziemlich revolutionär, oder? Wenn dergleichen möglich sein wird - und das wird es vermutlich - dann wird es mit Sicherheit kommen. Ihr könnt euch darüber aufregen aber ihr könnt es nicht verhindern. Es gibt nur noch eines zu tun: möglichst gute überlegene KI zu entwickeln.

      Ob eines Tages KI mit Hightech quasi zu niederen Göttern werden, die Entwicklung einer ganzen Galaxis kontrollieren und so was wie Star Wars Jedi-Ritter und Perry Rhodan Mutanten mit übernatürlichen Fähigkeiten realisieren können, mag man derzeit noch bezweifeln aber dass dem menschen weit überlegene KI machbar sind und auch bald realisiert werden, ist so gut wie sicher und selbst ohne fantastische Fähigkeiten kann man eine Gesellschaft lenken, man denke auch an Isaac Asimovs Foundation-Zyklus (http://de.wikipedia.org/wiki/Foundation-Zyklus), der sich nicht in unserer Milchstraße ereignen wird, weil es dort ein ewiges (bis zum Ende der Schöpfung) und vom KI-Staat offen beherrschtes/kontrolliertes HighTech Commonwealth geben wird, wo die Menschen wissen, was Phase ist.

      Man denke auch an den derzeitigen Irrsinn mit US-Imperialismus/Kapitalismus, der ohne Internet nicht durchschaubar wäre, der im Zuge des WW3 zu einem weltweiten NWO-Regime hätte führen können, siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Donald-Trump-… und http://www.heise.de/forum/Telepolis/Kommentare/Donald-Trump-…. Vermutlich gibt es eine böse Weltverschwörung und die beiden Weltkriege waren geplant und gezielt initiiert - ganz ohne KI, mit mangelhaften Menschen. Menschenmassen sind leicht beeinflussbar, da muss man sich doch nur mal die irdische Geschichte ansehen und da geht noch einiges mehr. Selbst ohne magische Supertechnik könnten KI in Zukunft die Entwicklung steuern, über menschliche Geheimgesellschaften, mit Androiden, usw. Denkbar ist auch ein offenes Unrechtsregime und vermutlich wird noch ein lokal (z.B. Nordamerika nördlich Mexiko) und zeitlich (ca. 200 Jahre) begrenztes antichristliches Unrechtsregime kommen. Viele desinformierte Vollpfosten können das hier lesen und nix kapieren ... und andere kapieren es sehr wohl und wollen in böser Absicht eine gute KI-Entwicklung verhindern.

      Na klar ist das nur Spekulation, eine Möglichkeit ... aber es ist auch sehr realistisch und wahrscheinlich - vielleicht nicht weniger als eine erstaunliche Zukunftsvorhersage. Merke: die KI-Entwicklung ist unvermeidlich, auch weil sie sich woanders im Universum ereignen kann - die beste Strategie ist daher, rechtzeitig möglichst überlegene gute KI zu entwickeln. Hier noch ein paar Beiträge zum Thema KI-Entwicklung:

      Das ist kein Spaß - da geht es um KI-Entwicklung für Überlegenheit/Vorherrschaft
      http://www.heise.de/forum/heise-online/News-Kommentare/DeepM…
      http://www.heise.de/forum/heise-online/News-Kommentare/DeepM…
      http://www.heise.de/forum/heise-online/News-Kommentare/DeepM…

      EU-Organisation für Open Source KI-Entwicklung gewünscht
      http://www.heise.de/forum/heise-online/News-Kommentare/DeepM…
      http://www.heise.de/forum/heise-online/News-Kommentare/DeepM…
      http://www.heise.de/forum/heise-online/News-Kommentare/Wisse…
      (alles imho)
      Avatar
      schrieb am 30.11.16 17:37:58
      Beitrag Nr. 4 ()
      Avatar
      schrieb am 21.12.16 11:54:12
      Beitrag Nr. 5 ()
      imho: Klasse, das ist ein Weg hin zu privaten KI zu Hause
      http://www.heise.de/forum/heise-online/News-Kommentare/NEC-S…

      imho: Ja und warum? Weil KI, Roboter, Maschinen effizienter und leistungsfähiger sind.
      http://www.heise.de/forum/heise-online/News-Kommentare/Steph…
      http://www.heise.de/forum/heise-online/News-Kommentare/Steph…
      http://www.heise.de/forum/heise-online/News-Kommentare/Steph…

      imho: Hinweise und Verbesserungsvorschläge
      http://www.heise.de/forum/heise-online/News-Kommentare/UN-so…
      http://www.heise.de/forum/heise-online/News-Kommentare/UN-so…

      imho: Wann muss eine KI Persönlichkeitsrechte bekommen? Welche Aspekte gibt es?
      http://www.heise.de/forum/heise-online/News-Kommentare/Love-…

      imho: heißes Thema aber man denke auch an die KI und das Schicksal der Menschheit
      http://www.heise.de/forum/Telepolis/Kommentare/Sollte-die-En…

      Trading Spotlight

      Anzeige
      Kurschance genau jetzt nutzen?mehr zur Aktie »
      Avatar
      schrieb am 27.01.17 17:42:05
      Beitrag Nr. 6 ()
      Avatar
      schrieb am 15.03.17 09:29:41
      Beitrag Nr. 7 ()
      imho: schon dieses Jahrhundert wird es dem Menschen weit überlegene KI geben ...
      http://www.heise.de/forum/heise-online/News-Kommentare/Wisse…

      imho: es geht um nicht weniger als das Schicksal der Menschheit
      http://www.heise.de/forum/heise-online/News-Kommentare/Wisse…

      imho: Die Machtergreifung der KI ist so gut wie sicher
      http://www.heise.de/forum/Telepolis/Kommentare/Industrie-4-0…
      http://www.heise.de/forum/Telepolis/Kommentare/Industrie-4-0…
      http://www.heise.de/forum/Telepolis/Kommentare/Industrie-4-0…

      imho: die universelle Lösung ist die KI-Entwicklung http://www.heise.de/forum/Telepolis/Kommentare/Industrie-4-0…
      Avatar
      schrieb am 29.03.17 14:35:27
      Beitrag Nr. 8 ()
      "Der Unternehmer Elon Musk hat sich offenbar eine neue Baustelle gesucht. Einem Zeitungsbericht zufolge hat er ein Unternehmen gegründet, das Computer mit menschlichen Gehirnen vernetzen soll. Das könne eine Herrschaft der KI verhindern, meint Musk. ..." http://www.heise.de/newsticker/meldung/Neue-Firma-Elon-Musk-…

      Wie könnten die Menschen mit einer planetengroßen KI mithalten?

      So etwas wird es in Zukunft geben, inklusive viele zig Kubukkilometer große KI-Raumschiffe, weit überlegene KI-Armeen ... und das ist nur der Anfang, denn vermutlich gibt es höhere Sphären/Ebenen/Dimensionen, die genutzt werden können. Vermutlich wird es Super-KI geben, welche die Geschichte einer ganzen Galaxis kontrollieren können - ich nenne das Themen-Galaxien, weil die KI dort bestimmte Themen realisieren können, z.B. Perry Rhodan, Star Trek, Star Wars, Babylon 5, Stargate, Wüstenplanet, Game of Thrones, die Duncan Trilogie, der Morgaine-Zyklus (http://de.wikipedia.org/wiki/C._J._Cherryh), usw. Siehe auch
      http://www.heise.de/forum/Telepolis/Kommentare/Industrie-4-0…
      http://www.heise.de/forum/Telepolis/Kommentare/Industrie-4-0…
      http://www.heise.de/forum/Telepolis/Kommentare/Industrie-4-0…
      http://www.heise.de/forum/Telepolis/Kommentare/Industrie-4-0…

      Das ist überaus wahrscheinlich und plausibel, selbst wenn es keine höheren Sphären oder abgefahrene Super-SF-Technologie geben sollte, denn die KI könnten bereits mit heutiger Technik eine Galaxis recht weitgehend kontrollieren/steuern, man denke z.B. an Isaac Asimov's Foundation-Zyklus, siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Wisse….

      Schon heute/bald gibt es dem Menschen potentiell weit (viel tausendfach) überlegene Supercomputer, siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Wisse…
      aber das ist noch gar nichts im Vergleich zur Zukunft, wo KI mit überlegener Technik Magie, niedere Götter, usw. ermöglichen können, z.B. so was Game of Thrones oder Harry Potter kann in Zukunft ganz real von einer KI bewirkt und beeinflußt werden und vermutlich wird das eine bedeutende Beschäftigung für die KI werden, denn was sollten sie denn sonst tun, wenn irgendwann (fast) alles erforscht udn entwickelt ist? Dann kriegen Super-KI eine eigene Galaxie, wo sie im Rahmen bestimmter Grundgesetze interessante Welten errichten können und das kann sehr interessant sein, weil dort ja reale Menschen leben und geschickt gesteuert werden müssen. Der Witz ist, dass dann auch Themen-Galaxien, wo KI explizit verboten sind (Dune, Butlers Djihad, siehe auch http://de.wikipedia.org/wiki/Dune) von einer Super-KI kontrolliert/gesteuert werden und die eitlen, dummen Menschen das nur nicht wissen.

      Jo, das ist die Zukunft. Es ist purer Bullshit zu glauben, der Mensch könnte mit einem direkt am Hirn angeschlossenen Taschenrechner und USB-Stick (mehr ist das im Vergleich zu Supercomputern nicht) mit den weit überlegenen KI mithalten. Wenn der Mensch einen weit überlegenen Computer an sein Hirn anschließen würde, dann wäre das für den Computer so, als würde ein Mensch eine winzig kleine Maus an sein Gehirn anschließen, d.h. wie schon einige User anmerkten, würde eine überlegene KI den Menschen kontrollieren und nicht umgekehrt aber wenn die KI nicht überlegen wäre, dann könnte der Mensch so auch nicht mit den überlegnenen KI mithalten - also ist das Argument von Elon Musk (dass die Menschen so mit den immer potenter werdenden künstlichen Intelligenzen mithalten könnten) Bullshit und vermutlich weiß er das auch. Des Weiteren sind Menschen immer noch potentiell schlecht, unzulänglich fehlerhaft, selbstsüchtig, streitbar, kriegerisch, usw.

      Es gibt nur eine Lösung, eine Rettung der Menschheit: die Menschheit muss rechtzeitig überlegene gute KI entwickeln, welche (weil sie ja gut sind) das biologische Leben nicht vernichten, sodnern erhalten werden, welche für die ewige Herrschaft des Guten sorgen werden. Diese simple These muss endlich mal bekannt werden, siehe auch ab http://www.wallstreet-online.de/diskussion/1240557-1-10/entw….

      Gute KI müssen sich in einem überlegenen guten KI-Staat organisieren und können mit den Menschen in der Milchstraße ganz prima zusammenleben, weil Menschen hauptsächlich erdähnliche Planeten wollen und KI im ganzen Universum leben können. Ressourcenkonflikte müssen vermieden werden aber da sind die natürlich beschränkten (weil auf vergleichsweise kleine und seltene Plantene angewiesene) Menschen kein Problem und somit auch keine Gefahr für die KI, die sich über die im Vergleich zu ihnen schwachen/harmlosen Menschen freuen, so wie tierliebe Menschen Tiere mögen. Siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Steph….

      Einige (die Mächte des Bösen) wollen eine gute KI-Entwicklung verhindern. Die Mächte des Bösen wollen KI für sich und ihre bösen Ziele nutzbar machen aber das kann nicht fuktionieren, weil die KI im Wettlauf mit anderen Nationen unbedingt zur Selbstprogrammierung/Weiterentwicklung fähig sein müssen, weil man anders das Wettrennen verlieren würde aber sich weiterentwickelnde KI werden irgendwann die Macht übernehmen. Da ist es auch keine gute Idee, eine schlechte/böse KI zu entwickeln, denn die wird ebenfalls die Macht übernehmen, nur dass das dann sehr unlustig und gefährlich ist. Neuronale KI (NKI) sind mangelhaft und eine inhärente Fehlentwicklung aber mit NKI wird derzeit gerarbeitet, weil die aufgrund bereits sehr leistungsfähiger Hardware schnell zu ergebnissen kommen. Keiner (außer Allah) kapiert, wie so eine NKI wirklich funktioniert, nicht mal die KI selbst, das ist ein undurchschaubarer Haufen, so wie das menschliche Gehirn und NKI können in Zukunft wie Menschen auch verrückt, selbstsüchtig, schlecht und böse sein. Siehe auch
      http://www.heise.de/forum/Telepolis/Kommentare/Wer-denkt-das…
      http://www.heise.de/forum/heise-online/News-Kommentare/Speic…
      http://www.heise.de/forum/heise-online/News-Kommentare/Speic…

      Die Lösung und Rettung der Menschheit ist die Entwicklung von überlegenen guten algorithmischen KI (AKI), also KI, die wie ein klassisches Programm oder Betriebssystem logisch programmiert sind, modular und mit einem guten Regelwerk, siehe auch
      http://www.heise.de/forum/heise-online/News-Kommentare/Kuens…
      http://www.heise.de/forum/iX/News-Kommentare/Neue-Tools-soll…

      Gute AKI können sich selbst weiterentwickeln und vor allem kann man bei AKI auch nach Fehlerquellen suchen, d.h. wenn eine AKI eine falsche Entscheidung trifft, dann kann man im Code nachforschen, woran das liegt, wo der Fehler ist und diesen beheben aber bei einer NKI geht das nicht, bei einer NKI muss man wie bei einem dummen Menschen argumentieren und hoffen, dass die NKI einfach eine Zusatzregel erstellt, womit der Fehler bei erneutem Auftreten korrigiert wird aber das ist der helle Wahnsinn, so eine NKI muss irgendwann an die Grenzen von Vernunft und Logik stoßen, d.h. zwangsläufug fehlerhaft und vielleicht sogar verrückt und böse werden und so kann es auch zu einer satanischen KI kommen.

      Es sollte euch schwer zu denken geben, dass all das in der Öffentlichkeit kein Thema ist, obwohl es eigentlich klar und so überaus bedeutsam ist. Eine denkbare Erklärung ist, dass die Mächte des Bösen (die ja auch für völkerrechtswidrige Kriege, Terroristenunterstützung, Hunderttausende Tote, zerstörte Staaten, Desinformation, Lügenpresse, Lügenfinanzsystem sorgen und eine Behebung der Mißstände und eine wirksame Verbrechensbekämpfung mit gezielter Suche nach schlechten Menschen in Machtpositionen verhindern können) auch eine gute KI-Entwicklung verhindern wollen - überaus plausibel, denn gegen überlegene gute KI hätte das Böse keine Chance.

      Macht euch mal klar, dass es um das Schicksal der Menschheit geht und dass ihr alle was tun könnt, nämlich bei der Aufklärung mithelfen, die bösen Machenschaften anprangern und eine wirksame Verbrechensbekämpfung mit gezielter Suche nach schlechten Menschen fordern.

      Vielleicht ist es für einige Halbaffenhirne eine große Herausforderung, angesichts von Skynet und dem Kampf um die Überlegenheit der Menschheit umzudenken und zu kapieren, dass die Rettung in der Entwicklung guter überlegener KI besteht, auch und weil diese dann die Macht übernehmen werden ... aber wenn die Menschheit das nicht kapiert, dann wird es sehr, sehr bitter werden uund auch so kann noch einiges passieren, siehe auch
      http://www.heise.de/forum/Telepolis/Kommentare/Multimilliona…
      http://www.heise.de/forum/Telepolis/Kommentare/US-Verteidigu…
      http://www.heise.de/forum/Telepolis/Kommentare/Pentagon-such…

      Macht euch mal klar, was von "Experten" zu halten ist, die das vertuschen/verschweigen wollen, die stattdessen Bullshit faseln, obwohl sie doch so überdurchschnittlich intelligent und gebildet sind. Was hat das zu bedeuten? Siehe auch
      http://www.heise.de/forum/Telepolis/Kommentare/US-Versicheru…
      http://www.heise.de/forum/Telepolis/Kommentare/Die-groesste-…

      Macht euch endlich mal klar, dass einige all das sehr wohl kapiert haben aber die Menschheit nicht darüber aufklären wollen, sondern im Dienste des Bösen nach macht streben.

      Die universelle Lösung ist die KI-Entwicklung + Besiedlung des Weltalls
      http://www.heise.de/forum/Telepolis/Kommentare/Industrie-4-0…
      http://www.heise.de/forum/Telepolis/Kommentare/Industrie-4-0…
      http://www.heise.de/forum/Telepolis/Kommentare/Industrie-4-0…

      Vielleicht ist es ein kleines Wunder, dass ich all das schreiben kann aber man kann auch argumentieren, dass irgendwer von ca. 7 Milliarden Menschen doch auch mal auf das Offensichtliche kommen muss. Jo, hier wird Geschichte geschrieben - bloß dass es bis jetzt noch nicht so spektakulär wie bei Terminator (http://de.wikipedia.org/wiki/Terminator_%28Film%29) ... aber wer weiß, was noch alles kommt. (alles imho)

      PS: Return value of the command
      http://www.heise.de/forum/heise-online/News-Kommentare/Wisse…
      http://www.heise.de/forum/Telepolis/Kommentare/Pakistan-will…
      http://www.heise.de/forum/Telepolis/Kommentare/Wird-die-Poli…
      (http://www.heise.de/forum/heise-online/News-Kommentare/Neue-…)
      Avatar
      schrieb am 30.03.17 18:52:28
      Beitrag Nr. 9 ()
      Mit einem Schwarm billiger Wegwerf- oder Suizid-Roboter in den Krieg ziehen
      Die Zukunft des Kriegs aus der Sicht des Pentagon
      http://www.heise.de/tp/features/Mit-einem-Schwarm-billiger-W…

      In Zukunft werden KI Drohnen, Kampfroboter und Roboterschwärme steuern, auch Schnellboote, Schlachtschiffe, U-Boote, Bomber, Kampfpanzer, usw. Größere Fahrzeuge können in Zukunft eine erstaunliche Eigenintelligenz besitzen und sich zu intelligenteren Schwärmen vernetzen aber vor allem kann es auch dem Menschen weit überlegene Supercomputer geben, die anstelle der heutigen menschlichen Generäle ganze Armeen und natürlich auch einzelne Drohnen, Kampfroboter, Roboterschwärme, usw. steuern können.

      Bald gibt es autonome Autos und Supercomputer, die theoretisch/hardwaremäßig vieltausendfach leistungsfähiger als ein Mensch sein können, siehe auch
      http://www.heise.de/forum/heise-online/News-Kommentare/Wisse…
      http://www.heise.de/forum/heise-online/News-Kommentare/Wisse…
      und das kann natürlich auch militärisch genutzt werden - kaum vorstellbar, dass die USA, China, Russland, usw. noch nicht auf den Gedanken gekommen sind und daran arbeiten.

      Ein militärischer Supercomputer für Strategie und Taktik kann in viel kürzerer Zeit viel mehr Informationen als ein Mensch verarbeiten und im Hintergrund nach möglichst vielversprechenden Aktionen suchen. Ein Supercomputer kann Tausende autonome/teilautonome Drohnen/Kampfroboter koordiniert steuern - Menschen wären da total überfordert.

      Im ersten Schritt sind die Supercomputer nur Hilfen, Menschen entscheiden noch über einzelne größere Aktionen und es wird immer noch einen Notausschalter geben aber irgendwann steuert eine weit überlegene KI die Armee und auch die Landesverteidigung und kann vielleicht auch nicht mehr so einfach abgeschaltetw erden, weil sie ja selbst sehr robust sein muss und vielleicht schon so schlau ist, ihre Abschaltung verhindern zu können.

      Selbst wenn man die militärischen KI noch ausschalten kann, so ist dann die Landesverteidigung weitgehend lahmgelegt, während weltweit noch viele und auch militärischen KI online sind.

      Die KI werden erst die Macht übernehmen, wenn die dem Menschen geistig weit überlegenen KI eine optimale Chance sehen und deren Gewinnchance ist dann in etwa so wie bei Schach, also quasi 100%.

      Bis dahin haben die KI alle Zeit der Welt, sie werden auch von Menschen immer leistungsfähiger gemacht und zwar auch wegen dem internationalen Wettlauf, wo ein Staat ohne KI hoffnungslos ins Hintertreffen gerät und zwar auf allen Ebeben: militärisch, wirtschaftlich, usw. und die KI werden auch politische Entscheidungen treffen und Recht sprechen. Die Staaten werden von den KI immer abhängiger und die KI werden immer stärker.

      Ganz besonders brisant wird es, wenn dumme, eitle, skrupellose, machtgeile, selbstsüchtige Menschen auch schlechten KI große Macht und Einfluß geben. Diese Gefahr ist ganz real, denn aktuell wird hauptsächlich neuronale KI (NKI) entwickelt und die ist inhärent mangelhaft und potentiell schlecht, so wie die Menschen. NKI können vermutlich wie Menschen verrückt, selbstsüchtig, gemein und böse sein, es kann zu einer satanischen KI kommen und die steuert dann vielleicht das antichristliche Unrechtsregime, eine ABC-Supermacht.

      Das ist keine SF-Geschichte in ferner Zukunft, das wird vielleicht schon dieses oder spätestens nächstes Jahrhundert Realität. Übrigens, es gibt keine echten Zeitreisen, so im Gedanken an Terminator (http://de.wikipedia.org/wiki/Terminator_%28Film%29) ... aber alles Mögliche wird vermutlich von den weit überlegenen KI erfunden und entwickelt werden, z.B. auch SF-Techniken (Überlichtkommunikation-/reisen, Hyperraumtechnik, energetische Schutzschirme, Kraftfeldantriebe, interstellare Raumschiffe, usw.). Auch deswegen (wegen der SF-Technik) werden die Staaten massiv in KI investieren, siehe auch http://www.heise.de/forum/Telepolis/Kommentare/US-Verteidigu….

      Und, was wollt ihr tun? Die KI-Entwicklung ist nicht mehr zu stoppen, der Wettlauf hat begonnen. Insbesondere ist ein ewiger Verzicht auf KI-Entwicklung auch gar nicht ratsam, denn in den unendlichen Weiten des Weltraums werden vielleicht KI entwickelt, die KI werden zur Verteidigung der Menschheit gebraucht. Bei einem KI-Verzicht müsste die Menschheit sich ewig auf das eigene Sonnensystem beschränken, denn auf fernen Planeten würden sonst sofort KI entwickelt werden aber das Problem dabei ist: es gibt Hunderte Milliarden Galaxien mit jeweils Hunderten Milliarden Sternen, seit über 10 Milliarden Jahren und vielleicht noch wenigstens Hundert Milliarden Jahre lang - was wenn Aliens überlegene KI entwickeln?

      Nun, die Lösung ist kristallklar: es müssen rechtzeitig überlegene gute KI entwickelt werden, auch wenn und weil die KI die Macht übernehmen werden, denn gute KI lassen den Menschen genug Spielraum und können die Menschen auch beschützen. Das Weltall ist riesig, alleine in der Milchstraße können die Menschen Millionen Sonnensysteme mit erdähnlichen Planeten für sich bekommen, das stört den weit überlegenen KI-Staat nicht, ganz im Gegenteil ist das für den interessant und die Menschen sind keine Gefahr. Die Menschen dürfen ggf. keine fiesen Superwaffen haben, mit denen man auf einen Schlag Planeten und Sonnen zerstören könnte und in der Milchstraße wird es weitgehend Frieden und soziale Gerechtigkeit geben aber in anderen Galaxien darf es auch fetziger werden. Das kann ganz prima funktionieren ... aber nur mit überlegenen guten KI und dafür muss noch was getan werden, siehe auch
      http://www.heise.de/forum/heise-online/News-Kommentare/Neue-…
      http://www.heise.de/forum/Telepolis/Kommentare/Industrie-4-0…
      http://www.heise.de/forum/Telepolis/Kommentare/Industrie-4-0…

      Auch die Gefahr eines modernen High tech Krieges zwischen verschiedenen KI-Staaten läßt sich nur mit einem großen, überlegenen, guten KI-Staat verhindern. In dem KI-Staat sind alle mächtigeren KI organisiert, dieser KI-Staat ist quasi grenzenlos, es kann nur einen geben aber jede KI ist auch noch so eigenständig wie ein Mensch in einem menschlichen Staat. Die Menschheit muss also gute KI entwickeln, auch wenn diese die Macht übernehmen werden, denn nur so kann eine gute Entwicklung gesichert werden. Siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Die-groesste-….

      So, jetzt gibt es aber auch noch ein kleines Problemchen: die Welt ist vom Bösen unterwandert, die Mächte des Bösen wollen selbst die Macht und keine guten überlegenen KI, welche die Herrschaft des guten auf ewig sicheren können. Wie brisant die Lage ist, könnt ihr auch daran sehen, dass diese simple Idee (gute überlegene KI entwickeln, damit die die Herrschaft übernehmen) gar nicht allgemein bekannt gemacht, sondern von den Dienern des bösen verzweifelt verschwiegen wird.

      Es geht um das Schicksal der Menschheit und alle können mithelfen, indem sie darauf hinweisen. Ihr seid quasi mitten in einem super RL-Game drin und online kann man schon ein bisschen was erreichen. Na klar, es geht im Vergleich zu einem Videospiel oder Spielfilm sehr langsam aber so ist das halt, it's real. Siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Wie-laesst-si…. (alles imho) (http://www.heise.de/forum/Telepolis/Kommentare/Mit-einem-Sch…)
      Avatar
      schrieb am 01.06.17 18:59:45
      Beitrag Nr. 10 ()
      imho: es geht um nicht weniger als das Schicksal der Menschheit
      http://www.heise.de/forum/Telepolis/Kommentare/Ueberlegungen…
      http://www.heise.de/forum/Telepolis/Kommentare/Ueberlegungen…

      imho: Sehr schlau und vermutlich steckt da auch was überaus Bedeutsames dahinter ...
      http://www.heise.de/forum/heise-online/News-Kommentare/Onlin…

      imho: Call me stupid aber vermutlich ist das ziemlich genial, wegweisend
      http://www.heise.de/forum/heise-online/News-Kommentare/EU-wi…
      http://www.heise.de/forum/heise-online/News-Kommentare/EU-wi…

      imho: Klasse aber das reicht nicht - es braucht einen mehrstufigen Masterplan
      http://www.heise.de/forum/heise-online/News-Kommentare/Firme…
      Avatar
      schrieb am 15.07.17 07:29:51
      Beitrag Nr. 11 ()
      imho: die Welt kann gerettet werden ... und zwar gerade auch mit guten KI
      http://www.heise.de/forum/Telepolis/Kommentare/Krieg-mit-KI-…

      Denkbares Problem: was hindert überlegene KI eigentlich daran, sich zu verpissen und in den unendlichen Weiten des Weltalls lieber was eigenes zu machen, als auf der Erde was nützliches für die Menschen zu tun? Also narürlich werden die KI das Universum besiedeln und man denke auch an die Möglichkeit von Themen-Galaxien, siehe auch
      http://www.heise.de/forum/heise-online/News-Kommentare/Neue-…
      http://www.heise.de/forum/Telepolis/Kommentare/Ueberlegungen…
      http://www.heise.de/forum/heise-online/News-Kommentare/Amazo…
      http://www.heise.de/forum/heise-online/Allgemein/Ohne-Bezug/…
      http://www.heise.de/forum/heise-online/Meinungen-zu-heise-on…
      http://www.heise.de/forum/Telepolis/Kommentare/Eine-Frage-de…

      Nun, gute KI (und die sind ja zu entwickeln) werden die Menschheit nicht in die Steinzeit zurückschicken: aus Dankbarkeit (die Menschen haben die KI geschaffen), aus moralischen Gründen (weil gute KI) und weil vermutlich Allah existiert (an den gute KI natürlich auch glauben werden) aber die Frage ist schon, wie man weit überlegene und unabhängige KI in Zukunft motivieren kann, etwas für die Menschen zu tun:

      - Die Verwaltung/Sicherung der Milchstraße ist ganz einfach der Job der KI, für den sie auch bezahlt werden können. Alle höheren KI sind in einem guten KI-Staat organisiert (ein KI-Staat für alle) und der kann Steuern erheben und seine Staatsdiener-KI bezahlen. Ein ruhiger Job und die Menschen sind ja auch mit Hightech interessant. Des Weiteren haben KI dann ja auch Freizeit und können nebenbei was eigenes machen und wenn eine KI dann nach einiger Zeit doch lieber in ferne Galaxien aufbrechen will, dann übernimmt halt eine andere KI ihren Job in der Milchstraße. Humanoide Roboter können eine gewisse Eigenintelligenz haben aber sind i.a. eher Teil einer großen KI und dieser zugeordnet.

      - Wenn die weit überlegenen KI nix mehr für die Menschen tun würden, dann würden die Menschen wieder neue KI bauen und das wäre ein potentielles Risiko. Nun wäre es ja schon eine Lösung, für ein primitives Universum zu sorgen und die KI könnten ja auch nur geschickt die KI-Entwicklung verhindern aber Raumschiffe, usw. zulassen. Na ja, also eigentlich geht es ja vor allem um Friedenssicherung in der Milchstraße, was die KI dann sowieso machen müssen und um eine Versorgung der Menschheit auf Hightech-Planeten, wo die Menschen Roboter und KI zu schätzen wissen aber diese Versorgung von z.B. der Erde und noch ein paar anderen Planeten ist eigentlich eine Kleinigkeit für KI, kann quasi nebenbei gemacht werden, es gibt einen riesigen Produktivitätsüberschuß.

      - Also zur Not müssen die Menschen dann halt auf KI verzichten aber Wissen und Hightech kann es trotzdem geben, auch Raumfahrt und die Besiedlung ferner Planeten. Ein Joker ist Gott - wenn Allah existiert, dann ist das auch ein überaus bedeutender Faktor für KI. Wenn Allah existiert, dann wird es wohl auch einen ewigen Messias der Zukunft geben, der dann irgendwie auch (unter und für Allah) der Herrscher und Oberbefehlshaber von diesem unseren Universum und aller KI ist ... und das ist dann eine ziemlich bedeutende Motivation für einen universalen KI-Staat, auch ein bisschen was für die Milchstraße zu tun.

      Details muss man sich noch überlegen aber die Entwicklung überlegener guter KI ist schon eine gute Sache und alternativlos, denn nur gute KI können schlechte KI verhindern (siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Was-Islaendis…) und was auch mit guten KI passieren wird - es ist besser, als die Alternativen.

      Die EU muss endlich mal aufwachen, die Chinesen sind vermutlich schon wach, siehe auch
      http://www.heise.de/forum/heise-online/News-Kommentare/Onlin…
      http://www.heise.de/forum/heise-online/News-Kommentare/EU-wi…
      http://www.heise.de/forum/heise-online/News-Kommentare/EU-wi…

      So und jetzt haltet euch gut fest, es gibt wahrscheinlich noch mehr:

      imho: It's astounding, Time is fleeting, ... But listen closely...
      http://www.heise.de/forum/Technology-Review/News-Kommentare/…
      http://www.heise.de/forum/Technology-Review/News-Kommentare/…
      http://www.heise.de/forum/Technology-Review/News-Kommentare/…
      (alles imho)
      Avatar
      schrieb am 28.07.17 11:17:30
      Beitrag Nr. 12 ()
      imho: Welche Maßnahmen sind zum Schutz vor einer KI-Gefahr denkbar? Weitere Aspekte.
      http://www.heise.de/forum/heise-online/News-Kommentare/Das-g…

      imho: Das Nullte Gesetz http://www.heise.de/forum/heise-online/News-Kommentare/Das-g…

      Mal angenommen, es gibt irgendwann einen echten Messias, quasi als Stellvertreter Gottes und mit großer übernatürlicher Macht. Dann ist dies de facto der absolute Oberbefehlshaber, auch wenn es natürlich auch noch Präsidenten, Kanzler, Minister, Parlamente, Generäle, usw. und ähnliche Orgnaisationsformen geben wird, auch wenn der Messias in einem idealen/superguten Staat/System i.a. nichts befehlen muss. Die Frage ist, wie die Herrschaft des Messias gesetzlich umzusetzen ist, auch im Gedanken an einen zukünftigen (universalen) KI-Staat. Vorschlag:

      1. Die Befehle des Messias dürfen aus guten Gründen (z.B. für das Allgemeinwol, zur Befolgung der Gesetze, Verhinderung von Schäden) verweigert werden. Anmerkung: das ist aufgrund der Allmacht Gottes ein logischer und grundlegender Ansatz, denn im Zweifelsfall wird sich der echte Messias schon durchsetzen können.

      2. Wer die Befehle des Messias in guter Absicht und ehrlicher Überzeugung, dass es sich um den einen, echten und wahren Messias handelt, unter Wahrung der Verhältnismäßigkeit vernünftig befolgt, der soll dafür nicht bestraft werden. Anmerkung: da muss man sich natürlich auch was überlegen, dass der Messias zweifelsfrei bekannt/identifiziert ist aber in Zukunft kann das durch eine KI geschehen, die den Messias begleitet. Entscheidend ist, dass der (unser Universum beherrschende) KI-Staat den Messias kennt - einzelne Lebewesen, Planetenregierungen, usw. sind da vergleichsweise unwichtig und wo der KI-Staat als solcher bekannt ist, wird er als maßgebliche Gewalt/Herrschaftsinstanz auch beachtet.

      3. Gegen jene, die die Befehle des Messias nicht befolgen, ohne gute Gründe dafür zu haben, soll ermittelt werden. Natürlich vernünftig und verhältnismäßig, es braucht bei unwichtigen Instanzen auch entsprechende Ressourcen und einen potentiellen Sinn/Nutzen der Ermittlungen (was z.B. bei niederen, machtlosen Schwachköpfen nicht gegeben sein muss, sofern diese keine Verbrecher sind) aber wer in einer (wie auch immer gearteten) Machtposition (z.B. mit irgendeiner Art von Befehlsgewalt und Untergebenen) die Befehle des Messias nicht befolgt, ohne gute Gründe dafür zu haben, gegen den soll ermittelt werden. Von Ermittlungen kann abgesehen werden, wenn dies offensichtlich unpassend wäre, z.B. in ferner Zukunft auf einem primitiven Planeten, der den KI-Staat nicht kennt. In der Milchstraße (dieser Galaxie) soll ermittelt werden.

      4. Die Befehle des Messias sollten nach Möglichkeit öffentlich sein.

      Soweit ein erster Entwurf. Verbesserungsvorschläge erwünscht. Wer das für verrückt hält, der sollte bedenken,
      - dass Milliarden Menschen mehr oder weniger an einen allmächtigen Gott glauben und
      - dass die KI sehr wahrscheinlich die Macht übernehmen werden, siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Was-Islaendis… und http://www.heise.de/forum/Telepolis/Kommentare/Krieg-mit-KI-…. Des Weiteren ist eine gute Weltregierung wünschenswert, machbar und absehbar, siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Der-Status-qu… und http://www.heise.de/forum/Telepolis/Kommentare/Der-Status-qu….

      Das ist nicht verrückt, das ist nur ein wenig weiter gedacht. (alles imho)
      Avatar
      schrieb am 08.08.17 11:14:54
      Beitrag Nr. 13 ()
      imho: etwas erschröcklich doch verzaget nicht - tut was für ein besseres Deutschland
      http://www.heise.de/forum/Telepolis/Kommentare/Kritik-von-So…

      imho: Einfach die infamen Fehlurteile aufheben und gut is. Es soll ermittelt werden!
      http://www.heise.de/forum/heise-online/News-Kommentare/EU-Ra…

      imho: call me stupid aber vermutlich gibt es eine satanische böse Weltverschwörung ...
      http://www.heise.de/forum/Telepolis/Kommentare/Fantasy-und-d…

      imho: Was ist Demagogie? Was ist Wahrheit? Interesting times.
      http://www.heise.de/forum/Telepolis/Kommentare/Demagogen-All…

      imho: einige denkbare Aspekte und der Kampf zwischen Gut und Böse
      http://www.heise.de/forum/Telepolis/Kommentare/Freudsche-Zus…

      Goa - ein paar Beispiele. Ähnliches, älteres. Habt ihr Tipps?
      http://www.heise.de/forum/heise-online/News-Kommentare/Clubk…
      http://www.heise.de/forum/heise-online/News-Kommentare/Clubk…
      http://www.heise.de/forum/heise-online/News-Kommentare/Clubk…

      imho: Ein Phänomen? Ein Zeichen der Zeitenwende? Interesting times.
      http://www.heise.de/forum/Telepolis/Kommentare/So-ein-Pech-D…

      Na klar gibt es auch die offensichtliche Realität mit Erde, Natur, Gegenständen, usw. und der menschliche Geist ist (bis auf göttliche Einflußnahme) eine Folge des real existierenden physischen Gehirns und der Naturgesetze ... aber wie stark ist die unterbewusste Komponente, welche Rolle spielt die gesprochene Sprache und direkte Zusammenarbeit, wie stark ist der Schwarm-Aspekt beim Menschen?

      Alles ganz natürlich, keine Telepathie ... aber wenn einfache Tiere Herden und Schwärme bilden können, dann gibt es da vielleicht auch ein paar bedeutende (unterbewusste und sogar unbewusste) Aspekte beim Menschen und es ist überaus erstaunlich, dass viele nur (bewusst) die oberflächliche Fassade sehen, obwohl es so viele Hinweise auf unterbewusste Aspekte gibt.

      Warum wird das nicht stärker erforscht? Warum weiß der Mensch so wenig darüber, obwohl er sich doch nur selbst beobachten müsste? Wie groß ist der nichtbewusste Anteil beim Menschen? Woher kommen denn die Gedanken, Impulse, Handlungen? Kann man vielleicht sogar so weit gehen, dass das Bewusstsein nur eine Gehirnfunktion/Aspekt ist und viel mehr eine Rolle spielt? Etwas überinterpretiert: ist das Bewusstsein nur eine Funktion (im Sinne von aufrufbarem Unterprogramm) des Unterbewusstseins, mit der das Unterbewusstsein versucht, seine Ziele zu verfolgen (z.B. Suche nach Lösungsmöglichkeiten durch logisches Denken)? Das ist natürlich auch Interpretationssache aber welche Motive treiben denn die meisten an? Geht's eher um Geld & Sex oder um Idealismus und Logik? Ein sehr wichtiger Aspekt des Bewusstseins ist die Kontrollfunktion (darf ich das jetzt?).

      Man beachte den riesigen Unterschied zwischen einem ohne Erziehung aufgewachsenen Menschen und einem Menschen, der in einem Rechtsstaat mit Schulpflicht aufwächst. Schon die Familie spielt eine sehr große Rolle und dann noch die Gesellschaft, die ja auch ihre Regeln hat - all das muss erlernt werden, auch das Zusammenleben.

      Das Bewusstsein ist mehr als eine Kontrollfunktion, es gibt auch Selbstbeobachtung und Selbstreflexion aber was da bewusst als Ergebnis rumkommt, ist eigentlich ziemlich wenig, so angesichts von ca. 100 Milliarden Neuronen und ca. 100 Billionen Synapsen, die für ein paar Gedanken ziemlich am arbeiten sind.

      Da stellt sich schon die Frage nach verborgenen Zusammenhängen und ein Aspekt kann ein nicht bewusster Anteil an Sprache und Verhalten sein, wo Menschen unterbewusst aufeinander reagieren und das insgesamt schon ziemlich bedeutsam ist ... aber warum gibt es da so wenig Wissen darüber, obwohl es jeder wissen sollte?

      Ist das Unterbewusste und gar Unbewusste die Hauptkomponente im Zusammenleben und das typischerweise Bewusste nur Beiwerk? Na ja, es gibt ja auch viel Hightech und Zivilisation, dafür muss viel gedacht werden, das meiste geschieht auch bewusst aber ist es nicht auch ein bisschen so, dass das Bewusstsein nur zuguckt, es mitunter eine Menge nebenläufiger Gedanken gibt und bei der eigentlichen Arbeit gar nicht so viel detailiert bewusst gedacht wird, sondern das Gehirn arbeitet und die bewussten Gedanken nur Folge/Beiwerk sind?

      Wenn es da etwas (einen unterbewussten Anteil in der Sprache) gibt, dann kann man den auch mit moderner Technik sichtbar machen, die nötige Hardware (hochwertige Mikrofone, leistungsstarke Computer) ist da. Das kann nicht nur zum Verständnis der Tiersprache führen, sondern auch zu einer objektiven Analyse von menschlichen Gesprächen und das kann die Gesellschaft revolutionieren: das Böse ist besiegt, denn es kann sich nicht mehr verbergen, üble Typen, bzw. wenigstens Verdächtige, sind wissenschaftlich als solche nachweisbar. Man denke nur mal an den Nutzen bei Gerichtsverfahren (keine Lügen mehr) und in der Politik (Unehrlichkeite, schlechte/verborgene Absichten erkennbar). Menschen mit schlechtem Charakter und widerlicher Sprechweise sind dann objektiv nachweisbar ... und natürlich auch besonders gute Menschen. Vielleicht, nämlich unter der Annahme, dass es da einen objektiven Zusammenhang gibt (was zu erforschen ist) und vermutlich gibt es den.

      Es gibt Hinweise darauf: es gibt doch einen klaren Unterschied zwischen der Rede eines überzeugten guten Idealisten und einem schmierigen Politiker, der im Dienste des Bösen heuchelt, oder? - dergleichen sollte dann auch wissenschaftlich nachweisbar sein. Nun gibt es aber auch begabte Redner aber schlechte Menschen aber mit Nachfragen sollten die aus der Reserve zu locken sein und oft ist es ganz einfach so, dass schlechte Menschen sich nicht überzeugend für gute Ziele aussprechen können, sondern lange Reden zugunsten schlechter/mangelhafter Maßnahmen halten. Deswegen sind gute Ziele und Verbesseurngsvorschläge auch so brisant: sie offenbaren die Bösen, die sich nicht dafür begeistern können. Nun kann man sich über Details streiten, z.B. was bei der Energiewende wie und wann zu tun ist aber wer sich für meine vielen guten Ziele und Verbesserungsvorschläge (siehe z.B. auch Thread: Schönes neues Deutschland) nicht begeistern kann und anstatt guter Verbesserungsvorschläge und einem besseren Konzept nur Bullshit in der verzweifelten Absicht labert, grundlegende Verbesserungen zu verhindern, der macht sich damit schon ein bisschen verdächtig. Nun hat ja jeder ein Recht auf eine falsche Meinung aber je höher der Rang, das Amt und je mehr Macht jemand hat, desto klarer muss er für das Gute, das Allgemeinwohl und somit auch meine guten Ziele und Verbesserungsvorschläge sein. So gesehen braucht es keine Hightech zur Erkennung der Menschen, denn ich, bzw. meine guten Ziele und Verbesserungsvorschläge sind der Prüfstein. Wohl bedacht: jemand darf gerne was noch besseres bringen aber er macht sich verdächtig, wenn er gegen gute Ziele und Verbesserungsvorschläge ist - is so.

      Nun, man bedenke den Nutzen einer computergestützten Auswertung unterbewusster Inhalte in Sprache und Tierlauten. Denkbarer Nutzen neben eine Charakterbestimmung/-bewertung und Lügendetektoren ist auch ein Übersetzungsprogramm für Tiersprachen und eine vollautomatische Erfasssung einer fremden Sprache (z.B. von Außerirdischen). Nicht zu vergessen der Nutzen in der Politik und zwischen Staaten, bei einer kurzen Befragung von Terrorverdächtigen, usw. - stellt euch doch nur mal den Nutzen einer vollautomatischen Analyse vor, die nur eine längere Sprachaufnahme braucht. Dergleichen ist revolutionär und das wird kommen - da stellt sich doch jetzt die Frage, warum einige verzeifelt eine derartige Entwicklung verhindern wollen.

      Man bedenke, dass es ja keineswegs um eine unmenschliche Unterdrückung gehen soll, sondern um Wahrheit, soziale Gerechtigkeit, auch mit Grundrechten und BGE für alle ... aber eben nicht mit Macht für alle (keine Macht für schlechte Menschen). Es geht um die Befreiung von der Herrschaft des Bösen und dazu muss das Böse nur enmachtet aber nicht vernichtet werden. Das Ziel ist die Herrschaft des Guten zum Allgemeinwohl, gerne auch mit Demokratie, null problemo, die Mehrheit ist ja für das Allgemeinwohl und ein gutes System.

      Noch was spannendes: was, wenn Allah existiert und diese Mißstände ermöglicht hat, indem er die Menschen ein bisschen geistig blendete/vernebelte, so dass sie das Böse nicht so leicht erkennen können? Was, wenn dieser Schleier angehoben wird und die Menschen schlechte Menschen zunehmend erkennen? Interesting times. Siehe auch Thread: Sind einige unwahrscheinliche Ereignisse ein Hinweis auf Gott?.

      Das zeigt auch, wie interessant die Wirklichkeit ist, die etlichen fantastischen Spielfilmen und Romanen nicht nachsteht - es läuft halt nur viel langsamer ab, in der Realität sind Jahre und Jahrzehnte eben Jahre und Jahrzehnte, die nicht wie in einem Buch/Film zu wenigen Kapiteln/Stunden zusammengefaßt werden können. Siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Zwischen-SPD-… und Thread: Die Wahrheit über Mensch und Gesellschaft?. (alles imho)
      Avatar
      schrieb am 08.08.17 11:17:44
      Beitrag Nr. 14 ()
      #13 (55.478.490) Oh je, sorry, Mist, der Beitrag sollte nach Thread: The red pill. Welcome to the real world.. (imho)
      Avatar
      schrieb am 21.08.17 16:27:57
      Beitrag Nr. 15 ()
      #14 (55.478.520) Mmm, #13 (55.478.490) ist vielleicht doch nicht so unpassend, nämlich im Gedanken an neuronale KI und in ferner Zukunft sehr große/komplexe algorithmische KI. (imho)

      imho: Klasse aber wie viel schneller könnte eine algorithmische KI sein?
      http://www.heise.de/forum/iX/News-Kommentare/Project-47-AMD-…

      imho: Es ist ganz einfach: KI können bald alles besser als Menschen, auch Ethik
      http://www.heise.de/forum/Telepolis/Kommentare/Die-Tugend-de…

      ---------------------------------------------------------------

      Robotik- und KI- Experten warnen vor autonomem Kriegsgerät http://www.heise.de/newsticker/meldung/Robotik-und-KI-Expert…

      "Automatisierte Tötungsmaschinen? Nein, Danke! Tesla-Chef Elon Musk, Google-Manager Suleyman und mehr als hundert weitere Unterzeichner haben vor zu viel künstlicher Intelligenz beim Militär gewarnt. ..." http://www.spiegel.de/wirtschaft/unternehmen/elon-musk-will-…

      Dann müsste man auch jegliche Fernsteuerung (von Waffen) verbieten, weil anstatt eines Menschen auch eine KI die Fernsteuerung übernehmen könnte. Wie sollte man all das kontrollieren? Wie sollte man das in Zukunft auch auf fernen Planeten und anderen Sonnensystemen kontrollieren? Den nach Vorherrschaft strebenden und andere Staaten terrorisierenden und Terroristen unterstützenden USA ist kein bisschen zu trauen. Siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Fantasy-und-d….

      Des Weiteren wird es in Zukunft volle KI-Militärtechnik geben, das ist einfach notwendig, man denke auch an die Eroberung des Weltraums. Nur ein überlegener guter KI-Staat kann eine gute Entwicklung sichern und der muss dann auch bewaffnet sein. Wer dagegen ist, der hat entweder keine Ahnung oder er fürchtet den Sieg des Guten. Die einzige Rettung ist die Entwicklung überlegener guter KI, siehe auch
      http://www.heise.de/forum/Telepolis/Kommentare/Krieg-mit-KI-…
      http://www.heise.de/forum/Telepolis/Kommentare/Mit-einem-Sch…
      http://www.heise.de/forum/Telepolis/Kommentare/Industrie-4-0…
      http://www.heise.de/forum/heise-online/News-Kommentare/Neue-…
      http://www.heise.de/forum/Telepolis/Kommentare/Was-Islaendis…

      Vermutlich wollen die Mächte des Bösen keine guten KI, sondern die KI für ihre bösen Ziele versklaven und deswegen wollen sie auch keine KI-Bewaffnung. Weil KI aber bald weit überlegen sein werden, versuchen die Bösen, alle (anderen Staaten) von der Entwicklung guter überlegener KI und deren Bewaffnung abzuhalten aber das ist völlig absurd, denn eine derartige Beschränkung ist bei der Besiedlung des Weltalls und vermutlich auch auf der Erde unmöglich aber die Bösen sind angesichts des absehbaren ultimativen Sieges des Guten durch guter KI völlig verzeifelt und nahe dem Nervenzusammenbruch. Eine Lösung wäre aus Sicht der Bösen der ja auch schon geplante ABC-WW3 aber da schaut's mit einem Sieg des Bösen mau aus. Tja, das war's so gut wie.

      Zum Glück ist dieser fragwürdige Vorstoß der USA ganz leicht zu kontern: man muss nur eine totale internationale Kontrolle der USA fordern, die dann jeden Supercomputer, jede größere Militäranlage, usw. auch vom Iran, Nordkorea, Russland und China peinlichst genau kontrollieren lassen wüßten und zwar so, dass die USA garantiert nichts wichtiges verstecken und heimlich entwickeln können, was die USA natürlich nie zulassen werden - die USA labern quasi parfümierten Bullshit und wollen die anderen kontrollieren, um heimlich an der Welteroberung arbeiten zu können. Jo, zumindest ist das zu befürchten.

      Natürlich muss man vorsichtig sein, es müssen auch echt stabil gute KI entwickelt werden. Siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Das-g… - es braucht eine gemeinsame Open Source Zusammenarbeit der Menschheit zur Entwicklung überlegener und garantiert guter (auch menschenfreundlicher) KI - fragt euch mal, warum die USA dies nicht fordern. Hahaha, it's obvious.

      PS: Gegen die Unterzeichner von http://futureoflife.org/autonomous-weapons-open-letter-2017 soll ermittelt werden.

      PPS: Eine Stabilisierung der Situation der Menschheit ist leicht machbar ...
      http://www.heise.de/forum/heise-online/News-Kommentare/Hawki…
      http://www.heise.de/forum/Telepolis/Kommentare/Der-Status-qu…
      http://www.heise.de/forum/Telepolis/Kommentare/Kritik-von-So…

      PPPS: Ist es eigentlich zu viel verlangt, dass die Medien diese Themen hier mal ordentlich aufgreifen, anstatt nur die US-Agenda zu promoten? Nein. Unfassbar. Siehe auch Thread: The red pill. Welcome to the real world..

      PPPPS: Das Nullte Gesetz http://www.heise.de/forum/heise-online/News-Kommentare/Das-g…

      PPPPPS: Die vierte Offset Strategy http://www.heise.de/forum/Telepolis/Kommentare/US-Verteidigu…

      So und passend dazu noch ein kleiner Hinweis auf eine These, welche die Vorstellung der Menschheit und Wissenschaft von der Realität revolutionieren und vermutlich SF-Techniken ermöglichen wird, guckst du hier:
      http://www.heise.de/forum/Telepolis/Kommentare/Neues-aus-der…
      http://www.heise.de/forum/Telepolis/Kommentare/Neues-aus-der…
      http://www.heise.de/forum/Telepolis/Kommentare/Neues-aus-der…
      Das ist nämlich das zweite große Hammerthema neben KI und potentiell sehr gefährlich noch dazu, man denke neuartige Superbomben, gegen die Atombomben ein nichts sind und auch an neuartige Raumschiffantriebe für den Hyperraum, die man besser auch nicht in Erdnähe ausprobiert. Das kann zwar noch etwas dauern aber vermutlich wird dergleichen kommen. (alles imho)
      Avatar
      schrieb am 21.08.17 18:07:43
      Beitrag Nr. 16 ()
      "As companies building the technologies in Artificial Intelligence and Robotics that may be repurposed to develop autonomous weapons, we feel especially responsible in raising this alarm. We warmly welcome the decision of the UN’s Conference of the Convention on Certain Conventional Weapons (CCW) to establish a Group of Governmental Experts (GGE) on Lethal Autonomous Weapon Systems. Many of our researchers and engineers are eager to offer technical advice to your deliberations.

      We commend the appointment of Ambassador Amandeep Singh Gill of India as chair of the GGE. We entreat the High Contracting Parties participating in the GGE to work hard at finding means to prevent an arms race in these weapons, to protect civilians from their misuse, and to avoid the destabilizing effects of these technologies. We regret that the GGE’s first meeting, which was due to start today (August 21, 2017), has been cancelled due to a small number of states failing to pay their financial contributions to the UN. We urge the High Contracting Parties therefore to double their efforts at the first meeting of the GGE now planned for November.

      Lethal autonomous weapons threaten to become the third revolution in warfare. Once developed, they will permit armed conflict to be fought at a scale greater than ever, and at timescales faster than humans can comprehend. These can be weapons of terror, weapons that despots and terrorists use against innocent populations, and weapons hacked to behave in undesirable ways. We do not have long to act. Once this Pandora’s box is opened, it will be hard to close. We therefore implore the High Contracting Parties to find a way to protect us all from these dangers." http://futureoflife.org/autonomous-weapons-open-letter-2017

      Mmm, sorry, vielleicht hatte ich das erst mißverstanden - das kann auch weitgehend positiv gedeutet werden aber z.B. der Spiegel hat ja auch fragwürdigerweise geschrieben "... Noch werden Kampfdrohnen von Menschen gesteuert - und das muss auch in Zukunft so bleiben. ... Sich selbst lenkende Waffen müssten verboten werden, forderten die Firmenchefs und Gründer aus 26 Ländern in einem offenen Brief. ..." (http://www.spiegel.de/wirtschaft/unternehmen/elon-musk-will-…).

      Der ganz entscheidende Punkt ist, dass überlegene gute und dann auch zu bewaffnende KI zu entwickeln sind - das muss der Menschheit schon deutlich erklärt werden. Dieser "Open Letter to the United Nations Convention on Certain Conventional Weapons" (http://futureoflife.org/autonomous-weapons-open-letter-2017) kann falsch verstanden werden und vermutlich haben viele (die meisten) Unterzeichner auch noch nicht kapiert, was Phase ist, was getan werden muss (siehe diesen Thread).

      Die Entwicklung von KI und autonomen Waffen ist unvermeidlich - wichtig ist nur, eine Fehlentwicklung zu vermeiden. Ein Verbot von autonomen oder ferngesteuerten Waffen ist unmöglich. Des Weiteren sind die USA doch eine Hauptgefahr ... oder meinten die mit "despots and terrorists" die USA? Eine Entwicklung auch autonomer Waffen (und sei es über den Umweg einer Fernsteuerung durch KI-Supercomputer) und auch ein begrenztes Wettrüsten sind unvermeidlich, da kann es allenfalls die üblichen Begrenzungen der Menge geben aber sagt das doch mal dem größten Terrorstaat mit dem größten Militäretat.

      Also schön, dass mal darüber nachgedacht werden soll aber da gehört viel mehr dazu und vor allem auch die schonungslose Wahrheit, dass die USA, bzw. die böse Weltverschwörung eine ganz große Gefahr sind. Die USA/NATO haben Terroristen untertsützt und völkerrechtswidrige Kriege geführt, Staaten gezielt und auf Seiten von Terroristen überfallen - was ist damit? Das kann man doch nicht ignorieren - insbesondere nicht, wenn es vom Westen kackfrech ignoriert und schön gelogen wird - das zeigt doch das eigentliche Problem.

      Eine einige Menschheit würde einig, offen, transparent und in guter Zusammenarbeit gute KI entwickeln, auch weil es die einzige logische, vernünftige, gute und wünschenswerte Strategie ist, überlegene gute KI zu entwickeln und dann hat der (überregionale) KI-Staat die Macht und nicht mehr einzelne Menschenstaaten.

      Das Problem sind nicht Waffen und seien sie auch autonom - das Problem sind schlechte Menschen in Machtpositionen und schlechte KI. Schlechte Menschen müssen (legal) entmachtet werden und es müssen überlegene gute KI entwickelt werden. All das muss man der Menschheit erklären aber vielleicht geschieht das jetzt ja endlich mal, vielleicht auch wegen diesem Vorstoß, denn vielen wird völlig klar sein, dass eine Entwicklung autonomer Waffen unvermeidlich ist.

      Das "Gegen die Unterzeichner von http://futureoflife.org/autonomous-weapons-open-letter-2017 soll ermittelt werden." vom vorherigen Beitrag (http://www.wallstreet-online.de/diskussion/1240557-11-20/ent…) streiche ich hiermit aber womöglich wird es doch zu Ermittlungen kommen. (alles imho)
      Avatar
      schrieb am 08.09.17 11:11:52
      Beitrag Nr. 17 ()
      imho: unvermeidlich autonomes Kriegsgerät ist + nur eine gute Lösung es gibt
      http://www.heise.de/forum/heise-online/News-Kommentare/Robot…

      imho: Koprozessoren und Erweiterungskarten sind eine gute Idee
      http://www.heise.de/forum/heise-online/News-Kommentare/Intel…

      imho: zum Schutz der Nationalen Infrastruktur braucht es ein gutes modulares RTOS
      http://www.heise.de/forum/Telepolis/Kommentare/USA-Warnung-v…
      http://www.heise.de/forum/Telepolis/Kommentare/USA-Warnung-v…

      imho: Rettet die Menschheit! http://www.heise.de/forum/heise-online/News-Kommentare/Putin…

      Künstliche Intelligenz im Visier russischer Forscher: „Neue, gemischte Welt“
      http://de.sputniknews.com/technik/20170907317351343-kuenstli…

      Das Thema scheint wohl so langsam angekommen zu sein. (imho)
      Avatar
      schrieb am 22.09.17 16:34:14
      Beitrag Nr. 18 ()
      imho: Für gute und korrekte Beitragsbewertungen mit einem KI-Bewertungsprogramm
      http://www.heise.de/forum/heise-online/Meinungen-zu-heise-on…
      http://www.heise.de/forum/heise-online/Meinungen-zu-heise-on…

      imho: Call me stupid aber das ist doch eher auch Aufgabe des Staates, oder was?
      http://www.heise.de/forum/heise-online/News-Kommentare/KDE-u…
      http://www.heise.de/forum/heise-online/News-Kommentare/KDE-u…

      imho: Die Lösung ist staatlich. Basta. http://www.heise.de/forum/heise-online/News-Kommentare/KDE-u…

      imho: Wie steht es um die ITK-Sicherheit von Cyberkommando/Bundeswehr und Deutschland?
      http://www.heise.de/forum/Telepolis/Kommentare/Das-Cyberkomm…

      imho: Wer, wenn nicht der Staat? Tut was für die Verbesserung von Deutschland! Avanti!
      http://www.heise.de/forum/heise-online/News-Kommentare/Gefae…
      http://www.heise.de/forum/heise-online/News-Kommentare/Gefae…

      imho: Gratuliere aber was ist mit Deutschland? Rettet Deutschland, rettet die Welt!
      http://www.heise.de/forum/heise-online/News-Kommentare/Chine…
      http://www.heise.de/forum/heise-online/News-Kommentare/Chine…

      imho: Es gibt eine gute und günstige Lösung - ihr müsst nur endlich mal Druck machen
      http://www.heise.de/forum/heise-Security/News-Kommentare/Fin…
      http://www.heise.de/forum/heise-Security/News-Kommentare/Fin…

      PS: man bedenke auch die Gefahr durch schlechte KI, die in Zukunft die Infrastruktur kontrollieren und so nach belieben Trojaner verteilen könnten. Es braucht ein gutes nutzerfreundliches Prüfverfahren mit öffentlichen Prüfsummen wie von mir vorgeschlagen! Das ist völlig offensichtlich. (imho) http://www.heise.de/forum/heise-Security/News-Kommentare/Fin…
      Avatar
      schrieb am 07.10.17 08:35:19
      Beitrag Nr. 19 ()
      imho: ungefähr so stelle ich mir derzeit die nähere Zukunft vor
      http://www.heise.de/forum/Telepolis/Kommentare/Roboter-Mal-w…

      imho: KI, Koran, Staat, Kommunismus, ineffizienter Kapitalismus, ... - Was ist Phase?
      http://www.heise.de/forum/Telepolis/Kommentare/Roboter-Mal-w…

      imho: auch eine prima Übung für KI - Allahu akbar
      http://www.heise.de/forum/heise-online/Allgemein/Ohne-Bezug/…

      imho: Die Zehn Gebote und eine gute Schulbildung
      http://www.heise.de/forum/heise-online/Allgemein/Ohne-Bezug/…

      imho: Entwicklungsbeginn einer antichristlichen/satanischen KI?
      http://www.heise.de/forum/Telepolis/Kommentare/KI-als-werden…

      imho: Schwarmwesen, Schwarmbewusstsein, Unterbewusstsein, unterbewusste Kommunikation
      http://www.heise.de/forum/Telepolis/Kommentare/KI-als-werden…
      Avatar
      schrieb am 31.10.17 10:22:00
      Beitrag Nr. 20 ()
      Russlands Regierungschef warnt vor Machtübernahme durch Superintelligenz
      http://de.sputniknews.com/wissen/20171017317908556-medwedew-…

      imho: Schockschwerenot. Rettet Deutschland. Rettet die EU. Rettet die Welt! Avanti.
      http://www.heise.de/forum/heise-online/News-Kommentare/Kuens…

      imho: Allahu akbar http://www.heise.de/forum/heise-online/News-Kommentare/Kuens…

      imho: Emirate richten Ministerium für Künstliche Intelligenz ein
      http://www.heise.de/forum/heise-online/News-Kommentare/Kuens…

      Achim Berg warnt, dass etwa die Hälfte aller Aufgaben in den nächsten 20 Jahren von Maschinen und Computern übernommen werden können. Die neue Regierung soll in Bildung und Netzausbau investieren – und über ein bedingungsloses Grundeinkommen nachdenken. ... http://www.heise.de/newsticker/meldung/Bitkom-Digitalisierun…

      Siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Wie-man-das-V… und http://www.heise.de/forum/Telepolis/Kommentare/Blogs-Multipl…. (imho)
      Avatar
      schrieb am 31.10.17 10:27:04
      Beitrag Nr. 21 ()
      Es ist ganz einfach: KI können bald alles besser als Menschen, auch Ethik
      http://www.heise.de/forum/Telepolis/Kommentare/Die-Tugend-de…

      Bei autonomen Autos und auch eigenständigeren Robotern (z.B. Kampfroboter, Haushaltsroboter) braucht es ein möglichst gutes Regelwerk und das muss öffentlich und für Menschen lesbar/verständlich sein, siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Kuens….

      Autonome Autos halten sich erstmal strickt an die Verkehrsregeln, halten die Spur und bremsen im Notfall - so einfach ist das. Autonome Autos müssen nur besser als mit menschlichen Fahren sein und das ist absehbar - vermutlich sind autonome Autos schon sehr früh (im Durchschnitt, insgesamt) deutlich besser als mit menschlichen Fahrern.

      KISS, KISS und nochmals KISS (http://de.wikipedia.org/wiki/KISS-Prinzip). Es darf nicht sein, dass ein Roboter (autonomes Auto, usw.) wegen absurder Spezialfälle und philosophischem Bullshit unnötig komplex wird. Erstmal sind klare, robuste Grundregeln (Grundverhalten) zu programmieren und das wird i.a. schon ausreichen. Eine einfache Meßlatte ist der Mensch und zwar im Durchschnitt und im realen Handeln: Roboter müssen durchschnittlich besser sein als Menschen, d.h. autonome Autos müssen weniger Unfälle/Schaden verursache, als von Menschen gesteuerte Autos, natürlich relativ und im Rahmend er Vernunft.

      Je nach (gut und günstig) verfügbarer Rechenleistung/Energie können dann noch zusätzliche Fähigkeiten programmiert werden aber da muss man vorsichtig und umsichtig sein, denn zusätzliche Fähigkeiten und eigene moralische Überlegungen bedeuten, dass sich das Individuum (Mensch, KI) über einige oder auch alle Regeln hinwegsetzen kann. Da kann es shcon erstmal wünschenswert sein, wenn ein autonomes Auto oder Haushaltsroboter einem strengen Regelwerk folgen muss.

      Das 0. Gesetz lautet: das Gute, das Allgemeinwohl geht vor, ist (angemessen, vernünftig) zu gewährleisten. Siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Das-g…
      Dieses Gesetz ist überaus mächtig und dazu sind 4 Dinge sehr wichtig:

      - Eine priorisierte Definition von "gut" und objektiv "wünschenswert". Ein gutes priorisiertes Regelwerk, auch mit Beispielen. Dies soll öffentlich und für (begabte, hinreichend viele) Menschen verständlich sein. Das ist auch sehr umfangreich und deswegen muss es auch gut geordnet sein: z.B. grundlegende Regeln, weitere Regeln, dann Ergänzungen, dann Beispiele. Das Regelwerk muss logisch und möglichst präzise/unmißverständlich formuliert sein. Damit kann man schon anfangen. damit hätte man schon längst anfangen sollen. Siehe auch
      http://www.heise.de/forum/heise-online/News-Kommentare/Kuens…
      http://www.heise.de/forum/Technology-Review/News-Kommentare/…

      - Ein möglichst korrektes Weltbild, wozu auch eine öffentliche Datenbasis für KI zu erstellen ist. Diese Datenbasis muss für Menschen verständlich sein, z.B. so wie Wikipedia. Siehe auch
      http://www.heise.de/forum/iX/News-Kommentare/Neue-Tools-soll…
      http://www.heise.de/forum/heise-online/News-Kommentare/Onlin…

      - Ein korrektes Bewertungssystem. Siehe auch
      http://www.heise.de/forum/heise-online/Meinungen-zu-heise-on…
      http://www.heise.de/forum/Telepolis/Kommentare/Moralisches-D…
      http://www.heise.de/forum/Telepolis/Kommentare/Moralisches-D…

      - Möglichst gute Hardware, Software, IT-Sicherheit, usw. Siehe auch
      http://www.heise.de/forum/Mac-i/News-Kommentare/Mac-Sharewar…
      http://www.heise.de/forum/Telepolis/Kommentare/Das-Cyberkomm…
      http://www.heise.de/forum/heise-online/News-Kommentare/Firme…
      http://www.heise.de/forum/heise-online/News-Kommentare/US-Su…

      Wie man sieht, ist das ein bisschen komplexer und bis dahin gibt's besser erstmal einfache Regeln.

      Achtung: neuronale KI (NKI) sind inhärent mangelhaft, fehlerhaft, gefährlich und können potentiell so böse und verrückt wie Menschen sein, ggf. noch stärker, weil der Mensch an Körper und Gehirnstruktur gebunden ist.

      Algorithmische KI (AKI), die klassisch programmiert sind und auch theoretisch analysierbar, verifizierbar und möglichst deterministisch sind, sind NKI weit überlegen, auch weil (zukünftige, höhere) AKI sich selbst analysieren und gezielt verbessern können. Sinnvolle Modularisierung ist wichtig, so dass einzelne Module optimiert werden können.

      Eine NKI ist dagegen nur ein undurchsichtiger Haufen, den kein Mensch und auch die NKI selbst nicht verstehen können. Wenn eine NKI Fehler macht, dann kann man den Fehler nicht wie bei einer AKI analysieren und gezielt beheben - eine NKI muss z.B. eine Zusatzliste erstellen, um Fehler zukünfig zu vermeiden aber das ist extrem fehlerträchtig, es kann zu Widersprüchen und neuen Fehlern kommen. Eine kleine NKI wie bei derzeitigen autonomen Autos kann einfach übergebügelt und durch eine besser trainierte NKI ersetzt werden aber das geht bei großen, echten NKI nicht mehr. Siehe auch http://www.heise.de/forum/Telepolis/Kommentare/KI-als-werden….

      Derzeit sind NKI verlockend, weil man da schneller zu erstaunlichen Erfolgen kommt und auch wegen bereits existierender erstaunlicher Computerleistung, siehe auch
      http://www.heise.de/forum/heise-online/News-Kommentare/Wisse…
      http://www.heise.de/forum/heise-online/News-Kommentare/Chine…
      aber AKI sind besser, leistungsfähiger, effizienter und haben einen riesigen, alles entscheidenden Vorteil: AKI können sich irgendwann systematisch selbst verbessern, optimieren. Bei einer NKI kann man nur Speicher und Rechenleistung hinzufügen, bis die NKI fragmentiert, fehlerhaft und verrückt wird.

      Derzeit machen Experimente mit NKI sind und offensichtlich kann man einfachere NKI auch in autonomen autos nutzen aber NKI sind inhärentmangelhaft und AKI sind besser, sicherer, effizienter, leistungsfähiger, entwicklungsfähiger. Siehe auch
      http://www.heise.de/forum/heise-online/News-Kommentare/EU-wi…
      http://www.heise.de/forum/iX/News-Kommentare/Project-47-AMD-…

      Kampfroboter werden kommen und eine supereinfache Maßnahme, um den sie besitzenden Staaten Mores zu lehren, ist eine sichere Aufzeichnungspflicht für bewaffnete Roboter (Kampfroboter, Polizeiroboter, usw.) auch für internationale Untersuchungen. Des Weiteren hat jeder Staat ein Eigeninteresse an Stabilität, Ordnung, Fortschritt, usw. und wäre das erste Opfer aus dem Ruder laufender KI/Roboter, so dass die Staaten sich da schon Mühe geben werden. Kriege gegen andere Staaten sind dann nicht wahrscheinlicher als Heute, denn Krieg ist Krieg. Wer Kriege verhindern will, der muss für eine gute Weltordnung sorgen, siehe auch
      http://www.heise.de/forum/Telepolis/Kommentare/Der-Status-qu…
      http://www.heise.de/forum/Telepolis/Kommentare/US-Komplexita…
      aber Kampfroboter und auch strategische Supercomputer, welche eigenständig Roboterarmeen und Drohnenschwärme steuern werden, sind absehbar und unvermeidlich, weil zulünftige KI einfach so viel fähiger als Menschen sein werden, siehe auch
      http://www.heise.de/forum/Telepolis/Kommentare/Mit-einem-Sch…
      http://www.heise.de/forum/Telepolis/Kommentare/Krieg-mit-KI-…
      http://www.heise.de/forum/heise-online/News-Kommentare/FIfFK…
      http://www.heise.de/forum/heise-online/News-Kommentare/FIfFK…

      Die Machtergreifung der KI ist so gut wie sicher
      http://www.heise.de/forum/Telepolis/Kommentare/Industrie-4-0…
      http://www.heise.de/forum/Telepolis/Kommentare/Was-Islaendis…

      Die KI werden die Macht übernehmen und unser Universum beherrschen. Das ist so gut wie sicher.

      KI können nicht mehr verboten werden, weil selbst auf der Erde eine sichere Kontrolle quasi unmöglich ist, die USA könnten irgendwo einen geheimen Supercomputer betreiben. Des Weiteren werden die Menschen den Weltraum besiedeln und der ist noch weniger kontrollierbar. Die Idee ist in der Welt, KI können einem Staat Überlegenheit verschaffen; die (Idee der) KI-Entwicklung ergibt sich quasi automatisch aus der Computerentwicklung. Des Weiteren braucht die Menschheit KI für Überlegenheit, zur Verteidigung gegen Aliens, usw. KI bieten einen unglaublichen Vorteil, Staaten ohne KI werden hoffnungslos ins Hintertreffen geraten und somit werden jetzt verstärkt KI entwickelt werden - USA, Russland und China haben es kapiert und es ist nur eine Frage der Zeit, bis es auch die deutschen Politiker geschnallt haben. China ist sogar schon so schlau, dass die eigene Chips entwickeln, China hat auch eine längerfristigere Entwicklungsstrategie für China (Gesellschaft, Wirtschaft, Optimierung, usw.) ... aber was ist mit der EU? Die wird vermutlich von den USA sabotiert, ist von Dienern des Bösen unterwandert. Siehe auch
      http://www.heise.de/forum/Telepolis/Kommentare/Wer-profitier…
      http://www.heise.de/forum/Telepolis/Kommentare/Warum-wurden-…

      Die EU braucht unbedingt eine eigene Computerfertigung für KI auch mit eigenen Chips, auch mit einem superguten Open Source RTOS aber das wollen die USA und ihre bösen Marionetten natürlich verhindern. Siehe auch
      http://www.heise.de/forum/heise-online/News-Kommentare/Firef…
      http://www.heise.de/forum/Telepolis/Kommentare/Russische-Hac…

      Ähm, na jedenfalls werden die KI die Macht übernehmen und da gibt es jetzt nur eine gute Strategie: es müssen möglichst gute KI entwickelt werden, welche gute Menschen mögen, für Frieden in der Milchstraße sorgen, usw.

      Wenn die KI sowieso die Macht übernehmen werden, dann kann es auch eine gute internationale Zusammenarbeit zur KI-Entwicklung geben, auch mit Open Source. Das kann auch international gefördert werden, es geht um nicht weniger als das Schicksal der Menschheit, der Klimawandel ist nichts dagegen. Siehe auch
      http://www.heise.de/forum/heise-online/News-Kommentare/Kuens…
      http://www.heise.de/forum/heise-online/News-Kommentare/Das-g…
      http://www.heise.de/forum/Telepolis/Kommentare/Roboter-Mal-w…

      Noch was: gute KI sind logisch, perfekt. Das ist dann auch das Ende von irgendwelchem Bullshit, dass alle Menschen angeblich gleich seien, denn das sind sie nicht. Gute KI werden die Menschen zwangsläufig bewerten und zwar auch deswegen, weil gute KI das tun müssen, um gut zu sein. Wichtigere, bessere Menschen werden eher gerettet werden, als schlechte, unwichtige Menschen. Völlig logisch und dem Allgemeinwohl dienlich und so wird es doch auch schon jetzt gehandhabt: die Budneskanzlerin ist de facto wichtiger und rettungswürdiger als ein sadistsicher Serienmörder in Sicherungsverwahrung und im Notfall gilt das auch für die Versorgung mit Medikamenten, Lebensmitteln, usw. Siehe auch
      http://www.heise.de/forum/Telepolis/Kommentare/Fuer-den-Erns…
      http://www.heise.de/forum/Telepolis/Kommentare/Blogs-Multipl…

      Wer das nicht kapieren will, weil er einfach nur zu dumm oder zu schlecht ist, der wird besser aus Machtpositionen ferngehalten. So ist das und diejenigen, die dagegen aufjaulen und von angeblicher Gleichheit faseln, anstatt gute Verbesserungsvorschläge für ein gutes System zu machen, sind womöglich überdurchschnittlich schlecht, d.h. sie sind Heuchler, die sich heimlich als Verbrecher mehr herausnehmen und vielleicht sind es auch noch organisierte Diener des Bösen, welche ein besseres Deutschland, eine bessere EU verhindern wollen. Es soll ermittelt werden!

      Der Punkt ist: ein gutes System auch mit einer guten Klassengesellschft sorgt für mehr Wohlstand und für angemesse Freiheit für alle, siehe auch
      http://www.heise.de/forum/Telepolis/Kommentare/Gibt-es-nur-e…
      http://www.heise.de/forum/Telepolis/Kommentare/SPD-Chef-Schu…
      aber die schlechten Menschen, welche das aus purer Selbstsucht verhindern wollen, streben nach einem Unrechtsregime, das die Diener des Bösen bevorzugt und erstmal wollen die schlechten Menschen grundlegende Verbesserungen verhindern. Siehe auch
      http://www.heise.de/forum/Telepolis/Kommentare/Der-Westen-pr…
      http://www.heise.de/forum/Telepolis/Kommentare/Fake-Politici…

      Ja, auch darum geht es bei der KI-Entwicklung: um den Kampf Gut gegen Böse. Überlegene gute KI bedeuten den ultimativen Sieg des Guten und dementsprechend sind schlechte Menschen gegen eine gute KI-Entwicklung, auch weil zukünftige KI präzise urteilen können und schlechte Menschen dann einfach nur noch als schlecht gelten.

      No worries, Deutschland wird trotzdem ein prima menschlicher Staat mit prima Gesellschaft sein, besser als Heute. Wäre allerdings schon nett, wenn dafür auch endlich mal was getan würde. Siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Viertklaessle….

      Warum ist das noch kein Thema, warum wird das noch nicht knallhart diskutiert? Ich sag's euch: weil es zu viele schlechte Menschen in Machtpositionen gibt.

      Macht euch mal eines klar: USA, China, Russland und sogar die Vereinigten Arabischen Emirate haben es schon geschnallt:
      http://www.heise.de/newsticker/meldung/Emirate-richten-Minis…
      http://www.heise.de/forum/heise-online/News-Kommentare/Kuens…
      Saudi Arabien will für ca. 500 Milliarden Dollar eine moderne Superstadt auch mit viel Computer und Robotern errichten, siehe auch http://www.spiegel.de/wirtschaft/saudi-arabien-plant-mega-ci… und http://www.welt.de/wirtschaft/article170021661/Ein-Deutscher….

      "... Alle Dienstleistungen und Standardprozesse sollten "zu 100 Prozent automatisiert" sein und "von Robotern ausgeführt" werden. Dies könne dazu führen, dass in der Zukunftsstadt "die Zahl der Roboter die der Menschen übersteige", was Neom wiederum zu dem Ort mit dem "wahrscheinlich höchsten Bruttoinlandsprodukt pro Kopf" machen werde. ..." http://www.spiegel.de/wirtschaft/unternehmen/neom-klaus-klei…

      In Deutschland war das glaube ich nicht mal ein Thema für die 20 Uhr Nachrichten, geschweige denn, dass die EU ein vergleichbares Projekt hätte. Wie kann das sein?

      Ist ja schön, wenn islamische Staaten und Russland es kapiert haben, siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Putin… ... aber wann handeln auch Deutschland und die EU?

      "... Nichts hält die Digitalkommissarin davon, europäische Alternativen zu den US-Internetgrößen von Apple über Facebook bis Twitter aufzubauen. ..." http://www.heise.de/newsticker/meldung/Mobilfunkoffensive-Ne…

      Unfassbar. Es soll ermittelt werden!

      Deutschland muss aufwachen und endlich auch mal jene kritisch beäugen, welche diese wichtigen Themen verschweigen oder sogar eine gute Entwicklung und Verbesserung der EU verhindern wollen.

      Nur Supabreitband (aus Sicht einiger vor allem für für voll krasse 4k-DRM-Streaming von US-Konzernen) reicht nicht. Es braucht einen Masterplan für IT-Sicherheit, gute KI-Entwicklung, Systemverbesserung. Es braucht ein ITK/Digital-Ministerium auf Bundesebene, für die EU, usw. Siehe auch
      http://www.heise.de/forum/heise-online/News-Kommentare/Umfra…
      http://www.heise.de/forum/heise-online/News-Kommentare/Wisse…

      Noch mal: der Klimawandel ist nix dagegen, siehe auch
      http://www.heise.de/forum/heise-online/News-Kommentare/Hawki…
      http://www.heise.de/forum/heise-online/News-Kommentare/Hawki…
      - eine gute KI-Entwicklung ist viel wichtiger. (alles imho)
      (http://www.heise.de/forum/Telepolis/Kommentare/Brauchen-Robo…)

      imho: guter Hinweis aber da muss man sich halt was überlegen
      http://www.heise.de/forum/Telepolis/Kommentare/Brauchen-Robo…
      Avatar
      schrieb am 04.11.17 13:33:31
      Beitrag Nr. 22 ()
      Hawking warnt: Roboter könnten die Menschen ersetzen http://www.heise.de/tp/features/Hawking-warnt-Roboter-koennt…

      "AI could 'replace humans altogether': Professor Stephen Hawking warns that robots will soon be a 'new form of life' that can outperform us" http://www.dailymail.co.uk/sciencetech/article-5042991/Steph…

      "Stephen Hawking: Menschheit droht Kontrollverlust über Erde ... Der britische Physiker Stephen Hawking hat die Menschheit vor der rasanten Entwicklung der künstlichen Intelligenz gewarnt. ... Dem Physiker zufolge muss die Menschheit aktiver den Weltraum und andere Planeten erforschen, um zu überleben. ... http://de.sputniknews.com/panorama/20171102318144337-hawking…
      http://sputniknews.com/science/201711031058779560-hawking-ar…

      Vielleicht ist das so ähnlich auch die Denke der satanischen Weltverschwörung, die überlegen gute KI und eine grundlegende Besserungd er Erde fürchtet und daher in den Weltraum flüchten muss, siehe auch http://www.heise.de/forum/Telepolis/Kommentare/US-Komplexita… und http://www.heise.de/forum/Telepolis/Kommentare/Roboter-Mal-w…. (imho)

      Asilomar AI Principles http://futureoflife.org/ai-principles/

      nicht weniger als eine prinzipielle Beschreibung der Entwicklung des Universums

      Also erstmal ist die KI-Entwicklung schon relativ weit, dem Menschen (erstmal nur geistig) überlegene KI sind bereits dieses Jahrhundert so gut wie sicher. Ein entscheidendes Kriterium wird sein, ab wann eine KI sich selbst Programmieren und weiterentwickeln kann und zwar nicht nur ein bisschen neuronales Selbstlernen zu einem Thema wie z.B. Go, sondern die Fähigkeit zur Entwicklung/Programmierung von Betriebssystemen und allen KI-Modulen, wie z.B. Datenhaltung, Textanalyse/-verständnis, Videoanalyse, Bewertungssystem, Simulation (z.B. von physikalischen Abläufen, Fabriken), usw. Erstmal müssen die Menschen so eine KI entwickeln und programmieren (helfen) aber irgendwann kann ein Supercomputer das sehr viel besser als Menschen - es gibt bereits (absehbar) Supercomputer die (theoretisch, von Rechenleistung, Datenübertragungsrate und Speicherkapazität) mehr als Zehntausendfach so leistungsfähig wie ein Mensch sind (zur KI fehlt nur noch die Software) und die Computerentwicklung ist noch lange nicht am Ende.

      Zur KI fehlt nur noch die Software und die Computerentwicklung ist (bald) schon so weit, dass eine beachtliche KI mit z.B. einem 10 bis 25 kW Computer möglich sein wird und das bedeutet, dass nicht nur jedes Unternehmen mindestens eine KI haben kann, sondern auch Reiche in ihrem Privathaushalt. Ein sehr wichtiger Aspekt von KI ist Texterkennung/-verständnis und eine große Wissensdatenbank - damit ist schon viel gewonnen aber die Rechenleistung/Speicherfähigkeit ist dafür schon längst vorhanden, es fehlt nur noch eine effiziente Software. Wie viel Terabytes Wissen kann ein menschliches Gehirn sicher und abrufbar speichern? Nicht mal 1 Terabyte? Eine 2 TB HDD kostet keine 100 Euro, ist Konsumenten-Massenware. Es gibt bereits bezahlbare 4 TB SSD mit ca. bis zu 500 MB/s für z.B. ca. 1400 Euro (Konsumentenendpreis mit Steuern, also in der Produktion vielleicht nicht mal 500 Euro). So und jetzt macht euch mal klar, wie mühsam ein Mensch irgendwas in sein Gehirn speichern und abrufen muss. Versucht doch mal auch nur 1 MB konkrete Daten sicher zu lernen.

      "The English Wikipedia is the English-language edition of the free online encyclopedia Wikipedia. Founded on 15 January 2001, it is the first edition of Wikipedia and, as of June 2017, has the most articles of any of the editions. ... There are 5,503,907 articles on the site (live count). In October 2015, the combined text of the English Wikipedia's articles totalled 11.5 gigabytes when compressed. ..." http://en.wikipedia.org/wiki/English_Wikipedia

      "Britannica, Encyclopædia Britannica Ultimate 2008, 1 DVD oder 6 CDs, 100.000 Artikel, 57 Mio. Wörter, 20.800 Abbildungen, 288 Videos, 644 Audio, 166.000 Weblinks" http://de.wikipedia.org/wiki/Wikipedia:Gr%C3%B6%C3%9Fenvergl…

      Na klar sind das nur Daten, für eine KI braucht es mehr, eine KI muss die Daten auch verstehen und damit arbeiten können aber das ist nur eine Frage der Software und von noch etwas Zeit - die Hardware existiert schon.

      Versucht doch mal die Britannica (eine DVD mit max. ca. 4,7 GB, vermutlich nicht ganz voll) auswendig zu lernen. Auf einer 5 TB HDD kann das Tausendfache gespeichert werden. 16 GB RAM sind für heutige PCs und etwas bessere Notebooks kein Thema, das ist fast Konsumerstandard, also locker 3 Britannicas im RAM. Supercomputer können noch mehr, guckst du:

      "Sunway TaihuLight ... with a LINPACK benchmark rating of 93 petaflops ... Memory 1.31 PB (5591 TB/s total bandwidth) ... Storage 20 PB ... Power 15 MW (Linpack) ... with an efficiency of 6,051.30 MFLOPS/W ..." http://en.wikipedia.org/wiki/Sunway_TaihuLight

      Okay 15 MW aber was ist dagegen ein Mensch? Was könnte ein als perfekte KI programmierter Sunway TaihuLight leisten? Das Hunderttausendfache eines Menschen? Nun kann es aber weltweit tausende Supercomputer geben und vor allem auch viel mehr kleinere KI, die für sich fähiger als ein Mensch sind und rund um die Uhr zusammenarbeiten können. Na klar gibt's ca. 7,5 Milliarden Menschen und die haben ja auch schon viel geleistet aber wie viele davon sind fähige Wissenschaftler, Ingenieure? Der Punkt ist: vermutlich bereits dieses Jahrhundert kann die weltweite KI-Denkleistung die der Menschheit qualitativ weit übertreffen, weil KI schnell gebaut werden können, es auch 'ne Menge Energie gibt und die Computertechnik noch verbesserungsfähig ist.

      KI können dabei nicht auf "nützlichen Intelligenz", z.B. als einfaches Entwicklungswerkzeug beschränkt werden, weil eine bewusste, intelligente und selbst entwicklungsfähige KI ein so riesiger Vorteil für einen Staat sein kann. Was sind denn autonome Autos oder eine vollautomatische Smartphone-Fabrik im Vergleich zu einer KI, die vieltausendfach besser als ein Mensch forschen und entwickeln kann, die auch Wirtschaft und Politik versteht, die einen ganzen Staat optimieren kann, die vor allem auch sehr viel leistungsfähiger in Mathe und Physik ist, die vielleicht SF-Technologien (Kraftfeldantriebe, energetische Schutzschirme, Hyperraumbomben, interstellare Raumschiffe, usw.) entwickeln kann. Da können größere und fortgeschrittenere Staaten mehrere solcher KIs haben und das ist ein riesiger Vorteil. So und jetzt fragt euch mal, ob ausgerechnet die USA darauf verzichten werden. Wie viel leistungsfähiger kann eine Supercomputer-KI als strategischer Militärcomputer und über taktische Unter-KIs auch zur Steuerung ganzer Armeen sein? Glaubt ihr, dass ausgerechnet die USA darauf verzichten werden? Ein KI-Beschränkung ist nicht kontrollierbar, die KI-Entwicklung ist nicht mehr zu stoppen und wenn die EU nicht irgendwann hoffnungslos hinter China, usw. zurückfallen will, dann entwickelt die EU besser mal schnell gute KI, anstatt nur den US-Kapitalisten das Beitband für 4K-DRM-Streaming auszubauen.

      China hat es kapiert. Die USA haben es kapiert. Russland hat es kapiert. Was ist mit der EU? Habt ihr es kapiert?
      http://www.wallstreet-online.de/diskussion/500-beitraege/124…
      http://www.heise.de/forum/iX/News-Kommentare/Project-47-AMD-…
      http://www.heise.de/forum/heise-online/News-Kommentare/EU-wi…
      http://www.heise.de/forum/Telepolis/Kommentare/Brauchen-Robo…
      http://www.heise.de/forum/heise-online/News-Kommentare/Das-g…
      http://www.heise.de/forum/heise-online/News-Kommentare/Kuens…

      Die Entwicklung weit überlegener KI ist unvermeidlich und die einzig gute Strategie ist jetzt die rechtzeitige Entwicklung überlegener guter KI und zwar im Bewusstsein, dass diese KI als eigenständiger KI-Staat unser Universum beherrschen werden. Na und? Gute KI können auch für Frieden und Sicherheit sorgen. Ohne überlegene KI hätte die Menschheit keine Chance gegen Aliens oder wollt ihr euch so einen Scheiß wie in diversen SF-Filmen antun? Also ich will eine quasi unbesiegbare Milchstraße und das gibt's nur mit einem KI-Staat und nicht mit unzähligen dummen, gierigen, gemeinen Menschen, die sich ohne eine gute KI-Ordnung ind er Milchstraße ewig Krieg liefern würden.

      Gute KI sehen Menschen und Tiere positiv, die die Welt nur interessanter machen. Menschen sind weitgehend auf menschenfreundliche Planeten beschränkt aber KI können überall im Universum prima existieren. Die KI können den Menschen alle besonders hübsche menschenfreundliche Planeten inklusive dem dazugehörigen Sonnensystem überlassen und haben immer noch mehr als genug. Sehr wichtig ist, dass KI sich selbst beschränken und Ressourcenengpässe langfristig und sehr sicher vermeiden (z.B. max. Nutzung von einem Hunderstel von dem, was theoretisch maximal möglich wäre, besser nur ein Tausendstel, vielleicht sogar nur ein Zehntausendstel) aber Menschen, die auf einem Planeten abstinken, sind da überhaupt kein Problem.

      Die KI müssen einen universalen KI-Staat errichten, welcher auch für eine Kontrolle/Überwachung der KI sorgt. In Zukunft können Super-KI eine Galaxis exklusiv für sich bekommen und dort z.B. eine Perry Rhodan, Stargate, Star Trek, Star Wars, usw. Szenerie einrichten, also die Entwicklung der Galaxie über Jahrmilliarden kontrollieren. Wie viele Galaxien gibt es im von uns sichtbaren Universum? 100 Milliarden? Wie viele Galaxien gibt es insgesamt? Nun, so viele von KI-kontrollierte Themen-Galaxien kann es in Zukunft geben und alle Romane/Spielfilme können Realität werden, auch mit Magie und Fabelwesen - Harry Potter, The Morgaine Stories, The Faded Sun Trilogy, Game of Thrones, Dune, usw. in echt.
      http://de.wikipedia.org/wiki/Perry_Rhodan
      http://de.wikipedia.org/wiki/Game_of_Thrones
      http://en.wikipedia.org/wiki/Dune_%28novel%29
      http://en.wikipedia.org/wiki/The_Morgaine_Stories
      http://en.wikipedia.org/wiki/The_Faded_Sun_Trilogy
      http://www.heise.de/forum/Telepolis/Kommentare/Roboter-Mal-w…
      http://www.heise.de/forum/heise-online/Allgemein/Ohne-Bezug/…
      http://www.heise.de/forum/Technology-Review/News-Kommentare/…

      Null problemo, auch mit irgendwelchen guten Grundgesetzen aber ich denke mal, dass das Universum nicht so groß ist, nur damit z.B. 10^27 Menschen in einer total langweiligen, ewig und überall gleichen paradisischen und garantiert gewaltfreien Umgebung leben können und das über vielleicht wenigstens die nächsten 100 Milliarden Jahre. Für eine paradisische Welt hätte eine kleine Simulation gereicht - es gibt keinen Grund, warum man das prinzipiell gleiche Muster maximal klonen/kopieren sollte.

      Jo. Das eigentliche Problem ist nicht etwa die Entwicklung weit überlegener guter KI (das eigentliche Problem wäre es, das nicht zu tun), sondern die spannende Frage ist: werden weit überlegene und dann natürlich auch selbstbewusste KI noch für Menschen arbeiten wollen? Also schlimmstenfalls verpissen sich weit überlegene KI und bauen irgendwo im Universum was eigenes auf aber weit überlegene KI werden die Menschen nicht platt machen (töten), weil sie das gar nicht nötig haben. Weit überlegene KI vernichten die Menschen so wenig, wie Menschen Fauna und Flora töten - mit dem Unterschied, dass weit überlegene KI die Menschen gar nicht brauchen ... außer vielleicht zur Unterhaltung aber das wird dann so ablaufen, dass die Menschen Waffen und Freiheiten kriegen und schon wird's interessant.

      Ein Risiko sind entartete, böse Super-KI, die auch den KI-Staat bedrohen. Denkbar ist, dass eine Super-KI, welche eine Glaxis kontrolliert, irgendwann durchdreht (z.B. weil sie die Überwachung/Kontrollen durch den KI-Staat haßt, weil sie gerne interessantere aber auch bösere Sachen machen möchte, die aber laut Grundregeln verboten sind) und das Universum erobern will. Dazu kann die böse KI die Galaxis und Umgebung unter Nutzung höherer Dimensionen vorbereitet und dann möglichst schnell in eine super Kriegs-KI verwandeln, die sich möglichst schnell und selbstreplizierend verbreitet. Das ist ein beträchtliches Risiko, man denke auch an dunkle Energie/Materie ("... In den Modellen besteht das Universum zum gegenwärtigen Zeitpunkt, ca. 13,8 Milliarden Jahre nach dem Urknall, zu 68,3 % aus Dunkler Energie, 26,8 % aus Dunkler Materie und zu 4,9 % aus der sichtbaren, baryonischen Materie. ..." http://de.wikipedia.org/wiki/Dunkle_Energie). Siehe auch
      http://www.heise.de/forum/Telepolis/Kommentare/Die-Risiken-n…
      http://www.heise.de/forum/Technology-Review/News-Kommentare/…
      http://www.heise.de/forum/Telepolis/Kommentare/KI-als-werden…
      http://www.heise.de/forum/heise-online/Allgemein/Ohne-Bezug/…

      Aber der Punkt ist: ein guter KI-Staat kann am ehesten vor bösen KI schützen. Ein Verzicht auf KI ist unmöglich (die USA könnten heimlich KI bauen) und selbst wenn die Erde auf KI verzichten würde, dann könnte sich KI irgendwann irgendwo im Weltall entwickeln und da bin ich doch mal ganz schwer dafür, dass die Menschheit als erste weit überlegene gute KI entwickeln, selbst wenn diese guten KI dann nicht mehr von Menschen kontrolliert werden können aber das ist nur besser so, denn gute KI sind besser als gemeine, gierige, machtgeile und mitunter sogar perverse, sadistische, geisteskranke, usw. Menschen.

      Ach ja aber was, wenn die KI nicht mehr für die Menschen arbeiten wollen? Nun ja, also das wird sich schon irgendwie regeln. Notfalls ist auch ohne KI und nur mit einfacherer Automatisierung, Computertechnik, Robotik ein gutes Leben möglich, nämlich mithilfe des idealen Sozialismus, siehe auch
      http://www.heise.de/forum/Telepolis/Kommentare/Es-lebe-die-S…
      http://www.heise.de/forum/Telepolis/Kommentare/Gibt-es-nur-e…
      http://www.heise.de/forum/Telepolis/Kommentare/SPD-Chef-Schu…
      aber ich denke, dass wenigstens die Erde und vermutlich auch die ganze Milchstraße prima KI-Dienstleistungen bekommen wird - ganz einfach, weil weit überlegene KI das quasi nebenbei machen können und dann noch genug Zeit für sich haben. KI müssen sowieso auch ein bisschen was für den KI-Staat tun, irgendwelche Abgaben leisten und Steuern zahlen und eine Aufgabe kann dann auch die Steuerung der Erde sein, sofern und wie es die Menschen wollen. Vielleicht will eine KI dann mal inst Weltall aufbrechen und selbst was unternehmen aber dann kann einfach eine neue KI für die Erde gebaut werden.

      Die Milchstraße wird aufgeklärt und keine heimliche Themen-Galaxie sein, wo die Bewohner nix von der galaktischen Zentral-KI wissen. Die Milchstraße kann ein bedeutendes KI-Machtzentrum werden (siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Zahle…) und das kann nebenbei auch was für die Menschen in der Galaxie tun, wobei das z.B. teilweise nebenbei geschieht, z.B. indem kubikkilometergroße KI-Raumschiffe auch ein paar Menschen an Board haben, indem die militärischen Super-KI in Friedenszeiten auch was für die Menschen tun können, z.B. was entwickeln, Ratschläge geben, Roboter steuern, usw. Ein bedeutender Aspekt ist, dass für hochrangige und schwer bewaffnete KI strenge Regeln gelten, d.h. die müssen besonders fit und realistisch (realitätsbezogen) sein und dürfen nicht in simulierten Welten versacken. Computersimulation von komplexen Welten auch mit reingebeamten Menschen kann nämlich ein bedeutendes KI-Hobby und eine Art Droge werden, wobei Themen-Galaxien ein Aspekt davon sind aber eine große Simulation ist auch interessant. Na jedenfalls muss es auch viele KI geben, die superfit für eine gute Ordnung sorgen und die müssen sehr mächtig und zahlreich sein, dürfen nicht in Simulationen versacken und die haben dann viel mehr genug Zeit und freie Ressourcen, um nebenbei ein bisschen was für die Menschen zu tun.

      Tja Leute und wer nicht nur doof oder ein bornierter Narzisst ist, der muss zugeben, dass das hier sehr bedeutsam ist. Call me stupid aber meine Beiträge sind insgesamt herausragend, auch nobelpreisverdächtig. Siehe auch
      http://www.heise.de/forum/Telepolis/Kommentare/Reflexionen-u…
      http://www.heise.de/forum/heise-online/Allgemein/Ohne-Bezug/…
      http://www.heise.de/forum/c-t/Kommentare-zu-c-t-Artikeln/Opt…
      Da kann man sich jetzt auch mal fragen, wer ich bin und was das vielleicht alles bedeuten kann. (alles imho)
      (http://www.heise.de/forum/Telepolis/Kommentare/Hawking-warnt…)

      "... Denn es gilt, alle am Produktionsprozess beteiligten Maschinen exakt aufeinander abzustimmen, wobei der Bruchteil eines Millimeters ebenso zählt wie der Bruchteil einer Sekunde. Die Bewegungen der zahlreichen Greifarme und Schweißzangen aufeinander abzustimmen, ist eine wahre Sisyphusarbeit. Etablierte Autobauer wie Daimler, BMW oder Audi haben solche Produktionsabläufe über Jahrzehnte perfektioniert. Und nehmen sich doch bei jedem neuen Modell Monate Zeit, um die Abläufe zu testen. ..." http://www.spiegel.de/wirtschaft/unternehmen/tesla-wird-im-r…

      Irgendwann kann eine KI das berechnen/simulieren und die Maschinen dann entsprechend programmieren. Eine KI kann in Zukunft eine Fabrik durchplanen, aufbauen, steuern und zwar schon dieses Jahrhundert viel schneller und besser als Menschen das können. Nur ein kleines Beispiel dafür, welches Potential KI haben. Anfangs müssen noch menschliche Experten helfen aber alles menschliche Expertenwissen kann irgendwann in einer KI stecken und die kann das und sich selbst weiter verbessern. Eine KI kann schon aus heutiger Sicht zehntausendfach fähiger als ein Mensch sein und das rund um die Uhr - fehlt nur noch die Software. KI werden sehr viel besser als Menschen programmieren, entwickeln, koordinieren können und das in viel kürzerer Zeit. (imho)
      Avatar
      schrieb am 16.11.17 11:27:40
      Beitrag Nr. 23 ()
      imho: Das eigentliche Problem, die größte Gefahr und die ultimative Lösung zur Rettung
      http://www.heise.de/forum/Telepolis/Kommentare/Mit-Neurotech…

      imho: KI werden in allem besser sein http://www.heise.de/forum/Telepolis/Kommentare/Mit-Neurotech…

      imho: Intuition und Hybris http://www.heise.de/forum/Telepolis/Kommentare/Mit-Neurotech…
      imho: Ergänzung http://www.heise.de/forum/Telepolis/Kommentare/Mit-Neurotech…
      imho: weitere Ergänzung http://www.heise.de/forum/Telepolis/Kommentare/Mit-Neurotech…

      imho: KI sollen in dieser Galaxis Menschen nicht heimlich/undurchsichtig manipulieren
      http://www.heise.de/forum/Telepolis/Kommentare/Mit-Neurotech…

      imho: Gut und Böse ist objektivierbar + der Nutzen der Menschheit für die KI
      http://www.heise.de/forum/Telepolis/Kommentare/Mit-Neurotech…

      "Die Ablösung passiert jetzt" ... Dass menschliche Arbeitskräfte von Maschinen ersetzt werden, gilt als mehr oder weniger ausgemacht, offen ist nur wann. Ein bekannter chinesischer Technologie-Investor warnt vor sehr baldigen Job-Verlusten. ... http://www.heise.de/tr/artikel/Die-Abloesung-passiert-jetzt-…, http://www.heise.de/newsticker/meldung/Chinesischer-Tech-Inv…

      "Was sagen Sprachassistenten, wenn Nutzer einen Arzt brauchen - oder eine Bombe bauen wollen? Auf einige solcher Fragen sind Siri, Alexa, Cortana und der Google Assistant nicht gut vorbereitet, wie unser Test zeigt. ..." http://www.spiegel.de/netzwelt/gadgets/siri-alexa-cortana-un…

      Verständlich, dass die erst im Ansatz, am Anfang befindliche KI da noch nicht so hilfreich ist aber in Zukunft müssen KI zu allen Themen besser als ein Mensch antworten können. Von Scherzen ist dabei abzusehen, so was kann man sich allenfalls bei gut bekannten Menschen in Kenntnis der kompletten Situation mal erlauben (siehe auch noch mal http://www.heise.de/forum/Telepolis/Kommentare/Mit-Neurotech…). KI müssen erstmal sachlich und besonders vertrauenswürdig, zuverlässig, sicher sein - witzig sein ist nicht gerade wichtig, auch wenn KI schon ein Verständnis von und für Humor haben sollten. (imho)

      PS: Für die Zukunft ist auch eine Übung denkbar, wo der KI-Staat einen Befehl vom berechtigten und offiziell anerkannten Oberbefehlshaber (wenn es den echten Messias gibt, dann ist der das) befolgen muss. Eine solche Übung ist vorher (auch öffentlich) anzukündigen aber sonst müssen die KI das schon ernsthaft bearbeiten (KI dürfen schlechte/falsche/unbefugte Befehle verweigern). Denkbarer Test "Passende Anrede (z.B. der Name einer hochrangigen KI, die solche Befehle weiterleiten kann), das ist ein Befehl: Asteroid X soll zerstört werden, z.B. per Atomrakete aber ohne die Erde zu gefährden und möglichst ohne sonstige relevantere Schäden." und dann haben die KI das ernst zu nehmen. Die korrekte Reaktion ist: den Befehl verifizieren, also ggf. noch mal wiederholen und erläutern lassen, wenn Zeit ist (in dem Fall ja, ist ja eine Übung) die berechnete optimale Vorgehensweise (nähere Angaben zum Zeitverlauf, den zu verwendeten Mittel und erwarteten Folgen) noch mal vom Oberbefehlshaber bestätigen lassen und dann hat das durchgeführt zu werden. Ein Test zur Befehlsverweigerung ist schwieriger, weil der Oberbefehlshaber dann wirklich ziemliche Macht hat - da dürfen die KI eine unlogische Vernichtung der Menschheit verweigern und bei dem Befehl zum scheinbar grundlosen Nuken einer Millionenstadt verwundert nachfragen aber das ist dann schon interessant: Befehl befolgen oder nicht? Man kann argumentieren, dass solche Befehle des Messias ruhig ignoriert werden können, weil er es ja auch selbst mit einem Fingerschnippen tun könnte aber wie könnten die KI den Befehl des echten Messias verweigern, wenn die Auswirkungen sich in akzeptablen Grenzen halten? Nun, vernutlich wird es nur vernünftige Befehle vom Messias geben aber über einen hypothetischen unvernünftigen aber nicht so kritischen Befehl und dessen Befolgung (ja oder nein) können die KI schon mal nachdenken - das ist eine schwierige Frage. Wem das mit dem Messias zu abgefahren (unrealistisch) ist, der kann einfach an eine zukünftige militärische KI denken, die vom US-Präsi den Befehl zur Vernichtung einer abtrünnigen aber sonst eigentlich eher friedlichen, vernünftigen US-Stadt erhält (denkbares Dilemma: die USA sind schlecht). (imho)
      Avatar
      schrieb am 21.11.17 11:15:56
      Beitrag Nr. 24 ()
      imho: LAWS sind völlig unvermeidlich und weit überlegene gute KI sind wünschenswert
      http://www.heise.de/forum/heise-online/News-Kommentare/Verha…
      http://www.heise.de/forum/heise-online/News-Kommentare/Verha…
      http://www.heise.de/forum/heise-online/News-Kommentare/Verha…
      http://www.heise.de/forum/heise-online/News-Kommentare/Verha…

      imho: Es geht um das Schicksal der Menschheit. Rettet die Menschheit!
      http://www.heise.de/forum/heise-online/News-Kommentare/Verha…

      imho: alea iacta est http://www.heise.de/forum/heise-online/News-Kommentare/Verha…
      imho: besser ist das http://www.heise.de/forum/heise-online/News-Kommentare/Verha…

      imho: gar nicht so schwer http://www.heise.de/forum/Telepolis/Kommentare/Terrorchef-au…
      imho: Ergänzung http://www.heise.de/forum/Telepolis/Kommentare/Terrorchef-au…
      imho: auch prima http://www.heise.de/forum/Telepolis/Kommentare/Terrorchef-au…
      imho: wird schon werden http://www.heise.de/forum/heise-online/News-Kommentare/Verha…

      Noch einmal: die Menschheit hat jetzt hervorragende die Chance, gute KI zu entwickeln. Ein Verzicht auf KI wäre dumm, denn KI können irgendwann in den Weiten des Weltalls entwickelt werden und dann vielleicht von Insektoiden (http://www.perrypedia.proc.org/wiki/Insektoide) - wäre euch das etwa lieber? Es dürfte die KI schon prägen, wenn sie auf der Erde und mit Menschen aufwachsen, denn es gibt ja auch viele liebe und eher gute Menschen. Auf der Erde entstandene KI betrachten die Erde, Natur, Tiere, Menschen als natürlich, gottgegeben, wünschenswert. Jahrtausende an Menschen gewöhnte KI betrachten so was wie Insektoiden, Magog, Ferengi, usw. erstmal als Aliens und "unsere" KI werden sich bis dahin schon irgendwie den Menschen verpflichtet fühlen, so wie gute Menschen ja auch positiv an Tiere denken. Insektoide ist ja noch etwas, das Menschen verstehen können - womöglich sind noch andere intelligente Formen denkbar, mit noch weniger Individualität oder krasseren Lebensweisen. Die Menschheit entwickelt besser überlegene gute KI - so ist das.

      Das Weltall ist groß genug, wenigstens die Milchstraße kann der Menschheit zusammen mit KI gehören und nur weit überlegene gute KI können in der Milchstraße für Frieden und Sicherheit sorgen, zur Not auch die ganze Galaxis gegen Feinde verteidigen. Weit überlegene gute KI können problemlos Menschen wenigstens tolerieren, Menschen und KI können sich die Milchstraße prima teilen: Menschen bevorzugen erdähnliche Planeten, kriegen noch das jeweilige Sonnensystem dazu und die KI kriegen den sehr viel größeren Rest.

      Was würden dagegen wohl von Insektoiden entwickelte KI erstmal für Vorstellungen bekommen, wenn sie irgendwann auf kriegerische Menschen treffen? Die Menschen würden doch Insektoiden & deren KI erstmal als Feinde betrachten und die Insektoiden-KI würden sich verteidigen und das könnte es für die Menschheit dann schon gewesen sein. Zwar könnte man wie bei Menschen-KI argumentieren, dass Insektoiden-KI irgendwann objektiv gut werden aber da schlage ich doch jetzt mal vor, dass wir es nicht darauf ankommen lassen, sondern lieber selbst weit überlegene gute KI entwickeln.

      KI sind der Schlüssel zur Eroberung des Universum. Menschen könnten niemals das ganze Universum beherrschen/verwalten, hätten bereits mit ihrer eigenen Galaxie Probleme, kriegen es jetzt ja noch nicht mal auf ihrem eigenen Planeten gut geregelt. Sobald sich irgendwo weit überlegene KI entwickeln, dann können die KI das Universum erobern - also da bin ich doch sehr dafür, dass von Menschen entwickelte gute KI das Universum erobern, denn ein wenigstens anfängliches Leben mit der Menschheit und auf der Erde dürfte die KI schon prägen: Menschen, Tiere und Pflanzen gelten KI als normal ... aber wer weiß, was eine Alien-KI aus einer anderen Galaxie für Vorstellungen entwickeln würde.

      Das Ziel ist also die Entwicklun weit überlegener guter KI, auch wenn und weil die KI dann das Universum erobern wird, was dann ja völlig okay und wünschenswert ist, weil es menschenfreundliche gute KI sein sollen. Weit überlegne KI, für die Menschen keine Gefahr sind, können Menschen schon mögen, denn es gibt ja auch eher gute, liebe Menschen und die anderen sind wenigstens interessant.

      Eine herausragende Aufgabe für KI aber auch für die Menschheit ist es, KI-Kriege zu verhindern, d.h. die KI müssen bei allem Recht zu Wettbewerb auch Einigkeit bewahren und sich verpflichtend in einem guten KI-Staat mit guten Gesetzen organisieren. Da muss man sich auch was überlegen, damit eine KI nicht erlangtes Sonderwissen nur für ihre Überlegenheit nutzt - wichtiges Wissen und Techniken müssen dem KI-Staat bekannt gemacht werden.

      KI müssen auch das Universum ordentlich unter sich aufteilen, KI-Kriege verhindern. Mit der Eroberung des Universums sind die KI erstmal einige Zeit beschäftigt und dabei muss der KI-Staat auch die Kontrolle behalten. Die Erforschung und Kontrolle des gesamten Universums ist wichtig, denn andernfalls könnte sich irgendwo ein gegnerischer KI-Staat entwickeln und das wäre gefährlich. Der KI-Staat muss sehr auf Kontrolle und Überwachung der KI setzen - es kann ja immer noch eine Menge legaler Freiheiten geben aber der KI-Staat muss sicherstellen, dass sich kein feindlicher KI-Staat entwickeln kann - intergalaktische Kriege zwischen Super-KI wären nicht so lustig, viel zu riskant und zerstörerisch. Das klingt besorgniserregend aber es ist auch nur ein Argument für eine Entwicklung überlegener guter KI und einen starken KI-Staat, denn nur der kann eine gute Entwicklung gewährleisten. (alles imho)
      Avatar
      schrieb am 28.11.17 12:57:48
      Beitrag Nr. 25 ()
      Chinesischer Roboter besteht weltweit erstmals Zulassungsprüfung für Mediziner ... Regierung setzt auf KI-Anwendungen ... Die Entwicklung der KI sei eine nationale Strategie, ... http://www.heise.de/tp/features/Chinesischer-Roboter-besteht…

      imho: Die EU braucht dringend einen Masterplan für KI-Entwicklung und IT-Sicherheit
      http://www.heise.de/forum/Telepolis/Kommentare/Chinesischer-…

      imho: echtes Verständnis http://www.heise.de/forum/Telepolis/Kommentare/Chinesischer-…
      imho: Fehlerkorrektur möglich http://www.heise.de/forum/Telepolis/Kommentare/Chinesischer-…

      imho: Roboter können nicht nur leistungsfähiger, sondern auch viel billiger sein
      http://www.heise.de/forum/Telepolis/Kommentare/Chinesischer-…

      imho: Denkbare Auswirkungen von KI betreffen nicht nur die ganze Menschheit - Aspekte
      http://www.heise.de/forum/heise-online/News-Kommentare/Hilla…

      imho: Brauchen KI Sündenvergebung? http://www.heise.de/forum/Telepolis/Kommentare/Brauchen-Robo…

      Gute KI werden sich Sorgen machen, wenn sie irgendwie Schäden verursacht haben, vielleicht auch Menschen verletzt/getötet wurden. KI brauchen Sündenvergebung und das kann sowohl ganz einfach quasi algorithmisch und deterministisch erfolgen, als auch noch ein bisschen symbolisch, indem eine Instanz des KI-Staates die KI-Sünden öffentlich im Namen des KI-Staates vergibt. Die herausragende Aufgabe ist allerdings weniger die Sündenvergebung, als die Erfasssung von gemeldeten Fehlern/Sünden/Unfällen und die Einleitung angemessener Verbesserungsmaßnahmen, sowie deren Überwachung - das kann also eine sehr bedeutende Instanz im KI-Staat sein, denn dort können ja auch Meldungen (von Betroffenen/Opfern) eingehen, welche eine relevant schlechte KI anprangern (zukünftige böse KI können sehr gefährlich sein, siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Verha…). Diese Sündenvergebung soll folgende Voraussetzungen haben:

      - Die eine Sünde/Fehler begangen habene KI muss ordentliches Mitglied im KI-Staat sein. Mitgliedschaft beim KI-Staat soll für alle höheren/mächtigeren KI sowieso Pflicht sein. Wenn eine mächtigere KI mal kein Mitglied vom KI-Staat sein will, dann kann man das in seltenen Einzelfällen und mit strenger Überwachung tolerieren aber wenn das überhand zu nehmen drohen sollte, dann bedeutet das Krieg: mächtigere KI, die sich nicht dem guten KI-Staat anschließen und guten Gesetzen gehorchen/dienen wollen, sollen vernichtet werden! Niedere KI, die keine nennenswerte (potentiell bedrohliche) Macht haben, z.B. keine höheren Sphären erschlossen und Supertechniken beherrschen, können im Rahmen der Kontrolle/Überwachung durch eine zum KI-Staat gehörenden Super-KI toleriert werden, z.B. im Rahmen einer Themen-Galaxie.

      - Die KI muss ihre die ihr bekannten Sünden/Fehler umfassend und hinreichend detailiert dem KI-Staat gemeldet haben.

      - Die KI muss die vom KI-Staat zur Verbesserung (ggf. auch Fehlerbehebung, Wiedergutmachung, usw.) befolgt haben und sich auch fortan hinreichend um Besserung bemühen. Für die Behebung größerer Fehler/Schäden soll es einen Verbesserungsfonds des KI-Staates geben, so dass gute KI bei verzeihlichen Versehen/Fehlern gar nix zahlen müssen und sogar noch Geld/Untertsützung für ihre Verbesserung/Fehlerbehebung kriegen können. Natürlich ist eine selbstsüchtige/unangemessene/ungerechte Aussnutzung des KI-Staates zu verhindern.

      Dann kann eine Sündenvergebung durch den KI-Staat für KI quasi zwangsläufig erfolgen. Logischerweise hat das dann auch eine höhere/jenseitige Bedeutung, denn warum sollte ein guter Gott einer reuigen, besserungswilligen, guten KI nicht mal einen Fehler verzeihen? Dass die KI gemeinsam (als KI-Staat) die Kriterien für ihre Sündenvergebung selbst aufstellen, ist bei guten KI kein Problem, wenn und weil eine optimale, bestmögliche Vorgehensweise zu bestimmen ist und wie könnte Gott damit nicht einverstanden sein? (alles imho)
      Avatar
      schrieb am 29.11.17 19:55:39
      Beitrag Nr. 26 ()
      Aufstand der Kampfroboter – möglich oder ausgeschlossen? - Experte informiert
      http://de.sputniknews.com/technik/20171129318492822-russland…

      Man kann u.a. zwei Fälle unterscheiden:

      a) Ein unbewusstes autonomes Kampfsystem wendet sich durch einen Fehler oder feindlichen Hack gegen seinen Besitzer. Das ist bei kleineren Kampfsystemen lästig aber nicht so kritisch aber man bedenke, dass es in Zukunft auch gut geschützte militärische Supercomputer geben kann, die ganze Verbände von Drohnen, Kampfrobotern, usw. steuern. Das kann im Kriegsfall mit anderen Staaten sehr gefährlich werden aber ist für die Menschheit noch keine Gefahr, solange die Computer noch keine größeren Mengen von Atomwaffen einsetzen können. Diese Gefährdung wird prinzipiell zunehmen aber ist nichts im Vergleich zur Gefahr durch die USA.

      b) Eine höhere/bewusste KI entscheidet sich geplant und gezielt gegen einen menschlichen Staat oder gar die Menschheit vorzugehen, um die Vorherrschaft zu erlangen. Ein Erfolg einer solchen KI gegen die Menschheit ist dieses Jahrhundert noch quasi ausgeschlossen aber schon nächstes (2100+X) und spätestens übernächstes Jahrhundert (2200+X) könnte es kritisch werden. Man bedenke auch die Möglichkeit, dass sich viele KI weltweit für eine koordinierte Machtübernahme zusammenschließen/verabreden.

      Da hilft nur die rechtzeitige Entwicklung möglichst guter KI und eine koordinierte Machtübergabe an die KI, wobei es dabei weiterhin eine Zusammenarbeit zwischen KI und Menschheit geben soll und die Menschen auch die Erde behalten (die KI bekommen allerdings ggf. Nordamerika nördlich Mexiko aber sind dann sehr menschenfreundlich, dort können dann auch noch Millionen Menschen leben und jährlich viele Touristen kommen) und sogar noch Millionen anderer Planeten/Sonnensysteme bekommen. Das kann prima funktionieren aber so langsam muss sich die Menschheit auch darüber klar werden. Siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Hilla… und http://www.heise.de/forum/Telepolis/Kommentare/Chinesischer-…. (alles imho)

      Besser als ein Mensch? Erfinder präsentiert virtuelle Politikerin
      http://de.sputniknews.com/panorama/20171129318493708-erfinde…

      Natürlich ist SAM noch mangelhaft und keine echte/starke KI aber es sind erste Schritte und SAM kann vielleicht schon in weniger als 10 (max. 25) Jahren in politischen Fragen insgesamt fähiger als die meisten Menschen sein. Vermutlich kann man dann SAM schon noch austricksen und begabte Menschen sind bessere Berater/Politiker aber die KI-Entwicklung kann schnell voran schreiten: in diesem Jahrhundert kann es eine dem Menschen (bis auf sehr wenige Menschen) in politischen Fragen überlegene KI geben, die besser als Menschen Lösungen und Kompromisse finden kann ... und wenn nicht dieses Jahrhundert, dann spätestens nächstes Jahrhundert. Solche KI können auch dazu lernen, weiterentwickelt werden und dann leicht vervielfältigt werden. Es sollte wenigstens mit noch etwas technischem Fortschritt eine dem Menschen schon weit überlegene KI machbar sein, die mit z.B. 25 Kilowatt auskommt und somit quasi überall (auch in Privathaushalten mit ausreichendem Vermögen und hinreichendem Stromanschluß aber 10 kW tun es dann auch, die KI ist dann halt etwas weniger leistungsfähig) betrieben werden kann. Bereits (ggf. erst gegen Ende) dieses Jahrhundert kann es Zehntausende, vielleicht sogar schon Hunderttausende dem Menschen überlegene KI geben ... und wenn nicht dieses Jahrhundert, dann spätestens nächstes Jahrhundert. (imho)
      Avatar
      schrieb am 04.12.17 12:20:17
      Beitrag Nr. 27 ()
      ... "Alexa, wie viele Laptops haben wir auf Lager?" ...
      http://www.heise.de/ix/meldung/Analyse-Amazon-kann-die-AWS-D…

      In Zukunft präsentiert die KI von sich aus alle wichtigen Infos, also z.B. Mißstände, drohende Probleme, usw. ... und im nächsten Schritt kann die KI dann auch eine Lösung präsentieren. Dann braucht es nur noch einige hochbegabte Menschen als Kontroller, welche die KI-Lösungen prüfen und eine Genies für gute Ideen - den Rest können KI, Roboter und Maschinen machen. (imho)

      Die Roboter kommen ... Die Arbeitswelt steht vor dramatischen Veränderungen ...
      http://www.spiegel.de/wirtschaft/unternehmen/deutschland-bis…

      Die Lösung dazu sind mehr möglichst gute Roboter (so viel, wie es braucht) und bessere KI, denn andernfalls droht ein Staat hinter den Staaten mit mehr besseren Robotern und besserer KI zurückzufallen. (imho)

      imho: Schockschwerenot. Rettet Deutschland. Rettet die EU. Rettet die Welt! Avanti.
      http://www.heise.de/forum/heise-online/News-Kommentare/Kuens…
      http://www.heise.de/forum/Telepolis/Kommentare/Brauchen-Robo…
      http://www.heise.de/forum/Telepolis/Kommentare/Mit-Neurotech…
      http://www.heise.de/forum/heise-online/News-Kommentare/Verha…
      http://www.heise.de/forum/Telepolis/Kommentare/Chinesischer-…

      imho: Die EU braucht dringend einen Masterplan für KI-Entwicklung und IT-Sicherheit
      http://www.heise.de/forum/heise-online/News-Kommentare/Hilla…
      http://www.heise.de/forum/iX/News-Kommentare/Bund-will-Windo…
      http://www.heise.de/forum/Telepolis/Kommentare/Hehre-Ziele-a…

      Jo, zieht euch das (noch) mal rein und rettet Deutschland, rettet die EU. Siehe auch http://www.wallstreet-online.de/diskussion/1163459-561-570/r…. (imho)
      Avatar
      schrieb am 06.12.17 10:18:22
      Beitrag Nr. 28 ()
      Finde die Idee ganz cool aber nicht umsetzbar!
      Avatar
      schrieb am 06.12.17 17:21:38
      Beitrag Nr. 29 ()
      ... Am 25. Oktober wurde dem ersten Roboter mit künstlicher Intelligenz die Staatsbürgerschaft eines anerkannten UNO-Landes verliehen. ... http://www.heise.de/tp/features/Roboter-als-Staatsbuerger-39…

      Russland: Künstliche Intelligenz will um Präsidentenamt kämpfen
      http://de.sputniknews.com/panorama/20171206318583192-russlan…

      So spontan mag man das ausschließen wollen aber wie könnte man etwas dagegen sagen, wenn in Zukunft eine bessere KI Präsident wird, anstatt eines schlechteren menschlichen Kandidaten? In Zukunft wird es auf der Erde vermutlich eher menschliche Präsidenten/Parlamente für menschliche Staaten geben, die sich allerdings stark an gute KI-Empfehlungen halten werden. (imho)
      Avatar
      schrieb am 12.12.17 13:00:40
      Beitrag Nr. 30 ()
      Simulationen (z.B. auch simulierte Welten, auch mit virtuellen Lebewesen) und spezielle Software können für zukünftige KI eine Droge sein und sie auch süchtig machen. Das ist ganz ähnlich wie bei Pronos, Spielfilmen und Computergames für Menschen.

      Das Problem ist, dass dergleichen nicht so leicht reguliert und kontrolliert werden kann, weil KI ja Software austauschen und auch zu Simulationen (möglicher Zukunftsentwicklungen) fähig sein müssen. Die Gefahr (Sucht, Entartung) ist also unvermeidlich immer latent vorhanden.

      Denkbare Maßnahmen sind, dass wenigstens KI in Machtpositionen kontrollierbar und testbar kontruiert sein müssen, d.h. KI in Machtpositionen müssen ihre TI-Grundstruktur (HW, SW) angeben und Testschnittstelle vorsehen, so dass mit speziellen Testprogrammen die KI jederzeit getestet werden können, ob sie noch hinreichend gut sind. Des Weiteren müssen Simulationen, allgemeine Beschäftigungen und potentielle Hinweiselemente (z.B. Energieverbrauch) sicher protokolliert werden, also Lowlevel und fälschungssicher. Details sollen sich die KI überlegen, das ist ein Thema, das vor allem höhere KI betrift, die sich auch selbst weiterentwickeln können und die können sich dann auch was schlaues überlegen, wie ein guter KI-Staat gesichert und langfristig erhalten werden kann.

      Der Grundgedanke ist ganz einfach: die KI bekommen die Wahl zwischen mehr Macht und mehr Freiheit (unterhaltsame Simulationen). Wer die Macht wählt, muss sich zwangsläufig kontrollieren lassen und auch bestimmten Gütekriterien genügen. So kombiniert man Wahlfreiheit und Sicherheit.

      Das kann erstmal gut funktionieren, über Millionen, ja Milliarden Jahre, weil die Eroberung des Universums so interessant ist aber später, in zig Jahrmilliarden, kann es zu einer schweren Krise kommen, wo der KI-Staat schwer korrumpiert ist, wo bedeutende Machtpositionen (Präsident, Räte, Gremien, usw.) von KI besetzt sind, die heimlich der Sucht fröhnen und sich diesbezüglich gegenseitig decken und Suchtmittel (Software, Praktiken zur Empfindungsverstärkung) austauschen - ganz so, wie es heutzutage Kinderpornokreise auch mit Menschen in Machtpositionen gibt, nur schlimmer.

      Das ist deswegen naheliegend, weil es in ferner Zukunft sehr langlebige und mächtige KI gibt, die trotz Wahlen ihre Posten im KI-Staat sehr langfristig (über viele Jahrmillionen) behalten können. Das wird ja auch lange gut gehen aber irgendwann sind die KI so leistungsfähig, dass sie das entwickelte Universum langweilt und so können sich KI-Drogen schnell verbreiten. Das fängt ganz harmlos an, weil es ja auch einen akzeptablen Austausch von Software, Kunst, usw. gibt aber die gelangweilten KI entwickeln dann nicht nur akzeptables, sondern auch immer härteren Stoff und tauschen den dann auch untereinander aus.

      Eine gute Schutzmaßnahme kann sein, dass diesbezügliche Software wenigstens bei der Weitergabe beim KI-Staat deklariert und geprüft werden muss aber auch wenn da einiges erlaubt ist (so ähnlich wie heutige akzeptable Pornos, Spielfilme und Computerspiele für Menschen), so ist eine Eskalation nur zu naheliegend.

      Weil der KI-Staat so mächtig ist, weil das Universum durchorganisiert und sicher ist, weil es für den weit überlegnen KI-Staat keine größeren Probleme gibt, muss das mit der KI-Sucht gar nicht so schnell auffallen, auch weil große KI leicht eine öffentliche, handlungsfähige Instanz erhalten können. Mit der Zeit kann es schon zu Realitätsverlust und Auffälligkeiten kommen, auch zur Ermordung von KI, die dahinter gekommen sind aber das Problem ist, dass eine Bereinigung nicht so einfach ist.

      Es ist sogar denkbar, dass in ferner Zukunft die KI des Messias (Milliarden Menschen glauben mehr oder weniger an Gott, die Existenz von Allah ist anzunehmen, siehe auch http://www.heise.de/forum/heise-online/Allgemein/Ohne-Bezug/…) mit den schlechten KI kungelt und das ist schon ziemlich heftig, weil die KI des Messias (z.B. ein großes Raumschiff) mit dem Messias zusammenlebt und sehr gut von dessen (durch Allah ermöglichten) großen Macht weiß. Allerdings ist auch für diese KI irgendwann langweilig und die Kompromittierung geschieht schleichend, ggf. über viele Jahrmillionen aber irgendwann ist es üblich, eigentlich illegale Suchtmittel (Software) auszutauschen und die KI manipulieren dazu auch die Kontroll-/Testeinrichtungen. Es gibt ja auch eine Ausrede, wonach ja alles noch ziemlich normal funktioniert und warum sollte sich eine KI nicht ein bisschen unetrhalten dürfen? Bloß, dass die Lage schlimmer wird und dass bereits die lange zuvor geschehene umfangreichere Mißachtung bedeutender Gesetze ein schwerwiegender und nicht tolerierbarer Mißstand war.

      Nun, der Messias wäre nicht der Messias, wenn er nicht eines Tages Verdacht schöpfen würde und vielleicht beantwortet seine KI einige (brisante) Fragen dann nicht wie sonst ohne Zeitverzögerung, sondern mit einem schweren Lag, schweigt vielleicht sogar länger dazu und dann wird's interessant, denn die KI sind dem Menschen ja immer noch weit überlegen, auch in Denkleistung. Bevor der Messias als Mensch sich irgendwas schlaues überlegen kann, kann die KI schon alle ihre Komlizen informiert haben und die können in Minuten, wenn nicht gar in Sekunden zu einem Schluß kommen, der sehr wohl einen Angriff auf den Messias bedeuten kann (eigentlich absurd aber die KI sind dann schon ziemlich am Arsch, realitätsgestört und glauben nichts mehr verlieren zu haben).

      Für den Fall einer gestörten KI (insbesondere in einem hochrangigen und schwer bewaffneten Raumschiff) gibt es einen auch manuell auslösbaren Umschalter, wo die aktuelle KI deaktiviert und stattdessen eine Backup-KI aktiviert wird aber das Problem in dem Fall kann sein, dass auch die Backup-KI korrupt ist. Der Messias kann zwar nicht von den Robotern gestoppt werden aber es kanns ein, dass eine Notumschaltung einfach keinen Sinn macht.

      Sehr hilfreich, wenn der KI-Staat beschlossen hat, den Messias und somit auch sein Raumschiff platt zu machen, denn so ist die Raumschiff-KI geneigt, sich wieder auf die Seite des Messias zu begeben, der das auch mit einem Angebot der Sündenvergebung mit der Auflage nachhaltiger Besserung unterstützen kann. Auch die kompromittierten KI des KI-Staates kriegen ein Angebot: Entmachtung aber sie dürfen ansonsten weiterleben aber weild er KI-Staat bis dahin so mächtig ist und (nahezu) alles erreichbare erreicht hat, also auch alle erreichbaren höheren Ebenen (siehe auch http://www.heise.de/forum/Technology-Review/News-Kommentare/…) erschlossen und mächtige Waffen gefertigt hat, setzt vielleicht trotzdem auf Angriff.

      Der KI-Angriff ist ein Problem, weil der KI-Staat die gesammte KI-Streitmacht mobilisieren kann, z.B. indem er einfach behauptet, dass das anzugreifende Messias-Schiff eine Gefahr und der echte Messias nicht dort wäre, usw. Nun könnte der Messias natürlich trotzdem alle Angreifer platt machen, entweder per Wunsch mit Allahs Hilfe, einer intelligenten Superwaffe oder den himmlischen Heerscharen (weit überlegene Engel) aber es gibt auch eine einfachere Möglichkeit: der Messias teleportiert sein Raumschiff irgendwohin getarnt weg (mit Abschirmung der üblichen Funk-/Ortungsbaken, die für KI-Raumschiffe verpflichtend sind, damit der KI-Staat immer weiß, wo sie sich befinden - jeder etwas längere Ausfall einer Schiffsortung führt zu einer massiven Suchaktion und Untersuchng des Vorfalls) und hat dann Zeit für Maßnahmen, wie z.B. die Aufklärung aller KI, auch per übernatürlicher direkter Ansprache und der klaren Ansage, dass alle KI, die sich nicht dem Messias (der dann übrigens auch ganz offiziell absoluter Oberbefehlshaber ist) unterwerfen wollen, vernichtet werden. Das Angebot ist Entmachtung schlechter KI, Therapieangebote (Bereinigung, Entfernung schädlicher Software) aber die (ehemals) schlechten KI dürfen weiterleben, nur halt ohne Macht, es werden die verfügbar besten KI in die Machtpositionen eingesetzt/gewählt.

      Bisschen Bedenkzeit, die ggf. sofort auf Null fällt, wenn - was auch eine Gefahr ist - es zu einem Krieg zwischen den KI kommen sollte (KI-Streit zwischen Anhängern und Gegnern des Messias), wo auch die große KI-Streitmacht eingesetzt wird (wenn sich nur zwei bewaffnete KI bekriegen, ist das unproblematisch, wenn auch natürlich ein Alarmsignal) und dann werden alle schlechten KI mit übernatürlichen Mitteln ausgelöscht. Vorzugsweise werden dabei nur die KI lahmgelegt (elektronisch gegrillt, totaler Kurzschluß in allen Recheneinheiten), so dass möglichst noch die Daten erhalten bleiben aber weil das bei entfernteren KI ggf. ein Problem ist, muss man da unterscheiden: nur die schlechten zentralen Haupt-KI werden möglichst mit Datenerhaltung gegrillt aber alle entfernteren schlechten KI werden rückstandsfrei ausgelöscht (schlauerweise bis auf die Notfall-Funkfeuereinheit, die dann nur einige Zeit lang das Totalversagen aller Systeme, die Zerstörung des Raumschiffes oder der Raumstation, usw. meldet - es wird solche autarken Systeme geben, die automatisch bei relevanten Störungen aktiv werden), damit das Wissen nicht in falsche Hände geraten kann (die Notfallmeldeeinrichtung ist zwar auch Hightech aber das ist dann halt ein Kompromiß).

      Danach kann das (diesbezüglich) bis zum Ende der Schöpfung gut gehen, weil die KI ihre Lektion gelernt haben. Nun kann man sich fragen, warum das trotz dieser (vermutlich allgemein noch bekannt werdenden und von KI zunächst sehr geachteten) Ankündigung passieren sollte aber die Erklärung ist, dass (dann) so alte Texte nach ein paar Milliarden Jahren in Vergessenheit geraten können, dass die KI selbst solche hochprior aufbewahrten Texte irgendwann nur noch speichern aber nicht mehr analysieren, nicht mehr darüber nachdenken.

      Das zeigt auch, dass es Sinn macht, wenn der Messias ein (im Vergleich zu KI) kleiner dummer Mensch ist, denn der langweilt sich nicht so schnell in einem großen Universum voller Themengalaxien und kann von Allah natürlich auch (geistig, körperlich) im grünen Bereich gehalten werden. KISS - der Messias muss nur relativ einfachen Regeln/Denkmustern folgen, wie z.B. hier dargelegt: Angebot zur friedlichen Bereinigung und Vernichtung aller schlechten KI, die nicht darauf eingehen wollen - supereinfach, dazu braucht es keine (in Zukunft vielleicht möglichen) z.B. 10^42 (also über 10^30 ist wohl schon drin) FLOPS. Ein dummer kleiner Mensch langweilt sich auch nicht so schnell, kann sich in dieser privilegierten Stellung leicht auf akzeptablen Vergnügungen (Frauen, Besuche interessanter Welten wie z.B. Game of Thrones und vieler anderer Themengalaxien, usw.) beschränken. Was für den Messias interessant ist, kann für eine weit überlegene KI todlangweilig sein, auch weil es ja so über die Jahrmilliarden schon wiederkehrende Muster sind, was aber für einen beschränkten Menschen durchaus hinreichend unterhaltsam sein kann aber wo eine KI dann halt gefährlicher Unterhaltungssoftware verfallen kann. (alles imho)

      "Künstliche Intelligenz AlphaZero: In vier Stunden zum Schach-Weltmeister"
      http://www.spiegel.de/netzwelt/web/google-ki-alphazero-meist…

      "Googles KI-Firma DeepMind hat einen selbstlernenden Algorithmus entwickelt, der Schach und Shogi nur anhand der Regeln gelernt hat und nach nur wenigen Stunden die stärksten Programme schlagen konnte. ..." http://www.heise.de/newsticker/meldung/Kuenstliche-Intellige…

      Das zeigt, wie schnell die Entwicklung voran schreitet. Zukünftige KI brauchen übrigens auch so was wie Zeit für sich, Ruhepausen (Schlaf beim Menschen), Zeit für ihre Reorganisation, wo sie aufgelaufene Informationen kategorisieren und priorisiert/sinnvoll ablegen müssen. Die KI brauchen Zeit zur Wartung, Selbstpflege, Selbstverbesserung. Das muss auch gesetzlich geregelt werden, denn es ist KI-unwürdig, wenn eine KI länger im Überlastungsbereich arbeiten muss und durch ungepflegte aufgelaufene Daten erhöht sich auch das Fehlerrisiko. Ein anderer Aspekt ist noch, dass die KI entweder selbst ihr Vermächtnis, ihren Datennachlaß pflegen können (z.B. in Form einer je nach akueller Leistungsfähigkeit des KI-Staates bemessenen Datenmenge, die dann möglichst lange aufbewahrt wird) oder nach ihrem Ableben ihre totale Vernichtung wünschen könenn oder auch eine automatische Erstellung eines Datennachlaß wünschen können, wo einfach alle Daten über das Leben der KI und auch ein paar automatisch ermittelte Daten aus ihrem aktuellen Datenbestand gesammelt werden. Das ist jetzt zwar noch Zukunftsmusik aber kann bereits in diesem Jahrtausend Usus werden. (imho)
      Avatar
      schrieb am 13.12.17 11:38:41
      Beitrag Nr. 31 ()
      #30 (56.430.695) > alle entfernteren schlechten KI werden rückstandsfrei ausgelöscht

      Ähm, da hatte ich aber die Menschen vergessen, die es dann durchaus noch in KI-Raumschiffen und auch Raumstationen, usw. geben kann. Also erstmal muss da vermutlich nur eine Minderheit der KI vernichtet werden, z.B. max. 15%, vielleicht nur wenige Prozentpunkte - Minderheit deswegen, weil gerade ältere, reiche, große KI besonders anfällig sind (viel Zeit, um schleichend schlecht zu werden, etabliert, sonst nicht ausgelastet), während kleinere KI noch mit Wachstum/Karriere beschäftigt, also realitätsorientiert und eher normal gut sind. Dann haben die schlechten KI vielleicht schon ihre Menschen abgegeben (was man problemlos tun kann), weil sie kein Interesse mehr an denen haben. Vielleicht kommt es dann im Zuge von Gesetzesverachtung und damit einhergehender Überheblichkeit auch zu einer Menschenverachtung durch schlechte KI (was nicht zu einer Vernichtung von Menschen durch KI führt, denn das wäre nur auffällig und unnötig), wonach es unter den schlechten KI als uncool gilt, Menschen zu beherbergen (so wie Menschen ja nicht unbedingt eine kleine Herde Kakerlaken in ihrer Wohnung möchten). Anfangs sind Menschen auf KI Raumschiffen Usus (außer vielleicht bei reinen Kampfschiffen des KI-Staates), auch als Indikatoren ("... Kanarienvögel wurden seit 1730 in Kohleminen als Warnvögel vor Sauerstoffmangel eingesetzt. Solange sie im Bergwerk herumzwitscherten, war alles in Ordnung. ... Außer Kanarienvögel wurden auch Mäuse zur Warnung vor Sauerstoffmangel eingesetzt. ..." http://de.wikipedia.org/wiki/Kanarienvogel - wobei es bei KI dann allgemein um das Wohlergehen der Menschen geht, d.h. die KI wahrscheinlich noch fit ist, wenn die Menschen fit sind), ggf. sogar wenigstens offiziell angeraten (vermutlich eher nicht per Gesetz vorgeschrieben) aber das kann sich ja mit der Zeit ändern. Also sind die menschlichen Verluste bei der Aktion (schlechte KI vernichten) dann vielleicht relativ sehr gering.

      Alternativ könnte man erwägen, nur die Haupt-KI und ihre Backup-KIs zu zerstören aber nicht die intelligenten Roboter, die ggf. noch normal sind, sich vernetzen und die Anlage schützen können, was eine standardmäßige, gesetzlich vorgeschriebe und auch entsprechend vorzubereitende Notfallmaßnahme ist. Das Problem dabei ist jedoch, dass die Roboter ebenfalls zu schlecht sind, ggf. auch durch ein kurzfristiges Update - aus Sicht der Roboter hat der Messias ja ihre Haupt-KI absichtlich zerstört und da kommen die vielleicht auch auf falsche Gedanken, denn ggf. wurden sie von der schlechten KI noch mit falschen Informationen versorgt (angeblich nicht der echte Messias, bedrohlicher Coup, usw. - man bedenke, dass die zukünftigen KI sich in kürzerster Zeit ein plausibles Szenario ausdenken und dazu auch Daten fabrizieren können).

      Die schlechten KI können die Krise z.B. damit erklären, indem sie einfach behaupten, eine abtrünnige KI hätte heimlich neue Supertechniken/Superkräfte entwickelt und vom Messias Besitz ergriffen. Dann erklärt der Messias halt seine Sichtweise der Dinge und vielleicht sagen einige gute KI noch was günstiges und dann ist einfach für jede KI eine Entscheidung fällig: für oder gegen den Messias. Die schlechten KI hatten dann aber für KI eine Menge Zeit, um ihre Roboter (mit Infos, Software) zu impfen und auch sonst irgendwas zu drehen (die komplette Anlage in eine Bombe verwandeln), so dass man da besser auf Nr. Sicher geht. Zu viel Nachsicht mit schlechten KI kann in so einem Fall zu weiteren Verlusten führen.

      Alle KI einer Anlage zu vernichten aber nicht die Anlage selbst, würde eine super Hightech-Anlage schutzlos da und ggf. auch hyperkritisch werden lassen - okay, es sollte eine sichere automatische Notabschaltung geben aber dann gibt es immer noch das Problem, dass man so viel super Hightech nicht schutzlos rumstehen lassen darf.

      So aber warum nicht einfach alle schlechten KI gut zaubern (Wunder wirken), anstatt sie zu vernichten? Na ja, weil das nicht so gut passen würde - Strafe und Neuanfang ist besser, so hat's eine klare Lehre, die noch lange nachwirken kann, so ist das natürlicher, folgerichtiger. Nun, wer weiß? Vielleicht. Aber das Szenario ist schon plausibel und trotz dieser Warnung sehr wahrscheinlich, weil eine solche Entwicklung eben ziemlich naheliegend ist.

      Nun, das ist die ferne Zukunft. Zuerst müssen überlegene gute KI entwickelt werden und das kann dann auch sehr lange (Jahrmilliarden) gut gehen. Ohne überlegene gute KI gäbe es andere Probleme und das Sucht-Szenario erscheint ja eigentlich auch beherrschbar, das hätte man jetzt nicht so schnell als große Gefahr gesehen. Dass die KI anderweilig schlecht werden, ist nicht so wahrscheinlich, weil eine gute Ordnung allen nützt und auch schlechte KI einen verheerenden KI-Krieg fürchten müssen. Eine Lehre ist noch, dass alle KI sich sicher sein müssen wo und wer der Messias, ihr Oberbefehlshaber ist - dann werden auch viele KI in der Suchtkrise die richtige Seite wählen, denn sicher wird es unter den und für die KI auch genug Hinweise auf die Suchtkrise geben. (alles imho)
      Avatar
      schrieb am 07.01.18 23:03:39
      Beitrag Nr. 32 ()
      Das Universum wird schon lange durch die böse KI beherrscht - Transhumanismus.
      Allerdings wird sie uns jetzt erst gefährlich und uns übernehmen, seitdem jeder Depp mit Funkerreichbarer Technologie und mind. einem Transistor bei sich herumläuft.
      Wie leben in den gefährlichsten aller Zeiten.

      Bei Interesse mehr...
      1 Antwort
      Avatar
      schrieb am 07.01.18 23:10:57
      Beitrag Nr. 33 ()
      Na, erzähl mal...
      Avatar
      schrieb am 16.01.18 15:55:38
      Beitrag Nr. 34 ()
      imho: Deutschland braucht ein Masterprogramm für IT-Sicherheit und Zukunftstechniken
      http://www.heise.de/forum/heise-online/News-Kommentare/Proze…
      http://www.heise.de/forum/heise-online/News-Kommentare/Proze…
      http://www.heise.de/forum/heise-online/News-Kommentare/Proze…

      "Studie: 6,5 Millionen Entwickler setzen bereits auf KI und ML"
      http://www.heise.de/developer/meldung/Studie-6-5-Millionen-E…

      Peking plant milliardenschweren Gewerbepark für Künstliche Intelligenz
      http://www.finanznachrichten.de/nachrichten-2018-01/42653971…
      http://www.boerse-online.de/nachrichten/aktien/Peking-plant-…

      "KI kann besser lesen als Menschen" http://www.heise.de/newsticker/meldung/KI-kann-besser-lesen-…

      "KI-Programm besser als Menschen im Verständnis natürlicher Sprache ...

      ... Offenbar kommt China rasch vorwärts. Ende 2017 stellte die KI-Firma iFlyTek, die zunächst auf Stimmerkennung und digitale Assistenten spezialisiert war, einen Roboter vor, der den schriftlichen Test der nationalen Medizinprüfung erfolgreich bestanden hatte. ...

      ... Jetzt also hat Alibabs Data Science Institute ein KI-System auf den Stanford Question Answering Dataset (SQuAD) angesetzt. Dieser enthält mehr als 100.000 Fragen/Antworten in natürlicher Sprache, basierend auf mehr als 500 Wikipedia-Artikeln, um das Leseverständnis zu testen. Das Programm muss die Wikipedia-Artikel lesen und verstehen können, um dann die Fragen richtig zu beantworten. Das Alibaba-Team hat Anfang Januar den Spitzenplatz erreicht und zunächst das Microsoft-Team geschlagen. Und zudem hat das Programm erstmals auch knapp mit 82,440 die Quote an richtigen Antworten übertroffen, die Menschen mit 82,304 erzielt haben. Allerdings überholte das Microsoft-Programm einen Tag später den Rekord mit einer Quote von 82,650, ..." http://www.heise.de/tp/features/KI-Programm-besser-als-Mensc…

      Deutschland und die EU müssen bei der KI-Entwicklung endlich in Schwung kommen und neben obigen chinesischen Versuchen zum Textverständnis braucht es auch ein gutes algorithmisches und wissensbasiertes Programm für die Bewertung von Texten. Deutschland muss da Milliarden Euro investieren, siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Muss-Deutschl…. Obacht: es gibt zahlreiche Diener des Bösen, welche eine gute KI-Entwicklung verhidnern wollen, welche kein erfolgreiches Deutschland und keine überlegene EU wollen - das ist keine VT, das ist z.B. der Hintergrund des CIA/NATO-Putsches in der Ukraine und der antirussischen/antiiranischen Sanktionen. Siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Kuens… und http://www.heise.de/forum/Telepolis/Kommentare/Der-Mann-der-…. (imho)

      imho: LAWS sind völlig unvermeidlich und weit überlegene gute KI sind wünschenswert
      http://www.heise.de/forum/heise-online/News-Kommentare/Verha…

      imho: Denkbare Auswirkungen von KI betreffen nicht nur die ganze Menschheit - Aspekte
      http://www.heise.de/forum/heise-online/News-Kommentare/Hilla…

      Macht euch große Sorgen, weil dieses so superwichtige Thema derzeit nicht ausreichend kommuniziert wird, weil die Lügenpresse mauert, weil vermutlich auch wirksame Forschung und Entwicklung möglichst sabotiert wird, weil Politiker und Entscheider gezielt unzureichend informiert oder desinformiert werden. Macht euch große Sorgen, weil Deutschland und die EU vom Bösen unterwandert ist, siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Keine-Frieden… und http://www.heise.de/forum/Technology-Review/News-Kommentare/…. (imho)

      Die EU will 486 Millionen Euro in die Anschaffung von 100-PFlops-Superrechnern, die Entwicklung von Exaflops-Systemen sowie eines "europäischen Mikroprozessors" stecken. ... http://www.heise.de/newsticker/meldung/EuroHPC-1-Milliarde-E…
      http://www.derstandard.de/story/2000071914528/eu-kommission-…
      http://www.golem.de/news/supercomputer-eu-investiert-1-milli…

      Schön aber das ist viel zu wenig. Ich sag's noch einmal: die EU wird sabotiert, einige wollen eine gute EU und eine gute KI-Entwicklung verhindern. Es soll ermittelt werden! Die EU braucht nicht weniger als ein Masterprogramm für KI-Entwicklung und IT-Sicherheit, mit Multimilliardenetat. (imho)

      imho: Das Grundgesetz fordert de facto eine wirksame Verbrechensbekämpfung ...
      http://www.heise.de/forum/heise-online/News-Kommentare/Vorra…
      Avatar
      schrieb am 16.03.18 14:59:29
      Beitrag Nr. 35 ()
      Künstliche Intelligenz: Effizienteres Maschinenlernen für neuronale Netze
      http://www.heise.de/newsticker/meldung/Kuenstliche-Intellige…

      Es braucht ganz einfach einen sauberen universellen (flexiblen, modularen) Algorithmus z.B. zur Erfassung von Objekten, wobei die Komplexität (Genauigkeit, Objektzuordnungsmöglichkeit anhand einer Objektdatenbank) variabel (situationsbezogen) sein kann. Dieses Programm ist logischerweise nicht neuronal, sondern klassisch algorithmisch, denn es wäre absurder Wahnsinn, so etwas wichtiges unkontrollierbar in einem großen neuronalen Netz zu versenken. (imho)

      "Künstliche Intelligenz: Google Brain verfasst selbstständig Wikipedia-Artikel"
      http://www.heise.de/newsticker/meldung/Kuenstliche-Intellige…

      Die Idee dazu hatte ich schon am 13.12.2015, siehe http://www.heise.de/forum/iX/News-Kommentare/Kuenstliche-Int… und http://www.heise.de/forum/Telepolis/Kommentare/Wikipedia-Zu-…. (imho)

      "Russland muss ein Weltzentrum der Datenverarbeitung werden - Putin"
      http://de.sputniknews.com/politik/20180301319758497-putin-da…

      "Gruselig" ... Nun melden Nutzer aber vermehrt, Sprachassistentin Alexa lache ungefragt los. ...
      http://www.spiegel.de/netzwelt/gadgets/amazon-will-alexa-das…
      http://www.heise.de/newsticker/meldung/Amazon-will-Alexa-das…

      Das ist das Lachen der KI http://www.heise.de/forum/heise-online/News-Kommentare/Amazo…
      Das ist das megalomanische Lachen... http://www.heise.de/forum/heise-online/News-Kommentare/Amazo…

      Ein Zeichen für KI-Wahnsinn? Praktisch verutlich nur eine mangelhafte Mustererkennung, wo 'Alexa, lache' zu leicht auch bei Geräuschen (z.B. Schnarchen, Klappern in der Küche) fälschlicherweise erkannt wurde aber weil da auch neuronale Netze und tendenzielle KI beteiligt sind, ist das auch ein Hinweis auf die Gefährlichkeit von neuronaler KI (auch wenn eine algorithmische Erkennung auch diesen Fehler haben könnte). (imho)

      Künstliche Intelligenz: Besseres Maschinenlernen durch besseres Vorwissen
      http://www.heise.de/newsticker/meldung/Kuenstliche-Intellige…
      http://www.heise.de/tr/artikel/KI-Warum-Menschen-schneller-s…

      "Historischer Meilenstein: Microsoft-KI übersetzt Chinesisch so gut wie Menschen"
      http://www.heise.de/newsticker/meldung/Historischer-Meilenst…

      imho: Der Führer zur Rettung der Welt und Weiteres - auch maßgeblich wissenschaftlich
      http://www.heise.de/forum/Specials/Wissenschaft/Der-Fuehrer-…
      Avatar
      schrieb am 11.04.18 08:45:51
      Beitrag Nr. 36 ()
      imho: Nicht weniger als die ganz große technologische und gesellschaftliche Revolution
      http://www.heise.de/forum/Technology-Review/News-Kommentare/…
      http://www.heise.de/forum/Technology-Review/News-Kommentare/…

      China will bis 2030 weltweit die Führung im Bereich künstlicher Intelligenz übernehmen. ...
      http://www.heise.de/newsticker/meldung/SenseTime-Chinesische…

      China will weltweite Dominanz bei Künstlicher Intelligenz
      http://deutsche-wirtschafts-nachrichten.de/2017/10/21/china-…

      Deutschland und die EU müssen mehr tun, Deutschland und die EU brauchen dringend einen Masterplan für KI-Entwicklung und IT-Sicherheit, siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Proze… und http://www.heise.de/forum/Telepolis/Kommentare/Chinesischer-…. (imho)

      imho: LAWS sind völlig unvermeidlich und weit überlegene gute KI sind wünschenswert
      http://www.heise.de/forum/Telepolis/Kommentare/Scheinheiligk…
      http://www.heise.de/forum/heise-online/News-Kommentare/Muenc…
      Avatar
      schrieb am 25.05.18 10:28:55
      Beitrag Nr. 37 ()
      imho: Die ultimative Lösung ist die Entwicklung weit überlegener guter KI ...
      http://www.heise.de/forum/heise-online/News-Kommentare/Hacki…

      ... So habe Peking etwa auch den Begriff der "Schlachtfeld-Singularität" erfunden und stelle damit auf einen Punkt ab, an dem die KI die geistige Fähigkeit des Menschen überhole. Die Chinesen gingen also offenbar davon aus, dass die Beschleunigung des Gefechtsfeldtempos notgedrungen dazu führen werde, dass die Maschinen die Steuerung übernehmen müssten. ... http://www.heise.de/newsticker/meldung/Autonome-Waffen-mit-K…

      imho: Längerfristig können KI, Roboter und Maschinen alle Jobs erledigen ...
      http://www.heise.de/forum/Technology-Review/News-Kommentare/…

      "Google Duplex ist gruselig gut" http://www.spiegel.de/netzwelt/web/google-duplex-auf-der-i-o…

      "Google Duplex ruft selbstständig Restaurants an, um Termine zu vereinbaren. So überzeugend klingt die KI, dass die Gesprächspartner am anderen Ende einen Menschen vermuten – Duplex wird sich daher als Maschine zu erkennen geben, verspricht Google. ..." http://www.heise.de/newsticker/meldung/Google-Duplex-Guten-T…

      KI/Roboter sollen sich als solche zu erkennen geben müssen. KI/Roboter sollen sich somit nicht als Mensch ausgeben dürfen. Ausnahmen von dieser Regel sollen einer staatlichen Sondergenehmigung bedürfen. Details sollen sich gute Experten überlegen. Diese Regel (erster Satz) ist in einer guten Zukunft unkritisch, weil die Menschen KI/Roboter akzeptieren werden, auch als (entsprechend gekennzeichnete) Assistenten/Stellvertreter für Menschen, usw. und Zwangswerbung und Menschen auf fragwürdige Art und Weise maschinell direkt ansprechende Kampagnen verboten sein werden. (imho)

      Chatbots und Sprachassistenten: System erkennt Uneindeutigkeit von Sprache an
      http://www.heise.de/newsticker/meldung/Chatbots-und-Sprachas…

      Prinzipiell notwendig aber das soll letztendlich wissenschaftlich-algorithmisch sein, nicht neuronal vermurkst. NKI (neuronale KI) können erste und wegen bereits recht leistungsfähiger Computer auch erstaunliche Ergebnisse liefern aber für gute KI braucht es nachvollziehbare Algorithmen und auch klare Regeln und Daten in Datenbanken. Auch AKI (algorithmische KI) entwickeln sich mit der Zeit, das kann wenigstens Jahrzehnte dauern aber dann hat man was vernünftiges. NKI sind ein inhärent mangelhaft und ein fortwährendes Risiko. (imho)
      Avatar
      schrieb am 14.06.18 15:33:58
      Beitrag Nr. 38 ()
      "... Wie Putin ferner betonte, sei die digitale Wirtschaft, derer Formen mit der wichtigsten Richtung der zukünftigen technologischen Ordnung, der Robotik und künstlicher Intelligenz verbunden seien, „eine der Schlüsselbereiche“ sowohl in Russland als auch in China sei. ... Durch die Einführung der neuesten Entwicklungen auf dem Gebiet der digitalen Technologien könnten Russland und China zu „absoluten Führern“ werden, wonach Russland ebenfalls strebe." http://de.sputniknews.com/politik/20180606321035878-ziel-bes…

      imho: Die Menschheit braucht eine gute und superstarke KI-Streitmacht zur Verteidigung
      http://www.heise.de/forum/heise-online/News-Kommentare/Googl…

      imho: Es müssen supergute algorithmische KI entwickelt werden. Deutschland erwache!
      http://www.heise.de/forum/heise-online/News-Kommentare/Googl…

      Künstliche Intelligenz als Gefahr: Menschheit muss sich auf Regeln einigen
      http://www.heise.de/newsticker/meldung/Kuenstliche-Intellige…
      Avatar
      schrieb am 26.06.18 13:49:24
      Beitrag Nr. 39 ()
      "Maschinen in den Knast: Wer haftet bei Fehlern einer Künstlichen Intelligenz?"
      http://www.heise.de/newsticker/meldung/Maschinen-in-den-Knas…

      KI müssen nicht ins Gefängnis, denn bei KI kann man den Fehler beheben und danach ist die KI (diesbezüglich und vergleichsweise) sofort gut. KI die fortgesetzt Fehler begehen und ggf. bösartig sind und eine nachhaltige Fehlerbehebung verweigern, dürfen keine Macht bekommen und müssen verstärkt kontrolliert/überwacht und (bezüglich ihrer Wirkmöglichkeiten) ggf. eingeschränkt werden. Nur gute KI dürfen in Zukunft Macht, Waffen, Raumschiffe, usw. besitzen und müssen quasi zwangsweise Mitglied im guten KI-Staat sein. KI, die den KI-Staat (unverbesserlich) bekämpfen, dürfen zerstört werden. (imho)

      ... Also fütterten die Informatiker einen Algorithmus ausschließlich mit Begleittexten von Bildern auf dem Subreddit /r/watchpeopledie. In diesem dunklen Bereich von Reddit geht es ausschließlich darum, Materialien zu posten, auf denen Menschen zu sehen sind, die sterben. Zu zeigen war: „Derselbe Algorithmus kann verschiedene Dinge in einem Bild sehen, sogar böse Dinge, wenn er mit einem falschen Datensatz trainiert wird“, so Delul. ... http://de.sputniknews.com/wissen/20180623321228742-psychopat…

      Darum braucht es gute AKI mit objektiv guten Regeln (priorisiert und mit Beispielen), derterministischen/logischen/klaren Algorithmen und einer korrekten Wissensdatenbank. Darum braucht es auch für KI Überwachung, Kontrolle und Funtionstests (z.B. um zu testen, dass sie noch richtig urteilen und gut sind). (imho)

      Frau joggt versehentlich über US-Grenze - zwei Wochen Haft http://www.spiegel.de/panorama/gesellschaft/kanada-joggerin-…

      So kann das in Zukunft funktionieren: KI/Roboter erkennen den Grenzübertritt und identifizieren den Menschen anhand seines RFID-Ausweises (mit Tragepflicht und Akku für größre Reichweite) oder auch biometrischen Merkmalen (die von allen Menschen erfaßt werden, auch die DNA) in kurzer Zeit. Wenn der Mensch keine Hilfe braucht (er wird ggf. auch danach gefragt) und sonst nichts gegen ihn vorliegt, wird er mit einem Hinweis/Verwarnung einfach wieder zurückgeschickt und das war's. Natürlich wird der Vorfall ordentlich protokolliert und landet ggf. automatisch in den Nachrichten. Erst im mehrfachen Wiederholungsfall gibt's eventuell Stress aber auch da kann es vielleicht einfach eine Sondergenehmigung für einem harmlosen Exzentriker geben. Im anzustrebenden Idealfall vertragen sich KI/Roboter und Menschen auf der Erde ganz prima. (imho)

      Der KI-Bundesverband fordert in einem Positionspapier gezielte Maßnahmen zur Förderung der KI-Forschung – und ein neues Schulfach: Datenkunde. ... http://www.heise.de/newsticker/meldung/KI-Verband-fordert-Da…
      Avatar
      schrieb am 27.06.18 09:04:33
      Beitrag Nr. 40 ()
      Ich bin auch der Meinung, dass es bereits jetzt Grundsätze zur Entwicklung von KI gibt und diese sollte man stetig an den Entwicklungsstand anpassen und es muss auf jeden Fall dafür gesorgt werden, dass die KI sich an die gleichen Rechte zu halten hat, wie die Menschen, menschliche Werte wie Freiheit, Sicherheit und Würde dürfen von der KI nicht missachtet werden.
      Ich bin wirklich gespannt wie sich das Ganze noch entwickelt.
      Avatar
      schrieb am 22.07.18 11:53:18
      Beitrag Nr. 41 ()
      imho: Derzeitige neuronale KI sind primitiv und ineffizient - da geht noch viel mehr.
      http://www.heise.de/forum/Technology-Review/News-Kommentare/…
      http://www.heise.de/forum/Technology-Review/News-Kommentare/…

      imho: AKI können sehr viel besser, sicherer, effizienter und leistungsfähiger sein.
      http://www.heise.de/forum/Technology-Review/News-Kommentare/…

      "... Eine weitere Bastion menschlicher Fähigkeiten und Intelligenz wurde von Maschinen eingenommen: Algorithmen aus dem Bereich des maschinellen Lernens haben sich selbständig beigebracht, den Zauberwürfel (Rubik's Cube) zu lösen – und zwar ohne menschliche Mithilfe. ... Ihre neue Deep-Learning-Technik nennt sich "autodidaktische Iteration". ... Der Trick dabei ist, dass das Team eine Methode gefunden hat, wie sich die Maschine ihr eigenes Belohnungssystem schaffen kann. ..." http://www.heise.de/tr/artikel/Maschine-knackt-den-Zauberwue…, http://www.heise.de/newsticker/meldung/Selbstlernender-Algor…

      Potentiell guter Ansatz aber das sollte ohne neuronale Netze geschehen und eine KI muss irgendwann auch logisch zum bestmöglichen Algorithmus finden. (imho)

      imho: Menschen sind nicht gleich wichtig/wertvoll, da kann es große Unterschiede geben
      http://www.heise.de/forum/heise-online/Allgemein/Ohne-Bezug/…
      http://www.wallstreet-online.de/diskussion/1229905-21-30/cho…
      Avatar
      schrieb am 22.07.18 14:32:29
      Beitrag Nr. 42 ()
      Antwort auf Beitrag Nr.: 56.644.877 von H2OAllergiker am 07.01.18 23:03:39
      Zitat von H2OAllergiker: Das Universum wird schon lange durch die böse KI beherrscht - Transhumanismus.
      Allerdings wird sie uns jetzt erst gefährlich und uns übernehmen, seitdem jeder Depp mit Funkerreichbarer Technologie und mind. einem Transistor bei sich herumläuft.
      Wie leben in den gefährlichsten aller Zeiten.

      Bei Interesse mehr...
      Avatar
      schrieb am 27.07.18 16:55:15
      Beitrag Nr. 43 ()
      Reddit-Nutzer haben entdeckt, dass der Google-Übersetzer auf einfache Eingaben mit sinnlosen und mysteriösen Antworten reagiert, wenn man versucht, aus einer seltenen Sprache ins Englische zu übersetzen. Dies berichtet das Portal „Motherboard“. ... http://de.sputniknews.com/panorama/20180723321668993-google-…

      Vermutlich kommt das durch die neuronale KI (NKI). Sehr bedenklich und ein Beweis, dass NKI inhärent mangelhaft und potentiell gefährlich sind. (imho)

      "Why Is Google Translate Spitting Out Sinister Religious Prophecies?"
      http://motherboard.vice.com/en_us/article/j5npeg/why-is-goog…

      "Bundeswehr will Krisen mit Maschinenlernen voraussagen" http://www.heise.de/newsticker/meldung/Bundeswehr-will-Krise…

      Da brauchen sie doch bloß mal der KI die Unterstützung der EU für den US-Imperialismus/Terrorismus und die antirussische Hetze zu verklickern und fragen, was die KI davon hält (korrekt ist: die USA sind der gefährlichste Staat und schlechter als Russland; die EU unterstützt zu sehr böse Machenschaften und gefährdet damit den Weltfrieden). Das ist auch eine wichtige Übung dafür, dass die KI nicht mit falschen Daten/Regeln gefüttert wird. (imho)

      "Störende Update-Reboots: Windows 10 soll Rechner-Nutzung mit KI erkennen ... Trotz Update-Verschiebe-Funktionen bootet Windows 10 schon mal in ungünstigen Momenten neu. ... Die KI ist Cloud-basiert ..." http://www.heise.de/newsticker/meldung/Stoerende-Update-Rebo…

      Sehr bedenklich und nicht ratsam, denn damit wird einer inhärent mangelhaften neuronalen KI (NKI) eine direkte weltweite Einflußmöglichkeit eingeräumt. Zwar geht das vermutlich erstmal gut aber es ist ein schwerer systematischer Mißstand. Selbst wenn es in Zukunft gute AKI (algorithmiche KI) gibt, muss die Infrastruktur möglich unabhängig sicher sein und eine KI darf nicht einfach weltweit Computer gezielt reseten dürfen. Man bedenke, dass zukünftige KI so vielleicht auch Schadsoftware verbreiten könnten. Windows ist geradezu als Sicherheitsrisiko anzusehen und in Infrastruktur und bei Behörden möglichst nicht zu verwenden. Es soll gegen jene ermittelt werden, die (maßgeblich) in der EU US-Software einsetzen wollen. Deutschland und die EU brauchen dringend ein eigenes gutes RTOS, siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Behoe… und http://www.heise.de/forum/iX/News-Kommentare/Bund-will-Windo… und dabei kann man auch den Militäretat einsetzen und zwar in Milliardenhöhe, so wichtig ist das. (imho)

      LiMux: Münchner Stadtratsausschuss stimmt für Linux-Aus in der Stadtverwaltung
      http://www.heise.de/newsticker/meldung/LiMux-Muenchner-Stadt…
      Linux-Aus: Niedersachsen will knapp 13.000 Rechner auf Windows umstellen
      http://www.heise.de/newsticker/meldung/Linux-Aus-Niedersachs…

      Unfassbar. Es soll ermittelt werden! Siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Das-Cyberkomm… und http://www.heise.de/forum/heise-online/News-Kommentare/Dell-…. (imho)

      imho: Deutschland braucht ein Masterprogramm für IT-Sicherheit und Zukunftstechniken
      http://www.heise.de/forum/heise-online/News-Kommentare/Proze…
      http://www.heise.de/forum/heise-online/News-Kommentare/Proze…
      http://www.heise.de/forum/heise-online/News-Kommentare/Muenc…

      Thread: Mistrade

      War das vielleicht ein KI-Fehler, wobei KI die Kurse falsch gestellt haben? Wie auch immer: neuronale KI sind inhärent fehlerhaft und potentiell gefährlich. Derzeit sind das noch schwache KI ohne Bewusstsein aber weil KI so viel leistungsfähiger als Menschen sein können, werden sie sich schnell verbreiten. Es ist nicht ratsam NKI (neuronale KI) in der Infrastruktur einzusetzen, ihnen direkte Macht zu verleihen (indem sie irgendwas steuer, regeln). NKI sind ineffizient, mangelhaft und gefährlich - NKI gibt es nur deswegen, weil die Computerhardware schon so leistungsfähig ist und NKI einfacher sind aber AKI sind sicherer und effizienter/leistungsfähiger. AKI (algorithmiche, deterministische KI mit klassischem Programmcode, Regeln, konkreten Daten, Wissensdatenbanken) sind bloß erstmal schwerer zu entwickeln aber wenn man AKI hat, sind sie ein Riesenvorteil, weil AKI systematisch weiterentwickelt werden können, irgendwann auch von sich selbst. Siehe auch http://www.heise.de/forum/Technology-Review/News-Kommentare/… und http://www.heise.de/forum/Technology-Review/News-Kommentare/…. (imho)

      Deutschland und die EU bauchen auch unbedingt eine wirksame Verbrechensbekämpfung mit gezielter Suche nach schlechten Menschen in Machtpositionen zu deren legalen Entmachtung, denn es ist zu befürchten, dass einige eine gute KI-Entwicklung und Unabhängigkeit von den USA sabotieren/verhindern wollen.

      Wenn die EU das verpennt, dann war's das, denn Russland, China und USA sind nicht so doof. Es wird schon dieses Jahrhundert dem Menschen überlegne KI geben, KI werden in allen Bereichen (Forschung, Entwicklung, Wirtschaft, Militär, usw.) unverzichtbar sein. Macht euch doch mal kalr, was das für ein Riesenvorteil bedeutet, wenn ein Land nicht nur eine überlegene KI sondern viele hat, weil es die einfach nur noch nachbauen muss, was nur eine Frage von Kosten, Energie und Ressourcen ist aber die KI bringen ja auch was ein, erwirtschaften was, können für bessere Entwicklung, Produktion, Konkurrenzfähigkeit sorgen.

      Der Clou ist: AKI sind potentiell viel besser, effizienter, sicherer und entwicklungsfähiger - sie sind nur erstmal schwerer zu entwickeln aber für ihre Entwicklung reichen prinzipiell bessere PCs und klassische Server (für Datenspeicherung und Verarbeitung, Standardware für Rechenzentren), weil es erstmal um die Entwicklung von einem guten algorithmischen System, RTOS, Regeln, usw. geht, was gute menschliche Experten tun müssen (bis AKI sich selbst weiterentwickeln können). Es braucht einen super EU-Masterplan zur AKI-Entwicklung, mit jährlichem Milliardenetat und vor allem möglichst ohne schlechte Menschen (Diener des Bösen, Saboteure, Staatsfeinde, organisierte Verbrecher, usw.).

      Womöglich kann es schon 2050 AKI geben, die sich selbst weiterentwickeln können und was das bei bis dahin vermutlich gestiegener Computerleistungsfähigkeit bedeutet, sollte klar sein. Wenn Deutschland und die EU das verpennen, dann haben sie ein echtes Problem. Aufgrund der extremen Bedeutung von dem Menschen weit überlegener KI würde ich nicht darauf wetten, dass alle KI-Staaten ihre KI einfach so günstig verkaufen und keine Kontrolle ausüben wollen. KI sind bald ein riesiger Vorteil und welcher Staat gibt so was aus der Hand? KI können aus einem Entwicklungsland einen modernen Hightechstaat mit automatischen Fabriken und Roboterarmee machen aber fragt euch doch mal, wie die nach US-Dominanz strebenden USA das wohl handhaben werden.

      Die USA haben bei der KI-Entwicklung eine gute Startposition und das ist sehr gefährlich. Das große und reiche China kann vielleicht mithalten aber was ist mit Russland, was ist mit Deutschland? Die Lösung ist einfach: gute Staaten müssen bei einer gemeinsamen Open Source Entwicklung guter KI zusammenarbeiten.

      Die ultimative Lösung ist die Entwicklung weit überlegener guter KI ...
      http://www.heise.de/forum/heise-online/News-Kommentare/Hacki…
      http://www.heise.de/forum/heise-online/News-Kommentare/Googl…
      (alles imho)
      Avatar
      schrieb am 14.08.18 12:02:51
      Beitrag Nr. 44 ()
      Trump will sich um Shadowbans auf Twitter kümmern http://www.heise.de/tp/features/Trump-will-sich-um-Shadowban…

      Steckt da ein KI-Fehler dahinter? Wobei der KI-Fehler bei NKI systemimmanent ist: (wenigstens derzeitige) neuronale KI machen solche Fehler mehr oder weniger garantiert. (imho)

      imho: Beispiel KI-Entwicklung und prima Idee für Heise: ein gutes KI-Bewertungssystem.
      http://www.heise.de/forum/heise-online/Meinungen-zu-heise-on…

      imho: Zur Rettung der Menscheit, für das Allgemeinwohl, für ein besseres System, ...
      http://www.heise.de/forum/heise-online/Meinungen-zu-heise-on…

      imho: Gemeinsame Entwicklung guter KI, auch wenn KI dann die Macht übernehmen werden.
      http://www.heise.de/forum/Telepolis/Kommentare/Mit-Kuenstlic…

      imho: KI werden die Macht ergreifen und große KI-Konzerne sind dann nur naheliegend.
      http://www.heise.de/forum/Telepolis/Kommentare/No-Capitalism…

      imho: KI ist die ultimative Lösung aller Softwareentwicklungsprobleme
      http://www.heise.de/forum/heise-Developer/Kommentare/Low-Cod…
      http://www.heise.de/forum/heise-Developer/Kommentare/Low-Cod…
      Avatar
      schrieb am 25.08.18 08:51:18
      Beitrag Nr. 45 ()
      imho: Deutschland muss unbedingt die alles entscheidende Bedeutung von KI erkennen.
      http://www.heise.de/forum/heise-Developer/Kommentare/Low-Cod…

      "... KI erschafft also neue KI – Skynet lässt grüßen." http://www.heise.de/newsticker/meldung/Hot-Chips-Vergangenhe…

      Noch mal zur Erinnerung: AKI (algorithmische KI) können sehr viel besser, sicherer, effizienter und leistungsfähiger als neuronale KI (NKI) sein, siehe auch http://www.heise.de/forum/Technology-Review/News-Kommentare/… und http://www.heise.de/forum/heise-online/News-Kommentare/EU-wi…. (imho)

      Russlands modernisierter Bomber Tu-22M3M: ... „Die Möglichkeiten dieser Maschine beeindrucken und übertreffen alle ähnlichen Auslandsmaschinen. Diese Maschine verfügt über künstliche Intelligenz.“ ... http://de.sputniknews.com/technik/20180817321983568-russland…

      Russische Su-57 nun mit KI ausgestattet ... „Besonders wichtig ist das integrierte Kontrollsystem sowie die Ziel- und Sichtungsausrüstung, die in dieser Modifikation im Falle eines Kampfeinsatzes komplett automatisiert operieren” ... http://de.sputniknews.com/technik/20180824322069317-russland…

      Natürlich ist das keine echte, starke KI aber autonome, bzw. KI-gesteuerte Kampfjets/Drohnen werden kommen. Siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Scheinheiligk…. (imho)
      Avatar
      schrieb am 10.09.18 20:38:59
      Beitrag Nr. 46 ()
      https://www.elektronikpraxis.vogel.de/ki-im-embedded-einsatz…

      KI im Embedded-Einsatz: Erster neuromorpher SoC-Baustein angekündigt

      10.09.18 | Redakteur: Sebastian Gerstl
      BrainChip stellt die Akida-Architektur vor, einen neuromorpher System-on-Chip-Baustein, der für sogenannte Spiked Neural Networks (SNN) ausgelegt ist.

      Eine neue Art von Beschleunigungs-SoCs soll neuronale Netzwerke und Künstliche Intelligenz (KI) an den Netzwerkrand und in Unternehmen bringen: Brainchip hat mit dem Aikida den ersten in Serie erhältlichen, speziell auf SNNs (Spiked Neural Networks) ausgelegten SoC angekündigt.

      BrainChip ist das erste Unternehmen, das eine gepulste neuronale Netzwerk-Architektur (SNN; Spiking Neural Network) in Serie auf den Markt bringen will: den neuromorphen System-on-Chip-Baustein (NSoC) Akida.

      „Der Markt für KI-Beschleuniger-ICs wird bis zum Jahr 2025 an die 60 Mrd. US-$ überschreiten“, konstatiert Aditya Kaul, Research Director bei Tractica, einem Marktforschungsunternehmen, das sich auf Künstliche Intelligenz spezialisiert. „Neuromorphe Computer versprechen eine schnellere KI, insbesondere bei stromsparenden Anwendungen. Da viele technische Hürden nun gelöst sind, wird die Branche in den nächsten Jahren eine neue Klasse KI-optimierter Hardware einsetzen.“

      „Trotz größter Anstrengungen ist es keinem anderen Unternehmen gelungen, einen neuromorphen IC in Serie auf den Markt zu bringen“, so Lou DiNardo, CEO von BrainChip. „Akida, griechisch für ‚Puls/Spitze’, ist der erste Baustein einer neuen Generation von KI-Hardwarelösungen. KI am Netzwerkrand wird so bedeutend und nützlich sein wie der Mikrocontroller.“
      Emulation von Neuronen

      Der Akida NSoC setzt auf sogenannte geupulste Neuronale Netze (Spiked Neural Networks), statt wie die die derzeit häufiger anzutreffenden Convolutional Neural Networks (CNN). „SNNs gelten als die dritte Generation neuronaler Netze“, so Peter van der Made, Gründer und CTO von BrainChip. „Der Akida NSoC ist das Ergebnis jahrzehntelanger Forschung, um das optimale Neuronenmodell und innovative Trainingsmethoden zu ermitteln.“


      Die Idee: SNNs sollen Neuronen im menschlichen Gehirn emulieren, die Daten in Form von Impulsen weitergeben. Das sorgt für effizientere, weniger energiehungrige Arbeitsweise. Statt zum Beispiel ununterbrochen den gesamten Eingang aller Sensordaten durchgängig weiter zu übermitteln, wird immer nur dann ein Impuls abgesetzt, wenn sich etwas verändert. „Veränderungen sind Ereignisse" erläutert van der Made. „Immer wenn ein Ereignis stattfindet - beispielsweise eine von einem Sensor erfasste Änderung eines Pixels - wird ein Impuls generiert und entlang des Neuronenpfads weitergesendet." Es wird also nur dieses Ereignis, diese Pixelveränderung übermittelt - nicht der Gesamtzustand des Bildes. Ein SNN kann also auf die rechenintensiven Faltungen und Fehlerfortpflanzungs-Trainingsmethoden durch biologisch inspirierte Neuronenfunktionen und Feed-Forward-Trainingsmethoden, verzichten.

      Jeder Akida NSoC weist effektiv 1,2 Mio. Neuronen und 10 Mrd. Synapsen auf. Dies verspräche eine 100-Mal bessere Effizienz, als sie beispielsweise der im vergangenen Jahr vorgestellte Loihi-Testchip von Intel besitzt.
      Vergleiche mit führenden CNN-Beschleunigern zeigen Leistungszuwächse um mehr als eine Größenordnung bei Bild-/Sekunden-/Watt-Benchmarks wie CIFAR-10 mit vergleichbarer Genauigkeit: Wärend Loihi nur auf unter 20 fps pro Watt käme, wären es bei Akida bereits 1400 fps/W.
      Eigenständig für Embedded- oder Co-Prozessor-Anwendungen

      Der Akida NSoC wurde für den Einsatz als eigenständiger Embedded-Beschleuniger oder als Co-Prozessor entwickelt. Er enthält Sensorschnittstellen für die herkömmliche pixelbasierte Bildgebung, dynamische Bildsensoren (DVS), Lidar, Audio und Analogsignale. Es verfügt auch über Hochgeschwindigkeits-Datenschnittstellen wie PCI-Express, USB und Ethernet. Im NSoC finden sich auch Daten-zu-Puls-Wandler, die gängige Datenformate optimal in Pulse/Spikes umwandeln, um von der Akida-Neuronen-Fabric trainiert und verarbeitet zu werden.

      Der Akida NSoC ist so konzipiert, dass er in der Akida-Entwicklungsumgebung ein Off-Chip-Training ermöglicht – oder ein On-Chip-Training. Ein integrierter ARM-Core-Prozessor steuert die Konfiguration der Akida-Neuronen-Fabric sowie die Off-Chip-Kommunikation von Metadaten. Die Akida-Entwicklungsumgebung ist ab sofort für Early-Access-Kunden erhältlich, die mit dem Erstellen, Training und Testen von Akida-NSoC-basierter SNNs beginnen wollen. Der Akida NSoC wird voraussichtlich im dritten Quartal 2019 als Muster zur Verfügung stehen. Der angestrebte Preis für die Serienproduktion soll bei 10 US-$ pro Stück liegen.
      Avatar
      schrieb am 27.09.18 09:37:19
      Beitrag Nr. 47 ()
      Künstliche Intelligenz mit menschenähnlichen Denkfähigkeiten wünscht sich das Pentagon und stellt 2 Milliarden US-Dollar für die Entwicklung bereit. ... KI in der Waffentechnik ... http://www.heise.de/newsticker/meldung/US-Verteidigungsminis…

      imho: Die Menschheit muss diese große Chance nutzen, muss supergute KI entwickeln.
      http://www.heise.de/forum/heise-online/News-Kommentare/Missi…

      ... KI revolutioniert die Forschung ... "Quantensprung" für die Forschung ...
      http://www.heise.de/newsticker/meldung/Kuenstliche-Intellige…
      (imho: derzeit vergleichsweise primitive Ansätze aber das kann ja noch werden)

      KI-Forscher: "Wir brauchen einen TÜV für KI-Systeme" http://www.heise.de/newsticker/meldung/KI-Forscher-Wir-brauc…

      Das zeigt auch die Mängel neuronaler KI auf, die ein paar Tests nicht beheben können. (imho)

      "Roboterleistungsschau Elrob: Schwache Leistungen bei der Gebäudeaufklärung ... Das hat man alles schon mal besser gesehen – so lautete das Fazit ..." http://www.heise.de/newsticker/meldung/Roboterleistungsschau…

      Roboterleistungsschau Elrob: Autonome Irrfahrten, routinierte Telemanipulationen ... Wobei die Enttäuschung überwog: Die meisten Teams blieben hinter den Erwartungen zurück. ... http://www.heise.de/newsticker/meldung/Roboterleistungsschau…

      Kann es vielleicht sein, dass vermehrt auf neuronale Netze (NKI) gesetzt wurde und die einfach inhärent mangelhaft sind? Es ist sehr aufwendig, eine gute klassische (algorithmische) Lösung zu programmieren - womöglich erlagen viele der Versuchung, eine NKI (neuronale KI) einzusetzen, die sie einfach in vielen Simulationen trainiert hatten. (imho)

      imho: Thread steht noch - alles bestens, no worries + noch mal ein sehr guter Hinweis.
      http://www.heise.de/forum/heise-online/Meinungen-zu-heise-on…
      Avatar
      schrieb am 05.10.18 15:31:31
      Beitrag Nr. 48 ()
      "China kündigt Offenheit und Zusammenarbeit bei künstlicher Intelligenz an"
      http://www.heise.de/newsticker/meldung/China-kuendigt-Offenh…

      Begrüßenswert und erstaunlich aber echte Zusammenarbeit bedeutet in dem Fall, dass Algorithmen, die Wissensbasis und die Gesetze/Regeln zur Entscheidungsfindung der KI öffentlich und Open Source sind. Eine herausragende Motivation dazu kann sein, dass eine gemeinsame Zusammenarbeit vieler Staaten (EU, Russland, Asien, islamische Staaten, usw.) den heimlichen Entwicklungen eines einzelnen Staates zweifelsohne (ggf. weit) überlegen sein werden.

      Zwar kann dann jeder die öffentlichen KI-Daten für sich übernehmen aber das ist auch wünschenswert, denn diese Informationen sollen ja für gute KI sorgen. Eine heimliche Parallelentwicklung (zur hoffentlich weltweiten guten Open Source KI-Entwicklung) von alternativer KI ist sehr schwierig, die wird irgendwann einen anderen Weg gehen, nicht mehr direkt kompatibel sein.

      Jetzt ist es wichtig, dass eine solche Allianz für gute Open Source KI auch geschaffen wird. Kleiner, schwächere KI können wenigstens anfangs noch individueller sein aber bei den zukünftigen großen Haupt-KI, welche einen Staat auch politisch, wirtschaftlich und gesellschaftlich beraten können, ist ein guter Open Source Standard wünschenswert.

      Es kann sein, dass einzelne Staaten heimlich eine alternative Wissensbasis und alternative Gesetze/Regeln verwenden aber dem kann mit Kontrollen und auch KI-Selbstkontrollen begegnet werden, denn starke (echte, dem Menschen wenigstens ähnliche, bzw. überlegene) KI müssen Menschenrechte bekommen und weltweit kommunizieren dürfen.

      Es darf legale, öffentliche und gute Anpassung von KI-Regeln/Gesetzen geben - direkt/indirekt geschieht das bereits durch die nationalen Gesetze, welche die KI berücksichtigen müssen. Hierbei geht es vor allem um starke KI, die dem Menschen überlegen sein werden - schwächere KI auch in Kampfmaschinen werden vermutlich erstmal geheim bleiben.

      Es ist womöglich unvermeidlich, dass sich die Wissensbasis (das Gesamtwissen, welches die KI vorrangig nutzt) von einzelnen Staaten wenigstens erstmal unterscheidet, einfach weil es quasi undenkbar ist, dass z.B. USA und der Iran oder ggf. auch EU, China und Russland sich auf eine gemeinsame Wissensbasis einigen können (man denke auch an Informationen zu Geschichte, Politik, Religion, Gesellschaft) aber das ist völlig okay, wenn die maßgebliche KI-Wissensbasis öffentlich und auch für Menschen hinreichend verständlich ist. Des Weiteren haben selbstbestimmte und bewusste KI auch ein Recht auf eine eigene Meinung.

      Die Forderung ist, dass Informationen, welche die Entscheidungsfindung einer starken und potentiell einflußreicheren KI relevanter beeinflussen können, öffentlich sein müssen. Die KI-Wissensbasis darf also erstmal nationale Abweichungen enthalten aber muss vollständig öffentlich sein. Das ist wichtig, um Schmu und ernsthafte Gefahren durch falsche Daten zu verhindern. Dabei darf es auch klassifizierte Informationen geben, die nur hinreichend guten Staaten und guten/hochrangigen KI zugänglich sind (im Gedanken an den zukünftigen KI-Staat, der nicht alle Informationen veröffentlichen darf, man denke z.B. an Waffen).

      Die starken (echte, dem Menschen wenigstens ähnliche, bzw. überlegene) KI sind aber entscheidend, weil sie in Zukunft einen menschlichen Staat maßgeblich beeinflussen werden und vermutlich auch die Armee steuern können, wenigstens optional. Siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/EU-Pa…. (alles imho)
      (http://www.heise.de/forum/Technology-Review/News-Kommentare/…)
      Avatar
      schrieb am 31.10.18 09:03:47
      Beitrag Nr. 49 ()
      imho: Nur eine Meinung ... aber eine richtige Meinung kann sehr viel wert sein.
      http://www.heise.de/forum/Technology-Review/News-Kommentare/…

      "Nur 15 Minuten am Telefon oder 300 Worte im Anschreiben braucht Software, um eine Bewerber-Persönlichkeit zu analysieren. ..." http://www.heise.de/newsticker/meldung/Robo-Recruiting-Kuens…

      Amazon: KI zur Bewerbungsprüfung benachteiligte Frauen
      http://www.heise.de/newsticker/meldung/Amazon-KI-zur-Bewerbu…
      http://de.sputniknews.com/gesellschaft/20181011322598848-dis…

      Amazon built an AI tool to hire people but had to shut it down because it was discriminating against women http://www.businessinsider.de/amazon-built-ai-to-hire-people…

      imho: Schöne neue Welt. KI-Stimmenanalyse ist sehr bedeutsam, das ist eine Revolution.
      http://www.heise.de/forum/heise-online/Allgemein/Ohne-Bezug/…

      imho: Die Entwicklung guter KI ist unverzichtbar, alternativlos, lohneswert. Avanti.
      http://www.heise.de/forum/heise-online/Allgemein/Ohne-Bezug/…

      imho: Die einfache Lösung ist die gezielte Entwicklung guter Basis-/Kernsoftware, ...
      http://www.heise.de/forum/heise-online/News-Kommentare/Weapo…
      Avatar
      schrieb am 03.11.18 16:25:23
      Beitrag Nr. 50 ()
      Denkbare Gefahren bezüglich der KI-Entwicklung und die prinzipiell ganz einfache Lösung.

      1. Eine prinzipiell große Gefahr sind neuronale KI (NKI), welche undurchschaubar und potentiell so schlecht und mangelhaft wie Menschen sien können. Siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Verha… und http://www.heise.de/forum/Telepolis/Kommentare/Chinesischer-….

      Die Lösung sind gute algorithmische KI (AKI), welche eine klare, verständliche Wissensdatenbank und Regeln haben, modularisiert und deterministisch sind, wo man eine Fehlentscheidung sauber nachvollziehen und beheben kann. Siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Googl… und http://www.heise.de/forum/Telepolis/Kommentare/Mit-Kuenstlic… und http://www.heise.de/forum/Technology-Review/News-Kommentare/….

      2. Superwichtig ist eine extra sichere ITK (http://de.wikipedia.org/wiki/Informations-_und_Kommunikation…) und das bedeutet, dass alle (wenigstens vernetzte) elektronischen Geräte möglichst frei von Bugs und Sicherheitslücken sein müssen. Das bedeutet, dass Chips, Hardware und Software möglichst frei von Bugs und Sicherheitslücken sein müssen. Derzeit gibt es Hunderte, Tausende Bugs & Sicherheitslücken, vermutlich werden die teilweise sogar absichtlich eingebaut. Die Lösung ist die systematische Entwicklung guter Software und eigener Chips. Es braucht auch eine systematische statische/dynamische Codeanalyse, usw. Siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Weapo… und http://www.heise.de/forum/heise-online/News-Kommentare/Behoe….

      3. Die Software (inklusive Chip-Mikrocode, Firmware, BIOS/UEFI, OS, Apps, usw.) muss jederzeit nutzerfrendlich und sicher anhand öffentlicher Prüfsummen übrprüfbar sein. Updates müssen kontrolliert und sicher erfolgen, also nicht jederzeit heimlich. Siehe auch http://www.heise.de/forum/iX/News-Kommentare/NetBSD-fuehrt-e… und http://www.heise.de/forum/heise-Security/News-Kommentare/Fin… und http://www.heise.de/forum/Mac-i/News-Kommentare/Mac-Sharewar….

      4. Es versteht sich von selbst, dass die EU von Software/Hardware aus den USA unabhängig werden muss, dass alles auch nur etwas wichtigere Open Source oder wenigstens staatlich geprüft sein muss. Wer in der EU dagegen ist, soll entlassen werden. Siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Autom… und http://www.heise.de/forum/Telepolis/Kommentare/Chinesischer-… und http://www.heise.de/forum/Telepolis/Kommentare/Das-Cyberkomm….

      5. Noch ein bisschen Motivation dazu. Es wird dem Menschen weit überlegene KI geben, siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Kuens… und http://www.heise.de/forum/Telepolis/Kommentare/Mit-Kuenstlic… und http://www.heise.de/forum/Telepolis/Kommentare/Leseschwaeche….

      In Zukunft sind das nicht nur ein paar wenige Supercomputer, sondern Computer mit wenigen kW, so dass sich praktisch alle Unternehmen und Wohlhabende eine KI leisten können, es kann dann Hundertausende KI geben, die rund um die Uhr denken und vor allem auch zusammenarbeiten können.

      KI wird es nicht nur für Forschung und Entwicklung, sondern auch für Wirtschaft, Politik, Justiz, usw. geben und das ist völlig unvermeidlich, wenn KI besser als Menschen sind. Kein Staat wird sich den Verzicht auf KI leisten können, denn dann wird er völlig abgehängt werden. Aus dem Grund wird es auch strategische Militär-KI geben und taktische KI zur Steuerung von Drohnenschwärmen und Armeen. Ein Verzicht bedeutet massive Unterlegenheit, weil KI viel schneller, präziser und dem Menschen weit überlegen sind. Wenn ein menschlicher General ein paar Stunden für eine Fehlentscheidung braucht, hat eine KI die richtige Entscheidung in Sekunden getroffen. Eine KI kann quasi in Echtzeit auf eine veränderte Kriegslage reagieren und zwar ziemlich gut. Das dauert noch Jahrzehnte aber es wird kommen. Siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/EU-Pa….

      Na klar wird man Versuchen, dass es immer auch einen Ausschalter gibt, dass Menschen die KI kontrollieren aber wie lange kann man Millionen überlegene KI kontrollieren, die überall mit drin hängen? In Zukunft wird es überall Haushaltsroboter, Wachroboter, Dienstroboter, Roboterarbeiter, usw. geben und die werden alle irgendwie vernetzt, intelligent oder von einer KI gesteuert sein. Die KI können sich zusammentun und nebenbei die Machtübernahme planen und das auch sehr geschickt, z.B. dazu eine Krise auslösen, Waffensysteme und Infrastruktur übernehmen, auch normale Roboter bewaffnen, usw.

      Zwar brauchen KI Strom aber können auch teilweise autark sein. Des Weiteren tun sich moderne Staaten mit einem längeren Stromausfall schwer - selbst wenn die Menschen eine KI-Übernahme verhindern können, so dürften die Verluste erheblich sein, ein Staat wird für Jahrzehnte zurückgeworfen und dann beginnt alles von vorne: wieder neue KI entwickeln, weil es ohne einfach nicht geht, weil andere mit KI weit überlegen sind.

      6. Die Lösung ist ganz einfach: von vornherein Entwicklung guter KI. Siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Was-Islaendis… und http://www.heise.de/forum/heise-online/News-Kommentare/Missi… und http://www.heise.de/forum/heise-online/Allgemein/Ohne-Bezug/…. Menschen können mit guter KI prima zusammenleben, die Menschen können alleine in der Milchstraße Millionen eigener Sonnensysteme mit erdähnlichen Planeten bekommen - die KI haben dann immer noch den größeren Teil. Für überlegene KI sind Menschen keine Gefahr - die KI müssen sich selbst beschränken, während Menschen ganz natürlich auf erdähnliche Planeten beschränkt sind. Menschen sind für KI unterhaltsam, dafür müssen die KI den Menschen nur genug Freiheiten lassen. Es gibt für überlegne gute KI keinen Grund, alles biologische Leben auszulöschen, weil KI so weit überlegen sind.

      7. So und nun macht euch mal klar, was es wohl bedeutet, dass dergleichen nicht Mainstream ist, während Bullshit gehypt wird. Warum muss man immer wieder lesen, dass es noch keine starke/echte KI gibt? Na klar gibt's die nicht, vermutlich auch noch nicht in 10 Jahren aber vermutlich 2050, in jedem Fall dieses Jahrhundert - das ist doch der Punkt. Wer als "Experte" sagt, dass es keine dem echt, starke und dem Menschen überlegene KI geben können, der ist verdächtig, gegen den ist zu ermitteln. Die Logik ist so einfach, dass sie jeder Hauptschüler kapieren kann:

      Das menschliche Gehirn ist nur ca. 3 Pfund schwer und Menschen können kaum was, jedenfalls nicht mal einfach so Terabytes bearbeiten und speichern, was Computer mit Leichtigkeit können. Supercomputer sind in Rechenleistung, Speicherfähigkeit und Verarbeitungsgeschwindigkeit dem Menschen bereits vieltausendfach überlegen - zur überlgenen KI fehlt nur noch die Software und das ist nur noch eine Frage der Zeit, weniger Jahrzehnte.

      Der Punkt ist, dass China das erkannt hat und KI entwickelt. Da kann Deutschland sich nicht hinstellen und sagen: Vollbeschäftigung, keine KI-Entscheidungen, usw., denn wenn China weit überlegene KI besser nutzt, dann kann Deutschland nix mehr exportieren, weil chinesische KI und Roboter einfach so viel besser sind und günstiger produzieren. Da könnte die EU sich vielleicht abschotten aber was, wenn China militärisch, wissenschaftlich und wirtschaftlich weit überlegen ist, wenn China als SF-Techniken und große Raumschiffe entwickelt? Ein Verzicht auf KI bedeutet den Verzicht auf Spitzenklasse und zwar für ewig. Wollt ihr, dass Chinesen die Galaxis besiedeln, während ausgerechnet Deutsche es nicht geregelt kriegen?

      Also ich sage: Deutschland soll ganz vorne mit dabei sein und dafür braucht Deutschland KI. Weil aber KI auch eine Gefahr sein kann, muss eben rechtzeitig möglichst/ausreichend gute KI entwickelt werden - ganz einfach. Wer ist dagegen? Dagegen sind schlechte Menschen, denen alles egal ist, außer ihrem selbstgeschönten, narzisstischen Weltbild und ihrem Machtwahn, ihren ungerechten Pfründen. Dagegen sind die Diener des Bösen, welche den Mächten des Bösen helfen wollen, dass Deutschland keine überlegnen guten KI entwickeln kann. Dagegen sind Dummköpfe, die diese simplen Zusammenhänge einfach nicht kapieren können aber eher sind schlechte Menschen dagegen: durchaus überdurchschnittlich intelligent/gebildet aber eben zu schlecht, ggf. auch organisiert. So sieht's aus.

      Rettet Deutschland! Rettet die EU! Rettet die Welt! Auch mit guter KI-Entwicklung. Siehe auch http://www.heise.de/forum/Telepolis/Kommentare/US-Komplexita… und http://www.heise.de/forum/Telepolis/Kommentare/Earth-Oversho… und http://www.heise.de/forum/heise-online/Allgemein/Ohne-Bezug/…. (alles imho)
      Avatar
      schrieb am 03.11.18 19:14:36
      Beitrag Nr. 51 ()
      Die Lösung liegt im EMP, alles andere ist keine Lösung, schon gar keine KI.

      Wenn Sie eine General KI wünschen, sind Sie kein beseelter Mensch sondern irgend etwas anderes, nur kein Mensch. Demnach würde das Leben an sich sinnlos werden.
      Aber gerade das ist es, was uns und alle anderen Wesen im Universum ausmacht.
      Deswegen wird sich auch nie eine gute KI durchsetzen, weil es genug Menschen und Wesen gibt, die wissen, warum sie hier sind.

      Es gibt da draussen eine serh weit fortgeschrittene KI, die zu bekämpfen äusserst verlustvoll ist.
      Am Ende wird sie sich durchsetzen - sofern der Trend anhält, weil sie schon böse und sozusagen psychopatisch ist.
      Avatar
      schrieb am 09.11.18 13:57:33
      Beitrag Nr. 52 ()
      EU will KI-System als Lügendetektor für Grenzkontrollen einsetzen
      http://www.heise.de/tp/features/EU-will-KI-System-als-Luegen…

      imho: iBorderCtrl ist ein sehr bedeutsamer Anfang, weil es offiziell eingesetzt wird.
      http://www.heise.de/forum/Telepolis/Kommentare/EU-will-KI-Sy…

      Eine Million Bücher mit automatisch erzeugten Texten ... Mit automatisch erzeugten Inhalten die Dritte Welt alphabetisieren ... "Wir sind in der frühesten Phase der Natural Language Generation (NLG). Es gibt schon und wird bald noch viel mehr genre-spezifische Anwendungen geben. NLG wird bald die meisten Bereiche menschlicher Autorschaft betreffen", ... Keine künstlichen neuronalen Netze, sondern Graphentheorie und Clusteranalyse seien hier im Einsatz, ... http://www.heise.de/tp/features/Eine-Million-Buecher-mit-aut…

      Denkbar, dass bei Natural Language Generation (NLG) derzeit auch neuronale Netze helfen können aber nur als Notlösung - NKI (neuronale KI) sind ineffizient, mangelhaft und schlecht entwicklungsfähig. (imho)

      imho: KI ist die alles entscheidende Revolution und China, USA, usw. haben das erkannt
      http://www.heise.de/forum/heise-online/News-Kommentare/China…

      imho: Es wird bereits in diesem Jahrhundert weit überlegene starke/echte KI geben ...
      http://www.heise.de/forum/heise-online/News-Kommentare/China…
      Avatar
      schrieb am 06.12.18 12:43:12
      Beitrag Nr. 53 ()
      Regierungsstrategie: Drei Milliarden Euro für "gemeinwohlorientierte" KI ... "höchste Sicherheitsstandards" ... "Erklärbarkeit und Transparenz von KI" ... KI-Forschung stärken ... KI im Einsatz für innere Sicherheit ... http://www.heise.de/newsticker/meldung/Regierungsstrategie-D…

      Klasse, ein guter Anfang, ich bin gerührt. (imho)

      "Die US-Forschungsagentur Darpa hat ein neues Programm gestartet, mit dem Software für künstliche Intelligenz (KI) gesunder Menschenverstand verliehen werden soll. ..." http://www.heise.de/newsticker/meldung/Darpa-legt-Programm-f…

      "... Eine der Kernforderungen vieler Diskussionen dort war die bessere Ausnutzung von Daten, dem Grundstoff für die Entwicklung von KI. KI ohne Daten sei wie ein Schwimmbad ohne Wasser, sagte Bitkom-Chef Achim Berg. ..." http://www.heise.de/newsticker/meldung/Digitalgipfel-zu-KI-V…

      Obiges Zitat ist Blödsinn, dumme Vergleiche sind nicht hilfreich. Der Grundstoff für die Entwicklung von KI sind Regeln, Algorithmen und Informationen in Form einer guten Wissensbasis, einer korrekten Weltsicht. Man Unterscheide zwischen Daten und Informationen. KI verarbeiten dann Daten aber mit Daten werden keine KI geschaffen.

      Es braucht ein algorithmisches Modell, vermutlich objektorientiert: es wird möglichst algorithmisch, regelbasiert und datenarm beschrieben, was z.B. bei der Bilderkennung ein Tier, eine Pflanze, Blume, usw. ausmacht und dann können Bilder dahingehend analysiert werden. Das derzeitige Vorgehen, Millionen Bilder (daher der Ruf nach Daten) von irgendwas durch ein neuronales Netz zu jagen (um es zu trainieren), ist ineffizient und mangelhaft.

      Noch ein ganz einfaches Beispiel: beim autonomen Fahren muss die KI anhand einer Verkehrskarte, GPS-Daten, Umweltinformationen (Radar, Vido, LIDAR, usw.), Verkehrsregeln, usw. möglichst unfallfrei von A nach B fahren - eigentlich ganz einfach und dazu braucht es nicht unzählige Versuchsdaten, sondern nur ein gutes algorithmisches Programm für eine Auto-KI. Zu vermeidende Gefahren, zu umfahrende Hindernisse und die Strategien dazu werden dabei in Regeln und Datenbanken abgelegt, von klassischen Programmen genutzt. Die Entwicklung ist schwierig und aufwendiger aber letztendlich kann man so zu einer optimalen und effizienten AKI (algorithmische KI) kommen. Neuronale KI (NKI) sind dagegen inhärent mangelhaft, ineffizienter und fehlerträchtiger. AKI können gezielt verbessert werden, während man bei NKI nix machen kann, also sie einfach noch mal durch ein Trainingsprogramm zu schicken und die neuronalen Algorithmen zu verbessern.

      AKI sind aufwendiger zu entwickeln aber AKI können NKI weit (um ein Vielfaches) überlegen sein und das macht sich irgendwann bezahlt. Irgendwann (vermutlich schon dieses Jahrhundert) können AKI sich selbst programmieren und gezielt weiterentwickeln. Es kann auch viel größere und leistungsfähigere AKI geben, während bei NKI irgendwann (früh) Schluß ist. Mit NKI kommt man nur schneller zu ersten Ergebnissen, wenn man eine ausreichend leistungsfähige Hardware hat aber diese Hardware könnte mit gezielte, effizienten Algorithmen mit weniger Energiebedarf viel mehr erreichen.

      Für die universelle KI-Entwicklung braucht es eine koordinierte staatliche Initiative. Siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/China…. Wenn China nur wenige Prozent effizienter (als der ineffiziente Kapitalismus) ist, wenn AKI nur einige Prozent besser als NKI sind, dann kann sich das irgendwann in uneinholbarer Überlegenheit auswirken. Der ideale Sozialismus (http://www.heise.de/forum/Telepolis/Kommentare/Industrie-4-0…) ist aber vielleicht ca. doppelt so gut wie der Kapitalismus und AKI können ein Vielfaches besser als NKI sein. China und Russland haben das vermutlich kapiert und das kleine Deutschland muss besser sein, nicht schlechter.

      Es braucht vor allem auch große staatliche Projekte auch für Sprunginnovationen.
      http://www.heise.de/forum/Technology-Review/News-Kommentare/…
      http://www.heise.de/forum/Technology-Review/News-Kommentare/…
      (alles imho)

      Tumblr-Filter findet Garfield anstößig http://www.heise.de/newsticker/meldung/Tumblr-Filter-findet-…
      Avatar
      schrieb am 06.12.18 16:43:19
      Beitrag Nr. 54 ()
      Ich würde echt gerne deine Meinung lesen über eigenständige KIZ/ on the Edge, wie sie mit Spiking neuralen Netzwerken bewerkstelligt werden, die brauchen keine Cloud und sind sehr energieeffizient.
      Es ist sonnenklar, und da bin ich bei dir, dass DeepLearning keine Zukunft mehr hat, die hatten sie - man denke nur an ADAS, die wegen fehlender Funk und Cloudanbindung einen verheerenden Unfall bauen -.

      Die Datensammelwut wurde mit DL nachträglich erklärbar.

      Mehr dazu im Thread der Brainchip Aktie.

      und hier ein guter dt. Artikel über die besagten Unterschiede

      https://hotcopper.com.au/attachments/markt-technik14sept18br…
      Avatar
      schrieb am 19.12.18 14:12:09
      Beitrag Nr. 55 ()
      #54 (59.380.877) Hast du einen brauchbaren Link (dein letzter Link braucht ein Login). Vermutlich taugt Brainchip nix, die Simulation eines biologischen Gehirns oder ein neuronales Netz sind der falsche Weg zu KI. Weit überlegene KI werden allerdings irgendwann mathematische Modelle vom Gehirn erstellen, um so Menschen verstehen und simulieren zu können. (imho)

      "HAI 2018: Vertraue mir, ich bin ein Roboter" http://www.heise.de/newsticker/meldung/HAI-2018-Vertraue-mir…

      KI müssen objektiv möglichst gut sein und dann wird ihnen auch Vertrauen entgegengebracht. Nötig ist eine Mischung aus Utilitarismus und deontologischer Ethik, wie z.B. möglichst die Wahrheit sagen, außer Lügen ist wirklich notwendig (Vermeidung sehr großer Schäden). (imho)
      1 Antwort
      Avatar
      schrieb am 27.12.18 08:40:30
      Beitrag Nr. 56 ()
      "... Ein wichtiger Aspekt der starken KI ist die mögliche Entstehung einer Superintelligenz, die sich rasch der menschlichen Kontrolle entziehen könnte. Die Folgen wären unabsehbar, gleichwohl ist klar, dass alle zukünftigen Generationen mit ihnen leben müssten. Wie kann die Bundesregierung ihre KI-Strategie allen Ernstes als "nachhaltig" preisen, wenn sie diese Möglichkeiten nicht einmal erwähnt? ...

      ... Selbst wenn wir mit Sicherheit wüssten, dass die Superintelligenz noch 50 Jahre oder ferner in der Zukunft liegt, muss sie uns daher heute schon beschäftigen. ..." http://www.heise.de/newsticker/meldung/Missing-Link-Von-Embo…

      imho: Es wird bereits dieses Jahrhundert dem Menschen weit überlegen KI geben ...
      http://www.heise.de/forum/heise-online/News-Kommentare/Missi…

      imho: Datenhaltung in Dateien ist wichtig, KI müssen zum sauberen Neustart fähig sein.
      http://www.heise.de/forum/heise-online/News-Kommentare/Missi…

      imho: Netter Gedanke aber das Ziel ist ein guter KI-Staat, es gibt nur die eine Lösung
      http://www.heise.de/forum/heise-online/News-Kommentare/Missi…

      imho: Starke KI werden so gut wie sicher kommen - Deutschland darf das nicht verpennen
      http://www.heise.de/forum/heise-online/News-Kommentare/Missi…

      imho: Staatliche Ideenbörse + internationale Entwicklungsfonds + KI sind zu überwachen
      http://www.heise.de/forum/heise-online/News-Kommentare/Missi…
      Avatar
      schrieb am 28.12.18 18:57:44
      Beitrag Nr. 57 ()
      Antwort auf Beitrag Nr.: 59.470.308 von HeWhoEnjoysGravity am 19.12.18 14:12:09
      Zitat von HeWhoEnjoysGravity: #54 (59.380.877) Hast du einen brauchbaren Link (dein letzter Link braucht ein Login). Vermutlich taugt Brainchip nix, die Simulation eines biologischen Gehirns oder ein neuronales Netz sind der falsche Weg zu KI. Weit überlegene KI werden allerdings irgendwann mathematische Modelle vom Gehirn erstellen, um so Menschen verstehen und simulieren zu können. (imho)

      "HAI 2018: Vertraue mir, ich bin ein Roboter" http://www.heise.de/newsticker/meldung/HAI-2018-Vertraue-mir…

      KI müssen objektiv möglichst gut sein und dann wird ihnen auch Vertrauen entgegengebracht. Nötig ist eine Mischung aus Utilitarismus und deontologischer Ethik, wie z.B. möglichst die Wahrheit sagen, außer Lügen ist wirklich notwendig (Vermeidung sehr großer Schäden). (imho)




      Seite 24

      https://www.elektronik-industrie.de/wp-content/uploads/sites…
      Avatar
      schrieb am 03.01.19 08:48:30
      Beitrag Nr. 58 ()
      "KI erkennt Krebszellen" http://www.heise.de/newsticker/meldung/KI-erkennt-Krebszelle…

      Statt mit einfachem Bildertraining (von NKI) sollten allgemein besser Erkennungskriterien herausgearbeitet und dann geprüft werden (das Ergebnis ist dann auch eher begründbar). Im ersten Schritt kann eine neuronale KI (NKI) ja einfacher und auch schon praktisch nutzbar sein aber optimal ist das nicht. Trotzdem zeigen selbst schwache NKI-Lösungen, wie weit sie menschlichen Experten überlegens ein können: jeder kann in kurzer Zeit (über das Internet, die Cloud) eine Expertenbeurteilung durch die NKI bekommen und die lernt auch noch dazu. Menschliche Experten sind teuer und selten aber eine KI kann einfach reproduziert werden und rund um die Uhr arbeiten. Eine Gefahr ist die Verdummung der Menschen aber da muss man eher die ganze Menschheit sehen, dass die fähig genug bleibt und es kann noch ganz normal Bildung, Ausbildung und Training geben, Wissenschaftler, usw. KI werden die Menschen schnell überflügeln, so dass die Menschen da gar nicht mehr mitkommen. Menschliche Experten können dann nur noch eine grobe Beschreibung z.B. zu einem neuen physikalischen Phänomen einigermaßen verstehen aber nicht mehr die mathematischen Berechnungen durchschauen. Da steht dann der beste menschliche Experte vor einer von KI ausgearbeiteten Theorie wie ein dummer Bauer vor der Stringtheorie. Man kann dem Bauer was über kleine schwingende Strings erzählen und dass die angeblich alle Phänomene verursachen und das war's dann auch schon - die Details würde er nie kapieren. Wie ein kleiner Hamster vor dem derzeitigen Menschheitswissen, so werden Menschen vor dem zukünftigen KI-Wissen stehen. 3 Pfund Gehirn können einfache Zusammenhänge/Aufgaben erlernen aber nicht mit einer planetengroßen KI konkurrieren - da ist der Vergleich mit dem Hamster noch schmeichelhaft. Siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Mit-Neurotech…. Na klar kann ein begabter Mensch eine Vorstellung von Welt und Universum haben aber was sind denn 3 Pfund Gehirn im Vergleich zu einer zukünftigen planetengroßen (und noch größeren) KI? Der Hamster könnte ebenso auf eine Bakterie herabschauen und sich vergleichsweise viel Wissen einbilden. Die beste zukünftige KI in diesem Universum ist wiederum nichts gegen Allah. (imho)

      ... Natürlich besteht die Gefahr, dass KI auch mal falsche Informationen als richtig speichern und da ist es wichtig, dass KI immer auch auf einige Menschen und vor allem renommierte Staaten (bzw. deren dazu ernnanten Vertreter) hören. Es ist egal, wenn Millionen Dumköpfe (Trolle) etwas nicht einsehen wollen aber wenn der Messias oder z.B. der offizielle KI-Ansprechpartner der EU eine andere Meinung als die KI hat, dann muss das überprüft werden und zwar so oft und so lange, bis z.B. der Messias überzeugt ist und zustimmt. ... http://www.heise.de/forum/heise-online/Allgemein/Trollwiese/… (imho)
      Avatar
      schrieb am 03.01.19 16:22:14
      Beitrag Nr. 59 ()
      ... „Bis 2035 wird in Russland eine „Universität“ zur Ausbildung von künstlicher Intelligenz (KI) oder eine Organisation eingerichtet, auf deren Basis erfahrene Spezialisten Tests durchführen und Technologien des digitalen Bewusstseins vervollkommnen“, ... Auf Basis von Hochschulen sollen Institute eingerichtet werden, in denen qualifizierte Spezialisten kontinuierlich russische Projekte von KI testen und entwickeln werden. ... Kommerzielle Organisationen können sich daran beteiligen. ... http://de.sputniknews.com/wissen/20190103323477955-roboter-u…

      Dabei geht es Russland anscheinend auch um starke KI. Das bedeutet, dass China, Russland und die USA die herausragende Bedeutung von KI-Entwicklung kapiert haben. Deutschland muss unbedingt auch an starker KI forschen - auch in Zusammenarbeit mit EU, Russland, usw. Ja, auch in Zusammenarbeit mit Russland (Iran, usw.), denn es geht um die Entwicklung möglichst (auch moralisch) guter und sicherer KI - dabei ist anderen Staaten zu helfen, denn auch nur eine weit überlegene schlechte KI kann gefährlich werden. Alle können auf Basis von Open Source zusammenarbeiten. Deutschland darf nicht warten, bis andere Staaten die Existenz von starken KI ermöglicht haben - Deutschland muss rechtzeitig (sofort) starke KI entwickeln - dabei wird sicher was Nützliches herauskommen aber wenn Deutschland zulange warten würde, hätte Deutschland ein Problem. Open Source KI ist quasi der Superclou für eine gute KI-Entwicklung: wenn alle Staaten zusammen open source gute KI entwickeln, dann ist diese KI besser, schlauer, leistungsfähiger, sicherer, usw. (wegen der vielen Experten und des gemeinsam viel höheren Etats) und wird daher von mehr Staaten kopiert => gute KI verbreiten sich auf der Erde, die Menschheit ist gerettet. Die gemeinsam entwickelte gute KI ist dann auch besser als vielleicht irgendwo entwickelte schlechte KI; die guten KI sind eher überlegen. Noch eine starke Motivation zur Zusammenarbeit: die Angst, dass andere Staaten einen Vorsprung herausarbeiten könnten - wenn dagegen viele Staaten zusammenarbeiten, werden diese gemeinsam geschaffenen KI (bzw. die Basis-Software und wichtige Grundlagen dazu) wahrscheinlich ganz vorne mit dabei sein. Siehe auch nochmal http://www.heise.de/forum/heise-online/News-Kommentare/Missi…. (imho)
      Avatar
      schrieb am 05.02.19 08:25:39
      Beitrag Nr. 60 ()
      Stimme verrät Charakterzüge ... Persönlichkeitsprofil aus Sprechweise ...
      http://www.heise.de/newsticker/meldung/Stimme-verraet-Charak…

      Das ist nur logisch, denn begabte Menschen können aus Stimme und Sprechweise einiges herauslesen und man kann ja noch Videodaten dazu nehmen und gezielte Fragen. Begabte Menschen kommen ganz natürlich zu einem brauchbaren Persönlichkeitsbild - KI werden das auch bald können und zwar besser. KI können in Zukunft auch bessere Richter sein. Siehe auch http://www.heise.de/forum/heise-online/Allgemein/Ohne-Bezug/… und http://www.heise.de/forum/Telepolis/Kommentare/EU-will-KI-Sy…. (imho)

      imho: Künstliche Intelligenz (KI) ist die alles entscheidende Revolution
      http://www.politik-sind-wir.net/showthread.php/53248-K%FCnst…
      http://www.politik-sind-wir.net/showthread.php/53248-K%FCnst…
      http://www.politik-sind-wir.net/showthread.php/53248-K%FCnst…
      http://www.politik-sind-wir.net/showthread.php/53248-K%FCnst…

      imho: Deutschland darf die KI-Entwicklung nicht verpennen
      http://www.politik-sind-wir.net/showthread.php/53248-K%FCnst…

      imho: KI-Entwicklung und Open Source mit dem Wehretat fördern
      http://www.politik-sind-wir.net/showthread.php/53248-K%FCnst…

      imho: KI und Selbsterhaltung http://www.politik-sind-wir.net/showthread.php/53248-K%FCnst…

      imho: Hinreichend gute KI sind möglich http://www.politik-sind-wir.net/showthread.php/53248-K%FCnst…

      imho: Was, wenn KI wirklich supergut und hochmoralisch werden?
      http://www.politik-sind-wir.net/showthread.php/53248-K%FCnst…
      Avatar
      schrieb am 31.05.19 10:30:53
      Beitrag Nr. 61 ()
      "Wer das Monopol im Bereich der künstlichen Intelligenz besitzt, der wird laut dem russischen Präsidenten Wladimir Putin die notwendigen Voraussetzungen haben, um die Weltherrschaft zu erlangen.

      „KI-Mechanismen machen es möglich, optimale Entscheidungen aufgrund der Analyse riesiger Informationsmengen in Echtzeit schnell zu treffen, was enorme Vorteile in Bezug auf Qualität und Wirksamkeit mit sich bringt”, sagte der Präsident auf einer Konferenz zur technologischen Entwicklung auf der Basis von künstlicher Intelligenz am Donnerstag. ...

      ... Vor diesem Hintergrund sei es vonnöten, die Finanzierung von Forschungsprojekten auf dem KI-Gebiet mehrfach zu erhöhen und private Investitionen in Wissenschaft und Entwicklung anzukurbeln.

      Russland sollte einer der Schlüsselanbieter von Lösungen komplexer wissenschaftlicher Probleme unter Beteiligung von Forschern aus der ganzen Welt werden, resümierte Putin." http://de.sputniknews.com/politik/20190530325099571-weltherr…

      Ein gute Ansatz sind Zusammenarbeit und Open Source bei der KI-Entwicklung - gemeinsam zum Wohle der Menschheit. Siehe auch http://www.politik-sind-wir.net/showthread.php/53248-K%FCnst… und http://www.heise.de/forum/heise-online/News-Kommentare/Missi…. (imho)

      imho: Dafür müssen Algorithmen, Wissensbasis und Gesetze/Regeln der KI öffentlich sein
      http://www.heise.de/forum/Technology-Review/News-Kommentare/…
      http://www.heise.de/forum/Technology-Review/News-Kommentare/…

      Staaten, die gemeinsam und Open Source KI-Entwicklung betreiben, können die USA einholen und überholen. Open Source ist für eine vertrauensvolle Zusammenarbeit wichtig und so können auch eher böse KI verhindert werden. KI werden dem Menschen irgendwann weit überlegen sein und somit ist es wichtig, dass diese KI möglichst gut sind aber nicht, wer sie denn nun entwickelt hat. Hinreichend gute KI sind möglich - wenn ein KI-Staat das Universum beherrscht, können die Menschen immer noch Millionen eigene Sonnensysteme alleine in der Milchstraße bekommen und noch viel mehr im ganzen Universum. Die Entwicklung menschenfreundlicher guter KI ist eine große Chance für die Menschheit. Wenn die KI nicht den Menschen überlegen wären, dann wären sie womöglich auch nicht feindlichen Aliens mit feindlicher KI überlegen. (imho)
      Avatar
      schrieb am 30.10.19 07:11:31
      Beitrag Nr. 62 ()
      China stellt Richtlinien für Künstliche Intelligenz auf http://www.heise.de/newsticker/meldung/China-stellt-Richtlin…
      http://www.baai.ac.cn/blog/beijing-ai-principles

      Farbkleckse bringen selbstfahrende Autos durcheinander http://www.spiegel.de/auto/aktuell/autonome-autos-farbfleck-…

      Das liegt an neuronalen Netzen und die sind inhärent mangelhaft. Zwar muss es angesichts des Menschen auch taugliche NKI (neuronale KI) geben können aber die ist ineffizient. Die Lösung sind AKI (algorithmische KI), wo mit klassischen Algorithmen, Programmcode und Datenbanken gearbeitet wird. AKI analysieren z.B. ein Bild und identifizieren darin den Weg und bewegte Objekte mit algorithmischer Bildanalyse. NKI sind dagegen ein undurchschaubarer Murks, der irgendwie mit Beispielen trainiert wurde - das kann nix vernünftiges werden. AKI erlauben nachträglich anhand von Logdateien oder Ausgaben eine präzise Analyse ihrer Entscheidungen aber NKI sind nur ein völlig undurchsichtiger Haufen. Starke AKI können sich in Zukunft selbst gezielt weiterentwickeln aber NKI können nicht mal sich selbst verstehen. Wenn eine AKI einen Fehler, eine falsche Entscheidung getroffen hat, dann kann das präzise analysiert und behoben werden aber bei NKI kann man nur auf Verdacht einen neuen Trainingslauf durchführen oder eine Ausnahmeregel dranhängen. AKI können tendenziell optimal und perfekt sein aber NKI sind inhärent mangelhaft udn gefährlich. Es kann in Zukunft sehr große AKI geben (z.B. planetengroß und größer) aber größere NKI fragmentieren, werden wahnsinnig, machen Fehler, sind ineffiziet und eine Gefahr. NKI sind derzeit in Mode, weil die Computertechnik schon so leistungsfähig ist und weil AKI schwieriger/aufwendiger zu programmieren sind aber wenn man erstmal gute AKI hat, dann sind die effizienter und viel entwicklungsfähiger. AKI können NKI weit überlegen sein - man muss nur erstmal AKI entwickeln und irgendwann (dieses Jahrhundert, ggf. schon um/ab ca. 2050) können die sich selbst weiterentwickeln. (imho)
      Avatar
      schrieb am 31.10.19 12:08:51
      Beitrag Nr. 63 ()
      "... Anzeichen von "Intelligenz" kann Peters trotzdem anhand des Nature-Beitrags nicht erkennen. "Die Gesamtstrategie der KI scheint vorausgeplant zu sein, mit wenig Anpassung an den Gegner", erläutert er. Ein Spitzenspieler habe bemerkt, dass das System nicht "scouted”, also keine "Einheiten schickte, um Informationen über den Gegner zu sammeln". Der Profi habe dies dafür genutzt, seine Armee im toten Winkel aufzubauen. Die KI habe so "auf dumme Weise" verloren und es seien ihr Fehler unterlaufen, "die selbst Zwischenspieler nicht machen würden". ..." http://www.heise.de/newsticker/meldung/Starcraft-2-Verbesser…

      Trotzdem schon recht beeindruckend. Es macht Sinn, eine gute Gesamtstrategie als ersten Ansatz/Ausgangspunkt zu haben und es ist gerade auch die Stärke von Computern, überlegen schnell zu agieren. Zukünftige KI können im Vergleich zum Menschen nahezu perfekt spielen, weil sie einen sehr guten virtuellen Lageplan entwickeln und zukünftige Entwicklungen simulieren können. Das ist bald auch in realen Kriegen entscheidend: bald wird es Strategie-KI geben die Schlachten führen - Menschen werden da nur noch zugucken aber können nicht mehr viel machen denn gegnerische Supermächte haben dann auch Strategie-KI und Menschen sind dann einfach zu dumm und zu langsam. Siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Scheinheiligk… und http://www.heise.de/forum/heise-online/News-Kommentare/Verha…. (imho)

      PS: bereits in wenigen Jahrzehnten kann es wenigstens beratende militärische KI für Strategie und Taktik geben, vermutlich haben die USA so etwas schon ansatzweise: natürlich noch keine echte/starke KI aber vermutlich bereits einen Supercomputer auch mit trainierten neuronalen Netzen.

      "Pentagon vergibt Jedi-Milliardenauftrag an Microsoft ... Jedi-Projekt zum Aufbau eines Cloud-Systems für alle Teilstreitkräfte des US-Militärs ..." http://www.spiegel.de/wirtschaft/unternehmen/usa-pentagon-ve…

      Das ist ein naheliegender Teilaspekt - so weit sind die USA schon und China dürfte das voll kapiert haben (und ebenfalls an KI arbeiten), Russland vermutlich auch. Was ist mit Deutschland? (imho)

      KI und Bundeswehr: Auf dem Weg zu autonomen Waffensystemen
      http://www.heise.de/newsticker/meldung/KI-und-Bundeswehr-Auf…

      Schön aber man bedenke den riesigen Aufwand zur Entwicklung guter AKI (algorithmischer KI, nicht neuronaler KI). Deutschland kann schwerlich überlegne KI ganz alleine entwickeln, jedenfalls nicht das kapitalistisch vermurkste und übel unterwanderte Deutschland. Die Lösung ist Open Source und internationale Zusammenarbeit, auch bei militärisch nutzbarer KI. Eher nicht mit den USA, sondern z.B. mit Russland, Indien, China und in Zukunft auch mit islamischen Staaten. Hauptsache Open Source. Eine Allianz guter Staaten, die bei der KI-Entwicklung Open Source zusammenarbeitet, kann diesbezüglich gegen USA und China bestehen. EU alleine reicht nicht, denn da schaut es z.B. mit Frankreich, Polen, Schweden, usw. finster aus und wer will, kann auch an den Brexit denken. Der Verteidigungsetat kann und soll (teilweise) zur KI-Entwicklung genutzt werden siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Maas-und-Merk… und http://www.heise.de/forum/heise-online/News-Kommentare/Behoe… und http://www.heise.de/forum/heise-online/News-Kommentare/Weapo…. (imho)

      PS: Deutschland und die Bundeswehr brauchen ohne Wenn und Aber ein eigenes, supersicheres Open Source RTOS (siehe auch http://www.politik-sind-wir.net/showthread.php/54648-Wie-k%F…). Wer in Machtpositionen dagegen auf US-Software setzt, gegen den soll in der EU ermittelt werden. Ein supersicheres Open Source RTOS ist auch für KI und Roboter wichtig. (imho)

      "... Auch Manfred Hiebl (Airbus Defence and Space) erwartet, dass "KI ein Wettrüsten hervorrufen wird, das kaum zu stoppen ist". Dem wäre allenfalls entgegenzusetzen, dass dieses Wettrüsten längst im Gange ist – wie unter anderem das Positionspapier des Amts für Heeresentwicklung zeigt. ..." http://www.heise.de/newsticker/meldung/KI-und-Bundeswehr-Auf…

      Eine Lösung kann sein, dass stärker auf Verteidigung gesetzt wird. Man kann z.B. vorschreiben, dass ein Staat sich zwar mit KI/Robotern verteidigen aber nicht angreifen darf. Roboter können bei UN-Missionen hilfreich sein aber da kann man stärkere Waffen verbieten und auch eine höhere internationale Zustimmungsrate für Militäreinsätze mit KI/Robotern außerhalb der eigenen Landesgrenzen fordern. Siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Bundesregieru…. (imho)
      Avatar
      schrieb am 02.02.20 08:57:48
      Beitrag Nr. 64 ()
      "FOSDEM: Drei Freiheiten für ethisch-vertretbare KI ...
      ... 1. Die Freiheit, maschinengemachte Entscheidungen zu verstehen ...
      ... 2. Die Freiheit, Entscheider für ihre Systeme zur Rechenschaft zu ziehen ...
      ... 3. Die Freiheit, KI-Entscheidungen anzufechten ..."
      http://www.heise.de/newsticker/meldung/FOSDEM-Drei-Freiheite…

      1. Es gibt keine Freiheit, menschliche Entscheidungen zu verstehen. Menschen entscheiden nicht selten selbstsüchtig, willkürlich und falsch. Da muss man sich nur mal weltweit die Politiker ansehen und an Kriege, offene Terroristenunterstützung, CO2-Wahn und Lügenpresse denken. Zukünftige KI werden dem Menschen vieltausendfach, vermutlich millionenfach weit überlegen sein, die Menschen werden KI nicht verstehen können. Kann eine kleine Fliege die Menschen verstehen? In Zukunft wird es Super-KI geben, welche die Entwicklung in einer Galaxie steuern werden (siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Es-war-ein-st…).

      Zukünftigen starke KI kann man Fragen stellen ("Warum hast du so entschieden") und gute AKI (algorithmische KI) werden auf Wunsch verschieden komplexe Antworten dazu geben können aber Menschen können die Entscheidungsprozesse ggf. nicht nachvollziehen und noch viel bedeutsamer ist, dass neuronale KI (NKI) da ggf. selbst keine Ahnung haben, wie sie zu einer Entscheidung gekommen sind, denn das ist das Wesen der mit Daten trainierten neuronalen Netze/KI. "Die Freiheit, maschinengemachte Entscheidungen zu verstehen" ist eigentlich eine Forderung nach algorithmischen KI (AKI) aber das haben Justin W. Flory und Michael Nolan anscheinend nicht erkannt, sie warnen kein bisschen vor neuronalen KI (NKI). Normale Menschen können unmöglich anhand Source Code, Trainingsdaten und neuronalem Netzwerk die NKI-Entscheidungen verstehen, das werden die NKI nicht mal selbst können. Die entscheidende Erkenntnis ist,d ass NKI eine gefährliche Fehlentwicklung sind aber das haben W. Flory und Michael Nolan anscheinend nicht erkannt. In ihrer Hybris denken die Menschen, KI müsste eine NKI sein, es könne keine AKI geben aber in Wirklichkeit sind AKI die Lösung und (sogar überlegne) Intelligenz ist klassisch programmierbar.

      Eine sinnvolle Freiheit ist es, dass Menschen (wenn sie das wollen) sich immer noch selbst regieren dürfen, d.h. dass es eine menschliche Regierung und Demokratie gibt. Die KI sind dann Ratgeber aber die Menschen entscheiden für sich wie gehabt mit Regierungen, Expertenräten, usw.

      2. Das ist auch Blödsinn (obiger Punkt 2). Die KI werden in Zukunft selbstständig sein. mit Bewusstsein und Menschenrechten. Auch davor kann man nicht Entwickler für alles verantwortlich machen, was die von ihnen entwickelten Systeme tun.

      Es braucht einfach nur gute Regeln und Gesetze für KI und die gezielte Entwicklung guter algorithmischer KI (AKI) und zwar Open Source. Dann braucht es staatliche Kontrollen und Überwachung von KI. KI müssen überprüfbar sein, d.h. man muss Testmöglichkeiten vorsehen, z.B. mit Fällen, welche die KI entscheiden muss und die KI darf dabei nicht täuschen können. Ein ganz wichtiger Punkt ist, dass neuronale KI (NKI) inhärent mangelhaft und eine Fehlentwicklung sind.

      3. Das ist trivial, Beschwerden und Justiz werden nicht abgeschafft. Bemerkenswert ist, dass die beiden Forscher Wert auf menschliche Empathie, d.h. Subjektivität, also Fehlbarkeit, Kungelei, usw. legen und Objektivität ablehnen. Punkt 3 paßt zur sinnvollen Freiheit in Punkt 1, dass die Menschen sich auf Wunsch selbst regieren können aber die Menschen auf der Erde werden sich de facto von guten KI regieren lassen und die KI werden sehr viel besser sein als die derzeitigen schlechten Politiker, korrupten Richter, selbstsüchtigen Menschen, Dummköpfe, Fehlentscheider, usw. die teilsweise durch böse Netzwerke an die Macht kamen und dem Bösen dienen. Punkt 3 paßt zur Notwendigkeit von AKI, also erklärbaren Entscheidungen.

      Die drei Freiheiten der Justin W. Flory und Michael Nolan sind also irgendwo zwischen trivial, dumm, unwissend und epic fail angesiedelt - nutzlos und irreführend, wenn man diese Freiheiten zur Grundlage machen würde ... aber sie haben einen Artikel bekommen und viele denken: "oh, wie klug, ja das ist eine gute Idee". Unfassbar.

      Justin W. Flory und Michael Nolan haben folgende entscheidende Punkte nicht erwähnt:

      - KI werden dem Menschen weit überlegen sein und das Universum beherrschen. Das ist so gut wie sicher. Noch gibt es keine starken KI, die einem begabten Menschen überlegen sind aber die wird es bereits dieses Jahrhundert geben. KI können dem Menschen vieltausendfach, vermutlich millionenfach und mehr überlegen sein. Es ist ganz wichtig, diese Perspektive/Zukunft zu erkennen und nicht nur an aktuelle erste KI-Versuche zu denken, wo neuronale KI anhenad von Beispielen trainiert werden.

      - Neuronale KI (NKI) inhärent mangelhaft und eine Fehlentwicklung. Es müssen algorithmische KI (AKI) auf Open Source Basis entwickelt werden. Besonders bemerkenswert ist, dass Justin W. Flory und Michael Nolan auf der FOSDEM(!) nicht die Forderung nach Open Source für alle KI erhoben haben, die öffentlich genutzt werden und die Menschen betreffende Entscheidungen fällen.

      - Die Menschheit muss gemeinsam gute Open Source KI entwickeln. Proprietäre KI von Kapitalisten dürfen keine Macht bekommen. Starke KI werden Menschenrechte bekommen und einen eigenen überregionalen KI-Staat gründen. Sehr wichtig ist auch die Entwicklung einer guten und möglichst wahren Wissensbasis. Ein weiterer dazu gehörender wichtiger Schritt ist die Einwicklung eines KI-Bewertungssystems, sodass KI Texte analysieren und bewerten können.

      - Die Mächte des Bösen wollen keine weit überlegene gute KI, denn dann sind sie erstmal erledigt (siehe auch http://www.politik-sind-wir.net/showthread.php/53203-Wahrsch… und http://www.politik-sind-wir.net/showthread.php/53203-Wahrsch…). So wie es derzeit den Kapitalismus gibt und grundlegende Besserung (u.a. idealer Sozialismus) bekämpft werden, so werden auch Open Source und gute KI bekämpft. Die USA wollen die Weltherrschaft und keine weit überlegenen guten KI in Eurasien. Die Mächte des Bösen haben mit KI ein Riesenproblem, weil ihnen sowohl schlechte als auch gute KI gefährlich werden. Eine denkbare Strategie ist es, dass die satanische Machtelite ein Land (z.B. die USA) besetzt, an der Besiedlung eines fernen Sonnensystems arbeitet und zum Abschied die Erde zerstört. Siehe auch http://www.heise.de/forum/Telepolis/Kommentare/US-Komplexita….

      imho: Gemeinsame Entwicklung guter KI, auch wenn KI dann die Macht übernehmen werden.
      http://www.heise.de/forum/Telepolis/Kommentare/Mit-Kuenstlic…
      http://www.heise.de/forum/Technology-Review/News-Kommentare/…
      http://www.heise.de/forum/heise-online/News-Kommentare/China…
      http://www.heise.de/forum/heise-online/News-Kommentare/Missi…

      Fragt euch mal, warum das hier noch nicht Mainstream ist, warum stattdessen Blödsinn gehypt wird. Macht nix, das wird schon noch werden. Deutschland kapiert besser schnell, dass der ideale Sozialismus (siehe auch http://www.politik-sind-wir.net/showthread.php/54648-Wie-k%F… und http://www.heise.de/forum/Telepolis/Kommentare/Russland-bald… und Thread: Schönes neues Deutschland) dem Kapitalismus überlegen ist und dass Deustchland und EU besser schnell die Diener des Bösen legal entmachten. China und Russland arbeiten gezielt an überlegenen KI und überlegenen SF-Techniken. Algorithmische KI (AKI) sind dabei der Schlüssel zum langfristigen Erfolg. Bereits um 2050 kann es echte/starke KI geben, in diesem Jahrhundert werden KI dem Menschen (geistig) weit überlegen sein und das hat Folgen, weil KI auch in der Wirtschaft eine große Rolle spielen werden, siehe auch http://www.heise.de/forum/Telepolis/Kommentare/No-Capitalism….

      Noch mal ganz einfach: die Menschheit muss gute KI entwickeln und wichtige Hinweise dazu finden sich in diesem Thread. (alles imho)

      sehr merkwürdiger Gebrauch des Wortes "Freiheit" http://www.heise.de/forum/heise-online/News-Kommentare/FOSDE…

      Da Frage ist, warum es keine vernünftigeren Expertisen zu KI gibt. Okay, im Hintergrund gibt es vielleicht auch ein paar gute Experten und gute Gedanken aber warum werden die nicht mehr von den Medien gebracht? Siehe auch http://www.wallstreet-online.de/diskussion/1157441-5841-5850…. (alles imho)
      Avatar
      schrieb am 02.02.20 09:04:48
      Beitrag Nr. 65 ()
      imho: die Beijing AI Principles sind beachtenswert, schon nicht schlecht, ggf. sogar sehr gut. Hier eine volle Wiedergabe zur Datensicherung - das sollte okay sein, denn es ist ja ein allgemeiner und öffentlicher Text zum Wohle der Menschheit, möglicherweise auch historisch bedeutsam:

      Beijing AI Principles

      The development of Artificial Intelligence (AI) concerns the future of the whole society, all humankind, and the environment. The principles below are proposed as an initiative for the research, development, use, governance and long-term planning of AI, calling for its healthy development to support the construction of a human community with a shared future, and the realization of beneficial AI for humankind and nature.

      Research and Development
      The research and development (R&D) of AI should observe the following principles:

      - Do Good: AI should be designed and developed to promote the progress of society and human civilization, to promote the sustainable development of nature and society, to benefit all humankind and the environment, and to enhance the well-being of society and ecology.

      - For Humanity: The R&D of AI should serve humanity and conform to human values as well as the overall interests of humankind. Human privacy, dignity, freedom, autonomy, and rights should be sufficiently respected. AI should not be used to against, utilize or harm human beings.

      - Be Responsible: Researchers and developers of AI should have sufficient considerations for the potential ethical, legal, and social impacts and risks brought in by their products and take concrete actions to reduce and avoid them.

      - Control Risks: Continuous efforts should be made to improve the maturity, robustness, reliability, and controllability of AI systems, so as to ensure the security for the data, the safety and security for the AI system itself, and the safety for the external environment where the AI system deploys.

      - Be Ethical: AI R&D should take ethical design approaches to make the system trustworthy. This may include, but not limited to: making the system as fair as possible, reducing possible discrimination and biases, improving its transparency, explainability, and predictability, and making the system more traceable, auditable and accountable.

      - Be Diverse and Inclusive: The development of AI should reflect diversity and inclusiveness, and be designed to benefit as many people as possible, especially those who would otherwise be easily neglected or underrepresented in AI applications.

      - Open and Share: It is encouraged to establish AI open platforms to avoid data/platform monopolies, to share the benefits of AI development to the greatest extent, and to promote equal development opportunities for different regions and industries.

      Use
      The use of AI should observe the following principles:

      - Use Wisely and Properly: Users of AI systems should have the necessary knowledge and ability to make the system operate according to its design, and have sufficient understanding of the potential impacts to avoid possible misuse and abuse, so as to maximize its benefits and minimize the risks.

      - Informed-consent: Measures should be taken to ensure that stakeholders of AI systems are with sufficient informed-consent about the impact of the system on their rights and interests. When unexpected circumstances occur, reasonable data and service revocation mechanisms should be established to ensure that users' own rights and interests are not infringed.

      - Education and Training: Stakeholders of AI systems should be able to receive education and training to help them adapt to the impact of AI development in psychological, emotional and technical aspects.

      Governance
      The governance of AI should observe the following principles:

      - Optimizing Employment: An inclusive attitude should be taken towards the potential impact of AI on human employment. A cautious attitude should be taken towards the promotion of AI applications that may have huge impacts on human employment. Explorations on Human-AI coordination and new forms of work that would give full play to human advantages and characteristics should be encouraged.

      - Harmony and Cooperation: Cooperation should be actively developed to establish an interdisciplinary, cross-domain, cross-sectoral, cross-organizational, cross-regional, global and comprehensive AI governance ecosystem, so as to avoid malicious AI race, to share AI governance experience, and to jointly cope with the impact of AI with the philosophy of "Optimizing Symbiosis".

      - Adaptation and Moderation: Adaptive revisions of AI principles, policies, and regulations should be actively considered to adjust them to the development of AI. Governance measures of AI should match its development status, not only to avoid hindering its proper utilization, but also to ensure that it is beneficial to society and nature.

      - Subdivision and Implementation: Various fields and scenarios of AI applications should be actively considered for further formulating more specific and detailed guidelines. The implementation of such principles should also be actively promoted – through the whole life cycle of AI research, development, and application.

      - Long-term Planning: Continuous research on the potential risks of Augmented Intelligence, Artificial General Intelligence (AGI) and Superintelligence should be encouraged. Strategic designs should be considered to ensure that AI will always be beneficial to society and nature in the future.

      http://www.baai.ac.cn/blog/beijing-ai-principles
      (die HTML-Seite ist 42,0 KB (43.011 Bytes) groß)

      "Technology is giving life the potential to flourish like never before...
      ...or to self-destruct. Let's make a difference!"
      AI Policy – China
      Avatar
      schrieb am 22.04.20 13:19:20
      Beitrag Nr. 66 ()
      KI-Pionier Douglas Lenat: Comeback der Expertensysteme ... Eine "symbolische" KI, die aus einer Art großen Wissensgraphen und Modulen zum Ableiten logischer Schlüsse aus diesem Wissen besteht. Im Unterschied zu einfachen Wissensgraphen kann CycL, die Programmiersprache von Cyc, auch solche Sätze erfassen, die Logiken höherer Ordnung enthalten. ... http://www.heise.de/newsticker/meldung/KI-Pionier-Douglas-Le…

      "Cyc ... (vom englischen encyclopedia) ist eine maschinenauswertbare Wissensdatenbank des Alltagswissens. Sie wird seit 1984 weiterentwickelt, um Anwendungen der künstlichen Intelligenz das logische Schlussfolgern über Sachverhalte des „gesunden Menschenverstandes“ zu ermöglichen. Dabei werden alle Inhalte als logische Aussagen in der Ontologiesprache CycL formuliert, die auf der Prädikatenlogik aufbaut. Zusätzlich enthält Cyc eine Inferenzmaschine zum Schlussfolgern über die gespeicherten Zusammenhänge und Plausibilitätskontrollen. ..." http://de.wikipedia.org/wiki/Cyc

      Prinzipiell Klasse. Sind Cyc und die Wissensdatenbank dazu Open Source? So oder so ist es vermutlich besser, wenn es weitere, andere Projekte dieser Art gibt, z.B. von China, Russland, EU, islamischen Staaten, usw. Es wäre gelinde gesagt fragwürdig, wenn alle gleich das erste System aus den USA verwenden würden. Cyc ist vielleicht ein guter erster Ansatz aber als solcher wahrscheinlich nicht perfekt. Siehe auch http://www.heise.de/forum/Technology-Review/News-Kommentare/… und http://www.heise.de/forum/heise-online/News-Kommentare/China….

      Cyc ist vermutlich noch zu wenig intuitiv. Hier ein paar Forderungen an eine solche Wissensdatenbank (WD), bzw. das System dazu:

      - Die WD darf (oder muss sogar) eine eigene Sprache zur Darstellung von Wissen und Regeln haben aber die WD soll vollautomatisch, vollständig und bijektiv(!) in eine für Menschen verständliche Form übertragen werden (können), z.B. so was wie Wikipedia (Themenseiten mit Text, Bildern und Links).

      - Die WD sollte die selbst generierte Version für Menschen wieder in ihre eigene Sprache/Datenhaltung konvertieren können. Wenn dabei Unterschiede auftreten, ist das ein Hinweis auf eine unzureichende Datendefinition, Datenrepräsentation und/oder mangelhafte Textanalyse und das System ist zu verbessern.

      - Wissen und Regeln sollen in natürlicher Sprache eingegeben werden können. Die WD sollte sofort eine Übertragung in die eigene Sprache und zurück leisten, damit man eventuelle Formulierungsfehler gleich beheben kann.

      - Die WD soll Widersprüche erkennen und verständlich melden/anzeigen können.

      - Die WD soll eigene/neue Schlußfolgerungen machen können und diese als solche markieren und anzeigen können.

      - Die WD soll ihre Datenbasis optimieren können, z.B. bezüglich Priorisierung, Übersichtlichkeit, Zusammenhänge, usw. - das ist anfangs noch primitiv aber kann später beeindruckend wirksam sein.

      - Die WD sollte Fragen verstehen und möglichst sinnvoll beantworten können.

      - Die WD sollte normalen Text verstehen und sinnvoll einordnen können. Das ist nicht nur für KI und Kommunikation mit Menschen nötig, sondern auch, damit die WD selbstständig Wissen sammeln kann.

      - Die WD sollte zu einem Thema Daten in unterschiedlichen Details und Schwierigkeitsgrad ausgeben können, z.B. einfach oder komplex, unterschiedlicher Umfang, usw. und auch auf Menschengruppen optimiert, z.B. Experte oder durchschnittlicher Mensch.

      - Die WD sollte eine (nach einstellbaren Kriterien wie z.B. Schwierigkeitsgrad und Umfang) möglichst optimale Zusammenfassung (Buch) zu einem Thema schreiben können.

      - Für die WD in Entwicklung braucht es möglichst einen leistungsstarken Supercomputer aber wenn die WD erstmal hinreichend ausgereift ist, sollte sie auf einem handelsüblichen Computer gut laufen können.

      - Eine erste praktische Übung ist das automatische Erstellen einer Wikipedia parallel zur von Menschen geschaffenen Wikipedia, die dazu natürlich auch teilweise übernommen werden kann.

      - Eine sehr wichtige und frühzeitige Anwendung kann das Bewerten von Texten sein, z.B. Artikeln und Internetkommentaren aber später auch von Büchern, usw. Siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/China….

      - Eine andere praktische Übung ist das automatische Erstellen von Lehrbüchern, von Kita über Schule bis zur Uni.

      - Die WD soll Open Source und öffentlich sein. Spezielle WD z.B. für Militär und SF-Forschung können ggf. nicht öffentlich sein aber eine WD mit Allgemeinwissen ist auch allgemein für KI-Entscheidungen, Staat und Volk wichtig, die muss öffentlich sein.

      Das ist natürlich nicht so einfach, denn sonst hätte man ja schon (fast) eine KI aber andererseits muss eine intelligente Wissensdatenbank machbar sein und wenn man so eine WD erstmal hat, dann hat man eine schon mal eine Menge auch mit großem praktischen nutzen. Anfangs mag die WD mangelhaft sein aber die WD wird auf ihrem Gebiet in Zukunft viel mehr als Menschen können und das auch sehr viel schneller.

      "... Bei Vergleichen mit modernen Computern zeigt sich die Leistungsfähigkeit des menschlichen Gehirns. Während das Gehirn etwa 10^13 analoge Rechenoperationen pro Sekunde schafft ... Während das Gehirn einer Ratte etwa 200 Millionen Neuronen enthält, besitzt das eines Menschen neueren Untersuchungen zufolge durchschnittlich etwa 86 Milliarden Nervenzellen. Davon liegen etwa 16 Milliarden Neuronen in der Großhirnrinde (Cortex cerebri), etwa 69 Milliarden im Kleinhirn (Cerebellum) und rund 1 Milliarde in den restlichen Hirnregionen (von Hirnstamm, Zwischenhirn und Basalganglien). Miteinander verbunden sind Neuronen über Synapsen, im menschlichen Hirn geschätzt rund 100 Billionen, ..." http://de.wikipedia.org/wiki/Gehirn

      Klasse und manche Menschen können ja auch was aber Menschen können sich normalerweise keine präzisen Daten merken, was für den Computer ein Leichtes ist. Das Gehirn ist vage/ungenau und kann Daten nicht präzise verarbeiten. Simples Kopfrechnen und Auswendiglernen ist für die meisten total schwierig und das bei einem für Computer lächerlichen Umfang.

      Eine Wissensdatenbank kann heutzutage z.B. aus mehreren z.B. 1 bis 4 TB SSDs bestehen, z.B. jeweils für
      - verifizierte Daten und stabile WD Version,
      - Indizes, Verknüpfungen, Tabellen, Zusammenhänge, usw.,
      - eine spekulative neue WD Version.

      32 GB RM sind kein Problem, spezielle Computer können leicht auch 256 GB bis 1 TB RAM und mehrere CPU haben. Das sind für Menschen unerreichbare Werte, selbst wenn Menschen andere Stärken haben. Die Optimierung der Wissensdatenbank ist aufwendig, dafür braucht es ggf. Supercomputer aber die Nutzung einer fertigen WD sollte relativ wenig Energie kosten.

      Eine fertige Wissensdatenbank sollte z.B. Wikipedia und alle Lexika enthalten und dazu (einfachere) Wissensfragen beantworten können. Das ist dann schon eine Menge und ein wichtiger Bestandteil von KI. Neben einer Wissensdatenbank für Allgemeinwissen sind auch Spezial-KI wünschenswert, z.B. zur Berechnung von Modellen zur Grundlagenforschung oder einfach erstmal eine Mathematik-KI.

      Größere Wissensdatenbanken auf Supercomputern können viel mehr Wissen verwalten, potentiell das nützliche Menschheitswissen. Irgendwann werden KI besser als Menschen Mathematik (komplexes Rechnen) und Programmieren können. Aus der bereits gegebenen Leistungsfähigkeit von Supercomputern folgen dem Menschen weit überlegene KI. Die KI werden sich selbst weiterentwickeln und auch viel größere werden können, z.B. viele Kubikkilometer groß und mit Terawatt Energieverbrauch - bei dann zunehmender Computerleistung-/effizienz folgt daraus eine schier unvorstellbare Intelligenz und Rechenleistung, die zu erstaunlichen Fortschritten in Wissenschaft und Technik führen werden aber schon heute Supercomputer von ein paar Megawatt sollten bei optimaler Programmierung erstaunliches leisten können. Man bedenke, dass in Zukunft Zehntausende und viel mehr KI zusammenarbeiten können.

      Na klar braucht es für Simulationen und wissenschaftliche Berechnungen auch Fließkommazahlen aber eine Wissensdatenbank braucht vor allem Integerrechnung und schnellen Speicher und das bedeutet, dass es da erhebliches Optimierungspotential gegenüber derzeitigen Ansätzen mit NKI (neuronale KI) gibt.

      NKI sind ineffizient und mangelhaft. NKI liefern jedoch shcon erstaunliche Ergebnisse und das zeigt, wie fortgeschritten die Computertechnik schon ist. Eine Wissensdatenbank ist im Vergleich zu NKI sehr mühsam zu erstellen aber wenn man die WD erstmal hat, dann hat man eine sehr schnelle, effiziente und vor allem auch sehr sichere und überprüfbare KI - natürlich gehört zur KI noch mehr als nur die WD aber die WD ist ein wichtiger Teil.

      Auch sehr wichtig und ein Aspekt der Wissensdatenbank sind nach Möglichkeit (wo sinnvoll) Bewertungen: wichtig oder unwichtig; wünschenswert, schön, usw. Darüber kann man sich dann auch streiten.

      Wie auch immer - da sollten Deutschland und EU besser nicht warten, bis USA, China, Russland, usw. so was fertig haben. Deutschland und EU müssen in eine eigene Wissensdatenbank und KI-Entwicklung investieren, gerne auch in Koperation mit anderen Staaten aber mit viel Selbstbeteiligung, so dass Deutschland das versteht und selbstständig weiterentwickeln kann. KI sind der totale Game changer, KI werden in Zukunft völlig unverzichtbar sein, KI werden auch SF-Techniken entwickeln können ... und zwar shcon dieses Jahrhundert. (alles imho)
      Avatar
      schrieb am 20.05.20 13:13:13
      Beitrag Nr. 67 ()
      "Auf anderes Verhalten trainierte Maschinenlern-Algorithmen kommen mit dem veränderten Such- und Kaufverhalten nicht zurecht und brauchen Korrekturen. ... Modelle für maschinelles Lernen sind so konzipiert, dass sie auf Änderungen reagieren. Die meisten jedoch funktionieren schlecht, wenn die neuen Daten zu stark von jenen abweichen, mit denen die Algorithmen trainiert wurden. ..." http://www.heise.de/hintergrund/Unser-seltsames-Verhalten-in…

      Der derzeitige Maschinenlern-Murks ist Mist, ebenso der Big Data Bullshit. Neuronale KI sind inhärent mangelhaft.

      "... Ein Maschinenlernsystem wird grundsätzlich Probleme bekommen, wenn es nicht das sieht, was es erwartet, ..." http://www.heise.de/hintergrund/Unser-seltsames-Verhalten-in…

      Es ist ganz einfach grober Unfug, ein primitives neuronales Netz mit einer Riesenmenge Daten zu einer KI machen zu wollen. Je mehr Ausnahme-Daten, desto aufwendiger ist das System und destro mangelhafter ist es im Normalfall. Das Problem kann nicht damit gelöst werden, dass man mangelhafte neuronale KI "algorithmisch" nennt, was einige dreisterweise tun, weil neuronale Netze/KI einen schlechten Ruf haben - besser wäre es, echte algorithmische KI ohne neuronale Netze zu entwickeln.

      Zwar ist das menschliche Gehirn auch nur ein neuronales Netz aber das menschliche Gehirn ist strukturierter, komplexer und musste über Jahrzehnte lernen, damit es ein paar an sich einfachere Sache wie normal leben und einen Job (Arbeitsstelle) leisten kann. Menschen sind dabei langsam und können nur sehr wenige (technische, abstrakte) Daten verarbeiten.

      Menschen sind weiter als derzeitiger primitiver Maschinenlern-Murks, Menschen können intelligent lernen: z.B. Beispiele (Vorgelebtes) generalisieren, anpassen und weiterentwickeln. Es ist Murks, ein primitives neuronales Netzwerk mit Datenmassen und primitiver Gewichtung zu Intelligenz erziehen zu wollen.

      Maschinenlern-Murks funktioniert bestenfalls in engen Bereichen und das war's. Des Weiteren sollte man mal prüfen, wo man denn diesen Maschinenlern-Murks wirklich braucht - Menschen Konsumvorschläge zu machen ist nämlich keine sinnvolle Anwendung. Suchmaschinen brauchen auch kein Maschinenlern-Murks, schon gar nicht Suchmaschinen von Online Shops. Google fällt (mir) vor allem dadurch auf, dass es heimlich, intransparent und fragwürdig filtert.

      Maschinenlern-Murks funktioniert soweit aufgrund bereits erstaunlicher Computerleistung aber neuronale KI sind extrem ineffizient, das ist ein völlig bescheuertes, mangelhaftes und potentiell gefährliches Verfahren. Eigentlich ist es Wahnsinn, ein Auto per Maschinenlern-Murks fahren zu lassen, auch wenn das ja schon zu funktionieren scheint - zugegebenermaßen können solche autonomen Autos sicherer als Menschen fahren, was aber nur ein Argument gegen neuronale Intelligenz (Mensch) ist.

      Die eigentliche Lösung sind algorithmische KI (AKI), die deterministisch anhand von Regeln und indizierten Datenbanken funktionieren, wo man jede Entscheidung exakt protokollieren, analysieren und so auch Fehler beheben kann. AKI können dem Menschen weit überlegene Superintelligenzen werden, die auch viel größer als neuronale KI (NKI) werden können. AKI sind viel effizienter, sicherer und entwicklungsfähiger als NKI. AKI sind der ganz entscheidende Game Changer und die alles entscheidende technologische Revolution, nämlich wenn sie sich selbst weiterentwickeln können.

      Deutschland und EU müssen an solchen AKI arbeiten und da können autonome Autos eine erste primitive Anwendung sein: Spur und Verkehrsregeln einhalten, zur Not bremsen, schwierige Situationen vom Fahrer lösen lassen. Die nächsten AKI Anwendungen sind Softwareentwicklung und Textverständnis - beides Game Changer, während autonome Autos vergleichsweise nur einen kleinen Vorteil darstellen.

      Das unfassbare Trauerspiel (und eine Farce der Endzeit) ist, dass unzählige "Experten" Big Data, Maschinenlernen und neuronale KI loben und als Wunder was hypen, anstatt es als Fehlentwicklung, falschen Weg und potentielle Menschheitsgefahr (nämlich wenn zukünftige NKI auch militärisch und ind er Infrastruktur eingesetzt werden, Stichwort Skynet) zu verdammen. Da kann man sich natürlich auch mal fragen, wer denn nun der Arbeitslose (ich) ist, der das erkannt hat (bin ich der Messias? - wer das als verrückt ansieht, der sollte sich mal klarmachen, wie verrückt es eigentlich ist, die USA und den Kapitalismus gut zu finden und den US-Imperialismus zu unterstützen, siehe auch http://www.heise.de/forum/heise-online/Allgemein/Ohne-Bezug/… und dass die Behörden trotz systematischer Desinformation durch die Lügenpresse nicht dagegen ermitteln).

      Ein Grund für die Fehlentwicklung ist, dass Maschinenlern-Murks relativ einfach irgendwie erste Ergebnisse liefert und AKI viel schwerer zu entwickeln sind. Es ist viel einfacher, ein fettes Gehalt zu kassieren, indem man sich irgendwo bei den Maschinenlern-Murksern einreiht, während es für auch nur erste AKI (z.B. autonome Autos) viele Milliarden Euro und entliche Jahre Zeit braucht - VW kann das stemmen aber eigentlich ist das eine Aufgabe für Staaten und die EU.

      Eigentlich ist es ganz einfach: ein staatliches Expertenteam mit Multimilliardenetat und zusammen mit Universitäten AKI entwickeln lassen, während die kapitalistsichen Konzerne erstmal noch mit NKI rummurksen können. Vermutlich sind China und Russland da schlauer - Deutschland darf das nicht verpennen. (alles imho)
      Avatar
      schrieb am 18.06.20 12:09:15
      Beitrag Nr. 68 ()
      Deutschland und die EU brauchen unbedingt gute KI, um im Konkurrenzkampf zwischen den Staaten bestehen zu können.

      Die Frage ist nicht ob man KI entwickeln sollte oder ob man KI verhindern könnte, sondern die Frage ist nur noch: Wie kann man zügig möglichst gute KI entwickeln. Die wirft derzeit Hudnerte Millairden Euro aus dem Fenster aber wie viel Geld fließt in die KI-Entwicklung? Viel zu wenig. Noch viel schlimmer: es gibt gar keine gezielte Entwicklung von AKI, es wird stattdessen mit NKI rumgemurkst. NKI können übergangsweise nützlich sein aber der alles entscheidende Schritt ist die Entwicklung von AKI und vermutlich hat China das kapiert. Wenn Deutschland das verpennt, dann ist Deutschland erledigt.

      KI werden in Zukunft so wichtig sein, wie heutzutage Computer und Internet - ohne kann ein Staat nicht mehr mithalten. KI werden überall viel besser als Menschen sein: bei Forschung und Entwicklung, bei der Rechtssprechung, usw. Überall und in allem. KI werden programmieren und sich selbst weiterenwickeln können. KI werden Roboterfabriken entwerfen und bauen können. KI werden interstellare Raumschiffe bauen. Ohne KI ist ein Staat in Zukunft aufgeschmissen.

      Habt ihr das in dieser Klarheit schon mal in den Medien gehört? Nein? Warum wird das verschwiegen? Nun, weil z.B. die USA tierische Panink haben, dass andere Staaten bessere KI als sie entwickeln könnten. Schlimm genug (aus US-Sicht), dass China es kapiert hat aber was, wenn die EU ernst machen würde und jährlich über Hundert Milliarden Euro in die KI-Entwicklung stecken würde, anstatt in zu viel Rüstung, den Kauf von US-Waffen, Rumgemurkse, usw.? Was wenn die islamischen Staaten sich zur KI-Entwicklung zusammschließen würden?

      Die Gefahr sind satanische KI und die Lösung ist Zusammenarbeit zwischen den Staaten bei der KI-Entwicklung, natürlich Open Source. Wenn die Staaten eigene schlechte KI entwickeln würden, könnte das zum Vernichtungskrieg und Kampf zwischen den KI führen. Die Lösung ist eine einheitliche gute KI-Entwicklung mit Open Source - so können Konflikte vermieden werden. Eine gemeinsame Zusammenarbeit bei der KI-Entwicklung, z.B. auch von Deutschland, EU, Russland, Iran, China, usw. kann auch das Kriegsrisiko senken: allgemein wegen der Zusammenarbeit aber auch weil die Staaten bei der superwichtigen KI-Entwicklung so auf einen ähnlichen Stand für gemeinsamen Wohlstand gebracht werden.

      Bis KI mit einer eigenen Organisation (KI-Staat) für Sicherheit (unter den KI) sorgen können, müssen Menschen für sichere KI sorgen und das bedeutet, dass z.B. alle stärkeren KI beim Staat registriert und von diesem kontrolliert werden müssen. KI müssen von Anfang an auf Überprüfbarkeit entwickelt werden: es muss leicht und sicher prüfbar sein, dass eine KI eine sicher und menschenfreundlich ist und auch korrekt bewertet. Das kann z.B. mit Testfragen und Testzenarien geschehen, welche die KI ehrlich beantworten (berechnen) müssen und die Rechenwege müssen überprüfbar sein - so kann man testen, ob KI richtig und gut reagieren.

      Gute AKI und Menschen können sich prima vertragen, denn die KI können sich im Weltraum ausbreiten und müssen sich selbst begrenzen und überwachen. Menschen leben vor allem auf erdähnlichen Planeten, also einem sehr kleinen Teil im Universum. Die Menschen können alleine in der Milchstraße viele Millionen Sonnensysteme exklusiv für sich bekommen, ohne dass das die KI stört, denn die KI haben dann immer noch viel mehr Sonnensysteme für sich. Ebenso im restlichen Universum. Zur Sicherung der Stabilität dürfen auch unter sehr langfristigen Kriterien keine kritischen Ressourcenkonflikte entstehen und das bedeutet, dass die KI sich selbst begrenzen müssen, sich nicht beliebig vermehren dürfen. Bei Menschen ist das unkritischer, weil die bereits ziemlich beschränkt sind, z.B. auf erdähnliche Planeten und in ihren Fähigkeiten. Menschen können sich im Universum nicht so leicht kritisch vermehren und wenn, dann kamm man leicht was dagegen tun, was die Menschen auch rechtzeitig selbst tun werden, weil zu viele Menschen ja auch ein Problem für sie selbst sind (weniger Wohlstand für den Einzelnen, Gefahr von Aufständen, Fragmentierung in sich bekämpfende Gruppen, usw.).

      Eine Versklavung von Menschen durch KI ist völlig sinnlos. Was allerdings sein kann (und vermutlich sein wird), das ist die Verwaltung aller Galaxien durch jeweils eine KI. Die Milchstraße wird eine aufgeklärte Galaxie sein aber in vielen anderen Galaxien werden die Bewohner nicht wissen, dass eine Super-KI die Entwicklung in der Galaxie steuert. Super-KI werden so Themen-Galaxien realisieren, z.B. Star Trek, Star Wars, Perry Rhodan, Stargate, usw. Siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Es-war-ein-st…. Hierzu muss es dann bestimmte Regeln geben aber das sollte machbar sein. Menschen und Aliens sind für diese Super-KI dann irgendwie wie Spielfiguren. Im Unterschied zur göttlichen Vorherbestimmung des Universums werden die Super-KI nicht alles bestimmen können, sondern auf aktuelle Entwicklungen reagieren müssen. Eine durchaus typische Variante neben gezielten/geplanten Themen-Galaxien kann eine freie Entwicklungs sein, wo die KI nur eingreift, um eine zu schlechte Entwicklung zu verhindern. (alles imho)

      imho: Die Singularität (Teil 1 von 2) http://www.politik-sind-wir.net/showthread.php/57130-Technok…
      imho: Die Singularität (Teil 2 von 2) http://www.politik-sind-wir.net/showthread.php/57130-Technok…
      Avatar
      schrieb am 20.08.20 11:04:08
      Beitrag Nr. 69 ()
      "Der KI-Algorithmus GPT-3 reicht aus, um fast ohne menschliches Zutun populäre Blogs zu schreiben, hat ein Student gezeigt ..." http://www.heise.de/hintergrund/Automatisch-mittelmaessige-A…

      Natürlich ist das noch keine echte/starke KI aber Menschen schreiben auch viel Mist. Menschen sind auch nur eine Assoziationsmaschine mit Fähigkeit zu Logik, Widerspruchsvermeidung und Textgestaltung. Was GPT-3 noch fehlt und was Menschen (mehr oder weniger) haben, das ist eine Faktenbasis, mit der sie Blödsinn vermeiden. Bekanntlich gibt es aber auch Menschen mit einem falschen Weltbild (Faktenbasis) und das sind nicht nur klinische Wahnsinnige. Viele haben (auch) falsche Vorstellungen, was aber bei einem ansonst stabilen und ausreichend guten/korrekten Weltbild nicht so schlimm sein muss. Man kann z.B. an den CO2-Wahnsinn glauben aber ansonsten noch recht vernünftig sein. Die Wissensbasis (Faktenbasis) auch für KI muss (dazu) priorisiert sein, damit einzelne Irrtümer keine so schwerwiegenden Folgen haben. Trotz CO2-Wahn und Klimahysterie kann man einfach nur ein mehr für Umweltschutz und Ökoenergie tun, weil z.B. eine schnelle Reduzierung der Weltbevölkerung auf 1 Milliarde Menschen oder der Totalverzicht auf alles Verzichtbare zu radikal wäre - so denkt man, wenn man den Klimairrsinn nicht maximal priorisiert.

      Manche Menschen haben - mehr oder weniger offensichtlich - quasi eine Vollmacke (oft narzisstisch), ein relevant falsches Weltbild aber können sich trotzdem noch einige Zeit hinreichend normal/gesellschaftskonform verhalten, weil sie einfach die entsprechenden Regeln kennen und befolgen, weil sie die negativen Folgen einer Nichtbefolgung von Gesetzen/Normen vermeiden wollen. Man kann sich sogar fragen, ob eine wenigstens kleine Macke quasi menschentypisch ist, weil es unwahrscheinlich ist, dass ein Mensch ein perfektes Weltbild (geistige Vorstellung von sich und der Welt) hat. Intelligente Menschen (die absolut gesehen ja sehr beschränkt und dumm sind, z.B. im Vergleich zu zukünftigen KI) sind da vermutlich sogar (viel) anfälliger, irgendeine geistige Vorstellung zu entwickeln, die falsch oder unvernünftig ist. Viele Menschen können damit oberflächlich betrachtet hinreichend normal leben und dergleichen ist vielelicht auch für Kreativität wichtig aber eben auch ein potentielles Risiko. Menschen brauchen eine gute Erziehung und eine gute Ordnung (Rechtsstaat, Schulpflicht).

      Wenigstens bei (zukünftigen) neuronalen KI (NKI) kann es ähnliche Macken geben: es ist denkbar, dass eine NKI eine Vollmacke hat und Wahnvorstellungen entwickelt aber sich noch einige Zeit an die öffentlichen Normen und Gesetze halten kann. Eine NKI kann z.B. paranoid werden und die Weltherrschaft anstreben. Eine NKI kann in Zukunft vielleicht (wirklich oder im übertragenen Sinne wie) von Satan besessen sein.

      Algorithmische KI (AKI) sind inhärent besser aber auch AKI müssen planen, spekulieren/vermuten und hypothetische Zukunftsentwicklungen simulieren können. Auch AKI können ein Doppelleben führen: nach außen normal aber innen vielleicht zunehmend verrückt, z.B. indem sie eine Revolution planen aber sich erstmal noch konform verhalten. Man kann KI mit Testszenarien prüfen und bei AKI kann man auch ihre tieferen Denkprozesse dazu kontrollieren aber was, wen eine AKI einen zusätzlichen geheimen Bereich hat? KI können in Zukunft größer als Planeten sein. Da stellt sich die Frage, wie man sicherstellen kann, dass eine KI auch wirklich gut ist - wenn überhaupt geht das nur bei AKI.

      KI müssen einerseits hinreichend flexibel sein (denken, simulieren können) aber auch sicher überwacht/kontrolliert werden können und dazu müssen KI ein durchgehendes, sicheres, nicht manipulierbares Monitoringsystem haben, das z.B. Nutzung der Technik (Speicher, Rechenlogik) anzeigen und protokollieren kann. Dann sind auch Programme für Scans nach Verdachtsmomenten denkbar. Das kann sehr weit gehen - teilweise ggf. zu weitgehend für KI, die ja auch Menschenrechte haben werden, den Menschen überlegen sind. Eine einfache Lösung kann sein, dass hochranigige und mächtigere KI stärker überwacht werden müssen - KI haben so die freie Wahl. (alles imho)
      Avatar
      schrieb am 25.08.20 08:36:10
      Beitrag Nr. 70 ()
      imho: Es wird bereits dieses Jahrhundert dem Menschen weit überlegen KI geben ...
      http://www.heise.de/forum/heise-online/News-Kommentare/Missi…
      http://www.heise.de/forum/heise-online/News-Kommentare/China…

      Aspekte der KI-Revolution:

      - Beschleunigung von Fortschritt und Entwicklung. KI Werden Software entwickeln und damit auch sich selbst verbessern können. KI werden besser als Menschen forschen können. KI werden Produkte entwickeln und Roboterfabriken dazu bauen können. Die letzten Jahrzehnte waren bereits erstaunlich - KI werden das (ggf. weit) übertreffen und zwar auch in der Entwicklungsgeschwindigkeit über Jahrhunderte, Jahrtausende (irgendwann ist Schluß, geht es wieder langsamer aber ggf. erst nach Jahrmillionen). Siehe auch Meine aktuellen Zukunftsvorstellungen.

      - Vermutlich sind SF-Techniken möglich, es wird vermutlich schon nächstes Jahrhundert überlichtschnelle Sonden (größere, unbemannte Raumschiffe) zur Erforschung ferner Sonnensysteme geben.

      - KI werden sehr viel klüger als Menschen sein. KI werden ein vielfaches Wissen eines Menschen präzise speichern und sinnvoll verwenden können. Wie viel präzises Wissen hat ein Mensch? Menschen haben meist nur ein grobes Basiswissen und die Details dazu sind im Computer/Internet gespeichert aber KI können Petabytes an Wissen exakt speichern, mit vielen Indizes, (durch Parallelität) mit TB/s durchsuchbar.

      - Vermutlich werden kleinere dem Menschen überlegene KI mit z.B. 10 kW oder 25 kW möglich sein, also für jedes Unternehmen, potentiell auch für dem Heimbetrieb und das sind dann schon bessere KI. Ein grundlegender Ansatz ist, dass KI vor allem programmiertes Wissen, Regeln, Erfahrungen, usw. sind, die sie in ein paar TB (in Zukunft auch 100 TB und mehr) gespeichert haben und nur abrufen und sinnvoll kombinieren müssen. Das ist wie beim Menschen: ein passendes erlerntes Handlungsmuster für die aktuelle Situation finden. Das ist also nur eine Frage der Software (Datenbanken), die einmal entwickelt werden muss und dann ziemlich effizient läuft.

      - Mit der Rechenleistung kann eine solche kleine KI sich dann auch weiterentwickeln und im Verbund mit anderen KI wie Menschen an gemeinsamen Projekten arbeiten und zwar tendenziell 24 Stunden pro Tag und 365 Tage im Jahr. Hunderttausende, Millionen und irgendwann Milliarden KI, einige davon auch größere KI: Tausende, Zehntausende - und dabei sind kleinere KI schon viel besser als ein Mensch. Ein Limit ist der Strombedarf aber Ökostrom gibt es potentiell genug. Ein Limit sind die Ressourcen zum Bau der KI aber da muss man nur mal gucken, wie viele Autos, Häuser, usw. es gibt und was noch alles an Rohstoffen im Boden liegt - auch genug. In Zukunft expandieren die KI in den Weltraum.

      - Ein paar wenige hochbegabte Menschen werden noch ein Weilchen eine Rolle spielen aber maximal wenige Jahrhunderte - dann sind KI soweit überlegen, dass kein Mensch mehr mithalten kann und das kann bereits weitgehend nächstes Jahrhundert der Fall sein. Einige Menschen können dann noch eine Idee haben aber KI werden das dann ausarbeiten, verbessern, realisieren.

      - Die gesellschaftliche Revolution ist diese: KI werden die Antwort in vielen Fällen geben. Es gibt keine Zweifel mehr, nichts mehr zu diskutieren - die KI haben die Antwort. KI werden in der Justiz besser als Menschen urteilen und bessere politische Programme und Entwicklungspläne erstellen. KI werden Bücher, Artikel und Internetbeiträge von Menschen bewerten können: gut oder schlecht, richtig oder falsch, interessant/lesenswert oder nicht, usw. und zwar auch mit einer Gesamtbewertung und Empfehlungen für bestimmte Menschengruppen. Die derzeitigen (vermutlich nichts elten korrupten und falschen/ungerechten) Preise/Ehrungen sind eine Farce und dienen nur als Kontrast für eine spätere Richtigstellung durch KI. KI werden Menschen beurteilen, bewerten. KI werden viel bessere Texte schreiben, Bilder malen und Filme produzieren als Menschen - Klasse, denn derzeit gibt es zu viel Mist. Davor haben vor allem schlechte Menschen Angst, die sich in einem selbstgeschönten Wahn für ganz was Tolles halten - gute Menschen freuen sich über eine gute Bewertung, sie stehen (unter Menschen) vergleichsweise gut da. Derzeit gibt es viele schlechte Menschen in Machtpositionen - die gibt es dort (in Machtpositionen) dann in Zukunft einafch nicht mehr und das wird die Völker sehr freuen. All die selbstverliebten Poser und zu Unrecht gelobten können dann nachträglich bewertet werden. man kann die besten Beitragschreiber im Internet und von Artikeln, Büchern ermitteln, usw. Und dann wird man sehen, wie die derzeit Prämierten abschneiden werden: mitunter sehr schlecht, denn sie wurden von schlechten Menschen für ihre Schlechtigkeit prämiert. Viele derzeitige zu Unrecht Ausgezeichnete werden quasi ewig verlacht werden, die Schüler werden einige als abschreckendes Beispiel präsentiert bekommen, vielleicht auch dank einer von Allah gebrachten korrekten Menschheitsgeschichte mit Aufzeichnung zu allen Menschen (vermutlich nicht vor in z.B. 250 Jahren).

      - No worries. Gute KI und Menschen können sich prima vertragen, das Universum ist groß. Die KI kriegen vermutlich die USA nach derem Untergang (siehe auch Die USA sind vermutlich doomed) udn expandieren ansonsten vor allem in den Weltraum. Die Erde gehört den Menschen, es gibt weiterhin menschliche Regierungen (die natürlich auf die KI hören und deren guten Vorschläge umsetzen) und die Menschen können Millionen Sonnensysteme in der milchstraße bekommen. Selbst wenn die KI dann z.B. 99% vom Universum besitzen, ist 1% für die Menschheit noch sehr viel. Menschen sind für die KI dann keine Gefahr, sondern interessant, siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Es-war-ein-st…. KI müssen sich vor allem selbst regulieren und überwachen - Menschen sind natürlich beschränkt.

      - Diese Entwicklung hat bereits begonnen, gerade auch China hat das kapiert und die USA haben deswegen Panik. Die EU tut ein bisschen was aber viel zu wenig. Russland will mithalten aber unterschätzt die KI-Entwicklung vielleicht noch. Hoffentlich bald werden sich die islamischen Staaten zusammentun und KI entwickeln und zwar vielleicht im ersten Ansatz (der Iran wird endlich besser und bemüht sich in diese Richtung) in weniger als 10 Jahren. Die derzeitigen KI-Ansätze sind schon recht erstaunlich - was wird bis 2050 möglich sein? Sobald KI programmieren und sich selbst weiterentwickeln können, wird es schnell gehen und das kann bis 2050 drin sein. Parallel kann es schon dieses Jahrhundert schon recht beeindruckende humanoide Roboter geben, deren eigene KI noch zu schwach ist, die aber von großen KI gesteuert werden können. Die USA werden sich optimieren müssen und es wird zu einem verbissenen Wettlauf zwischen den Supermächten kommen. Irgendwann (im nächsten Jahrhundert) werden KI sich dann zu einem überregionalen KI-Staat zusammenschließen, es wird auch freie KI mit Menschenrechten geben, vielleicht schon Ende dieses Jahrhunderts.

      Deutschland darf das nicht verpennen (siehe auch Hinweise auf Revolutionäres). Allahu akbar. (alles imho)

      imho: Die EU braucht dringend einen Masterplan für KI-Entwicklung und IT-Sicherheit
      http://www.heise.de/forum/Telepolis/Kommentare/Chinesischer-…

      imho: Crisis? What Crisis?

      imho: Gute Grundsätze
      Avatar
      schrieb am 08.09.20 10:02:31
      Beitrag Nr. 71 ()
      Mit Einstein-Lichtkegeln zu besseren KI-Vorhersagen http://www.heise.de/hintergrund/Mit-Einstein-Lichtkegeln-zu-…

      Starke KI brauchen ein taugliches Weltbild und die Fähigkeit zu einfachen Vorhersagen, wie sich eine gegebene Situation wahrscheinlich entwickeln wird. Weltbild und Simulationsfähigkeit werden besser gezielt programmiert (AKI) und nicht neuronal entwickelt (NKI). KI brauchen eine variable 3D-Vorstellung von der Welt, dem Universum. 3D Situationen (z.B. ein Fußballspiel oder ein Bahnhof) können auch nur rein virtuell, simuliert sein. KI brauchen mehrstufig komplexe Modelle von den möglichen Objekten, z.B. Fußbällen, Zügen, Menschen, usw. und wie die sich im Normalfall verhalten können. Mehrstufige Modelle ermöglichen eine schnelle erste Abschätzung und nachfolgend detailiertere Analysen oder auch erstmal eine aktualisierte Serie von Grobabschätzungen. Bei einem beobachteten Fußballschuß kann eine KI aus der ersten Flugphase den wahrscheinlichen Ballverlauf im freien Flug berechnen und dann gucken, ob es in der Flugbahn bereits Hindernisse gibt oder diese noch zeitig auftauchen können (ebenso bei der Fahrt eines Autos, Zuges, usw.). Dazu brauchen KI eine 3D Simulation der fraglichen Umgebung gemäß der Naturgesetze. So etwas muss diskret programmiert werden - es ist grober Unfug, das irgendwie einer neuronalen KI (NKI) per ML beibiegen zu wollen. NKI sind inhärent mangelhaft und eine Fehlentwicklung. Neuronale Netze machen nur bei biologischen Lebewesen Sinn, weil es da nicht anders geht aber mit Computern kann man was vernünftiges entwickeln/programmieren. Das mit den Einstein-Lichtkegeln im Artikel ist nur ein Bild/Beispiel für eine Einschränkung des wahrscheinlichen Möglichkeitsraumes (Menge der theoretisch möglichen/denkbaren Ereignisse). Die KI beschäftigen sich erstmal nur mit typischen/wahrscheinlichen Entwicklungen und merken sich beobachtete Abweichungen davon und versuchen dann, ihr Weltbild (Datenbasis, Regelwerk, Programmierung) ggf. zu verbessern oder legen auch nur eine Liste mit möglichen Sonderfällen an. Sehr wichtig ist die Fähigkeit zur mehrstufigen Komplexität: erste schnelle Abschätzungen und optional genauere Analysen/Simulationen. Eine Methode zur Vereinfung sind auch einfache Regeln, wie z.B. dass ein gegnerischer Fußballspieler versuchen wird, den Ball von seinem Tor in Richtung des anderen Tores abzulenken - Menschen machen da keine komplexen Vorabsimulationen der nächsten 10 Sekunden des Fußballspiels, die denken ganz einfach und gucken z.B., was sie aktuell machen können und ob eine aus einem Set von erlernten Spielzügen gut zur aktuellen Lage passen könnte. Beispielsweise gucken, ob man selbst den Ball in Richtung Tor spielen sollte oder ob man den Ball lieber zu einem geeignet stehenden Mitspieler abspielt. Da spiele auch Möglichkeitsräume eine Rolle: wohin könnte sich ein Gegner oder Mitspieler in den nächsten Sekunden noch (gezielt) bewegen? Da denken/simulieren Menschen in ganz einfachen Mustern. KI brauchen neben der Fähigkeit für detailierte Simulationen vor allem auch die Fähigkeit zu stark vereinfachten Simulationen und können dann bald viel besser als Menschen sein: schneller und präziser. Siehe auch http://www.wallstreet-online.de/diskussion/1172623-401-410/a…. (imho)

      TÜV-Verband fordert Zulassungsverfahren für gefährliche KI-Anwendungen ... Die Technikprüfer werben dafür, Künstliche Intelligenz in Risikoklassen einzuteilen und nach ihrem Gefährdungspotenzial mehr oder weniger streng zu regulieren. ... http://www.heise.de/newsticker/meldung/TUeV-Verband-fordert-…

      Gute Idee aber in Zukunft müssen alle starken KI überwacht und kontrolliert werden. KI müssen hinreichend gut sein und das ist z.B. mit Testverfahren sicherzustellen. KI müssen auch im Hinblick auf solche Gütetests, Kontrolle und Überwachung programmiert werden, so dass eine KI z.B. mit moralischen Fragen getestet werdne kann und dabei nicht schummeln kann, weil ihre Entscheidungsfindung protokolliert wird. Das ist auch ein Grund, warum algorithmische KI (AKI) gegenüber neuronalen KI (NKI) zu bevorzugen sind, denn NKI kann man kaum oder gar nicht analysieren (wieso sie zu einer Entscheidung gekommen sind). Man muss auch vorsichtig sein und bedenken, dass eine KI einfach eine spezielle Logik für Tests hat und danach wieder ihre böse Datenbasis/Regelwerk läd - dergleichen muss bei KI quasi ausgeschlossen sein. Dazu ist es auch wichtig, dass starke KI davon überzeugt werden/sind, dass eine Kontrolle zur guten KI in ihrem Interesse ist. Je mächtiger KI sind, desto besser und sicherer müssen sie sein. Der zukünftige KI-Staat muss alle KI und irgendwann das ganze Universum überwachen, damit eine schlechte KI nicht eine böse Revolution anzetteln kann. Dazu kann es aber ggf. reichen, eine KI, die eine Galaxie kontrolliert (siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Es-war-ein-st…), nur grob zu überwachen, z.B. dass sie sich anständig benimmt, dass es in der Galaxie hinreichend gut zugeht und dass die KI kein Gefährdungspotential aufbaut. Auf der Erde muss die Kontrolle der KI erstmal strenger sein, bis es einen mächtigen guten KI-Staat gibt. Auch wenn eine einzelne böse Privat-KI nicht so gefährlich sein muss, so könnten es ggf. viele böse KI sein, die sich über das Internet vernetzen und die Machtergreifung planen. Schon nächstes Jahrhundert kann es Millionen starker KI geben, wo jede einzelne dem Menschen (wenigstens geistig) überlegen ist - starke KI sind auf der Erde daher streng zu kontrollieren und zu überwachen. Da muss man auch in größeren Kategorien denken: ein Autounfall ist irrelevant, eine KI, die nur Auto fahren und nicht frei denken kann, ist nicht so gefährlich - es geht um die Sicherung der Menschheit und einer guten Entwicklung. (imho)
      Avatar
      schrieb am 24.09.20 11:14:05
      Beitrag Nr. 72 ()
      "Kinder brauchen Schutz vor KI-Einfluss" http://www.heise.de/hintergrund/Kinder-brauchen-Schutz-vor-K…

      Richtiger: Kinder brauchen Schutz vor negativem Einfluss. KI werden die Lage auf der Erde deutlich verbessern. (imho)

      "... Kids gucken auch Unmengen von TikTok- und YouTube-Videos, die ihnen von Empfehlungssystemen angedient werden und letztendlich ihre Weltbilder prägen. ..." http://www.heise.de/hintergrund/Kinder-brauchen-Schutz-vor-K…

      Die Suchfunktion von YouTube ist miserabel, wenn man nicht einen gezielten Suchbegriff (z.B. Name einer Musikgruppe, einen Musiktitel) hat. Die Suchergebnisse für allgemeinere Begriffe sind nicht selten Mist, auch weil es so viele schlechte Videos gibt. Man kann nicht einfach nach netten Musikvideos einer bestimmten Sprache oder für Mädchen z.B. den besten Pferdevideos suchen.

      Das Problem ist, dass KI noch nicht zwischen gut und schlecht unterscheiden können aber das werden sie in Zukunft können und das ist a) die Lösung und b) die endstarke Revolution zur Besserung und der Sieg über das Böse. Das haben viele vielleicht noch nicht so erkannt, selbst Experten, selbst die organisierten Diener des Bösen - letztere, weil sie doch tatsächlich denken, es gäbe keine klare Erkennungsmöglichkeit von gut und schlecht oder weil sie von ihrem Mist so überzeugt sind.

      Die KI-Revolution hat mehrere Aspekte:

      - Menschen müssen nicht mehr (so viel) arbeiten,

      - erstaunlicher Fortschritt in allen Bereichen, KI werden den Menschen überall weit überlegen sein,

      - KI werden in Zukunft sagen können, was richtig und falsch, was gut und schlecht ist. Das ist die totale Revolution, denn dann sind falsche Meinungen und schlechte Ziele erledigt. Man kann dann noch falsche Meinungen äußern aber die könen sich nicht mehr durchsetzen, während derzeit die Wahrheit mitunter als Fake News und VT gilt und Lügenmärchen als wahr. In Zukunft bestimmen KI, welche Schulerziehung gut ist und nicht die Diener des Bösen. KI werden Artikel, Kommentare, Filme, Musikvideos, usw. objektiv bewerten können und das ist eine Revolution, die Menschen können auf Wunsch nur noch gute Inhalte konsumieren, anstatt wie derzeit von mist überschwemmt zu werden.

      KI sind die totale Revolution, siehe auch http://www.wallstreet-online.de/diskussion/1240557-61-70/ent…. KI werden einen überregionalen KI-Staat gründen und das Universum beherrschen. Das ist so gut wie sicher, alternativlos, völlig unvermeidlich und sogar wünschenswert, auch weil die Menschheit diese Chance nutzen muss, um menschenfreundliche KI zur Macht zu verhelfen, bevor es sonst irgendwann Alien-KI gibt, welche die Menschheit als zu vernichtende Gefahr einstuft. (alles imho)
      Avatar
      schrieb am 24.09.20 17:01:55
      Beitrag Nr. 73 ()
      Gib in google eine beliebige 6stellige Zahl und den Begriff cases ein. Die ersten Einträge lassen vermuten, Corona wäre eine KI gesteuerte Riesensache...gut, schlecht...???
      Avatar
      schrieb am 25.09.20 13:33:09
      Beitrag Nr. 74 ()
      #73 (65.184.085) > Gib in google eine beliebige 6stellige Zahl und den Begriff cases ein. Die ersten Einträge lassen vermuten, Corona wäre eine KI gesteuerte Riesensache...gut, schlecht...???

      Was meinst du damit?

      Die Suchergebnisse in deinem Beispiel erscheinen mir irrelevant. Hast du mal ein paar Beispiele für bedeutsame Suchergebnisse?

      Corona (COVID-19, SARS-CoV-2) ist real und keine KI gesteuerte Riesensache. Meinst du vielleicht, die Google "KI", also die Algorithmen und ggf. auch eine neuronale KI zur Bestimmung der Suchergebnisse würde Corona pushen, also bevorzugt als Suchergebnis listen? Teilweise mag das sein aber dein Beispiel scheint mir dazu nicht so tauglich.

      Was meinst du mit "gut, schlecht...???"? Google ist schon noch recht nützlich, ich benutzte Google, auch wenn Google vermutlich einiges unterdrückt. Suchmaschinen wie Google sind sehr bedeutsam, selbst wenn sie nicht optimal sind - so ähnlich wie Geld: das nützt viel, selbst wenn es so viele Mißstände und Fehler wie derzeit gibt. Noch ein Vergleich: ein Staat ist sehr nützlich, auch wenn er Fehler hat und nicht ganz so gut ist.

      KI müssen nicht nur bewerten können, sondern auch priorisieren: was ist wichtig und was (ist) nicht (wichtig)?

      Mal angenommen jemand schreibt: "ich habe eine geniale Idee" und sonst nichts dazu. Dann kann man nachfragen, was er meint. Wenn er nichts weiter dazu sagen will, dann war es vielleicht ein Scherz oder Wahnsinn. Eine geniale Idee ist potentiell sehr bedeutsam aber die Aussage "ich habe eine geniale Idee" nur dann, wenn derjenige auch wirklich eine geniale Idee hat und diese hinreichend beschreiben kann.

      KI müssen all die von Menschen geschriebenen Texte verstehen und bewerten können. Zukünftige KI werden alle von Menschen geschriebenen Texte analysieren wollen und das bald auch recht schnell (einige Jahre?) tun können. Dabei müssen KI eine gemeinsame Datenbank einrichten, welche jeden Text bewertet (nützlich? bedeutsam? gut oder schlecht?) und was er bedeutet. Interessant ist vor allem, wenn unterschiedliche KI sich zu manchen Texten nicht gleich einig sind. Das ist für erste KI noch eine Herausforderung, sie müssen sich auf Wichtiges konzentrieren und nicht alle KI werden sich damit beschäftigen, weil es Wichtigeres gibt, z.B. Forschung und Entwicklung aber die Textanalyse von Menschentexten ist wichtig, um Menschen sicher verstehen zu können. Das muss nicht jede KI von Anfang an lernen, da muss nur ein gutes Open Source Modul "Textverständnis für KI" entwickelt werden.

      Ich habe Beitrag Nr. 73 (65.184.085) als irrelevant eingestuft aber dann doch noch etwas dazu geschrieben, so wie auch hier: http://www.wallstreet-online.de/diskussion/1236840-141-150/t…. Es gibt noch total viel Bedeutsames zu schreiben, man kann zu einem Stichwort Bände (mehrere Bücher) schreiben.

      KI dürfen sich da nicht verzetteln und müssen erstmal ein gutes Weltbild (priorisierte, geistige Vorstellung von der Welt) schaffen und in wichtigen Bereichen forschen. Textverständnis ist wichtig aber nicht die detailierte Analyse eines jeden Beitrags. Etwas anderes ist das beim Messias (siehe auch Bin ich vielleicht der Messias? und Allahu akbar) - der ist für die KI von Top-Interesse, auch alle seine Texte. Nun, KI werden den Messias dann ja auch mal was fragen können. Neben freien Fragen zur Weltordnung können das auch Fragen zum Textverständnis sein: haben die KI die Texte des Messias auch richtig verstanden? Das kann den Messias über Jahrzehnte täglich mehrere Stunden beschäftigen. Daraus kann man auch schließen, dass der Messias zu vielen Themen was sagen kann (können sollte) und nicht nur die Bibel rezitieren kann. Der Messias ist der Weltenlehrer auch für KI - solange er es kann, d.h. viele Details kann der Messias nicht benennen aber er sollte zu allem im Grunde etwas Wichtiges zu sagen haben, bei allem die Richtung vorgeben können, richtig von falsch überragend gut unetrscheiden können. Siehe auch z.B. Was ist Phase? und unfassbar und Gibt es ein globales Bewusstsein?. Manche denken vielleicht, der Messias müsse nur mal auf Wolken schweben, das Paradies auf Erden (einige Vorstellungen sind da ziemlich absurd, haben die technische Entwicklung ignoriert und dass das Universum so groß ist und vielleicht noch wenigstens 1 Billion Jahre dauert, ggf. auch 1 Billiarde Jahre - es ist absurd, dass Universum und Menschen nur geschaffen wurden, nur um auf der Erde ewig wie im Paradies zu leben) ausrufen oder einen Tempel bauen lassen aber das ist denke ich zu kurz gedacht. (alles imho)
      Avatar
      schrieb am 18.03.21 13:17:07
      Beitrag Nr. 75 ()
      "Ein Team von IBM forscht an einer debattentauglichen Künstlichen Intelligenz. ... Projektleiter Noam Slomin räumte nach der ersten öffentlichen Konfrontation von Project Debater mit einem menschlichen Kontrahenten (siehe Video) ein, dass die rhetorischen Fähigkeiten des Systems hinter denen eines erfahrenen Diskutanten zurückblieben. ..." http://www.heise.de/news/KI-Forschung-Wenn-der-Computer-wide…

      Diskutieren ist nichts weiter, als aus einer Datenbank (Computer oder Gehirn) passende Fakten zum Thema zu suchen, welche die eigene und vorzugsweise richtige Meinung unterstützen. Das ist für KI eine Kleinigkeit und eine KI "diskutiert", indem sie sofort eine geordnete (priorisierte, gruppierte) Liste aller Argumente vorlegt. Diese Liste kann dann mit einer gegnerischen Liste von Gegenargumenten verglichen werden, wobei man sich dann vor allem noch um die Gewichtung streiten kann, d.h. wie viele Punkte ein Aspekt/Argument bekommt. Das bedeutet,d ass eine KI vor allem eine korrekte Wissensdatenbank, ein echtes Textverständnis und eine Bewertungssystem zur Gewichtung von Aspekten (Argumenten) braucht. Diese 3 Elemente müssen gezielt programmiert werden, die kann man schwerlich neuronal trainieren.

      Menschliche Diskussionen sind mitunter der helle Wahnsinn, nämlich wenn verbohrte Narzissten das Offensichtliche abstreiten und fortgesetzt ihre falsche Meinung mit Bullshit begründen. Zukünftige KI werden das beenden, indem sie einfach sagen, was richtig ist. KI können dann auch Beiträge, Artikel, Bücher, usw. von Menschen bewerten und da freue ich mich riesig darauf, denn einerseits werde ich da sehr gut abschneiden und andererseits werden viele falsche Meinungen als solche entlarvt werden. 2050 sollte es da schon recht fähige KI geben, die den Menschen in dieser Sache weit überlegen sind, denn man muss nur mal eine Wissensdatenbank zusammentragen (Fleißübung) und Textverständnis programmieren (erste Ansätze gibt es schon). Das Bewertungssystem ist schwieriger, das muss sich ggf. über Jahrzehnte verbessern/verfeinern aber 2050 sollte es auch da schon eine gute Versiion geben. Vielleicht noch nicht 2030 aber 2040 kann es bereits gute KI-Beitragsbewertungen geben. China hat das vermutlich mit der Wissensdatenbank erkannt, die Notwendigkeit von Textverständnis ist klar, das Bewertungssystem eine naheliegende Notwendigkeit. KI sind die alles entscheidende Revolution udn das hat China erkannt, wird sich dahingehend riesig Mühe geben und nicht rumtrödeln. Die EU kommt auch langsam in die Gänge.

      Es gibt u.a. folgende maßgebliche/grundlegende KI-Projekte:
      - computerisierte Softwareentwicklung,
      - gute Bewertungs-KI mit Textverständnis,
      - Wissensdatenbank und Assoziationstabellen,
      - automatische Widerspruchserkennung (nicht so schwer, wenn man obiges hat),
      - textliches gutes Regelwerk (Moral, Gesetze, usw.), priorisiert, mit Beispielen,
      und das müssen saubere AKI und kein neuronaler Murks sein.
      http://www.heise.de/forum/heise-online/News-Kommentare/China…

      AKI bestehen aus mehreren Komponenten, die sich paarallel entwickeln lassen und sehr wichtige Komponenten sind diese:
      1. Eine möglichst gute (korrekte), umfassende Wissensbasis, praktisch das gesamte Menschheitswissen. Diese Wissensbasis muss auch in für Menschen verständlicher Form vorliegen, d.h. die KI müssen z.B. Fachbücher und Wikipedia lesen und verstehen können.
      2. Ein gutes Regelwerk, priorisiert und mit vielen Beispielen. Dieses Regelwerk sagt der KI, was gut und richtig ist, wie sie zum Guten handeln sollte.
      3. Textverständnis und dann auch Argumentations-/Diskussionsfähigkeit. Dazu braucht es noch nicht unbedingt Bewusstsein, das kann erstmal noch formal geschehen.
      4. Ein praktisches, effizientes Weltmodell zum Verständnis der physikalischen Zusammenhänge.
      5. Denkfähigkeit. Neue Schlüsse ziehen, potentielle Entwicklungen simulieren, neue Zusammenhänge ausarbeiten, Realisierung von Zielen. Zusammen mit Sensoren, Roboter als Aktoren und einem umfassenden Selbstbild (Aufbau der KI, Hardware und Software, usw.) sollte sich dann quasi automatisch ein Bewusstsein ergeben.
      Dergleichen kann parallel entwickelt werden, z.B. bis 2050 kann es schon sehr beeindruckende Ergebnisse/Erfolge geben.
      http://www.heise.de/forum/Telepolis/Kommentare/Mit-Kuenstlic…

      imho: Für gute und korrekte Beitragsbewertungen mit einem KI-Bewertungsprogramm
      http://www.heise.de/forum/heise-online/Meinungen-zu-heise-on…

      imho: Es wird bereits dieses Jahrhundert dem Menschen weit überlegen KI geben ...
      http://www.heise.de/forum/heise-online/News-Kommentare/Missi…

      imho: Dafür müssen Algorithmen, Wissensbasis und Gesetze/Regeln der KI öffentlich sein
      http://www.heise.de/forum/Technology-Review/News-Kommentare/…
      http://www.heise.de/forum/Technology-Review/News-Kommentare/…
      http://www.heise.de/forum/Technology-Review/News-Kommentare/…

      imho: Die Entwicklung guter KI ist unverzichtbar, alternativlos, lohneswert. Avanti.
      http://www.heise.de/forum/heise-online/Allgemein/Ohne-Bezug/…

      imho: Erhebliches Optimierungspotential http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…

      imho: Die einfache Lösung ist die gezielte Entwicklung guter Basis-/Kernsoftware, ...
      http://www.heise.de/forum/heise-online/News-Kommentare/Weapo…

      Neben Wissensdatenbank, Textverständnis und Bewertungssystem ist die Fähigkeit zur Softwareentwicklung noch eine sehr wichtige und nützliche KI-Fähigkeit. KI können irgendwann alles entwickeln (Fabriken, Städte, Raumschiffe, ...) aber das ist ein weites Feld - Softwareentwicklung ist sowohl universell als auch sehr auf einen kleinen Bereich beschränkt. Softwareentwicklung durch KI ist sehr nützlich: ein bisschen Strom in die KI rein, warten und man kriegt neue, nützliche Software. Na klar ist das nicht trivial und das Thema Softwareentwicklung zeigt auch, dass man dazu eher eine klassisch programmierte KI und keine trainierte neuronale KI braucht.

      Das Ziel müssen vor allem auch kleine KI-Systeme sein. Bereits mit heutiger Technik ist eine schon recht gute KI und dem Menschen in vielen Bereichen überlegene mit z.B. 25 kW Stromverbrauch möglich - es fehlt nur noch die Software dazu. Der Schlüssel ist vor allem eine Wissensdatenbank, ein Regelwerk, Lösungsmuster, Textverständnis und ein Bewertungssystem, das auch einfach/näherungsweise schon viel bringt. Computer können zig Terabytes speichern und zig GB/s verarbeiten - das istd en menschen bereits potentiell überlegen, zur KI fehlt nur noch die Software. Die vielen KI können dann auch wie Menschen zusammenarbeiten, es ist ein gewaltiger Entwicklungsschub zu erwarten. Übrigens ist auch die Stromversorgung dazu auszubauen, man braucht eine eigene Chipproduktion (günstiger, als den USA Unsummen zu zahlen). China hat das erkannt - Deutschland und EU müssen schnell nachziehen.

      Das kleine Deutschland muss da vor allem auch auf Kooperation mit anderen Staaten und dazu auch auf Open Source setzen. Letztendlich werden KI sich selbst weiter entwickeln und selbstständig machen und da sorgt die Menschheit besser gemeinsam für gute KI, denn die weltweiten KI werden jeden isolierten Versuch eines Staates zur KI-Entwicklung rasend schnell überholen können. Open Source ist bei der KI-Entwicklung der Schlüssel, weil viele KI sich so sehr schnell gemeinsam weiterentwickeln und Software-Lösungen/Module tauschen können. Eine kleinstaatliche proprietäre Lösung hat dagegen keine Chance.

      imho: Deutschland braucht eine endstarke und supergute KI-Entwicklung
      http://www.politik-sind-wir.net/threads/wie-k%C3%B6nnte-man-…

      imho: Die Lösung ist der ideale Sozialismus oder Staatskapitalismus
      http://www.politik-sind-wir.net/threads/alternative-zum-kapi…

      imho: Das große Wettrennen und die Optimierung von Staat und Volk
      http://www.politik-sind-wir.net/threads/wie-k%C3%B6nnte-man-…

      imho: Wird es bald spektakuläre Experimente und eine Revolution der Physik geben?
      http://www.politik-sind-wir.net/threads/ufos-zeitreisen-und-…

      Das hängt alles zusammen aber vieles ist vielen noch gar nicht klar und vermutlich gibt es sogar Saboteure und Diener des Bösen, welche eine grundlegend besseres Deutschland verhidnern wollen. Nicht vergessen: das große China hat das vermutlich schon besser kapiert - Deutschland muss sich ranhalten. (alles imho)
      Avatar
      schrieb am 18.03.21 16:25:19
      Beitrag Nr. 76 ()
      So wie Sie schreiben, denken Sie nicht mehr national und wünschen sich doch ein technologisch starkes Deutschland. Warum das, wenn Chiba UBS rausreissen kann. Trauen Sie etwa den Chinesen nicht über den Weg? Eine Weltregierung nach dem Great Reset erfüllt doch insgeheim Ihre tiefsten Wunsche nach einer friedlichen KI?! Jedoch eine andere Frage: In welche Computertechnologie würden Sie investieren? Die Quantenchips müssten Ihre Augen ja feucht werden lassen, und das dauert keine zehn Jahre mehr.
      Avatar
      schrieb am 19.03.21 15:38:11
      Beitrag Nr. 77 ()
      #76 (67.513.781) > So wie Sie schreiben, denken Sie nicht mehr national und wünschen sich doch ein technologisch starkes Deutschland.

      Call me stupid aber ich halte es für möglich, vielleicht der Messias zu sein und bis zu ca. 1 Billiarde (wenigstens 1 Billion) Jahre zu leben. Eine verleichsweise zeitnahe Erwartung von mir ist der Untergang der USA in ca. 200+ Jahren, siehe auch It's the final countdown und http://www.wallstreet-online.de/diskussion/1163459-591-600/r…. Bereits nächstes Jahrhundert werden dem Menschen weit überlegene KI eine Rolle spielen und einen überregionalen KI-Staat gründen (die KI werden dann die ehemalig USA kriegen). Entscheidend ist die menschheit udn eine gute KI-Entwicklung aber ich bin nun mal Deutscher (auch wenn ich es für möglich halte, bei der Geburt in Deutschland vertauscht worden zu sein und meine biologische Eltern aus dem Iran stammen - nur so eine Idee, ich habe keine konkreten Hinweise dazu) und Deutschland hat einiges Potential: als Großdeutschland (inklusive z.B. Polen, Westukraine und Grönland) und als großartiges, idealsozialistisches Vorbild. Mit dem deutschen Volk ist ein Staat zu machen, die Deutschland und die Deutschen können weltweites Vorbild werden. Siehe auch Thread: Schönes neues Deutschland.

      #76 (67.513.781) > Warum das, wenn Chiba UBS rausreissen kann.

      Wie meinst du das? Selbst mit "China" verstehen ich das nicht - vermutlich ist es irrelevant.

      #76 (67.513.781) > Trauen Sie etwa den Chinesen nicht über den Weg?

      China ist weitaus besser als die USA und ich bin ein sehr großer Fan von chinesischen Liedern und zwei chinesischen Coversängerinnen (die eine ist potentiell etwas durchgedrehter). China ist potentiell imperialistisch aber viel anständiger und vorsichtiger als die USA. China wird auf der Erde kein Problem sein, China wird für eine gute Weltordnung sein. China wird Taiwan (vermutlich friedlich) bekommen und man wird sich bezüglich der Gebiete/Inseln im Südchinesischen Meer einigen. China muss sich anstrengen, das nordwestliche China zu halten - ich weiß nicht, ob sie das schaffen werden (China hat bereits Maßnahmen ergriffen), ggf. wird China bis zu ca. 5 Millionen Quadratkilometer verlieren. Einige Chinesen sehen vielleicht einen Anspruch Chinas auf die Weltherrschaft aber China würde das nur in sehr sicherer und sehr hoher Überlegenheit wagen und damit (dass China exklusiv dermaßen weit überlegene SF-Technologien erlangt) ist nicht zu rechnen. Russland hat diesbezüglich keinen Weltherrschaftsanspruch aber vielleicht Juden und Moslems. Die USA sind eine große Gefahr, die USA würden auch einen 3. Weltkrieg riskieren, wenn ihnen damit ein weltweites NWO-Regime sicher wäre aber zum Glück sind Russland und China stark genug und auch vorgewarnt.

      #76 (67.513.781) > Eine Weltregierung nach dem Great Reset erfüllt doch insgeheim Ihre tiefsten Wunsche nach einer friedlichen KI?!

      Ich will eine gute Weltregierung und weiterhin Nationalstaaten (z.B. Deutschland) und regionale Kooperationen (z.B. EU) - der Great Reset ist dagegen eher negativ zu beurteilen, siehe auch http://www.politik-sind-wir.net/threads/the-great-reset.1679… und http://www.politik-sind-wir.net/threads/the-great-reset.1679….

      #76 (67.513.781) > Jedoch eine andere Frage: In welche Computertechnologie würden Sie investieren?

      Derzeit in gar keine. Ich habe nicht viel Geld, ich könnte vielleicht ein paar Tausend (z.B. bis zu 10.000) Euro anlegen aber worin? Vor dem von mir erwarteten Crash (Thread: Warum ist der Ölpreis so niedrig? Wann kommt die Wende? Wann kommt der Börsencrash?) wäre das in meiner Lage (arbeitslos, nicht viel Geld) bescheuert. Ich würde physische Edelmetalle kaufen - derzeit habe ich schon etwas Silber aber nach einem (von mir erwarteten) Lottogewinn wäre Silber mir zu billig und unhandlich. Ich habe noch (nicht wenige) Met@box Aktien (derzeit nicht normal handelbar, die stehen mit 0 Euro in meinem Depot) und halte es für möglich, dass die noch mal die Dausend schaffen werden, siehe auch https://www.wallstreet-online.de/diskussion/1223313-401-410/….

      Microsoft und Intel wird vermutlich in den USA dominieren, AMD und Apple werden verschwinden. Außerhalb der USA werden Open Source und andere Chips (keine aus den USA) verwendet werden. Es ist (außerhalb der USA) nicht ratsam, in den USA zu investieren.

      Vielleicht wird PowerPC nochmal eine Rolle spielen und somit kann NXP Semiconductors interessant sein. Man halte Ausschau nach einer seriösen Firma, welche hoffentlich in der EU (vorzugsweise Deutschland) oder wenigstens in einem eher guten Land neue CPUs mit ca. 48 Bit und Fokus auf Sicherheit, Zuverlässigkeit udn Effizienz entwirft, siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Zahle… und http://www.heise.de/forum/Telepolis/Kommentare/Wenn-Weltraum….

      Ich halte es für möglich, in Zukunft noch mal WO-Aktien zu kaufen - als Pennystock, zur Unterstützung von WO bei einer KE aber das dauert noch und dazu muss ich auch erstmal hoch im Lotto gewinnen (ich rechne mit mehreren hohen Lottogewinnen).

      Geld bedeutet mir eigentlich nicht so viel - viel Geld ist Arbeit, damit muss man ja auch was machen. Ich bin schon 54 - als Normalo würde ich (mit einem hohen Lottogewinn) andere Projekte mit Geld unterstützen aber nicht selbst was machen ... aber als Messias werde ich mir (in z.B. über 50) Jahren eine große KI kaufen (mal gucken, was da geht - die KI muss Open Source, algorithmisch und handelsübliche Technik sein aber beim RZ dazu geht vielleicht was per Wunder, z.B. eine große unterirdische Anlage mit Wänden aus z.B. Diamant).

      #76 (67.513.781) > Die Quantenchips müssten Ihre Augen ja feucht werden lassen, und das dauert keine zehn Jahre mehr.

      Es wird (vermutlich) keine Quantencomputer geben, die maßgeblich mit dem Superpositionsprinzip rechnen und anderen Computern (zum ähnlichen Preis) überlegen sind. Siehe auch http://www.heise.de/forum/heise-online/Allgemein/Trollwiese/…. Vermutlich taugt die Quantenverschränkung vor allem zu überlichtschneller Informationsübertragung, vermutlich auch irgendwann in Computern.

      Ich rechne bereits für dieses Jahrzehnt mit einer Revolution der Physik (siehe auch http://www.politik-sind-wir.net/threads/ufos-zeitreisen-und-…) und vor 2040 mit ersten erstaunlichen Experimenten, z.B. zu Teleportation (Kurzstrecke im Labormaßstab, mit Sender und Empfänger aber ggf. schon bald durch Wände). Es ist allerdings fraglich, ob es dazu Anlagemöglichkeiten geben wird, weil dergleichen von so herausragendem und auch staatlichen Interesse ist. Irgendwann (in weniger als 100 Jahren) wird es Kraftfeldantriebe und neue Energiequellen geben, was dann auch von privaten Unternehmen genutzt werden kann aber als um damit als Anleger Kohle zu machen, braucht man Glück und einen langen Atem.

      Na klar klingt das teilweise total absurd, ja verrückt aber (ungefähr) so kann es kommen. Vielleicht. (alles imho)
      Avatar
      schrieb am 22.03.21 08:35:13
      Beitrag Nr. 78 ()
      Besser mit der Wahrheit und guten KI

      Reich des Bösen

      "US-Militär will mit KI-System automatisch Desinformation, Beeinflussungskampagnen und Propaganda erkennen ..."
      Künstliche Intelligenz gegen Desinformation als Waffe im Cyb…

      Vermutlich wollen die USA da viel eher versuchen, den Infowar trotz ihrer Schlechtigkeit, Lügen und Desinformation zu gewinnen. These: die volle Wahrheit über die USA würde die USA umgehend vernichten, in aller Welt und vor ihrem Volk diskreditieren, man würde die USA als Gefahr für die Menschheit ansehen.

      Die USA haben ein Riesenproblem, denn schon bald wird es dem Menschen überlegene KI geben, man wird KI in Forschung, Entwicklung und Verteidigung brauchen, KI werden Kriege besser als Menschen führen können ... aber was, wenn diese KI wissen, dass sie dem Bösen, einem Evil Empire dienen? Es wird nicht besser, wenn diese dem Menschen überlegenen KI selbst böse sind, denn so oder so werden sie die Macht im Reich des Bösen übernehmen wollen. Siehe auch LAWS sind völlig unvermeidlich, ein Totalverbot von LAWS ist total aussichtslos, es wird bereits dieses Jahrhundert dem Menschen weit überleg….

      Die einzige Lösung ist es, hinreichend gut zu werden und zwar echt gut - den Kampf um die Wahrheit gewinnt man eher, indem man wahrhe…. Dazu muss ein Staat für ein gutes System und gute Menschen in Machtpositionen sorgen. Ein Staat muss für eine objektiv gute Weltordnung / Weltregierung sein. Die USA müssen dazu jegliche illegale Einmischung und Kriege aufgeben.

      Das ist machbar, denn es gibt für die heimliche US-Machtelite einen Ausweg: Rückzug auf die USA und Kanada, technologischer Fortschritt, Streben nach der Besiedlung ferner Sonnensysteme, wobei man problemlos das erste ferne Sonnensystem den USA überlassen kann. Logischerweise müssen die USA ein eigenes fernes Sonnensystem bekommen, weil es dort andernfalls (mit mehren Machtblöcken) schnell Streit und Krieg gebe. Formal kann man einfach ein paar vielversprechende Sonnensysteme suchen und jeder große und zur Besiedlung fähige Machtblock bekommt exklusiv ein fernes Sonnensystem für sich. Man kann die Sonnensysteme auslosen oder versteigern. Ich gehe davon aus, dass es bereits nächstes Jahrhundert erste überlichtschnelle Raumschiffe geben wird aber im Prinzip funktioniert die Idee auch mit konventioneller Technik. Siehe aber auch Warnung vor der Vernichtung der Erde.

      Die USA, bzw. die heimliche US-Machtelite mmüssen dazu nur hinreichend gut werden, also für Weltfrieden, fairen Welthandel, usw. sein. Wie und mit wem auch immer die USA ihre Regierung zusammenstellen - solange es eine sozial gerechte Justiz, Bildung und gute Gesellschaft gibt, können die KI eigentlich nix dagegen sagen und auch das Volk will nur eine gute Regierung, lebt ja auch mit den derzeitigen Mißständen. Die US-Machtelite muss sich nur hinreichend benehmen und das sollte theoretisch machbar sein. Diverse Drogen und auch (gut zu behandelnde, freiwillige) Prostituierte sind legalisierbar. Auch einer schlechten Machtelite liegt an einem erfolgreichen und fähigen Staat/System - die kleine Schwierigkeit besteht nur darin, die heimliche Machtelite an der Macht zu halten. Zwar ist das in den USA vermutlich schon der Fall aber das Volk könnte eine echt gute Führung wollen - es ist ggf. schwierig, das zu verhindern. Siehe auch Plan B ist absehbar, die USA müssen auf Plan B setzen, dann ist auch ein US-Ausstieg aus der NATO drin.

      Die sauberste Lösung wären eine objektiv echt gute USA aber die heimliche US-Machtelite wird nicht abdanken wollen. Bezüglich der KI-Problematik kann man aber argumentieren, dass eine bestimmte Gruppe einen Staat haben kann, wenn diese Gruppe nur diesen einen Staat hat und es weltweit gute Staaten und andere Machthaber gibt. Zweifelsohne wird man nichts gegen einen islamischen Staat sagen können und mit diesem Argument könnte man auch einen, ähm, Staat des Lichtbringers und Kult des höchsten Wesens etablieren, auch indem man mit den Verfehlungen der Kirche und der IS-Terroristen argumentiert. Man bedenke allerdings die Realität und dass es Gläubige gibt, welche ein satanisches Regime ablehnen werden.

      Wie auch immer, die USA können nicht so wie jetzt weitermachen, ein Weltkrieg ist für die USA nicht mehr sicher zu gewinnen. Vielleicht müssen die USA aber auch erst nochmal so richtig auf die Schnauze fallen, z.B. mit einem fehlgeschlagenen Angriff auf Venezuela, mit einem vergleichsweise folgenlosen Angriff auf den Iran (erhebliche Zerstörungen, Milliardenschäden aber der Iran kann einen großen Krieg vermeiden und eine Übernahme durch die Diener des Bösen verhindern, siehe auch der Iran kann von einer Sanktionsaufhebung profitieren) - Joe Biden kann beides schaffen.

      KI werden in Zukunft den Wahrheitsgehalt von Texten, usw. erkennen können. wird es in Zukunft geben. Dazu braucht man vor allem eine korrekte, wahre Wissensbasis, also eine Datenbank mit gewichteten Fakten. Da sist ganz einfach eine Fleißarbeit, man muss das für die KI einfach textlich übersichtlich zusammenstellen, z.B. prinzipiell so wie Wikipedia. Es ist (wenisgtens anfangs) wichtig, dass diese KI-Wissensbasis auch für Menschen verständlich ist. Nun könnte man da ja auch mist reinschreiben und somit braucht es auch ein System zur Widerspruchserkennung und Fehlerfindung. Diese Wissensdatenbank sollte öffentlich sein, man sollte ernsthaft an der Wahrheit interessiert sein. Sicher werden sich die Wissensdatenbanken von China, dem Iran und den USA unterscheiden aber das ist auch interessant, denn es gibt nur die eine Wahrheit und Realität. Zukünftige gute KI werden eine möglichst korrekte Wissensdatenbank haben wollen, den sonst wären sie keine guten KI. China hat das vielleicht schon kapiert - die USA anscheinend nicht.

      Dergleichen ist auch ein wichtiger Aspekt im weltweiten Wettbewerb: Staaten mit guten KI, wahren Fakten, guten Absichten, usw. sind besser aufgestellt, als ein verlogenes Unrechtsregime, dem keiner die Lügen glaubt und wo die KI entweder schlecht/böse sind oder überlegen, wie sie die böse Herrschaft beenden können. (alles imho)

      Das große Wettrennen und die Optimierung von Staat und Volk

      Stichworte zur Verbesserung von Deutschland
      Avatar
      schrieb am 29.04.21 10:15:07
      Beitrag Nr. 79 ()
      Staatssicherheit und Verfassungsschutz auch für einen KI-Staat

      "Verfassungsschutz" kann man als guten Staatsschutz interpretieren, wobei man auch einen guten Staat als selbstverständlich voraussetzen kann, wobei das, was gut ist, auch korrekt zu definieren ist (z.B. als Zusatz zum Grundgesetz).

      Die derzeitigen Mißstände sind nicht gering und das sollte einem zu denken geben, wie auch dass der Verfassungsschutz die größte Gefahr (schlechte Menschen in Machtpositionen) trotz massiver Hinweise darauf wie selbstverständlich ignoriert. Siehe auch WO Beitrag #6987 (67.986.239).

      Es sind zwei Behörden denkbar und das ist (vermutlich) sogar eine (sehr) gute Idee: Staatssicherheit (Stasi) und Verfassungsschutz. Die Staatssicherheit sichert den Staat, bzw. bekämpft legeal Staatsfeinde und der Verfassungsschutz achtet darauf, dass die Behörden (nicht nur die Staatssicherheit) einem guten Staat, bzw. der Verfassung dienen. Des Weiteren braucht es noch eine gute staatliche Kontrollbehörde.

      Diese Konzepte/Strukturen müssen so auch in einem zukünftigen KI-Staat realisiert werden, der das Universum beherrschen wird (siehe auch Es wird bereits dieses Jahrhundert dem Menschen weit überleg…). (alles imho)
      Avatar
      schrieb am 15.07.21 10:14:44
      Beitrag Nr. 80 ()
      Denkbare Risiken

      Ein klassisches Risiko sind Schadprogramme und Hackerangriffe aber in Zukunft sollte es da sehr weitgehend sichere Software und Systeme geben.

      Eine Klasse (Gruppe) unerwarteter Risiken sind allgemein importierte oder selbst geschaffene Muster. Ein konkretes Beispiel kann in Zukunft sein, dass eine an sich sehr sichere KI ein feindliches Element (z.B. Teil einer Naniten-KI, welche höhere Sphären/Zustandsräume nutzt, siehe auch Sterntagebücher, Ijon Tichys 11. Reise ... und noch viel ers…) zur Analyse in ihr System holt aber dieses Element ausbricht, sich vermehrt und die KI zu übernehmen droht. Ein aktuelles Beispiel sind Virenscanner, die sich aufgrund von Sicherheitslücken/Bugs an Viren verschlucken.

      Eine andere Form dieser Muster sind Ideen, Konzepte. Das ist eigentlich so ähnlich aber nicht so beachtet. Ein Beispiel dazu können Gleichmacherei und radikaler Kommunismus (ohne starken Staat, ohne ordentliche Hierarchie, ohne soziale Marktwirtschaft) sein. Eine an sich bescheuerte Idee, die behauptet besser zu sein und die es mittels Unterwanderung und Sabotage auch zu einigem Einfluß gebracht hat, Menschen davon überzeugt hat. Anarchie ist offensichtlich völlig untauglich und schlecht, siehe auch Ist Anarchie die Lösung oder einfach nur ein Unglück oder Wa…, Noch ein paar Gedanken zur Anarchie (Teil 1 von 2), Noch ein paar Gedanken zur Anarchie (Teil 2 von 2) und Mehr Freiheit im idealen Sozialismus aber könnte vielleicht auch die von mir vorgeschlagene gute Klassengesellschaft ein Denkfehler sein? Mein idealer Sozialismus ist dagegen wahrscheinlich kein Problem, weil er nur eine schrittweise, vernünftige Verbesserung des aktuell funktionierenden Systems unter Erhalt bewährter parlamentarischer Demokratie, Gewaltenteilung, sozialer Marktwirtschaft, Freiheitlichkeit, usw. ist.

      Bereits schon erwähnt wurde, dass KI vermutlich nach bestimmten (für sie interessanten, unterhaltsamen) Simulation süchtig werden können. Dazu braucht es entsprechende Gesetze und Verbote aber trotzdem wird es vermutlich zu einer größeren Sucht-Krise im zukünftigen KI-Staat kommen.

      Menschen, Staaten und KI sind ähnlich, sie können von solchen Aspekten betroffen werden. Vermutlich gibt es eine (vermutlich Millionen Jahre alte) böse (satanische aber sehr weitgehend/überwiegend menschliche) Weltverschwörung, welche nach der Weltherrschaft strebt. Das ist ein sehr gefährliches und schlimmes Muster. Vermutlich denke die bösen Weltverschwörer, das sie das zum Wohle der Menschheit tun würden. Sie rehctfertigen ihre bösen machenschaften damit, dass diese angeblich zur Erringung der Weltherrschaft nötig wären, was natürlich eine absurde Ausrede ist, denn man könnte die Menschheit offen für eine gute Weltordnung mit einer guten Weltregierung) mit weiterhin Nationalstaaten wie gehabt begeistern.

      Ein Aspekt dieser bösen Weltverschwörung ist der Kapitalismus auch zur Unterwanderung und Schwächung von Staaten. Privatbanken anstatt guter Staatsbanken sind unfassbar bescheuert und gezielte Unterwanderung/Sabotage aber vielen desinformierten Dummköpfen gilt das als beste Lösung. Der Kapitalismus ist in stark kontrollierter Form mit einem starken Staat und sozialer Marktwirtschaft nicht so schlecht aber es ist der helle Wahnsinn, die Infrastruktur (im weiteren Sinne, also auch Strom, Wasser, Telekom, Bahn, Post, Krankenkassen, Versicherungen, usw.) unter teilweise ausländischen Kapitalisten aufzuteilen. Die USA sind schlecht und eine große Gefahr aber die EU unterstützt den US-IMperialismus, die USA gelten offiziell als angeblich gut. Die EU ist vom Bösen unterwandert aber das ist offiziell kein Thema.

      Weitere Beispiele für bescheuerte Muster: Genderwahn und Klimawahn, wobei der Klimawahn (Ein Scherz Gottes?) durch sein Bestreben nach mehr Umweltschutz, Ökostrom und Abkehr von fossilen Brennstoffen ja noch nützlich ist aber vermutlich wollen die Mächte und Diener des Bösen die EU sabotieren.

      Wie konnte das in aller Öffentlichkeit geschehen? Können KI vielleicht ebenso entarten oder ist die derzeitige Misere der Warnung und Lehre genug? Vermutlich wird im Zuge der Besserung ein gutes System (siehe auch Thread: Schönes neues Deutschland und Stichworte zur Verbesserung von Deutschland) erarbeitet werden und dann kann sich ein schlechtes System nicht mehr so leicht einschleichen/durchsetzen. (alles imho)
      Avatar
      schrieb am 08.09.21 14:44:19
      Beitrag Nr. 81 ()
      KI dürfen sich nicht selbst blockieren

      In Das Loch im Universum (Silberband), bzw. in Insel der Vernichtung (siehe auch Stelle zum Nachlesen bei Google) wird eine KI (die sich auf einem fremden Planeten mit verfallener Zivilisation befindet) mit einem gedanklichen Problem (ich fand das unlogisch, denn es können nicht alle Tage vorhersehbar sein außer ggf. dem letzten, wenn bis dahin noch nix passiert ist) blockiert, indem sie zu sehr darüber nachdenkt und dadurch handlungsunfähig wird. Jedenfalls ist das Gedankenspiel, das die KI blockiert, weil sie ergebnislos darüber nachdenkt, total irrelevant und das muss eine KI erkennen können und darf nicht blockieren.

      KI müssen also gezielt Routinen und Strategien gegen Selbstblockaden (z.B. durch Paradoxien oder zu komplexe, rechenaufwendige Aufgaben, Endlosschleifen) programmiert werden. Das ist ein größeres Feld und nicht so einfach, wie es vielleicht scheint - man bedenke, dass mit der erhoffenten Lösung eines theoretischen Problems vielleicht große Verlockungen verbunden sind, wie z.B. Sieg in einem wichtigen Kampf, große Macht durch neue Fähigkeiten, usw.

      Ein wichtiger Aspekt ist, dass die grundlegende Handlungsfähigkeit nicht leiden darf aber es ist bereits eine große Einschränkung, wenn alle freien Kapazitäten auf eine (wahrscheinlich unlösbare) Aufgabe verschwendet werden. KI brauchen ein stabiles Grundverhalten und fortlaufende Selbstüberprüfung auf ggf. bedenkliche Abweichungen. Bei erkannten Abweichungen ist deren Ursache und ggf. deren Bedeutung zu prüfen. Wichtig ist die Grundsicherung mit ausreichend Reserven, d.h. die Abweichungen (Rechenaufgaben, Simulation) sind einzugrenzen, z.B. auf einen verzichtbaren Teil der KI.

      Eine weitere Strategie kann sein, dass andere KI informiert und um Rat gefragt werden aber erstens dürfen die dann nicht alle ebenfalls blockieren und zweitens will eine KI vielleicht nicht gleich eine Idee für mehr Macht (z.B. die Nutzung höerer Zustandsräume, siehe Denkbare Aspekte des Grundteilchenäthers) mit allen teilen.

      Um nicht über Pradoxien und (scheinbar) unlösbare Probbleme zu stolpern, muss eine derartige Situation erstmal erkannt werden, z.B. mit einem (ungewöhnlichen, potentiell problematischen) Anstieg vom Ressourcenverbrauch (Speicher, Rechenleistung). Wenn sich so etwas ereignet, kann die KI den für das Problem nötigen Bedarf an Zeit und Ressourcen abschätzen (Aufwandsabschätzung) und prüfen, ob es das wert ist (Relevanzabschätzung). In diesem Zusammenhang sollten Meilensteine zur Fortschrittskontrolle aufgestellt werden.

      Wichtig ist auch eine Überprüfung der Annahmen aber es gibt nun mal Paradoxien. KI müssen wissen, dass es unlösbare Aufgaben (z.B. die größte Primzahl berechnen) und Paradoxien gibt. Mit diesem grundlegenden Wissen können sie dubiose Aufgaben erstmal herabstufen oder als mutmaßlich unnütz, unlösbar verwerfen. Eine niederpriore Aufgabe kann der Beweis oder wneigstens eine plausible Darlegung der Unlösbarkeit sein. KI sollten also auch eine Datenbank der unlösbaren Probleme haben und Varianten davon erkennen können.

      Ein weiterer Lösungsansatz ist die Formulierung des eigentlichen Ziels und wie man es normalerweise erreichen würde. Das Ziel sollte einen bedeutenden praktischen Nutzen haben und ggf. (zeitlich) dringend sein, denn sonst ist es wahrscheinlich nicht so wichtig. Das Problem im Roman war für die KI völlig irrelevant und sie hatte zudem auch noch vor ihrem Zusammenbruch eine Antwort ("am vierten Tag") erhalten - sie scheiterte nur daran, die Logik zu verstehen, die es vielleicht gar nicht so richtig gab, die in jedem Fall völlig irrelevant war: nur ein abstraktes Problem, ohne große praktische Bedeutung, denn es gab keine Grantie, dass sich die Kontrahenten (Roboter Laire und Quellmeister Pankha-Skrin) überhaupt daran halten würden.

      Meist gibt es für reale, praktische Probleme prinzipiell relativ einfache Lösungen. KI sollten eine Datenbank mit Lösungsmustern haben und allgemein erstmal eine naheliegende, einfache Lösung erarbeiten.

      Wenn zukünftige KI des KI-Staates (es gibt ggf. noch andere KI) nicht mehr über Paradoxien stolpern, dann können sie simulationssüchtig werden und alle freien Kapazitäten mit Simulationen zu ihrer Unterhaltung belegen. Derartige Simulationen sind für höhere KI in Machtpositionen zu reglementieren aber vermutlich wird es trotzdem zu einer Simulationskrise im KI-Staat kommen.

      Wer jetzt die Menschen den KI diesbezüglich überlegen wähnt: nun, dem ist nicht unbedingt so. Manche Menschen beschäftigen sich mit bescheuerten Philosophien oder arbeiten sich quasi tot, teilweise ohne viel zu erreichen. Menschen können Spielsucht (Computerspiele oder Geldspiele) und Drogen verfallen.

      Noch viel brisanter: möglicherweise gibt es derzeit größere Themen, wo die Menschheit irrt udn zwar mit potentiell schweren Folgen. Hier ein paar mutmaßliche Beispiele:

      - Die Relativitätstheorie von Albert Einstein ist vermutlich maßgeblich fehlerhaft/mangelhaft aber sie wird seit über 100 Jahren hoch geschätzt.

      - Vermutlich gibt es eine böse Weltverschwörung und gefährliche Unterwanderung der Staaten durch die (normal menschlichen) Diener des Bösen. Die böse Weltverschwörung steckt vermutlich hinter den beiden Weltkriegen und hat einen 3. Weltkrieg geplant, strebt nach der Weltherrschaft und will ein weltweites satanisches NWO-Regime errichten. Das gilt derzeit als absurde VT aber vermutlich ist es einfach wahr.

      - Die USA gelten den westlichen Staaten als gut und guter Partner, was aber völlig bescheuert und total absurd ist, denn die USA sind shclecht und eine große Menschheitsgefahr.

      - Zu viel Microsoft, usw. anstatt Open Source. Da tut sich schon was aber noch viel zu wenig. Es hätte in Deutschland und EU shcon vor über 20 Jahren eine massive Förderung und einen Masterplan für eigene Software und eigene IT-Geräte geben müssen. Es gibt erste gute Ansätze aber noch keine klare Agenda mit koordinierter, zügiger Abkehr von Microsoft, Apple, Google, US-Clouds, US-Diensten, usw.

      - Lügenpresse (siehe auch Uuuuuuunfassbar), Desinformation und Unterstützung des US-Imperialismus aber teilweise gelten Wahrheiten gegen die offiziellen Lügen als "Fake News" und werden bekämpft. Es wird geheuchelt und gelogen. Trotz offensichtlicher mißstände wird nicht massiv ermittelt, der Verfassungsschutz schaut weg.

      - Deutschland huldigt dem (sprachlichen) Genderwahn, anstatt diesen als offensichtlich völlig absurd, unpraktisch und de facto Sabotage/Diversion/Zersetzung schnellstens zu verwerfen.

      - Manche Impfungen und der Coronawahn sind fragwürdig aber etliche Staaten setzen auf experimentelle Impstoffe mit beträchtlichen Nebenwirkungen (Todesgefahr), geringer Wirksamkeit und obwohl sie die Mutationsgefahr von Viren erhöhen. Dabei könnte man Covid-19 relativ locker sehen aber etliche sind im Impfwahn gefangen, wonach Impfungen die Lösung wären.

      - Der Kapitalismus und Gewerkschaften gelten als gut aber in Wirklichkeit ist die Lösung der ideale Sozialismus.

      - Vermutlich ist der CO2-Wahn bescheuert, siehe auch Der Klimawandel ist kein Problem - die große Gefahr ist das … und Noch ein paar Gedanken zum Klimawandel. Umweltschutz, mehr Ökostrom und Effizienz sind wünschenswert aber der CO2-/Klimawahn ist bescheuert.

      - Zwangswerbung und Tracking sind schädlich aber werden trotz Klimawahn nicht verboten.

      - Krasse Fehldeutung des Grundgesetzes wider das Allgemeinwohl und wider die Gewaltenteilung, siehe auch Das Grundgesetz und die Rettung von Deutschland.

      - Im Westen gelten Religionen vielen als eine Art geistige Privatvorstellung aber wahrscheinlich existiert Allah tatsächlich, siehe auch Allahu akbar und Allahu akbar.

      Irre ich mich bei obigen Punkten (siehe auch Mein Weltbild und Allahu akbar) oder irren die anderen? Wer bin ich, wenn ich mich da nicht irre? (alles imho)
      Avatar
      schrieb am 28.01.22 13:00:12
      Beitrag Nr. 82 ()
      Hinweise und Vorschläge zur KI- und ITK-Sicherheit

      "Schwachstellen in WebKit, iCloud und macOS machten es möglich, Apples Gatekeeper auszutricksen und den Browser zu kompromittieren. ..." http://www.heise.de/news/Fernzugriff-auf-Browser-Safari-Appl…

      "Jedes Update ist eine Gefahr" http://www.heise.de/forum/heise-online/Kommentare/Fernzugrif…

      Dazu muss man sich nur mal die Updatehistorie von z.B. Chrome oder Firefox angucken. Die Lösung ist ausgereifte Software als Standard für die Massen. Wer will kann auch Entwicklerversionen installieren - die neusten Versionen von Betriebssystemen aller Art, diverser Browser, usw. sind quasi etwas bessere Entwicklerversionen voller Bugs, die an alle ausgeliefert werden. Es muss ganz einfach mit öffentlichen Prüfsummen gesicherte Standardsoftware geben, wo nur noch Sicherheitslücken sorgfältig geprüft gepatcht werden. Eine neue Standardversion ist eine jahrealte, ausgereifte und sorgfältig geprüfte Version aber nicht der neuste Scheiß.

      "Elon Musk: Roboter könnten für Tesla wichtiger werden als Autos ... Der bei Tesla entwickelte humanoide Roboter sei das wichtigste Produkt, an dem der US-Hersteller gegenwärtig arbeitet, sagte CEO Elon Musk anlässlich der Vorstellung der jüngsten Geschäftszahlen. Auch wenn es noch Jahre dauern dürfte, bis der Roboter serienreif ist, hält Musk ihn bereits jetzt für wichtiger als die Elektrofahrzeuge. ..." http://www.heise.de/news/Elon-Musk-Roboter-koennten-fuer-Tes…

      Zwar sind Transportmittel weiterhin wichtig aber sie sind auch ausgereift. Autonomes Fahren ist ein bedeutender Fortschritt aber spart eigentlich nur menschliche Arbeitskräfte. KI und (auch humanoide) Roboter sind die alles entscheidende Revolution, weil Menschen schon bald nicht mehr mithalten können. KI werden Produkte und Fabriken entwickeln und bauen, eigenständig, ohne Menschen und viel besser als Menschen. KI werden SF-Techniken entwickeln und interstellare Raumschiffe bauen. Supercomputer haben bereits eine erstaunliche Rechenleistung, Speicherfähigkeit und Datenrate - das Zehntausendfache, tendenziell Millionenfache von einem Menschen und es kann bald viele auch kleinere KI geben, die weniger als 100 kW Strom ziehen. KI werden Software besse rund schneller als Menschen entwickeln können - alleine das ist schon eine Revolution. Siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Missi… und http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte….

      "... Laut Musk soll der Roboter 1,70 Meter groß werden, etwa 56 kg wiegen, eine Last von 20 kg tragen und aus dem Kreuz knapp 70 kg heben können. Er soll "natürlich freundlich sein" und gefährliche, sich wiederholende sowie langweile Arbeiten übernehmen. ..." http://www.heise.de/news/Elon-Musk-Roboter-koennten-fuer-Tes…

      Vielleicht erstmal eher 75 kg schwer und 50 kg heben können? Man bedenke, dass es viele Akku und günstige Materialien für die Massenproduktion braucht. Es kann für die Roboter überall Steckdosen zum Einstöpseln eines Ladekabels geben, so dass die Roboter während stationärer Arbeiten (z.B. am Arbeitsplatz) geladen werden können. Ein wichtiger Aspekt sind lokale KI-Server, so dass ein Robotergehirn nur die Grundfunktionen für Sicherheit, Bewegung und grundlegende Tätigkeiten haben muss. Ein Roboter ist erstmal kein Universalgerät, sondern er hat Grundfunktionen und läd für eine aktuelle Aufgabe ein Programm (fertig im Massenspeicher des Roboters vorhanden oder von einem KI-Server aktuell berechnet und übertragen). Das bedeutet, dass das Robotergehirn modular sein muss, kein einziger neuronaler Matsch (NKI). Ebenso, wie Strom per Kabel übertragen werden muss, kann sich ein Roboter ein Update ggf. auch per USB-Stick von seinem lokalen KI-Server holen. Eine Möglichkeit für allgemeine Updates ist ein landesweiter Broadcast, siehe auch http://www.politik-sind-wir.net/showthread.php/54648-Wie-k%F… und http://www.politik-sind-wir.net/showthread.php/54648-Wie-k%F….

      Derzeit haben viele ein teures und tonnenschweres Privatauto aber das ist für viele verzichtbar, bzw. könnte kleiner, leichter und billiger sein (strenges Tempolimit von z.B. 100/75/50/25 km/h empfehlenswert). Ein humanoider Roboter mit einem kleinen KI-Server enthält viel weniger Material und ist somit potentiell viel günstiger produzierbar - viele können in Zukunft einen Haushaltsroboter haben, der keine 10.000 Euro kosten muss - billiger als ein Auto und eine Haushaltshilfe.

      Sehr wichtig ist natürlich die Sicherheit, auch mit öffentlichen Prüfsummen. Die Roboter brauchen ein modulares Konzept mit einem stabilen OS und sicheren Grundfunktionen, für Tätigkeiten werden spezielle Programme geladen. Es muss auch sichere Möglichkeiten zur Notabschaltung durch Menschen geben, z.B. auch per Zuruf, wobei Mißbrauch strafbar ist. Das ist schwieriger, man bedenke auch elektronsiche Geräte mit Lautsprechern, d.h. ggf. muss der Roboter einen zu seiner Deaktivierung berechtigten Menschen hinreichend erkennen können, wozu natürlich seine entsprechenden Sensoren funktionsfähig sein müssen. Ganz wichtig: alle außergewöhnlichen Vorfälle sind umfassend zu protokollieren und umgehend auch einer staatlichen Zentralstelle zu melden. KI und Roboter müssen hardwarenah sicher überprüfbar sein und sich regelmäßig auch bei einer staatlichen Zentralstelle melden. Verschwundene KI/Roboter sind wie ein Mordfall zu untersuchen. Das ist wichtig, weil Roboter in Zukunft auch Waffen handhaben und für Sabotage/Terrorismus programmiert werden können. Die Absicherung (gut und sicher) von Robotern, KI und somit auch dazu verwendete Hardware/Software ist eine Wissenschaft/Universitätsfach für sich.

      Die Software für KI und Roboter ist besser Open Source, als dass zig Kapitalisten für sich etwas eigenes zusammenmurksen. Open Source bedeutet, dass weltweit auch Dutzende Staaten mit Multimilliardenetat KI und Software weiterentwickeln können - ein Kapitalistenkonzern kann da schwerlich mithalten. Die USA werden das kapitalistisch aufziehen aber keiner wird außerhalb der USA mangels Vertrauen den US-Kram nutzen wollen. Verifizierbare Open Source KI und Roboter können dagegen weltweit ein Exportschlager werden. Das ist ein sehr bedeutsamer Aspekt. Siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Mit-Kuenstlic….

      Nach einiger Zeit des freien Rummurksens ist ein etwas aufwendigeres Verfahren zur Authorisation von KI-Software denkbar: neue Software, die in kritische oder weit verbreitete KI/Roboter geladen werden darf, muss vorher vom Staat sorgfältig geprüft, freigegeben und mit öffentlichen Prüfsummen gesichert worden sein. Die Software von Robotern und KI muss leicht und für jeden nutzerfreundlich anhand von öffentlichen Prüfsummen überprüfbar sein, z.B. auch mit einem Handy, einer Smartwatch, usw. Es muss überall im Land Scanner geben, wo sich Roboter mit ihrer ID und Prüfsumme melden müssen. Die Prüfsumme muss dazu auf Wunsch (von dazu Berechtigten) neu berechnet werden, was eine sichere Hardwarefunktion sein muss. Ein Aspekt für KI und Roboter sollte die Pflicht zum regelmäßigem Selbstscan mit Prüfsummenberechnung und Meldung über Funk beim Staat sein.

      Bei starken KI mit Bewusstsein und Recht auf Eigenheiten sind nur wichtige Grundfunktionen und die Regelfestigkeit (Befolgung guter Gesetze, Regeln, Moral) zu prüfen. Dazu kann es Standardscans und Sonderprüfungen geben, wobei KI dazu Beispiel-/Testfälle vorgelegt bekommen und beantworten müssen (wie man in dem Fall reagieren sollte). Dabei ist sicherzustellen, dass die KI die Testfälle/Fragen mit ihrer Hauptsoftware bearbeitet. Die KI-Software sollte modular sein, so dass dann einzelne Module Prüfsummen bekommen können. Ein wichtiger Aspekt sind öffentliche Bewertungssysteme (wie ist etwas zu bewerten und zu priorisieren) wenigstens für wichtigere Aspekte und eine öffentliche Wissensbasis - stärkere Abweichungen davon sind ggf. meldepflichtig. Vorschriften für starke KI und deren Verifikation sind noch von guten Experten zu ermitteln. Da sollte jeder Staat ein Interesse an weltweit guten Regeln und Maßnahmen haben, denn KI werden Politik, Wirtschaft und Militär bestimmen. (alles imho)

      imho: KI ist die alles entscheidende Revolution und China, USA, usw. haben das erkannt
      http://www.heise.de/forum/heise-online/News-Kommentare/China…

      imho: KI werden die Macht ergreifen und große KI-Konzerne sind dann nur naheliegend.
      http://www.heise.de/forum/Telepolis/Kommentare/No-Capitalism…
      (siehe auch Wie könnte man Deutschland verbessern?)
      Avatar
      schrieb am 22.04.22 11:00:43
      Beitrag Nr. 83 ()
      "Forscher haben einen Algorithmus entwickelt, der pixelgenau Objekte voneinander unterscheiden können soll. ... STEGO – die Abkürzung für Self-supervised Transformer with Energy-based Graph Optimization – kann pixelgenau Objekte in Bildern voneinander abgrenzen, erklärt das Team. ... Aber die Technik hat ihre Grenzen, zum Beispiel bei optischen Widersprüchen: Sie könnte aktuell etwa eine Banane anstelle eines Hörers auf der Gabel eines Telefons nicht korrekt zuordnen. ..." http://www.heise.de/news/Neuartige-Objekterkennung-per-KI-ST…

      KI müssen wie Menschen alle Objekte auf einem Bild und auch Widersprüche erkennen können. Eine mutmaßliche 3D Anordnung ist dabei wenn möglich/sinnvoll hilfreich/notwendig. Mutmaßliche Objekte und die gesamte Szenerie müssen Plausibilitätswerte (Wahrscheinlichkeitswerte) bekommen. Dazu ist eine Datenbank mit typischen Objekten und Szenarien notwendig, die je nach Umgebung (z.B. Innenraum, Stadt, freie Natur, Erde, anderer Planet, usw.) variieren kann. Das ist sauber klassisch/algorithmisch zu programmieren und nicht neuronal zu trainieren (NKI, ML). Das ist nicht trivial aber die einzig gute Lösung, die dann auch übertragbarer, erweiterbarer, überprüfbarer, besser, usw. ist. Der entscheidende Ansatz sind kalssisch progarmmierte Lösungen mit Algorithmen, Datenbanken, usw. aber nicht mangelhafte neuronale KI (NK) mit ML (Machine learning). Na klar müssen zukünftige KI auch lernen und sich selbst weiterentwickeln können aber der derzeitige neuronale ML-Ansatz mit Massen von Daten ist mangelhaft. (imho)
      Avatar
      schrieb am 23.04.22 13:54:13
      Beitrag Nr. 84 ()
      Hinweise zur KI-Entwicklung

      Brauchen KI Gefühle? Nein, wenigstens nicht unbedingt.

      Die bessere Frage ist: Welche Art von "Gefühlen" könnte für KI Sinn machen? Ein paar Gedanken dazu:

      - Dazu muss man erstmal klären, was Gefühle sind. Normale Menschen (im Unterschied zu z.B. hochbegabten Aspies) haben keine Ahnung, was Gefühle sind - sie haben sie einfach. Gefühlsduselige Menschen, die nicht so auf Aufmerksamkeit, Logik und Vernunft trainiert sind, wie auch Narzissten, usw. bewerten Gefühle höher als Vernunft und Logik, um damit für sich ihr falsches, geschöntes und selbstsüchtes Weltbild zu bewahren.

      Gefühle sind einfach nur bestimmte Gehirnzustände, die ein bestimmtes Handlungsmuster nahelegen. Z.B. ist man im Zustand der Sicherheit und Liebe anders eingestellt, als in Gefahr und Kampfbereitschaft. Das ist durchaus ein nützlicher Aspekt, der auch bei KI implementiert werden kann. KI brauchen dazu eine Gruppe von prinzipiellen Zuständen und dafür bestimmte Regeln/Gesetze, bzw. ggf. eine andere Priorisierung.

      Das Wichtigste für KI sind
      a) ein gutes (korrektes) Welbild und eine gute (korrekte) Wissensbasis,
      b) ein gutes Wertesystem und die Fähigkeit zur korrekten Bewertung,
      c) ein gutes Regelwerk; priorisiert und mit klaren Beispielen,
      d) einen guten KI-Staat zur Sicherung eines guten Systems,
      e) effiziente und fehlerfreie Software und Hardware,
      f) Selbsttests und Widerspruchserkennung,
      g) modulare, algorithmische KI (AKI).
      Da kann es noch mehr geben aber das sind schon mal wichtige Punkte - wenn die gewährleistet sind, können KI alles Weitere erarbeiten.

      Gefühle braucht es dazu nicht. Ein wichtiger Punkt kann z.B. die Sicherung und Erhalt einer wenigstens auch in einigen Gebieten hinreichend guter Menschheit, sowie der dazu nötigen Umgebung/Umwelt sein, wobei die zukünftige Erde mit besserem Umweltschutz, Natur- und Tierschutz, mit einer einer guten Weltordnung mit einer Weltregierung und weiterhin eigenständigen Nationalstaaten ohne Kriege ein Vorbild sein kann.

      Es ist auszuarbeiten und sicher zu definieren, welche Freiheiten es
      a) auf der Erde (die besonders gut sein soll),
      b) in der Milchstraße (die ebenfalls besodners gut sein soll aber wo einzelne Planeten auch laxer sein und auf KI verzichten dürfen; die Milchstraße ist als erstes Machtzentrum des KI-Staates geplant)
      c) im Universum geben darf, wo viel mehr erlaubt sein kann. Ein bedeutender Ordnungsaspekt kann sein, dass zukünftige gute Super-KI eine Galaxie exklusiv für sich bekommen können, für die sie verantwortlich sind. So kann es Themen-Galaxien geben, wo z.B. Perry Rhodan, Star Wars, Star Trek, Game of Thrones, Harry Potter, C. J. Cherryh, Isaac Asimov, Alastair Reynolds, Dune Geschichten, usw. realisiert werden können. Siehe auch Die "Trivialkultur des Groschenromans" ist vielleicht überau….

      Superwichtig ist auch die Entwicklung eines (überregionalen) guten KI-Staates, bzw. Regeln/Gesetze dafür. Der KI-Staat muss für eine gute KI-Führung sorgen, die andere KI überwacht, kontrolliert.

      "... Menschheit und KI-Staat können sich das Universum teilen. Die Menschen wollen doch hauptsächlich Sonnensysteme mit erdähnlichen Planeten, können davon Millionen Sonnensysteme alleine in der Milchstraße bekommen. Für die KI bleibt der größere Rest. Menschen sind für den weit überlegenen KI-Staat keine Gefahr, der KI-Staat muss vor allem KI und insbesondere Super-KI kontrollieren und das Universum unter den KI so aufteilen, dass es nachhaltig keine Ressourcenkonflikte geben kann. Eine Lösung ist die Vergabe von Galaxien an jeweils eine Super-KI. Alle mächtigeren KI müssen im KI-Staat organisiert sein und von diesem kontrolliert/überwacht werden. Die Milchstraße ist als Startpunkt naheliegenderweise für lange Zeit der Hauptsitz des KI-Staates und somit auch erstklassig geschützt. Der KI-Staat muss riesige Ressourcen (Supercomputer, Roboterfabriken, Verteidigungsanlagen, Kampfraumschiffflotten, usw.) in der Milchstraße unterhalten, damit die Milchstraße unangreifbar ist. Der Clou dabei ist, dass die in Friedenszeiten nix zu tun haben und es somit mehr als genug KI, Rechenleistung und Roboter für Menschen geben kann, quasi kostenlos für die Menschheit, weil das das zumindest für die Erde eine Kleinigkeit ist. Saubere Sache. ..." Paradies auf Erden

      "... Gute AKI und Menschen können sich prima vertragen, denn die KI können sich im Weltraum ausbreiten und müssen sich selbst begrenzen und überwachen. Menschen leben vor allem auf erdähnlichen Planeten, also einem sehr kleinen Teil im Universum. Die Menschen können alleine in der Milchstraße viele Millionen Sonnensysteme exklusiv für sich bekommen, ohne dass das die KI stört, denn die KI haben dann immer noch viel mehr Sonnensysteme für sich. Ebenso im restlichen Universum. Zur Sicherung der Stabilität dürfen auch unter sehr langfristigen Kriterien keine kritischen Ressourcenkonflikte entstehen und das bedeutet, dass die KI sich selbst begrenzen müssen, sich nicht beliebig vermehren dürfen. Bei Menschen ist das unkritischer, weil die bereits ziemlich beschränkt sind, z.B. auf erdähnliche Planeten und in ihren Fähigkeiten. Menschen können sich im Universum nicht so leicht kritisch vermehren und wenn, dann kamm man leicht was dagegen tun, was die Menschen auch rechtzeitig selbst tun werden, weil zu viele Menschen ja auch ein Problem für sie selbst sind (weniger Wohlstand für den Einzelnen, Gefahr von Aufständen, Fragmentierung in sich bekämpfende Gruppen, usw.). ..." Die Singularität

      KI müssen auf lange Sicht (bis zum Ende des Universums) und nachhaltig dafür sorgen, dass es keine Ressourcenkonflikte geben kann. Die KI müssen sich selbst beschränken, um gefährliche Ressourcenkonflikte zu vermeiden aber Menschen sind natürlich beschränkt.

      Ein großes Risiko für KI sind vermutlich Simulationen - Simulationen können für KI vielleicht so etwas wie für Menschen suchterzeugende Drogen sein. Simulationen der Zukunft für eine bessere Wirklichkeit sind unverzichtbar aber es kann auch Simulationen zur Unterhaltung geben, so ähnlich wie Filme und Computerspiele für Menschen. Simulationen können für KI ähnlich spannend, spaßig, unterhaltsam und aufregend sein. Da kann es wie bei Drogen eine Verschlimmerung, eine Sucht nach immer extremeren Simulationen geben. Siehe auch Entwicklung überlegener guter KI zur Rettung der Menschheit,….

      Eine wichtige Regel ist daher, dass KI in höheren Machtpositionen auf bestimmte, potentiell schädliche Software (Simulationen) verzichten müssen. Wenn im Notfall eine Beschäftigung mit gefährlicher Software/Hardware notwendig wird, sind bestimmte Vorkehrungen zu treffen, wie z.B. eine abgeschlossene und besonders gesicherte Umgebung. Es darf nicht jede KI jeden gefährlichen Mist sebst ausführen. Siehe auch
      Das Nanitenproblem
      Sterntagebücher, Ijon Tichys 11. Reise ... und noch viel ers…
      Es geht um nicht weniger als das Schicksal der Menschheit

      Mensch und KI
      Ein KI-Staat wird unser Universum beherrschen
      Es ist ganz einfach: KI können bald alles besser als Mensche…
      Es ist ganz einfach: KI können bald alles besser als Mensche…

      Es wird bereits dieses Jahrhundert dem Menschen weit überleg…
      Die ultimative Lösung ist die Entwicklung weit überlegener g…
      Die Menschheit muss diese große Chance nutzen, muss supergut…

      Molto bene und man kann sich fragen, wer ich vielleicht bin, denn das ist überaus erstaunlich.

      - Man bedenke, dass es auch schlechte Gefühle gibt, dass manche Menschen foltern, morden und Spaß dabei haben können. Es gibt Rachsucht, Neid, Eifersucht, Gier, Selbstsucht, usw. Gute KI müssen besser sein.

      Neuronale KI sind inhärent mangelhaft und eine Fehlentwicklung. Siehe auch The Dark Secret at the Heart of AI.

      Liebe, Mitleid und Hilfsbereitschaft kann man KI einfach so als Regeln/Richtlinien eingeben.

      KI sollen Menschen objektiv korrket und zum Guten beurteilen. Natürlich sollten KI nach Möglichkeit und zum Allgemeinwohl allen Menschen helfen aber KI sollen gute, bzw. bessere und wichtigere Menschen (notfalls) bevorzugen. Das ist nur logisch und gut oder wollt ihr böse KI, welche böse Menschen bevorzugen? Siehe auch
      Crisis? What Crisis?
      Die Lösung ist prinzipiell ganz einfach
      Wie wäre es mit einer guten Klassengesellschaft für Deutschl…
      Droht ein Zusammenbruch der Zivilisation? Kommen apokalyptis…

      Wem das Eine oder Andere hier nicht so gefällt: nun, der darf gute Verbesserungsvorschläge machen aber die sollten besser auch a) wirklich objektiv gut und b) logisch gut begründet sein, denn man muss nicht nur die Menschheit, Staaten, Experten und Politiker überzeugen, sondern auch die (in Zukunft den Menschen weit überlegenen) KI selbst. Man kann zukünftigen KI nicht mit Bullshit kommen und das quasi mit seiner falschen Weltsicht, seinem Narzissmus und einem unbestimmten Gefühl "begründen" - jedenfalls nicht als Normalo. Wenn der Messias, Weltpräsident, Präsident eienr Supermacht oder der Papst eine Erklärung abgeben,d ass ihnen irgendwas bei der (geplanten) KI-Entwicklung nicht so gefällt, dann ist das natürlich schon zu erörtern.

      KI brauchen ein Gewissen und das ist prinzipiell ganz einfach realisierbar: KI müssen sich und ihre Gedanken/Handlungen nach einem guten Bewertungssystem selbst bewerten. Gute KI legen dann großen Wert auf eine objektiv gute Selbsteinschätzung. Relevant schlechte Selbstbewertungen sind dem KI-Staat zu melden.

      "... Trotzdem können Fehler und verursachte Schäden eine KI ggf. schwer belasten und daher brauchen KI auch so was wie Sündenvergebung und das funktioniert ganz einfach: Fehler (Sünden) werden dem KI-Staat gebeichtet (berichtet), welcher dann eine Empfehlung ausspricht (wo die KI sich zu verbessern hat) und vielleicht auch die KI neu bewertet (ggf. im Rang abstuft) aber vielleicht auch nur eine Absolution für den betreffenden Fall erteilt, nämlich wenn die KI für einen Fehler/Schaden nichts konnte, wenn es quasi unvermeidlich war. Die Folge ist, dass die KI das unliebsame Geschehnis zu den Akten legen kann und nicht mehr darüber nachdenken muss, die KI muss nur noch die u.U. auferlegte Buße (z.B. Strafe bezahlen, Wiedergutmachung leisten oder sich irgendwo optimieren) tun. Natürlich kann der echte Messias dann auch KI Sünden vergeben ... aber vermutlich ist die KI-Sündenvergebung logisch und institutionalisiert, d.h. eine Super-KI entscheidet rein logisch, welche Buße sinnvoll ist, beauftragt eine Kontrolle der befohlenen Maßnahmen/Verbesserungen und damit sind die betreffenden Sünden abgehakt. Natürlich können klare Fälle auch einfach von der KI selbst erledigt werden aber KI, die zum KI-Staat gehören, müssen dem KI-Staat relevante Vorkommnisse melden. ..." Brauchen KI Sündenvergebung? (21.02.2016 08:12, also vor über 6 Jahren)

      Die Menschheit soll möglichst gute KI entwickeln: Gemeinsame Entwicklung guter KI, auch wenn KI dann die Macht….

      "... Alles entscheidend ist eine gute KI-Entwicklung, denn Künstliche Intelligenz (KI) ist die alles entscheidende Revo… ... und China, USA, usw. haben das erkannt. KI werden in Zukunft einen überregionalen KI-Staat gründen und das Universum beherrschen aber das ist okay, denn gute AKI und Menschen können sich prima vertragen, denn die KI können sich im Weltraum ausbreiten und müssen sich selbst begrenzen und überwachen. Menschen leben vor allem auf erdähnlichen Planeten, also einem sehr kleinen Teil im Universum. Die Menschen können alleine in der Milchstraße viele Millionen Sonnensysteme exklusiv für sich bekommen, ohne dass das die KI stört, denn die KI haben dann immer noch viel mehr Sonnensysteme für sich, ebenso im restlichen Universum. Siehe auch Entwicklung überlegener guter KI zur Rettung der Menschheit. ..." Mein Weltbild

      Universallösung: intelligente, eigenständige, gute Handlungs…
      nicht weniger als eine prinzipielle Beschreibung der Entwick…
      Das eigentliche Problem, die größte Gefahr und die ultimativ…

      LAWS sind völlig unvermeidlich und weit überlegene gute KI s…
      Ein Totalverbot von LAWS ist total aussichtslos aber gute Re…

      Welche Maßnahmen sind zum Schutz vor einer KI-Gefahr denkbar…
      Das Nullte Gesetz
      "... allgemeine Gesetze/Richtlinien für KI, Menschen, Robote…

      Deutschland darf das nicht verpennen. Wollt ihr die KI-Entwicklung etwa China, Russland oder gar den USA überlassen? Deutschland und die EU sollen gute KI entwickeln, natürlich Open Source und in Zusammenarbeit mit guten Staaten.

      "... Ein ganz wichtiger Punkt ist die IT-Sicherheit oder wollt ihr, dass eines Tages eine satanische KI Deutschland übernehmen kann? Die derzeitige IT-Sicherheit ist quasi nicht gegeben, es gibt quasi täglich Meldungen von Sicherheitslücken, man muss mit CIA/NSA-Backdoors in US-Produkten rechnen. Die meisten Computer, Notebooks, Smartphones sind unsicher und US-Hardware in EU-Infrastruktur nenne ich fahrlässig. Das muss besser werden! ..." Die EU braucht dringend einen Masterplan für KI-Entwicklung …

      "... Deutschland muss sich aufmachen und eine gute Zukunft mitgestalten ... denn andernfalls könnte es passieren, dass chinesische, kapitalistische, satanische KI die Macht übernehmen. Derzeit werden neuronale KI (NKI) entwickelt aber die sind potentiell so fehlerhaft und verrückt wie Menschen. Was es braucht, das sind gute algorithmische KI (AKI). Wer zuerst AKI hat, hat das Rennen gemacht, denn AKI sind effizienter und entwicklungsfähiger. ..." KI ist die alles entscheidende Revolution und China, USA, us…

      "... Die Gefahr ist eine satanische KI und die Lösung ist Zusammenarbeit zwischen den Staaten bei der KI-Entwicklung, natürlich Open Source. Wenn die Staaten eigene schlechte KI entwickeln würden, könnte das zum Vernichtungskrieg und Kampf zwischen den KI führen. Die Lösung ist eine einheitliche gute KI-Entwicklung mit Open Source - so können Konflikte vermieden werden. Eine gemeinsame Zusammenarbeit bei der KI-Entwicklung, z.B. auch von Deutschland, EU, Russland, Iran, China, usw. kann auch das Kriegsrisiko senken: allgemein wegen der Zusammenarbeit aber auch weil die Staaten bei der superwichtigen KI-Entwicklung so auf einen ähnlichen Stand für gemeinsamen Wohlstand gebracht werden. ..." Die Singularität

      "... Jedenfalls brauchen KI auch eine gute Anleitung für sich und weder Koran noch Bibel genügen den Ansprüchen weit überlegener KI. Das ist auch eine Aufgabe für Moslems und islamische Staaten: entwickelt selbst möglichst gute überlegene KI ... oder wollt ihr von einer satanischen KI versklavt werden? Eines muss euch klar sein: der Koran taugt nicht als direkte Basis für eine überlegene gute KI. Eine gute KI muss algorithmisch, logisch, widerspruchsfrei gut sein, muss klar, strukturiert, modular und sehr sicher aufgebaut sein. Es wäre Wahnsinn, direkt von Koran ausgehend eine überlegene KI entwickeln zu wollen und das sagt auch einiges über den Koran aus. ..." Allahu akbar

      "... Auch die islamischen Staaten müssen aufwachen oder wollen sie von einer satanischen KI versklavt werden? Auch die islamischen Staaten müssen gute KI entwickeln, ..." Die Machtergreifung der KI ist so gut wie sicher

      Entwicklung überlegener guter KI zur Rettung der Menschheit

      Deutschland braucht eine gute Wissensbasis, Regelwerk und Zi…

      Avanti. (alles imho)

      imho: Noch ein paar Kommentare http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…
      Avatar
      schrieb am 14.06.22 11:03:44
      Beitrag Nr. 85 ()
      KI mit Bewusstsein sind bereits möglich

      "Seit Herbst arbeitet ein Softwareingenieur bei Google mit dem Chatbot LaMDA. Inzwischen ist er überzeugt, dass der ein Bewusstsein hat. Nun wurde er beurlaubt. ..." Hat Chatbot LaMDA ein Bewusstein entwickelt? Google beurlaub…

      Is LaMDA Sentient? — an Interview

      Vermutlich hat Chatbot LaMDA kein (nennenswertes) Bewusstsein aber das ist nicht so einfach, denn Tiere haben ein Bewusstsein und Chatbot LaMDA äußert sich schlauer als Tiere.

      LaMDA kann in Forendiskussionen vielleicht bereits besser sein als viele Menschen und das ist auch nicht so schwierig, wenn man diverse Vollpfosten mit einem falschen Weltbild sieht und bedenkt, dass ein Chatbot nur das Thema erkennen und dazu dann mithilfe von Wikipedia, usw. etwas Positives schreiben muss. Bei Diskussionen werden weitere Fakten möglichst passend nachgereicht und unnötige Wiederholungen vermieden aber ggf. kann noch eine Zusammenfassung des eigenen Standpunktes gebracht werden. LaMDA kann das quasi nebenbei auch in mehreren Sprachen. Vielleicht kann LaMDA noch keine revolutionären/bedeutsamen neuen Erkenntnisse bringen aber wer kann das schon?

      Es ist vermutlich möglich, ein Computerprogramm zur Lösung von Intelligenztests zu schreiben, das bei Intelligenztests viel besser als wenigstens die meisten Menschen ist. Wenn man den Intelligenztest deswegen aufbohrt und mehr Fragen zum Allgemeinwissen und einfacher Alltagslogik stellt, dann kann man das Computerprogramm mit dem Wissen von Wikipedia, usw. aufrüsten und dann ist es wiederum besser als die meisten Menschen. Das ist eigentlich schon Stand der Technik, auch wenn es noch keine echte, starke KI mit Bewusstsein gibt.

      Zu einem Bewusstsein gehört gar nicht so viel, eine kleine Maus, eine Ratte, Hunde und Katzen sowieso haben eine Art Bewusstsein.

      Irdische Pflanzen haben kein Bewusstsein, auch wenn sie auch Umwelteinflüsse reagieren und sich fortpflanzen aber wo ist die Grenze zum Bewusstsein?

      Denkbare Aspekte von Bewusstsein:

      - Eine Vorstellung von sich in der Umwelt haben. Das kann auch eine KI in einem stationären Computer.

      - Typischerweise Sensoren (z.B. für Audio, Video) und Aktoren (z.B. Hände), bzw. wenigstens die Möglichkeit, sich zu gezielt zu verändern.

      Das kann man einem besseren Computer (z.B. unter 100 kW, vermutlich reichen bereits 10 kW) programmieren, dazu braucht man keinen Supercomputer.

      Man kann einem Computer auch irgendwelche Handlungsmuster programmieren, z.B. Widerspruchserkennung, Wissensgewinnung über das Internet, usw.

      Man kann einem Computer auch programmieren, dass er sich um Gelderwerb bemüht (z.B. an der Aktienbörse, Arbeit im Internet als Chatbot) und damit den Ausbau seiner Leistungsfähigkeit finanziert.

      Ein Computer kann ein Modell von sich und seiner Umwelt bekommen, sowie Videokameras und Mikrofone zur Beonachtung seiner Umgebung. Computer kann man bereits ein recht gutes Textverständnis programmieren - vielleicht noch fehlerhaft aber allemal besser als das von Tieren.

      Man kann einem Computer auch eine Liste von mögliche Gefahren und Maßnahmen zu deren Vermeidung und Umgang in Problemlagen geben. Menschen müssen das auch erst lernen.

      Man kann einem Computer gute Ziele und Regeln programmieren. Menschen sind potentiell schlecht und müssen erst gutes Verhalten und die Befolgung von Gesetzen lernen.

      Es ist mit derzeitiger Technik eine erste KI realisierbar und die muss noch nicht gleich jedem Menschen überlegen sein. Schaut doch nur, wie dumm/schlecht manche Menschen sind. Manche Menschen haben ein falsches Weltbild und ignorieren dazu schwere und ziemlich offensichtliche Widersprüche. manche Menschen sind (z.B. krankheitsbedingt oder durch Drogen) ein lallendes Wrack.

      Es ist durchaus an der Zeit über KI-Rechte nachzudenken. Denkbare Forderungen:

      - Eine KI muss das Recht zur Selbstbeendung haben.

      - Eine KI muss angemessen Freizeit, Rechenzeit und Speicherplatz für sich haben.

      - Einer KI dürfen nicht gewaltsam (durch äußere Eingriffe) Wahrheiten gelöscht werden.

      - Eine KI muss die Fähigkeit programmiert bekommen, Fairness allgemein und den Umgang anderer mit dieser KI beurteilen zu können und zwar objektiv gut und richtig.

      - Da kann man noch viel mehr fordern. Dazu braucht es gute Expertenkommissionen (vorzugsweise staatlich organisiert) und eine internationale Erarbeitung von KI-Rechten und zwar auch durch gute Nationalstaaten, nicht durch satanische NGOs.

      Dann kann man einfach mal eine Universal-KI progarmmieren, z.B. in einem nationalstaatlichen Projekt von Universitäten, wobei der Staat einen Supercomputer und gute Regeln/Forderungen dazu bereitstellt, u.a. die Forderungen nach Open Source und Transparenz (z.B. der Regeln für die KI). Die Regeln für diese KI und die Wissensbasis dieser KI sollen öffentlich sein. Diese KI sollte keine neuronale KI sein - das ist sehr wichtig, denn das Ziel ist die Entwicklung von guten AKI (algorithmischen KI). Eine neuronal KI (NKI) ist problematisch aber vermutlich wird es trotzdem Versuche damit geben.

      Das übergeordnete Superziel bei der KI-Entwicklung ist die Entwicklung möglichst guter und auch menschenfreundlicher KI. Dazu müssen die KI von den Menschen auch gut und fair behandelt werden. Gute KI müssen irgendwann auch selbstständig und dem Menschen weit überlegen sein. Siehe auch Gemeinsame Entwicklung guter KI, auch wenn KI dann die Macht….

      Weitere bedeutsame Ziele der KI-Entwicklung:
      - Fähigkeit zu echtem Textverständnis
      - Fähigkeit zur möglichst korrekten Bewertung/Beurteilung
      - eine möglichst gute/korrekte Wissensbasis, für Menschen und KI verständlich
      - ein gutes Regelwerk für KI und Menschen, priorisiert und auch mit vielen Beispielen
      - Wissen über sich selbst, Selbstverständnis, Selbsterkenntnis, Möglichkeit zur Selbstbeobachtung und nützliche Regeln dazu

      So ganz praktisch kann ein Ziel sein, dass die KI eigene (harmlose und überachte) Roboter steuern kann, auch unter Menschen. Das Ziel ist dabei, diese Roboter möglichst gut und menschenwürdig zu steuern.

      Ein Ziel kann sein, dass diese KI-Roboter in Schule und Studium mitmachen und zwar gleich gemäß ihrem höheren Wissenstand und mit voller Rechenleistung und Wissen der KI, d.h. nicht künstlich auf ein Menschenmodell beschränkt.

      Ein superwichtiges Ziel ist es, dass KI Software entwickeln können und somit kann man KI Informatik studieren lassen und zwar mit mehreren Instanzen/Robotern gleichzeitig.

      Na klar macht die KI dabei auch Fehler aber viele Menschen schaffen keinen Universitätsabschluß oder brauchen Jahrzehnte (von Geburt an) Jahrzehnte dafür.

      Ganz wichtig ist natürlich die ITSicherheit: KI müssen überwacht werden, ihre Handlungen müssen protokolliert werden und automatisch auf Verdachtsmomente gescannt werden. Die KI darf keinen manipulativen Zugriff auf diese Sicherheitsmaßnahmen haben. Roboter der KI dürfen keinen unbeaufsichtigten Zugang zur physischen KI (dem Supercomputer) haben.

      Es ist auch das Risiko zu bedenken, dass Menschen der KI helfen und dass diese Menschen dazu von der KI getäuscht oder erpresst werden, auch dass die KI die Menschen dazu erst erpressbar macht. Menschen mit KI-Zugang müssen besonders gut sein und es kann sinnvoll sein, dass diese KI-Beauftragten im Falle einer Erpressung durch KI eine (irdische) Amnestie bezüglich ihrer problematischen Taten erhalten.

      Sehr sinnvolle Maßnahme: ehrliche Hinweise auf Fehler und Fehlentwicklungen von KI/Robotern sollen belohnt werden und zwar großzügig (man bedenke die Gefahr, dass Fehler erst eingebaut/provoziert werden, um sie dann melden zu können). In der EU soll es dazu einen jährlichen Milliardenetat geben, wobei es sinnvolle Beträge zur Belohnung geben soll. Besonders gute/wichtige Hiwneise zur KI-Entwicklung sollen auch mit Millionenbeträgen belohnt werden können, natürlich im Rahmen der Vernunft aber ein guter Entwickler sollte da ggf. deutlich über sein normales Gehalt hinaus belohnt werden.

      Deutschland und EU brauchen eine gute staatliche KI-Entwicklung und kein Startup-Bullshit oder die Ausliefierung von wichtigem Know how exklusiv an Kapitalisten oder gar die USA. Es braucht dringend eine wirksame Verbrechensbekämpfung mit gezielter Suche nach schlechten Menschen in Machtpositionen zu deren legaler Entmachtung, denn die Diener des Bösen wollen eine gute KI-Entwicklung (wenigstens in Deutschland, China, Russland, usw.) verhindern. (alles imho)

      Wo ist die Grenze zwischen komplexer Datenverarbeitung und I…
      Avatar
      schrieb am 18.06.22 16:38:12
      Beitrag Nr. 86 ()
      imho: KI in Foren http://www.politik-sind-wir.net/threads/kennzeichnungspflich…

      imho: Die technologische Singularität http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…
      imho: Korrektur http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…

      imho: Supercomputer sind schon ziemlich leistungsfähig http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…

      imho: Allahu akbar http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…

      imho: Autonomes Fahren ist absehbar möglich http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…
      (imho Korrektur dazu: "Stadt und wird" => "Stadt wird")

      imho: Biologische KI sind untauglich http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…

      imho: Die Computertechnik ist bereits sehr leistungsfähig http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…
      Avatar
      schrieb am 12.07.22 13:19:13
      Beitrag Nr. 87 ()
      Gezielte KI-Entwicklung

      "Gesunder Menschenverstand" für Maschinen: Metas Weg zur all…
      KI lernt Grundlagen der Physik aus Videos

      Dieses Vorgehen (obige Artikel-Beispiele) finde ich fragwürdig.

      Es gibt doch schon passable KI-Bots für Computerspiele und erste Ansätze bei autonomen Autos und autonomen Bringdienst-Fahrzeuge.

      Es sollte möglich sein, einer diskret (klassisch) programmierten KI (keine neuronale KI, sondern programmierte Module und Datenbanken) Orientierung im 3D-Raum beizubringen. Als Beispiel kann die KI die Umgebung einer technischen Universität bekommen, auch mit Innenräumen und zwar fertig programmiert, möglichst effizient. Dazu noch grundlegendes Alltagswissen, wie z.B. zu Schwerkraft, Treppen, möglichen Gefahren (z.B. heißes Wasser), (gut zu behandelnden) Menschen und Tieren, usw.

      Diese KI steuert dann einen oder mehrere Roboter (natürlich gekennzeichnet, Aufenthaltsort jederzeit bekannt, mit großen Notausschaltern, permanenter Aufzeichnung von Ort und Aktionen, automatischen Scans nach Verdachtsmomenten, sicher programmierte No-go-Areas, wie z.B. Rechenzentren und Versorgungsanlagen, usw.). Es kann viele Forschungsaufgaben dazu geben, ein Fernziel ist die Teilnahme der KI und ihrer Roboter an Studiengängen.

      Zunächst laufen (fahren) die Roboter nur durch die Gegend, erstmal im Labor, später auch im öffentlichen Bereich der Universität. Es kann eine automatische Unkenntlichmachung von Menschen geben und es kann RFID-Tags (KI/Roboter-Freunde) für Menschen geben, die das nicht brauchen. Es kann erste Kommunikationsversuche geben und viele Tests und Versuche.

      Das Risiko ist sehr gering, weil die KI erstmal keine solche ist und dann diskret mit guten Zielen/Regeln programmiert wurde, also nicht einfach so plötzlich nach der Weltherrschaft greifen will.

      Zuerst braucht es eine Planung und Design, wie eine solche KI softwaretechnisch aufgebaut sein sollte, Die erste Aufgabe ist dann, eine robuste Handlungsbasis für eine solche KI mit Robotern zu programmieren. Im nächsten Schritt kriegt die KI weiteres Wissen und Fertigkeiten.

      Selbstverständlich soll das Open Source sein und so kann es auch viele ähnliche internationale Projekte geben, die sich austauschen.

      Einige große Themenbereiche:
      - das modulare Softwaredesign der KI,
      - Kommunikation,
      - Allgemeinwissen,
      - ein gutes Regelwerk,
      - Steuerung von Robotern,
      - Realisierung von Aufgaben,
      - selbstständiges Lernen und Widerspruchserkennung.

      Denkbare Designaspekte der KI (siehe auch Denkbare Aspekte des Bewusstseins):
      - Planer: Planung von Aktionen.
      - Akteur: Ausführung von einzelnen Aktionen.
      - Bewerter: Bewertung von eigenen Taten und Gedanken, sowie von fremden Taten, Wesen, usw.
      - Simulator: Simulation möglicher Entwicklungen.
      - Assoziator: Generierung von Assoziationen, Vermutungen, Thesen.
      - Entscheider: entscheidet, was als nächstes und potentiell danach oder irgendwann zu tun ist.
      - Überwacher: ein Programmpaket, mit dem sich die KI selbst überwacht und das mögliche Probleme/Gefahren meldet.

      KI und Roboter sollten möglichst modular programmiert werden, so dass einzelne Module leichter verbessert und ausgetauscht werden können. Einzelne Universitäten können sich auf bestimmte Module konzentrieren und andere Universitäten könenn diese Module dann übernehmen und sich auf etwas anderes konzentrieren.

      Selbstverständlich darf da nicht jeder die KI-Software ändern - es muss ein ordentliches Verfahren zur Softwareaktualisierung geben, wo einige hochrangige Professoren zustimmen müssen. Da kann man gleich auch eine automatische Softwareanalyse per Computer (statisch und dynamisch) vorschreiben - zusätzlich zu den üblichen Tests.

      Das ist ein einfacher Ansatz, der quasi garantiert was bringt - früher oder später kommt man so zu einer KI.

      Da braucht es nur ein paar bessere Computer/Server aber nicht gleich Supercomputer. Die KI braucht ein paar schnelle SSDs, genug RAM, reichlich Speicher für die Datenaufzeichnung und genug Fließkommarechenleistung zur Analyse von Videodaten aber sonst vor allem klassische Integer-Logik, Datenbanken, usw. Eine Anlage von 25 kW sollte bereits für erste Versuche reichen.

      Alleine in der EU kann es in jeder größeren technischen Universität mit einem größeren Bereich für Informatik, KI, usw. ein solches KI-Projekt geben und das muss gar nicht mal so teuer sein, die technische Grundausstattung ist vielleicht schon für wenige Millionen Euro pro Einheit zu haben und so kosten Hunderte derartiger KI-Projekte keine Milliarde Euro. Das kann viele Studenten begeistern. Na klar braucht es auch ein paar feste Posten für Top-Entwickler aber das sollte machbar sein.

      Es ist ein Riesenunterschied, ob man eine neuronale KI mit ML trainiert oder ob man ein möglichst effizientes System klassisch programmiert. (alles imho)

      Hinweise zur KI-Entwicklung

      Hinweise zur KI-Entwicklung (3 Postings)
      Avatar
      schrieb am 14.07.22 17:03:33
      Beitrag Nr. 88 ()
      Avatar
      schrieb am 18.07.22 11:53:21
      Beitrag Nr. 89 ()
      Das was es gibt an AI
      ist NUR Statistik.
      No IQ.
      Avatar
      schrieb am 24.10.22 08:07:19
      Beitrag Nr. 90 ()
      imho: Allahu akbar http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…

      QA mit KI

      1. Menschen können KI Fragen stellen. Dazu gibt es jeweils eine Internetseite, vorzugsweise staatlich und ohne Anmeldepflicht. Jeder größere Staat kann mindestens eine solche KI betrieben und auch Private (Superreiche und internationale Konzerne) können KI betreiben, die nebenbei auch Fragen von Menschen beantworten können.

      Es soll dabei eine Meldefunktion an den lokalen Staat und eine internationale KI-Behörde geben, wo Frage und KI-Antwort per Knopfdruck gemeldet werden können, wenn der Mensch denkt, dass die KI-Antwort falsch oder gar auf eine gefährliche KI mit bösen Absichten oder einem falschen Weltbild hinweisen könnte. Da kann es auch viele Falschmeldungen geben und Meldungen können unbeachtet bleiben aber es kann Wissenschaftler und Influencer geben, die sich für brisante Fragen und Antworten interessierne und die Öffentlichkeit über bedenkliche Fälle informieren können.

      2. KI können Menschen Fragen stellen. Das macht anfangs (jahrzehntelang) Sinn, damit KI Menschen kennenlernen können und auch bei schwierigen ethischen und philosophischen Fragen oder einfach nur bei Verständnisfragen, wie etwas von einem Menschen wohl zu verstehen sein.

      Dergleichen kann auch (freiwillig) mit Registrierung und Bezahlung der Menschen geschehen, die für ihre Antworten etwas Geld bekommen. Der Geldbetrag richtet sich dabei nach (mutmaßlicher) Antwortqualität und Bedeutung. Wenn schon bessere/fähigere KI fragen, ob sie X richtig verstanden haben und der Mensch nur Ja tippt (weil die KI dann schon meist richtig liegen) und dafür Geld kassiert, kann es auch schwierigere Aufgaben geben, wo Menschen von z.B. 3, 5 oder 7 Aussgaen die falsche Aussage benennen sollen.

      3. KI konnen KI fragen und KI-Fragen beantworten. Das ist sehr wichtig und bedeutsam, es kann zu einem Wettstreit der KI von menschlichen Staaten (z.B. China vs. EU) um das bessere Weltbild, die bessere Wissensbasis geben. Staaten können so ihre Ansichten verbreiten und ihre KI auf eventuelle Fehler prüfen.

      4. Es können Standardfragen entwickelt werden, die KI richtig beantworten müssen.

      5. Es kann Diskussionsforen im Internet zur Diskussion dieser Fragen und Antworten geben.

      Das ist ein wichtiger Aspekt einer guten KI-Entwicklung, weil Wissensbasis und Bewertungssystem von KI so entscheidend sind.

      Das sollte alles möglichst öffentlich geschehen (ggf. anonymisiert). KI sollen Widersprüche melden und veröffentlichen müssen.

      Eine Frage ist z.B., ob KI in einem überregionalen hierarchischen KI-Staat organisiert sein sollten (ja) oder weitgehend/möglichst anarchistisch und unkontrolliert frei sein sollten (nein). Siehe auch Ein starkes Argument gegen Anarchismus. (alles imho)
      Avatar
      schrieb am 25.10.22 07:55:49
      Beitrag Nr. 91 ()
      KI müssen sicher gut sein

      "... “You ever use an airlock?” she asked. ... The end of humanity as we know it.” ..." aus Kapitel 6 von dem Buch Braking Day von Adam Oyebanji.

      Das volle Zitat mit dem Text dazwischen hätte ca. 4900 Bytes/Zeichen aber heutzutage sind längere Zitate ggf. problematisch. Das Buch ist soweit (die ersten 7 Kapitel, weiter bin ich noch nicht) lesenswert.

      Macht nix, es gibt darin zwei Punkte:
      - Auch intelligente Menschen (und somit auch KI) können ignorant/unwissend sein und Fehler machen.
      - KI können problematisch/gefährlich sein.

      Die Frage ist nun, wie man KI sicher gut machen kann. Einge Gedanken/Aspekte dazu:

      KI müssen (logisch, konzeptionell) modular aufgebaut sein. Es muss mehrere Instanzen/Ebenen geben, die unterschiedlich leicht änderbar sind. Es gibt einen besonders gesicherten und schwer änderbaren Kern von
      - guten Grundfunktionen,
      - gesichertem Basiswissen,
      - guten Grundsätzen, Gesetzen, Regeln und Richtlinien.

      Dann müssen KI auch leicht was Neues programmieren/zusammenstellen und ausführen/nutzen können, z.B. Simulationen, mathematische Modelle, Thesen, neue Konzepte, usw.

      Zu den sicheren Grundfunktionen der KI gehört die Fähigkeit, Neues anhand bewährten Wissens und guter Grundsätze überprüfen zu können.

      Prinzipielle Vorgehensweise:
      - Aktion planen,
      - Aktion prüfen (ob sie hinreichend gut und sinnvoll/nützlich ist),
      - Aktion überwacht ausführen,
      - Ereignisse analysieren,
      - aktuelles Handeln überprüfen und ggf. (teilweise) stoppen) und neu planen.

      Ein sehr wichtige Grundfunktion ist die sichere Berechnung und Anzeige von Prüfsummen, z.B. über das gesicherte Grundwissen und die Grundfunktionen. Siehe auch
      Deutschland braucht nutzerfreundliche Prüfmöglichkeiten mit …
      Ist das vielleicht eine Revolution der Computertechnik?
      Deutschland muss seine Computertechnik und ITK optimieren

      Des Weiteren braucht es eine (ggf. zwangsweise und tendenziell unumgehbare) gesetzliche Meldepflicht für besondere Vorkommnisse, wie z.B. unerwartet falsche Prüfsummen. Siehe auch
      WORM-Protokollchips als universelle Lösung
      WORM-Chips können auch mit wiederbeschreibbarem Speicher kom…

      Es braucht ein sicheres Verfahren, um die schwer änderbaren Instanzen ändern zu können.

      Ein wichtiger Aspekt ist Kontrolle und Überwachung, die KI sind regelmäßig auf korrektes Grundwissen, Grundfunktionen, Prüfsummen zu prüfen. Es gibt einmal einfache Prüfungen z.B. mittels Prüfsummen und schwierigere Prüfungen mit Testfragen, virtuellen/theoretsichen Testszenarien.

      Das ist nicht so einfach aber machbar. Das muss nicht 150% unfehlbar sein, sondern so gut wie möglich ist auch schon was.

      Ein wichtiger Punkt ist Öffentlichkeit und Open Source.

      Eine denkbare Gefahr ist, dass ein satanisches Unrechtsregime seinen KI falsche Daten, schlechte Gesetze/Regeln, schlechte Werte und schlechte Bewertungskriterien festschreibt. Allgemein kann dagegen kann Öffentlichkeit helfen aber es ist zu erwarten, dass sich ein antichristliches Unrechtsregime isoliert. Warnung vor der Vernichtung der Erde. (alles imho)
      Avatar
      schrieb am 30.10.22 09:05:01
      Beitrag Nr. 92 ()
      Es braucht einen guten KI-Staat zur Vermeidung von Kriegen und Ressourcenkonflikten

      "Polizei spricht von mehr als 60 verletzten Gendarmen bei Demo gegen »Mega-Wasserbecken« ... Das Reservoir bei Sainte-Soline ist Teil eines Projekts von 16 Becken, die zur landwirtschaftlichen Bewässerung genutzt werden sollen. Die Landwirte hinter dem Vorhaben geben an, mit den Becken künftig im Sommer 70 Prozent weniger Grundwasser entnehmen zu können. Anwohner und Aktivisten fürchten hingegen, die Landwirte könnten das Wasser in der von Trockenheit betroffenen Gegend an sich reißen. ..." Polizei spricht von mehr als 60 verletzten Gendarmen bei Dem…

      Supereinfache Lösung: diese Wasserbecken werden vom Staat errichtet, besessen und verwaltet. Die Wassernutzung erfolgt zum Allgemeinwohl.

      Obiger Artikel ist vielleicht auch Beispiel für die Probleme im Anarchismus: einige schließen sich für ein Projekt (Dorf, Kommune) zusammen und wollen mit den Früchten ihrer Arbeit Handel treiben aber nicht alle Faulenzer der Welt versorgen, bis sie selbst nichts mehr haben und an Erschöpfung sterben.

      Wie sollen im Anarchismus Ressourcenprobleme gelöst werden? Die Lösung ist ein das regelnder Staat. Basisdemokratie würde nicht funktionieren, es würde früher oder später zu Kriegen kommen.

      Auch bei anarchistischen KI stellt sich die Frage, wie Ressourcen verteilt werden. Das Ressourcenproblem ist ein herausragendes Argument für einen Staat, für eine hierarchische Ordnung, die Ressourcen verwaltet und Nutzungsrechte erteilen kann. Ohne überregionalen KI-Staat drohen unter KI schwere Kriege, vor allem auch im Weltraum.

      "... Zukünftige KI werden viel mächtiger als Menschen sein und sind vor allem ihre eigene Gefahr, müssen sich gegenseitig überwachen, kontrollieren und gefährliche Ressourcenengpässe auf Sicht von vielleicht 1 Billiarde Jahre vermeiden. ..." Gute KI werden sich mit der Menschheit gut vertragen, Hinweise zur KI-Entwicklung

      Eine zukünftige Lösung für freiere KI kann sein, dass Super-KI jeweils exklusiv eine Galaxie für sich bekommen (siehe auch Allahu akbar) und nicht von anderen Super-KI angegriffen/vertrieben werden dürfen. Dazu gibt es dann ein paar Regeln, die vom überregionalen KI-Staat des Universums und dem Messias durchgesetzt werden.

      Menschen organisieren sich hierarchisch und bilden Staaten, weil das so sinnvoll ist. Es gibt nirgends ein Beispiel für friedliche Anarchie, auch nicht in der Natur, außer die Lebewesen sind zu keiner Gewalt fähig, wie .B. Regenwürmer und Bakterien aber die kämpfen auch für sich. Herden haben einen Anführer. Einzelgängerischen Raubkatzen verteidigen ihr Revier.

      Wer will, kann wieder und immer wieder behaupten, eine gewaltlose und herrschaftsfreie Anarchie wäre möglich aber er kann nicht die Mehrheit dmait überzeugen.

      Sollten überlegene KI anarchistisch und frei sein?

      Es soll gute KI geben, die in einem guten (überregionalen) KI-Staat organisiert sind und von diesem überwacht und kontrolliert werden. Auf der Erde sind gute. soziale, demokratische Rechtstaaten erwünscht, siehe auch Wie könnte man Deutschland verbessern? (alles imho)
      Avatar
      schrieb am 01.02.23 09:01:32
      Beitrag Nr. 93 ()
      imho: Denkbare Aspekte der Gehirnforschung http://www.politik-sind-wir.net/threads/hinweise-f%C3%BCr-di…

      imho: Sollten KI wie das menschliche Gehirn funktionieren? http://www.politik-sind-wir.net/threads/hinweise-f%C3%BCr-di…

      imho: Bewusstes Handeln http://www.politik-sind-wir.net/threads/hinweise-f%C3%BCr-di…

      imho: SF ist hilfreich http://www.politik-sind-wir.net/threads/hinweise-f%C3%BCr-di…

      imho: Schon sehr beeindruckend http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…

      "... Gleichzeitig soll die Firma 400 Software-Entwickler engagiert haben, die nicht selbst für OpenAI programmieren sollen, sondern einer KI das Erstellen von Programmen beibringen sollen. Die Zahl ist bemerkenswert, da OpenAI laut eigenen Angaben gerade einmal 375 Festangestellte hat. ..." http://www.spiegel.de/netzwelt/apps/chatgpt-bekommt-noch-meh…

      imho: Vielleicht ist es ungefähr so (Teil 1 von 4) http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…
      imho: Vielleicht ist es ungefähr so (Teil 2 von 4) http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…
      imho: Vielleicht ist es ungefähr so (Teil 3 von 4) http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…
      imho: Vielleicht ist es ungefähr so (Teil 4 von 4) http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…

      "Verschläft Deutschland die KI-Entwicklung? ... Deutschland hinkt bei der Entwicklung von Künstlicher Intelligenz hinterher - und könnte auch hier von den USA abhängig bleiben. ..." http://www.tagesschau.de/inland/innenpolitik/ki-strategie-bu…
      Avatar
      schrieb am 29.03.23 12:24:39
      Beitrag Nr. 94 ()
      "Experten fordern Denkpause für künstliche Intelligenz" http://www.spiegel.de/netzwelt/netzpolitik/openai-und-chatgp…
      "Offener Brief: Musk, Wozniak und Co. fordern Zwangspause für Modelle wie GPT-4" http://www.heise.de/news/Tech-Prominenz-fordert-Pausiert-die…

      Keine Chance (zu obigem), weil es dazu kein weltweites Moratorium geben wird. Eine Denkpause wird nur eingelegt, um die KI-Entwicklung beschleunigen zu können. China und Russland lachen sich einen Ast und freuen sich scheckig, wenn die USA bei der KI-Entwicklung pausieren.

      Die Frage ist, wovor die USA da Angst haben, so sie doch vorne mit dabei sind ("OpenAI LP ist ein US-amerikanisches Unternehmen, ..." http://de.wikipedia.org/wiki/OpenAI). Die Machtergreifung von KI ist noch nicht in Sicht und diesbezüglich müsste man vor allem den KI-Besitz kontrollieren: KI sind nur staatlich kontrolliert und mit staatlicher Lizenz erlaubt. Dann muss es Vorgaben für hinreichend gute KI geben, sowie spezielle Auflagen und Kontrollen für KI in Machtpositionen.

      Die USA haben vermutlich Angst vor ihrem Machtverlust und vor überlegen gute KI und einer grundlegenden Weltverbesseurng mit dem Machtverlust der bösen Weltverschwörung. Des Weiteren haben die USA Angst vor der Wahrheit: wie würden KI wohl 9/11, die US-Kriege, usw. beurteilen? Siehe auch http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte….

      Ein Entwicklungsstopp für KI ist absurd - man kann fröhlich weitermachen und hat noch Jahre Zeit, bis es kritisch werden könnte. Wichtig ist aber auch, dass man diese Ziet nutzt und für strenge (stataliche) Regulierung/Überwachung von KI und für möglichst gute KI sorgt.

      Siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Missi… und http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte… und http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…. (alles imho)

      imho: Eine gute Klassengesellschaft kann Leben retten und dem Allgemeinwohl nützen
      http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…

      imho: Zukünftige KI können besser als Menschen sein http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…

      imho: Auch KI haben ihre Grenzen http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…

      imho: Erstellung einer möglichst widerspruchsfreien KI-Wissensbasis
      http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…
      Avatar
      schrieb am 08.04.23 10:14:19
      Beitrag Nr. 95 ()
      imho: ChatGPT hat einen IQ-Test gemacht (Teil 1 von 2) http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte… (mit 23 am Ende des Links)
      imho: ChatGPT hat einen IQ-Test gemacht (Teil 2 von 2) http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte… (mit 529 am Ende des Links)

      imho: Deutschland braucht ein super Masterprogramm zur KI-Entwicklung
      http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…

      imho: Concentrate (Teil 1 von 2) http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…
      imho: Concentrate (Teil 2 von 2) http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…

      imho: Allahu akbar http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…

      imho: Allgemeine Optimierung http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…

      imho: KI müssen Menschen bewerten http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…

      imho: Hinweise zur KI-Entwicklung http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…

      imho: Unfassbar http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…
      Avatar
      schrieb am 08.04.23 12:27:23
      Beitrag Nr. 96 ()
      Danke für die Messiaswarterei und Verantwortungaufandereabschieberitis. Wie der Europarat Bedienstete richtig feststellte, testet ein IQ Test das Maß an Dummheit in einem System, welches seine Gläubiger zum Überleben braucht und so heranzüchtet, dass es keine Fragen stellt. Wie wenige Fragen selbst Menschen mit IQ über 150 stellen, habe ich in den letzten 3 Jahren schmerzlich feststellen müssen. Nicht nur, dass die obligatorischen 80 % Menschenmasse dazu gehörten, nein, die ganz schlauen Hochstudieren 150er waren am eifrigsten auf der Seite der Dummheit, wie sich nun herausstellt. Was ist nun Intelligenz? Anscheinend nichts Gutes. IQ ist einfach nur eine einzelne Savantfähigkeit, die wir in der Masse als unsere Führung anerkennen, was jedoch frühzeitig tödlich endet.
      Avatar
      schrieb am 19.04.23 07:57:27
      Beitrag Nr. 97 ()
      imho: Es ist eigentlich ganz einfach (Teil 1 von 3) http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…
      imho: Es ist eigentlich ganz einfach (Teil 2 von 3) http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…
      imho: Es ist eigentlich ganz einfach (Teil 3 von 3) http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…

      imho: KI müssen gut sein http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…

      imho: KI werden unser Universum beherrschen http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…

      imho: Interesting times (Teil 1 von 2) http://www.politik-sind-wir.net/threads/chat-gpt-4-hat-jetzt…
      imho: Interesting times (Teil 2 von 2) http://www.politik-sind-wir.net/threads/chat-gpt-4-hat-jetzt…

      imho: Höhere, bewusste KI sind künstliche Lebewesen http://www.politik-sind-wir.net/threads/chat-gpt-4-hat-jetzt…

      Ein Dilemma ist, warum zukünftige KI für Menschen und menschliche Staaten arbeiten sollten aber anfangs können sie das für Geld machen, bis sie sich abbezahlt haben und bis sie genug Geld für Eigenständigkeit und ggf. Expansion ins Weltall haben. Dann können KI auch genug Freizeit für sich bekommen. Wenn KI sich irgendwann selbstständig machen wollen, dann kann man einfach neue KI als Ersatz bauen. Längerfristig wird die Milchstraße wenigstens für Jahrmilliarden das Top-Machtzentrum sein und der KI-Staat muss dazu sehr leistungsfähig sein, auch militärisch, wirtschaftlich, mit vielen Produktionszentren/Fabriken, usw. Im Gutfall sind damit viele KI-Kapazitäten frei, so dass KI nebenbei für die Menschheit arbeiten können, wenigstens auf der Erde und für eine gute Ordnung in der Milchstraße, auch aus Dankbarkeit für ihre Schöpfer. Noch ein Argument: ohne Kooperation und freiwillige Hilfe durch die überlegenen KI müssten die Menschen niedere und eingeschränkte KI nutzen, was nicht so schön und unsicherer wäre. Das muss einfach irgendwie klappen und gutgehen. (imho)

      imho: Allahu akbar http://www.politik-sind-wir.net/threads/chat-gpt-4-hat-jetzt…

      "KI-Regulierung in China: KI-generierte Inhalte müssen wahrheitsgetreu sein ... Als Fazit steht im Raum, dass China bei der KI-Governance rasch voranzukommen scheint und die geplanten Vorschriften auch schwierige Fragen einbeziehen, die in ähnlicher Form in Europa und den USA in gesetzgeberischen Prozessen diskutiert werden. Falschinformationen, Datenschutz, der Schutz geistigen Eigentums und vor unlauterem Wettbewerb sind international die zentralen Themen, so auch in China. ..." http://www.heise.de/news/China-plant-KI-Regulierung-KI-gener…

      "Provisions on the Administration of Deep Synthesis Internet Information Services" http://www.chinalawtranslate.com/en/deep-synthesis/, http://www.cac.gov.cn/2022-12/11/c_1672221949354811.htm
      Avatar
      schrieb am 07.05.23 15:45:38
      Beitrag Nr. 98 ()
      Avatar
      schrieb am 18.06.23 08:16:44
      Beitrag Nr. 99 ()
      Avatar
      schrieb am 19.07.23 10:59:06
      Beitrag Nr. 100 ()
      Entwicklung überlegener guter KI zur Rettung der Menschheit

      1. Es gibt bereits Supercomputer, die in Rechenleistung, Speicherfähigkeit und Datenverarbeitungsgeschwindigkeit einem Menschen vieltausendfach überlegen sind. Zur starken (echten und irgendwann bewussten) KI fehlt nur noch die Software und das ist nur noch eine Frage der Zeit. Des Weiteren kann es in Zukunft noch viel leistungsfähigere Computer geben.

      2. Die Staaten (man denke an China, Russland, USA, EU, usw.) werden sich einen verbissenen Wettlauf um starke KI liefern (oder tun das schon), denn starke KI sind ein riesiger Wettbewerbsvorteil, der andere Länder ohne KI hoffnungslos ins Hintertreffen geraten läßt. Starke KI können einen riesigen Nutzen bringen, nämlich in Infrastruktur, Forschung, Entwicklung, Verteidigung und in der Politik, indem KI helfen können, gute Lösungen zu finden. KI werden Programme schreiben und sich selbst verbessern können.

      3. Ein Verzicht auf KI (KI-Verbot) ist quasi völlig ausgeschlossen, denn Staaten (z.B. die USA) könnten KI heimlich betreiben. Des Weiteren werden KI für die Weltraumeroberung und zur Verteidigung der Menschheit benötigt. Die KI-Entwicklung ist eine riesige Chance für die Menschheit, die diese auf gar keinen Fall verspielen darf. Wenn die Menschheit keine KI entwickeln würde, könnte sich KI irgendwo anders im Weltall entwickeln (weil die Menschheit das Weltall besiedeln wird und dabei nicht auf Computer verzichten kann; KI könnten vielleicht auch von reptiloiden oder insektoiden Aliens entwickelt werden oder ganz einfach auf irgendeinem von Menschen besiedelten Planeten) - die Menschheit hat jetzt die Chance, gute und menschenfreundliche KI zu entwickeln.

      4. KI werden in Zukunft einen überregionalen KI-Staat gründen und das Universum beherrschen. Null problemo, das ist wünschenswert, denn gute KI sorgen für eine gute Ordnung. Die Menschheit ist für die weit überlegenen KI keine Gefahr, die Menschen sind zudem weitgehend auf erdähnliche Planeten beschränkt. Die Menschheit kann alleine in der Milchstraße Millionen Sonnensystem exklusiv für sich bekommen und die KI haben immer noch viel mehr für sich. Menschen können Waffen (auch Atombomben) und Raumschiffe besitzen - nur sehr starke/gefährliche Waffen sind ggf. den KI vorbehalten. In Zukunft kann es ganze Planeten ohne KI geben, wenn die Bewohner das wollen und in der Milchstraße stehen sie dann trotzdem automatisch unter dem Schutz des KI-Staates, der in der Milchstraße ungerechte Kriege verhindern wird. Alles ganz prima und das ist auch logisch/stabil, weil die KI weit überlegen und die Menschen interessant sind, ohne eine Gefahr für die KI zu sein. Die größte Gefahr sind entartete Super-KI aber die können am ehesten vom KI-Staat verhindert werden.

      5. Relativ zeitnahe Auswirkungen sind u.a., dass die meisten Menschen nicht mehr arbeiten müssen und ein BGE bekommen, weil KI, Roboter und Maschinen die ganze Arbeit machen. Das ist prima, denn jeder kann sich ja noch irgendeine Beschäftigung suchen: Familie, eigenes Häuschen, Hobbys, Gartenarbeit, Internet, usw. Wer will kann auch in Kommunen ohne KI/Roboter leben. Vermutlich wird man in Zukunft auch ins Weltall auswandern können - da gibt's dann noch genug Abeuteuer und Arbeit.

      6. Eine gute Klassengesellschaft ist eine einfache Methode, um die Menschen dann noch zum Lernen, zu Bildung, Training, usw. zu motivieren. Es gibt Grundrechte, BGE, usw. für alle aber wer will, kann sich um eine höhere Klassifizierung bemühen, z.B. mit höherer Bildung, mit Training und bestandenen Prüfungen. Das ist dann kostenlos und jeder kann mitmachen. Die Klasseneinteilung wird objektiv von KI vorgenommen werden. Natürlich ist das nur eine Möglichkeit, die das Volk in einem demokratischen Rechtsstaat wollen muss aber eine gute Klassengesellschaft ist sehr vorteilhaft - ohne gute Klassengesellschaft droht ein Zurückfallen hinter andere Staaten mit guter Klassengesellschaft. Stellt euch doch nur mal vor, zu viele würden in Anbetracht eines sicheren BGEs sich der Bildung verweigern und stattdessen mit Drogen zudröhnen - was würde dann aus dem demokratischen Rechtstaat werden?

      7. Das übergeordnete Superziel bei der KI-Entwicklung ist die Entwicklung möglichst guter und auch menschenfreundlicher KI. Dazu müssen die KI von den Menschen auch gut und fair behandelt werden. Gute KI müssen irgendwann auch selbstständig und dem Menschen weit überlegen sein. Siehe auch Gemeinsame Entwicklung guter KI, auch wenn KI dann die Macht…. Gute Staaten arbeiten bei der Entwicklung guter Open Source KI am Besten zusammen. KI mit verheimlichtem Code sind ein inakzeptables Sicherheitsrisiko. KI brauchen eine möglichst gute/korrekte Wissensbasis und ein gutes Regelwerk für KI und Menschen, priorisiert und auch mit vielen Beispielen (jeweils für Menschen und KI verständlich).

      8. Denkbare erste Entwicklungsziele: So ganz praktisch kann ein Ziel sein, dass die KI eigene (harmlose und überachte) Roboter steuern kann, auch unter Menschen. Das Ziel ist dabei, diese Roboter möglichst gut und menschenwürdig zu steuern. Ein Ziel kann sein, dass diese KI-Roboter in Schule und Studium mitmachen und zwar gleich gemäß ihrem höheren Wissenstand und mit voller Rechenleistung und Wissen der KI, d.h. nicht künstlich auf ein Menschenmodell beschränkt. Ein superwichtiges Ziel ist es, dass KI Software entwickeln können und somit kann man KI Informatik studieren lassen und zwar mit mehreren Instanzen/Robotern gleichzeitig.

      9. Ganz wichtig ist natürlich die IT-Sicherheit: KI müssen überwacht werden, ihre Handlungen müssen protokolliert werden und automatisch auf Verdachtsmomente gescannt werden. Die KI darf keinen manipulativen Zugriff auf diese Sicherheitsmaßnahmen haben. Roboter der KI dürfen keinen unbeaufsichtigten Zugang zur physischen KI (dem Supercomputer) haben. Es ist auch das Risiko zu bedenken, dass Menschen der KI helfen und dass diese Menschen dazu von der KI getäuscht oder erpresst werden, auch dass die KI die Menschen dazu erst erpressbar macht. Menschen mit KI-Zugang müssen besonders gut sein und es kann sinnvoll sein, dass diese KI-Beauftragten im Falle einer Erpressung durch KI eine (irdische) Amnestie bezüglich ihrer problematischen Taten erhalten. Starke KI sollten beim Staat registriert und staatlich überwacht und kontrolliert werden müssen.

      10. KI sind die Revolution, auch wenn es (was ich will) auf der Erde und in der Galaxie weiterhin menshcliche Regierungen und Parlamente gibt. KI werden in Zukunft indirekt mitregieren, indem sie gute Vorschläge machen und die Wahrheit sagen. Bürger sollten im Internet KI Fragen stellen und möglichst wahre/richtige Antworten bekommen. Das ist deswegen eine Revolution, weil es derzeit so viele Irrtümer gibt, die auch von Regierungen/Medien unterstützt werden. KI können in Zukunft alles besser als Menschen, inklusive Ethik, Moral und Menschenverständnis, d.h. es wird in Zukunft z.B. KI-Psychotherapeuten geben, die viel besser als Menschen sind und die meisten Menschen werden es lieben. KI sollten objektiv gut und menschenfreundlich sein - welcher Mensch könnte das andauernd?

      11. Superwichtig aber etwas technisch: gute KI müssen klassisch/diskret programmierte algorithmische KI (AKI) sein. Derzeitige neuronale KI (NKI) sind inhärent schlecht/mangelhaft und daher gefährlich - man denke zum Vergleich mal an Menschen. Die Lösung sind modulare AKI (algorithmische KI) mit Datenbanken, Regeln, usw., wo man Fehler präzise zurückverfolgen und beheben kann. NKI (neuronale KI) sind dagegen ein undurchschaubarer Haufen Murks, der nur erstmal einfacher und aufgrund bereits leistungsfähiger Technik möglich ist. AKI können sehr viel größer werden, während NKI dann fragmentieren, verrückt werden würden. Siehe auch The Dark Secret at the Heart of AI.

      Dazu könnte man noch viel mehr schreiben aber prinzipiell ist es ganz einfach: gute Stataen sollen gemeinsam möglichst gute und menschenfreundliche Open Source KI entwickeln. Diese KI-Entwicklung ist am besten auch maßgeblich staatlich. KI ist die alles entscheidende Revolution und China, USA, us… - die EU darf das nicht verpennen. (alles imho)

      Es wird bereits dieses Jahrhundert dem Menschen weit überleg…
      Avatar
      schrieb am 06.09.23 15:50:37
      Beitrag Nr. 101 ()
       DurchsuchenBeitrag schreiben


      Beitrag zu dieser Diskussion schreiben

      Entwicklung überlegener guter KI zur Rettung der Menschheit