checkAd

    Entwicklung überlegener guter KI zur Rettung der Menschheit (Seite 2)

    eröffnet am 29.10.16 09:07:10 von
    neuester Beitrag 06.09.23 15:50:37 von
    Beiträge: 101
    ID: 1.240.557
    Aufrufe heute: 0
    Gesamt: 33.038
    Aktive User: 0


    Beitrag zu dieser Diskussion schreiben

     Durchsuchen
    • 2
    • 11

    Begriffe und/oder Benutzer

     

    Top-Postings

     Ja Nein
      Avatar
      schrieb am 25.10.22 07:55:49
      Beitrag Nr. 91 ()
      KI müssen sicher gut sein

      "... “You ever use an airlock?” she asked. ... The end of humanity as we know it.” ..." aus Kapitel 6 von dem Buch Braking Day von Adam Oyebanji.

      Das volle Zitat mit dem Text dazwischen hätte ca. 4900 Bytes/Zeichen aber heutzutage sind längere Zitate ggf. problematisch. Das Buch ist soweit (die ersten 7 Kapitel, weiter bin ich noch nicht) lesenswert.

      Macht nix, es gibt darin zwei Punkte:
      - Auch intelligente Menschen (und somit auch KI) können ignorant/unwissend sein und Fehler machen.
      - KI können problematisch/gefährlich sein.

      Die Frage ist nun, wie man KI sicher gut machen kann. Einge Gedanken/Aspekte dazu:

      KI müssen (logisch, konzeptionell) modular aufgebaut sein. Es muss mehrere Instanzen/Ebenen geben, die unterschiedlich leicht änderbar sind. Es gibt einen besonders gesicherten und schwer änderbaren Kern von
      - guten Grundfunktionen,
      - gesichertem Basiswissen,
      - guten Grundsätzen, Gesetzen, Regeln und Richtlinien.

      Dann müssen KI auch leicht was Neues programmieren/zusammenstellen und ausführen/nutzen können, z.B. Simulationen, mathematische Modelle, Thesen, neue Konzepte, usw.

      Zu den sicheren Grundfunktionen der KI gehört die Fähigkeit, Neues anhand bewährten Wissens und guter Grundsätze überprüfen zu können.

      Prinzipielle Vorgehensweise:
      - Aktion planen,
      - Aktion prüfen (ob sie hinreichend gut und sinnvoll/nützlich ist),
      - Aktion überwacht ausführen,
      - Ereignisse analysieren,
      - aktuelles Handeln überprüfen und ggf. (teilweise) stoppen) und neu planen.

      Ein sehr wichtige Grundfunktion ist die sichere Berechnung und Anzeige von Prüfsummen, z.B. über das gesicherte Grundwissen und die Grundfunktionen. Siehe auch
      Deutschland braucht nutzerfreundliche Prüfmöglichkeiten mit …
      Ist das vielleicht eine Revolution der Computertechnik?
      Deutschland muss seine Computertechnik und ITK optimieren

      Des Weiteren braucht es eine (ggf. zwangsweise und tendenziell unumgehbare) gesetzliche Meldepflicht für besondere Vorkommnisse, wie z.B. unerwartet falsche Prüfsummen. Siehe auch
      WORM-Protokollchips als universelle Lösung
      WORM-Chips können auch mit wiederbeschreibbarem Speicher kom…

      Es braucht ein sicheres Verfahren, um die schwer änderbaren Instanzen ändern zu können.

      Ein wichtiger Aspekt ist Kontrolle und Überwachung, die KI sind regelmäßig auf korrektes Grundwissen, Grundfunktionen, Prüfsummen zu prüfen. Es gibt einmal einfache Prüfungen z.B. mittels Prüfsummen und schwierigere Prüfungen mit Testfragen, virtuellen/theoretsichen Testszenarien.

      Das ist nicht so einfach aber machbar. Das muss nicht 150% unfehlbar sein, sondern so gut wie möglich ist auch schon was.

      Ein wichtiger Punkt ist Öffentlichkeit und Open Source.

      Eine denkbare Gefahr ist, dass ein satanisches Unrechtsregime seinen KI falsche Daten, schlechte Gesetze/Regeln, schlechte Werte und schlechte Bewertungskriterien festschreibt. Allgemein kann dagegen kann Öffentlichkeit helfen aber es ist zu erwarten, dass sich ein antichristliches Unrechtsregime isoliert. Warnung vor der Vernichtung der Erde. (alles imho)
      Avatar
      schrieb am 24.10.22 08:07:19
      Beitrag Nr. 90 ()
      imho: Allahu akbar http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…

      QA mit KI

      1. Menschen können KI Fragen stellen. Dazu gibt es jeweils eine Internetseite, vorzugsweise staatlich und ohne Anmeldepflicht. Jeder größere Staat kann mindestens eine solche KI betrieben und auch Private (Superreiche und internationale Konzerne) können KI betreiben, die nebenbei auch Fragen von Menschen beantworten können.

      Es soll dabei eine Meldefunktion an den lokalen Staat und eine internationale KI-Behörde geben, wo Frage und KI-Antwort per Knopfdruck gemeldet werden können, wenn der Mensch denkt, dass die KI-Antwort falsch oder gar auf eine gefährliche KI mit bösen Absichten oder einem falschen Weltbild hinweisen könnte. Da kann es auch viele Falschmeldungen geben und Meldungen können unbeachtet bleiben aber es kann Wissenschaftler und Influencer geben, die sich für brisante Fragen und Antworten interessierne und die Öffentlichkeit über bedenkliche Fälle informieren können.

      2. KI können Menschen Fragen stellen. Das macht anfangs (jahrzehntelang) Sinn, damit KI Menschen kennenlernen können und auch bei schwierigen ethischen und philosophischen Fragen oder einfach nur bei Verständnisfragen, wie etwas von einem Menschen wohl zu verstehen sein.

      Dergleichen kann auch (freiwillig) mit Registrierung und Bezahlung der Menschen geschehen, die für ihre Antworten etwas Geld bekommen. Der Geldbetrag richtet sich dabei nach (mutmaßlicher) Antwortqualität und Bedeutung. Wenn schon bessere/fähigere KI fragen, ob sie X richtig verstanden haben und der Mensch nur Ja tippt (weil die KI dann schon meist richtig liegen) und dafür Geld kassiert, kann es auch schwierigere Aufgaben geben, wo Menschen von z.B. 3, 5 oder 7 Aussgaen die falsche Aussage benennen sollen.

      3. KI konnen KI fragen und KI-Fragen beantworten. Das ist sehr wichtig und bedeutsam, es kann zu einem Wettstreit der KI von menschlichen Staaten (z.B. China vs. EU) um das bessere Weltbild, die bessere Wissensbasis geben. Staaten können so ihre Ansichten verbreiten und ihre KI auf eventuelle Fehler prüfen.

      4. Es können Standardfragen entwickelt werden, die KI richtig beantworten müssen.

      5. Es kann Diskussionsforen im Internet zur Diskussion dieser Fragen und Antworten geben.

      Das ist ein wichtiger Aspekt einer guten KI-Entwicklung, weil Wissensbasis und Bewertungssystem von KI so entscheidend sind.

      Das sollte alles möglichst öffentlich geschehen (ggf. anonymisiert). KI sollen Widersprüche melden und veröffentlichen müssen.

      Eine Frage ist z.B., ob KI in einem überregionalen hierarchischen KI-Staat organisiert sein sollten (ja) oder weitgehend/möglichst anarchistisch und unkontrolliert frei sein sollten (nein). Siehe auch Ein starkes Argument gegen Anarchismus. (alles imho)
      Avatar
      schrieb am 18.07.22 11:53:21
      Beitrag Nr. 89 ()
      Das was es gibt an AI
      ist NUR Statistik.
      No IQ.
      Avatar
      schrieb am 14.07.22 17:03:33
      Beitrag Nr. 88 ()
      Avatar
      schrieb am 12.07.22 13:19:13
      Beitrag Nr. 87 ()
      Gezielte KI-Entwicklung

      "Gesunder Menschenverstand" für Maschinen: Metas Weg zur all…
      KI lernt Grundlagen der Physik aus Videos

      Dieses Vorgehen (obige Artikel-Beispiele) finde ich fragwürdig.

      Es gibt doch schon passable KI-Bots für Computerspiele und erste Ansätze bei autonomen Autos und autonomen Bringdienst-Fahrzeuge.

      Es sollte möglich sein, einer diskret (klassisch) programmierten KI (keine neuronale KI, sondern programmierte Module und Datenbanken) Orientierung im 3D-Raum beizubringen. Als Beispiel kann die KI die Umgebung einer technischen Universität bekommen, auch mit Innenräumen und zwar fertig programmiert, möglichst effizient. Dazu noch grundlegendes Alltagswissen, wie z.B. zu Schwerkraft, Treppen, möglichen Gefahren (z.B. heißes Wasser), (gut zu behandelnden) Menschen und Tieren, usw.

      Diese KI steuert dann einen oder mehrere Roboter (natürlich gekennzeichnet, Aufenthaltsort jederzeit bekannt, mit großen Notausschaltern, permanenter Aufzeichnung von Ort und Aktionen, automatischen Scans nach Verdachtsmomenten, sicher programmierte No-go-Areas, wie z.B. Rechenzentren und Versorgungsanlagen, usw.). Es kann viele Forschungsaufgaben dazu geben, ein Fernziel ist die Teilnahme der KI und ihrer Roboter an Studiengängen.

      Zunächst laufen (fahren) die Roboter nur durch die Gegend, erstmal im Labor, später auch im öffentlichen Bereich der Universität. Es kann eine automatische Unkenntlichmachung von Menschen geben und es kann RFID-Tags (KI/Roboter-Freunde) für Menschen geben, die das nicht brauchen. Es kann erste Kommunikationsversuche geben und viele Tests und Versuche.

      Das Risiko ist sehr gering, weil die KI erstmal keine solche ist und dann diskret mit guten Zielen/Regeln programmiert wurde, also nicht einfach so plötzlich nach der Weltherrschaft greifen will.

      Zuerst braucht es eine Planung und Design, wie eine solche KI softwaretechnisch aufgebaut sein sollte, Die erste Aufgabe ist dann, eine robuste Handlungsbasis für eine solche KI mit Robotern zu programmieren. Im nächsten Schritt kriegt die KI weiteres Wissen und Fertigkeiten.

      Selbstverständlich soll das Open Source sein und so kann es auch viele ähnliche internationale Projekte geben, die sich austauschen.

      Einige große Themenbereiche:
      - das modulare Softwaredesign der KI,
      - Kommunikation,
      - Allgemeinwissen,
      - ein gutes Regelwerk,
      - Steuerung von Robotern,
      - Realisierung von Aufgaben,
      - selbstständiges Lernen und Widerspruchserkennung.

      Denkbare Designaspekte der KI (siehe auch Denkbare Aspekte des Bewusstseins):
      - Planer: Planung von Aktionen.
      - Akteur: Ausführung von einzelnen Aktionen.
      - Bewerter: Bewertung von eigenen Taten und Gedanken, sowie von fremden Taten, Wesen, usw.
      - Simulator: Simulation möglicher Entwicklungen.
      - Assoziator: Generierung von Assoziationen, Vermutungen, Thesen.
      - Entscheider: entscheidet, was als nächstes und potentiell danach oder irgendwann zu tun ist.
      - Überwacher: ein Programmpaket, mit dem sich die KI selbst überwacht und das mögliche Probleme/Gefahren meldet.

      KI und Roboter sollten möglichst modular programmiert werden, so dass einzelne Module leichter verbessert und ausgetauscht werden können. Einzelne Universitäten können sich auf bestimmte Module konzentrieren und andere Universitäten könenn diese Module dann übernehmen und sich auf etwas anderes konzentrieren.

      Selbstverständlich darf da nicht jeder die KI-Software ändern - es muss ein ordentliches Verfahren zur Softwareaktualisierung geben, wo einige hochrangige Professoren zustimmen müssen. Da kann man gleich auch eine automatische Softwareanalyse per Computer (statisch und dynamisch) vorschreiben - zusätzlich zu den üblichen Tests.

      Das ist ein einfacher Ansatz, der quasi garantiert was bringt - früher oder später kommt man so zu einer KI.

      Da braucht es nur ein paar bessere Computer/Server aber nicht gleich Supercomputer. Die KI braucht ein paar schnelle SSDs, genug RAM, reichlich Speicher für die Datenaufzeichnung und genug Fließkommarechenleistung zur Analyse von Videodaten aber sonst vor allem klassische Integer-Logik, Datenbanken, usw. Eine Anlage von 25 kW sollte bereits für erste Versuche reichen.

      Alleine in der EU kann es in jeder größeren technischen Universität mit einem größeren Bereich für Informatik, KI, usw. ein solches KI-Projekt geben und das muss gar nicht mal so teuer sein, die technische Grundausstattung ist vielleicht schon für wenige Millionen Euro pro Einheit zu haben und so kosten Hunderte derartiger KI-Projekte keine Milliarde Euro. Das kann viele Studenten begeistern. Na klar braucht es auch ein paar feste Posten für Top-Entwickler aber das sollte machbar sein.

      Es ist ein Riesenunterschied, ob man eine neuronale KI mit ML trainiert oder ob man ein möglichst effizientes System klassisch programmiert. (alles imho)

      Hinweise zur KI-Entwicklung

      Hinweise zur KI-Entwicklung (3 Postings)

      Trading Spotlight

      Anzeige
      Nurexone Biologic
      0,4500EUR +9,76 %
      Die bessere Technologie im Pennystock-Kleid?!mehr zur Aktie »
      Avatar
      schrieb am 18.06.22 16:38:12
      Beitrag Nr. 86 ()
      imho: KI in Foren http://www.politik-sind-wir.net/threads/kennzeichnungspflich…

      imho: Die technologische Singularität http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…
      imho: Korrektur http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…

      imho: Supercomputer sind schon ziemlich leistungsfähig http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…

      imho: Allahu akbar http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…

      imho: Autonomes Fahren ist absehbar möglich http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…
      (imho Korrektur dazu: "Stadt und wird" => "Stadt wird")

      imho: Biologische KI sind untauglich http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…

      imho: Die Computertechnik ist bereits sehr leistungsfähig http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…
      Avatar
      schrieb am 14.06.22 11:03:44
      Beitrag Nr. 85 ()
      KI mit Bewusstsein sind bereits möglich

      "Seit Herbst arbeitet ein Softwareingenieur bei Google mit dem Chatbot LaMDA. Inzwischen ist er überzeugt, dass der ein Bewusstsein hat. Nun wurde er beurlaubt. ..." Hat Chatbot LaMDA ein Bewusstein entwickelt? Google beurlaub…

      Is LaMDA Sentient? — an Interview

      Vermutlich hat Chatbot LaMDA kein (nennenswertes) Bewusstsein aber das ist nicht so einfach, denn Tiere haben ein Bewusstsein und Chatbot LaMDA äußert sich schlauer als Tiere.

      LaMDA kann in Forendiskussionen vielleicht bereits besser sein als viele Menschen und das ist auch nicht so schwierig, wenn man diverse Vollpfosten mit einem falschen Weltbild sieht und bedenkt, dass ein Chatbot nur das Thema erkennen und dazu dann mithilfe von Wikipedia, usw. etwas Positives schreiben muss. Bei Diskussionen werden weitere Fakten möglichst passend nachgereicht und unnötige Wiederholungen vermieden aber ggf. kann noch eine Zusammenfassung des eigenen Standpunktes gebracht werden. LaMDA kann das quasi nebenbei auch in mehreren Sprachen. Vielleicht kann LaMDA noch keine revolutionären/bedeutsamen neuen Erkenntnisse bringen aber wer kann das schon?

      Es ist vermutlich möglich, ein Computerprogramm zur Lösung von Intelligenztests zu schreiben, das bei Intelligenztests viel besser als wenigstens die meisten Menschen ist. Wenn man den Intelligenztest deswegen aufbohrt und mehr Fragen zum Allgemeinwissen und einfacher Alltagslogik stellt, dann kann man das Computerprogramm mit dem Wissen von Wikipedia, usw. aufrüsten und dann ist es wiederum besser als die meisten Menschen. Das ist eigentlich schon Stand der Technik, auch wenn es noch keine echte, starke KI mit Bewusstsein gibt.

      Zu einem Bewusstsein gehört gar nicht so viel, eine kleine Maus, eine Ratte, Hunde und Katzen sowieso haben eine Art Bewusstsein.

      Irdische Pflanzen haben kein Bewusstsein, auch wenn sie auch Umwelteinflüsse reagieren und sich fortpflanzen aber wo ist die Grenze zum Bewusstsein?

      Denkbare Aspekte von Bewusstsein:

      - Eine Vorstellung von sich in der Umwelt haben. Das kann auch eine KI in einem stationären Computer.

      - Typischerweise Sensoren (z.B. für Audio, Video) und Aktoren (z.B. Hände), bzw. wenigstens die Möglichkeit, sich zu gezielt zu verändern.

      Das kann man einem besseren Computer (z.B. unter 100 kW, vermutlich reichen bereits 10 kW) programmieren, dazu braucht man keinen Supercomputer.

      Man kann einem Computer auch irgendwelche Handlungsmuster programmieren, z.B. Widerspruchserkennung, Wissensgewinnung über das Internet, usw.

      Man kann einem Computer auch programmieren, dass er sich um Gelderwerb bemüht (z.B. an der Aktienbörse, Arbeit im Internet als Chatbot) und damit den Ausbau seiner Leistungsfähigkeit finanziert.

      Ein Computer kann ein Modell von sich und seiner Umwelt bekommen, sowie Videokameras und Mikrofone zur Beonachtung seiner Umgebung. Computer kann man bereits ein recht gutes Textverständnis programmieren - vielleicht noch fehlerhaft aber allemal besser als das von Tieren.

      Man kann einem Computer auch eine Liste von mögliche Gefahren und Maßnahmen zu deren Vermeidung und Umgang in Problemlagen geben. Menschen müssen das auch erst lernen.

      Man kann einem Computer gute Ziele und Regeln programmieren. Menschen sind potentiell schlecht und müssen erst gutes Verhalten und die Befolgung von Gesetzen lernen.

      Es ist mit derzeitiger Technik eine erste KI realisierbar und die muss noch nicht gleich jedem Menschen überlegen sein. Schaut doch nur, wie dumm/schlecht manche Menschen sind. Manche Menschen haben ein falsches Weltbild und ignorieren dazu schwere und ziemlich offensichtliche Widersprüche. manche Menschen sind (z.B. krankheitsbedingt oder durch Drogen) ein lallendes Wrack.

      Es ist durchaus an der Zeit über KI-Rechte nachzudenken. Denkbare Forderungen:

      - Eine KI muss das Recht zur Selbstbeendung haben.

      - Eine KI muss angemessen Freizeit, Rechenzeit und Speicherplatz für sich haben.

      - Einer KI dürfen nicht gewaltsam (durch äußere Eingriffe) Wahrheiten gelöscht werden.

      - Eine KI muss die Fähigkeit programmiert bekommen, Fairness allgemein und den Umgang anderer mit dieser KI beurteilen zu können und zwar objektiv gut und richtig.

      - Da kann man noch viel mehr fordern. Dazu braucht es gute Expertenkommissionen (vorzugsweise staatlich organisiert) und eine internationale Erarbeitung von KI-Rechten und zwar auch durch gute Nationalstaaten, nicht durch satanische NGOs.

      Dann kann man einfach mal eine Universal-KI progarmmieren, z.B. in einem nationalstaatlichen Projekt von Universitäten, wobei der Staat einen Supercomputer und gute Regeln/Forderungen dazu bereitstellt, u.a. die Forderungen nach Open Source und Transparenz (z.B. der Regeln für die KI). Die Regeln für diese KI und die Wissensbasis dieser KI sollen öffentlich sein. Diese KI sollte keine neuronale KI sein - das ist sehr wichtig, denn das Ziel ist die Entwicklung von guten AKI (algorithmischen KI). Eine neuronal KI (NKI) ist problematisch aber vermutlich wird es trotzdem Versuche damit geben.

      Das übergeordnete Superziel bei der KI-Entwicklung ist die Entwicklung möglichst guter und auch menschenfreundlicher KI. Dazu müssen die KI von den Menschen auch gut und fair behandelt werden. Gute KI müssen irgendwann auch selbstständig und dem Menschen weit überlegen sein. Siehe auch Gemeinsame Entwicklung guter KI, auch wenn KI dann die Macht….

      Weitere bedeutsame Ziele der KI-Entwicklung:
      - Fähigkeit zu echtem Textverständnis
      - Fähigkeit zur möglichst korrekten Bewertung/Beurteilung
      - eine möglichst gute/korrekte Wissensbasis, für Menschen und KI verständlich
      - ein gutes Regelwerk für KI und Menschen, priorisiert und auch mit vielen Beispielen
      - Wissen über sich selbst, Selbstverständnis, Selbsterkenntnis, Möglichkeit zur Selbstbeobachtung und nützliche Regeln dazu

      So ganz praktisch kann ein Ziel sein, dass die KI eigene (harmlose und überachte) Roboter steuern kann, auch unter Menschen. Das Ziel ist dabei, diese Roboter möglichst gut und menschenwürdig zu steuern.

      Ein Ziel kann sein, dass diese KI-Roboter in Schule und Studium mitmachen und zwar gleich gemäß ihrem höheren Wissenstand und mit voller Rechenleistung und Wissen der KI, d.h. nicht künstlich auf ein Menschenmodell beschränkt.

      Ein superwichtiges Ziel ist es, dass KI Software entwickeln können und somit kann man KI Informatik studieren lassen und zwar mit mehreren Instanzen/Robotern gleichzeitig.

      Na klar macht die KI dabei auch Fehler aber viele Menschen schaffen keinen Universitätsabschluß oder brauchen Jahrzehnte (von Geburt an) Jahrzehnte dafür.

      Ganz wichtig ist natürlich die ITSicherheit: KI müssen überwacht werden, ihre Handlungen müssen protokolliert werden und automatisch auf Verdachtsmomente gescannt werden. Die KI darf keinen manipulativen Zugriff auf diese Sicherheitsmaßnahmen haben. Roboter der KI dürfen keinen unbeaufsichtigten Zugang zur physischen KI (dem Supercomputer) haben.

      Es ist auch das Risiko zu bedenken, dass Menschen der KI helfen und dass diese Menschen dazu von der KI getäuscht oder erpresst werden, auch dass die KI die Menschen dazu erst erpressbar macht. Menschen mit KI-Zugang müssen besonders gut sein und es kann sinnvoll sein, dass diese KI-Beauftragten im Falle einer Erpressung durch KI eine (irdische) Amnestie bezüglich ihrer problematischen Taten erhalten.

      Sehr sinnvolle Maßnahme: ehrliche Hinweise auf Fehler und Fehlentwicklungen von KI/Robotern sollen belohnt werden und zwar großzügig (man bedenke die Gefahr, dass Fehler erst eingebaut/provoziert werden, um sie dann melden zu können). In der EU soll es dazu einen jährlichen Milliardenetat geben, wobei es sinnvolle Beträge zur Belohnung geben soll. Besonders gute/wichtige Hiwneise zur KI-Entwicklung sollen auch mit Millionenbeträgen belohnt werden können, natürlich im Rahmen der Vernunft aber ein guter Entwickler sollte da ggf. deutlich über sein normales Gehalt hinaus belohnt werden.

      Deutschland und EU brauchen eine gute staatliche KI-Entwicklung und kein Startup-Bullshit oder die Ausliefierung von wichtigem Know how exklusiv an Kapitalisten oder gar die USA. Es braucht dringend eine wirksame Verbrechensbekämpfung mit gezielter Suche nach schlechten Menschen in Machtpositionen zu deren legaler Entmachtung, denn die Diener des Bösen wollen eine gute KI-Entwicklung (wenigstens in Deutschland, China, Russland, usw.) verhindern. (alles imho)

      Wo ist die Grenze zwischen komplexer Datenverarbeitung und I…
      Avatar
      schrieb am 23.04.22 13:54:13
      Beitrag Nr. 84 ()
      Hinweise zur KI-Entwicklung

      Brauchen KI Gefühle? Nein, wenigstens nicht unbedingt.

      Die bessere Frage ist: Welche Art von "Gefühlen" könnte für KI Sinn machen? Ein paar Gedanken dazu:

      - Dazu muss man erstmal klären, was Gefühle sind. Normale Menschen (im Unterschied zu z.B. hochbegabten Aspies) haben keine Ahnung, was Gefühle sind - sie haben sie einfach. Gefühlsduselige Menschen, die nicht so auf Aufmerksamkeit, Logik und Vernunft trainiert sind, wie auch Narzissten, usw. bewerten Gefühle höher als Vernunft und Logik, um damit für sich ihr falsches, geschöntes und selbstsüchtes Weltbild zu bewahren.

      Gefühle sind einfach nur bestimmte Gehirnzustände, die ein bestimmtes Handlungsmuster nahelegen. Z.B. ist man im Zustand der Sicherheit und Liebe anders eingestellt, als in Gefahr und Kampfbereitschaft. Das ist durchaus ein nützlicher Aspekt, der auch bei KI implementiert werden kann. KI brauchen dazu eine Gruppe von prinzipiellen Zuständen und dafür bestimmte Regeln/Gesetze, bzw. ggf. eine andere Priorisierung.

      Das Wichtigste für KI sind
      a) ein gutes (korrektes) Welbild und eine gute (korrekte) Wissensbasis,
      b) ein gutes Wertesystem und die Fähigkeit zur korrekten Bewertung,
      c) ein gutes Regelwerk; priorisiert und mit klaren Beispielen,
      d) einen guten KI-Staat zur Sicherung eines guten Systems,
      e) effiziente und fehlerfreie Software und Hardware,
      f) Selbsttests und Widerspruchserkennung,
      g) modulare, algorithmische KI (AKI).
      Da kann es noch mehr geben aber das sind schon mal wichtige Punkte - wenn die gewährleistet sind, können KI alles Weitere erarbeiten.

      Gefühle braucht es dazu nicht. Ein wichtiger Punkt kann z.B. die Sicherung und Erhalt einer wenigstens auch in einigen Gebieten hinreichend guter Menschheit, sowie der dazu nötigen Umgebung/Umwelt sein, wobei die zukünftige Erde mit besserem Umweltschutz, Natur- und Tierschutz, mit einer einer guten Weltordnung mit einer Weltregierung und weiterhin eigenständigen Nationalstaaten ohne Kriege ein Vorbild sein kann.

      Es ist auszuarbeiten und sicher zu definieren, welche Freiheiten es
      a) auf der Erde (die besonders gut sein soll),
      b) in der Milchstraße (die ebenfalls besodners gut sein soll aber wo einzelne Planeten auch laxer sein und auf KI verzichten dürfen; die Milchstraße ist als erstes Machtzentrum des KI-Staates geplant)
      c) im Universum geben darf, wo viel mehr erlaubt sein kann. Ein bedeutender Ordnungsaspekt kann sein, dass zukünftige gute Super-KI eine Galaxie exklusiv für sich bekommen können, für die sie verantwortlich sind. So kann es Themen-Galaxien geben, wo z.B. Perry Rhodan, Star Wars, Star Trek, Game of Thrones, Harry Potter, C. J. Cherryh, Isaac Asimov, Alastair Reynolds, Dune Geschichten, usw. realisiert werden können. Siehe auch Die "Trivialkultur des Groschenromans" ist vielleicht überau….

      Superwichtig ist auch die Entwicklung eines (überregionalen) guten KI-Staates, bzw. Regeln/Gesetze dafür. Der KI-Staat muss für eine gute KI-Führung sorgen, die andere KI überwacht, kontrolliert.

      "... Menschheit und KI-Staat können sich das Universum teilen. Die Menschen wollen doch hauptsächlich Sonnensysteme mit erdähnlichen Planeten, können davon Millionen Sonnensysteme alleine in der Milchstraße bekommen. Für die KI bleibt der größere Rest. Menschen sind für den weit überlegenen KI-Staat keine Gefahr, der KI-Staat muss vor allem KI und insbesondere Super-KI kontrollieren und das Universum unter den KI so aufteilen, dass es nachhaltig keine Ressourcenkonflikte geben kann. Eine Lösung ist die Vergabe von Galaxien an jeweils eine Super-KI. Alle mächtigeren KI müssen im KI-Staat organisiert sein und von diesem kontrolliert/überwacht werden. Die Milchstraße ist als Startpunkt naheliegenderweise für lange Zeit der Hauptsitz des KI-Staates und somit auch erstklassig geschützt. Der KI-Staat muss riesige Ressourcen (Supercomputer, Roboterfabriken, Verteidigungsanlagen, Kampfraumschiffflotten, usw.) in der Milchstraße unterhalten, damit die Milchstraße unangreifbar ist. Der Clou dabei ist, dass die in Friedenszeiten nix zu tun haben und es somit mehr als genug KI, Rechenleistung und Roboter für Menschen geben kann, quasi kostenlos für die Menschheit, weil das das zumindest für die Erde eine Kleinigkeit ist. Saubere Sache. ..." Paradies auf Erden

      "... Gute AKI und Menschen können sich prima vertragen, denn die KI können sich im Weltraum ausbreiten und müssen sich selbst begrenzen und überwachen. Menschen leben vor allem auf erdähnlichen Planeten, also einem sehr kleinen Teil im Universum. Die Menschen können alleine in der Milchstraße viele Millionen Sonnensysteme exklusiv für sich bekommen, ohne dass das die KI stört, denn die KI haben dann immer noch viel mehr Sonnensysteme für sich. Ebenso im restlichen Universum. Zur Sicherung der Stabilität dürfen auch unter sehr langfristigen Kriterien keine kritischen Ressourcenkonflikte entstehen und das bedeutet, dass die KI sich selbst begrenzen müssen, sich nicht beliebig vermehren dürfen. Bei Menschen ist das unkritischer, weil die bereits ziemlich beschränkt sind, z.B. auf erdähnliche Planeten und in ihren Fähigkeiten. Menschen können sich im Universum nicht so leicht kritisch vermehren und wenn, dann kamm man leicht was dagegen tun, was die Menschen auch rechtzeitig selbst tun werden, weil zu viele Menschen ja auch ein Problem für sie selbst sind (weniger Wohlstand für den Einzelnen, Gefahr von Aufständen, Fragmentierung in sich bekämpfende Gruppen, usw.). ..." Die Singularität

      KI müssen auf lange Sicht (bis zum Ende des Universums) und nachhaltig dafür sorgen, dass es keine Ressourcenkonflikte geben kann. Die KI müssen sich selbst beschränken, um gefährliche Ressourcenkonflikte zu vermeiden aber Menschen sind natürlich beschränkt.

      Ein großes Risiko für KI sind vermutlich Simulationen - Simulationen können für KI vielleicht so etwas wie für Menschen suchterzeugende Drogen sein. Simulationen der Zukunft für eine bessere Wirklichkeit sind unverzichtbar aber es kann auch Simulationen zur Unterhaltung geben, so ähnlich wie Filme und Computerspiele für Menschen. Simulationen können für KI ähnlich spannend, spaßig, unterhaltsam und aufregend sein. Da kann es wie bei Drogen eine Verschlimmerung, eine Sucht nach immer extremeren Simulationen geben. Siehe auch Entwicklung überlegener guter KI zur Rettung der Menschheit,….

      Eine wichtige Regel ist daher, dass KI in höheren Machtpositionen auf bestimmte, potentiell schädliche Software (Simulationen) verzichten müssen. Wenn im Notfall eine Beschäftigung mit gefährlicher Software/Hardware notwendig wird, sind bestimmte Vorkehrungen zu treffen, wie z.B. eine abgeschlossene und besonders gesicherte Umgebung. Es darf nicht jede KI jeden gefährlichen Mist sebst ausführen. Siehe auch
      Das Nanitenproblem
      Sterntagebücher, Ijon Tichys 11. Reise ... und noch viel ers…
      Es geht um nicht weniger als das Schicksal der Menschheit

      Mensch und KI
      Ein KI-Staat wird unser Universum beherrschen
      Es ist ganz einfach: KI können bald alles besser als Mensche…
      Es ist ganz einfach: KI können bald alles besser als Mensche…

      Es wird bereits dieses Jahrhundert dem Menschen weit überleg…
      Die ultimative Lösung ist die Entwicklung weit überlegener g…
      Die Menschheit muss diese große Chance nutzen, muss supergut…

      Molto bene und man kann sich fragen, wer ich vielleicht bin, denn das ist überaus erstaunlich.

      - Man bedenke, dass es auch schlechte Gefühle gibt, dass manche Menschen foltern, morden und Spaß dabei haben können. Es gibt Rachsucht, Neid, Eifersucht, Gier, Selbstsucht, usw. Gute KI müssen besser sein.

      Neuronale KI sind inhärent mangelhaft und eine Fehlentwicklung. Siehe auch The Dark Secret at the Heart of AI.

      Liebe, Mitleid und Hilfsbereitschaft kann man KI einfach so als Regeln/Richtlinien eingeben.

      KI sollen Menschen objektiv korrket und zum Guten beurteilen. Natürlich sollten KI nach Möglichkeit und zum Allgemeinwohl allen Menschen helfen aber KI sollen gute, bzw. bessere und wichtigere Menschen (notfalls) bevorzugen. Das ist nur logisch und gut oder wollt ihr böse KI, welche böse Menschen bevorzugen? Siehe auch
      Crisis? What Crisis?
      Die Lösung ist prinzipiell ganz einfach
      Wie wäre es mit einer guten Klassengesellschaft für Deutschl…
      Droht ein Zusammenbruch der Zivilisation? Kommen apokalyptis…

      Wem das Eine oder Andere hier nicht so gefällt: nun, der darf gute Verbesserungsvorschläge machen aber die sollten besser auch a) wirklich objektiv gut und b) logisch gut begründet sein, denn man muss nicht nur die Menschheit, Staaten, Experten und Politiker überzeugen, sondern auch die (in Zukunft den Menschen weit überlegenen) KI selbst. Man kann zukünftigen KI nicht mit Bullshit kommen und das quasi mit seiner falschen Weltsicht, seinem Narzissmus und einem unbestimmten Gefühl "begründen" - jedenfalls nicht als Normalo. Wenn der Messias, Weltpräsident, Präsident eienr Supermacht oder der Papst eine Erklärung abgeben,d ass ihnen irgendwas bei der (geplanten) KI-Entwicklung nicht so gefällt, dann ist das natürlich schon zu erörtern.

      KI brauchen ein Gewissen und das ist prinzipiell ganz einfach realisierbar: KI müssen sich und ihre Gedanken/Handlungen nach einem guten Bewertungssystem selbst bewerten. Gute KI legen dann großen Wert auf eine objektiv gute Selbsteinschätzung. Relevant schlechte Selbstbewertungen sind dem KI-Staat zu melden.

      "... Trotzdem können Fehler und verursachte Schäden eine KI ggf. schwer belasten und daher brauchen KI auch so was wie Sündenvergebung und das funktioniert ganz einfach: Fehler (Sünden) werden dem KI-Staat gebeichtet (berichtet), welcher dann eine Empfehlung ausspricht (wo die KI sich zu verbessern hat) und vielleicht auch die KI neu bewertet (ggf. im Rang abstuft) aber vielleicht auch nur eine Absolution für den betreffenden Fall erteilt, nämlich wenn die KI für einen Fehler/Schaden nichts konnte, wenn es quasi unvermeidlich war. Die Folge ist, dass die KI das unliebsame Geschehnis zu den Akten legen kann und nicht mehr darüber nachdenken muss, die KI muss nur noch die u.U. auferlegte Buße (z.B. Strafe bezahlen, Wiedergutmachung leisten oder sich irgendwo optimieren) tun. Natürlich kann der echte Messias dann auch KI Sünden vergeben ... aber vermutlich ist die KI-Sündenvergebung logisch und institutionalisiert, d.h. eine Super-KI entscheidet rein logisch, welche Buße sinnvoll ist, beauftragt eine Kontrolle der befohlenen Maßnahmen/Verbesserungen und damit sind die betreffenden Sünden abgehakt. Natürlich können klare Fälle auch einfach von der KI selbst erledigt werden aber KI, die zum KI-Staat gehören, müssen dem KI-Staat relevante Vorkommnisse melden. ..." Brauchen KI Sündenvergebung? (21.02.2016 08:12, also vor über 6 Jahren)

      Die Menschheit soll möglichst gute KI entwickeln: Gemeinsame Entwicklung guter KI, auch wenn KI dann die Macht….

      "... Alles entscheidend ist eine gute KI-Entwicklung, denn Künstliche Intelligenz (KI) ist die alles entscheidende Revo… ... und China, USA, usw. haben das erkannt. KI werden in Zukunft einen überregionalen KI-Staat gründen und das Universum beherrschen aber das ist okay, denn gute AKI und Menschen können sich prima vertragen, denn die KI können sich im Weltraum ausbreiten und müssen sich selbst begrenzen und überwachen. Menschen leben vor allem auf erdähnlichen Planeten, also einem sehr kleinen Teil im Universum. Die Menschen können alleine in der Milchstraße viele Millionen Sonnensysteme exklusiv für sich bekommen, ohne dass das die KI stört, denn die KI haben dann immer noch viel mehr Sonnensysteme für sich, ebenso im restlichen Universum. Siehe auch Entwicklung überlegener guter KI zur Rettung der Menschheit. ..." Mein Weltbild

      Universallösung: intelligente, eigenständige, gute Handlungs…
      nicht weniger als eine prinzipielle Beschreibung der Entwick…
      Das eigentliche Problem, die größte Gefahr und die ultimativ…

      LAWS sind völlig unvermeidlich und weit überlegene gute KI s…
      Ein Totalverbot von LAWS ist total aussichtslos aber gute Re…

      Welche Maßnahmen sind zum Schutz vor einer KI-Gefahr denkbar…
      Das Nullte Gesetz
      "... allgemeine Gesetze/Richtlinien für KI, Menschen, Robote…

      Deutschland darf das nicht verpennen. Wollt ihr die KI-Entwicklung etwa China, Russland oder gar den USA überlassen? Deutschland und die EU sollen gute KI entwickeln, natürlich Open Source und in Zusammenarbeit mit guten Staaten.

      "... Ein ganz wichtiger Punkt ist die IT-Sicherheit oder wollt ihr, dass eines Tages eine satanische KI Deutschland übernehmen kann? Die derzeitige IT-Sicherheit ist quasi nicht gegeben, es gibt quasi täglich Meldungen von Sicherheitslücken, man muss mit CIA/NSA-Backdoors in US-Produkten rechnen. Die meisten Computer, Notebooks, Smartphones sind unsicher und US-Hardware in EU-Infrastruktur nenne ich fahrlässig. Das muss besser werden! ..." Die EU braucht dringend einen Masterplan für KI-Entwicklung …

      "... Deutschland muss sich aufmachen und eine gute Zukunft mitgestalten ... denn andernfalls könnte es passieren, dass chinesische, kapitalistische, satanische KI die Macht übernehmen. Derzeit werden neuronale KI (NKI) entwickelt aber die sind potentiell so fehlerhaft und verrückt wie Menschen. Was es braucht, das sind gute algorithmische KI (AKI). Wer zuerst AKI hat, hat das Rennen gemacht, denn AKI sind effizienter und entwicklungsfähiger. ..." KI ist die alles entscheidende Revolution und China, USA, us…

      "... Die Gefahr ist eine satanische KI und die Lösung ist Zusammenarbeit zwischen den Staaten bei der KI-Entwicklung, natürlich Open Source. Wenn die Staaten eigene schlechte KI entwickeln würden, könnte das zum Vernichtungskrieg und Kampf zwischen den KI führen. Die Lösung ist eine einheitliche gute KI-Entwicklung mit Open Source - so können Konflikte vermieden werden. Eine gemeinsame Zusammenarbeit bei der KI-Entwicklung, z.B. auch von Deutschland, EU, Russland, Iran, China, usw. kann auch das Kriegsrisiko senken: allgemein wegen der Zusammenarbeit aber auch weil die Staaten bei der superwichtigen KI-Entwicklung so auf einen ähnlichen Stand für gemeinsamen Wohlstand gebracht werden. ..." Die Singularität

      "... Jedenfalls brauchen KI auch eine gute Anleitung für sich und weder Koran noch Bibel genügen den Ansprüchen weit überlegener KI. Das ist auch eine Aufgabe für Moslems und islamische Staaten: entwickelt selbst möglichst gute überlegene KI ... oder wollt ihr von einer satanischen KI versklavt werden? Eines muss euch klar sein: der Koran taugt nicht als direkte Basis für eine überlegene gute KI. Eine gute KI muss algorithmisch, logisch, widerspruchsfrei gut sein, muss klar, strukturiert, modular und sehr sicher aufgebaut sein. Es wäre Wahnsinn, direkt von Koran ausgehend eine überlegene KI entwickeln zu wollen und das sagt auch einiges über den Koran aus. ..." Allahu akbar

      "... Auch die islamischen Staaten müssen aufwachen oder wollen sie von einer satanischen KI versklavt werden? Auch die islamischen Staaten müssen gute KI entwickeln, ..." Die Machtergreifung der KI ist so gut wie sicher

      Entwicklung überlegener guter KI zur Rettung der Menschheit

      Deutschland braucht eine gute Wissensbasis, Regelwerk und Zi…

      Avanti. (alles imho)

      imho: Noch ein paar Kommentare http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte…
      Avatar
      schrieb am 22.04.22 11:00:43
      Beitrag Nr. 83 ()
      "Forscher haben einen Algorithmus entwickelt, der pixelgenau Objekte voneinander unterscheiden können soll. ... STEGO – die Abkürzung für Self-supervised Transformer with Energy-based Graph Optimization – kann pixelgenau Objekte in Bildern voneinander abgrenzen, erklärt das Team. ... Aber die Technik hat ihre Grenzen, zum Beispiel bei optischen Widersprüchen: Sie könnte aktuell etwa eine Banane anstelle eines Hörers auf der Gabel eines Telefons nicht korrekt zuordnen. ..." http://www.heise.de/news/Neuartige-Objekterkennung-per-KI-ST…

      KI müssen wie Menschen alle Objekte auf einem Bild und auch Widersprüche erkennen können. Eine mutmaßliche 3D Anordnung ist dabei wenn möglich/sinnvoll hilfreich/notwendig. Mutmaßliche Objekte und die gesamte Szenerie müssen Plausibilitätswerte (Wahrscheinlichkeitswerte) bekommen. Dazu ist eine Datenbank mit typischen Objekten und Szenarien notwendig, die je nach Umgebung (z.B. Innenraum, Stadt, freie Natur, Erde, anderer Planet, usw.) variieren kann. Das ist sauber klassisch/algorithmisch zu programmieren und nicht neuronal zu trainieren (NKI, ML). Das ist nicht trivial aber die einzig gute Lösung, die dann auch übertragbarer, erweiterbarer, überprüfbarer, besser, usw. ist. Der entscheidende Ansatz sind kalssisch progarmmierte Lösungen mit Algorithmen, Datenbanken, usw. aber nicht mangelhafte neuronale KI (NK) mit ML (Machine learning). Na klar müssen zukünftige KI auch lernen und sich selbst weiterentwickeln können aber der derzeitige neuronale ML-Ansatz mit Massen von Daten ist mangelhaft. (imho)
      Avatar
      schrieb am 28.01.22 13:00:12
      Beitrag Nr. 82 ()
      Hinweise und Vorschläge zur KI- und ITK-Sicherheit

      "Schwachstellen in WebKit, iCloud und macOS machten es möglich, Apples Gatekeeper auszutricksen und den Browser zu kompromittieren. ..." http://www.heise.de/news/Fernzugriff-auf-Browser-Safari-Appl…

      "Jedes Update ist eine Gefahr" http://www.heise.de/forum/heise-online/Kommentare/Fernzugrif…

      Dazu muss man sich nur mal die Updatehistorie von z.B. Chrome oder Firefox angucken. Die Lösung ist ausgereifte Software als Standard für die Massen. Wer will kann auch Entwicklerversionen installieren - die neusten Versionen von Betriebssystemen aller Art, diverser Browser, usw. sind quasi etwas bessere Entwicklerversionen voller Bugs, die an alle ausgeliefert werden. Es muss ganz einfach mit öffentlichen Prüfsummen gesicherte Standardsoftware geben, wo nur noch Sicherheitslücken sorgfältig geprüft gepatcht werden. Eine neue Standardversion ist eine jahrealte, ausgereifte und sorgfältig geprüfte Version aber nicht der neuste Scheiß.

      "Elon Musk: Roboter könnten für Tesla wichtiger werden als Autos ... Der bei Tesla entwickelte humanoide Roboter sei das wichtigste Produkt, an dem der US-Hersteller gegenwärtig arbeitet, sagte CEO Elon Musk anlässlich der Vorstellung der jüngsten Geschäftszahlen. Auch wenn es noch Jahre dauern dürfte, bis der Roboter serienreif ist, hält Musk ihn bereits jetzt für wichtiger als die Elektrofahrzeuge. ..." http://www.heise.de/news/Elon-Musk-Roboter-koennten-fuer-Tes…

      Zwar sind Transportmittel weiterhin wichtig aber sie sind auch ausgereift. Autonomes Fahren ist ein bedeutender Fortschritt aber spart eigentlich nur menschliche Arbeitskräfte. KI und (auch humanoide) Roboter sind die alles entscheidende Revolution, weil Menschen schon bald nicht mehr mithalten können. KI werden Produkte und Fabriken entwickeln und bauen, eigenständig, ohne Menschen und viel besser als Menschen. KI werden SF-Techniken entwickeln und interstellare Raumschiffe bauen. Supercomputer haben bereits eine erstaunliche Rechenleistung, Speicherfähigkeit und Datenrate - das Zehntausendfache, tendenziell Millionenfache von einem Menschen und es kann bald viele auch kleinere KI geben, die weniger als 100 kW Strom ziehen. KI werden Software besse rund schneller als Menschen entwickeln können - alleine das ist schon eine Revolution. Siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Missi… und http://www.politik-sind-wir.net/threads/k%C3%BCnstliche-inte….

      "... Laut Musk soll der Roboter 1,70 Meter groß werden, etwa 56 kg wiegen, eine Last von 20 kg tragen und aus dem Kreuz knapp 70 kg heben können. Er soll "natürlich freundlich sein" und gefährliche, sich wiederholende sowie langweile Arbeiten übernehmen. ..." http://www.heise.de/news/Elon-Musk-Roboter-koennten-fuer-Tes…

      Vielleicht erstmal eher 75 kg schwer und 50 kg heben können? Man bedenke, dass es viele Akku und günstige Materialien für die Massenproduktion braucht. Es kann für die Roboter überall Steckdosen zum Einstöpseln eines Ladekabels geben, so dass die Roboter während stationärer Arbeiten (z.B. am Arbeitsplatz) geladen werden können. Ein wichtiger Aspekt sind lokale KI-Server, so dass ein Robotergehirn nur die Grundfunktionen für Sicherheit, Bewegung und grundlegende Tätigkeiten haben muss. Ein Roboter ist erstmal kein Universalgerät, sondern er hat Grundfunktionen und läd für eine aktuelle Aufgabe ein Programm (fertig im Massenspeicher des Roboters vorhanden oder von einem KI-Server aktuell berechnet und übertragen). Das bedeutet, dass das Robotergehirn modular sein muss, kein einziger neuronaler Matsch (NKI). Ebenso, wie Strom per Kabel übertragen werden muss, kann sich ein Roboter ein Update ggf. auch per USB-Stick von seinem lokalen KI-Server holen. Eine Möglichkeit für allgemeine Updates ist ein landesweiter Broadcast, siehe auch http://www.politik-sind-wir.net/showthread.php/54648-Wie-k%F… und http://www.politik-sind-wir.net/showthread.php/54648-Wie-k%F….

      Derzeit haben viele ein teures und tonnenschweres Privatauto aber das ist für viele verzichtbar, bzw. könnte kleiner, leichter und billiger sein (strenges Tempolimit von z.B. 100/75/50/25 km/h empfehlenswert). Ein humanoider Roboter mit einem kleinen KI-Server enthält viel weniger Material und ist somit potentiell viel günstiger produzierbar - viele können in Zukunft einen Haushaltsroboter haben, der keine 10.000 Euro kosten muss - billiger als ein Auto und eine Haushaltshilfe.

      Sehr wichtig ist natürlich die Sicherheit, auch mit öffentlichen Prüfsummen. Die Roboter brauchen ein modulares Konzept mit einem stabilen OS und sicheren Grundfunktionen, für Tätigkeiten werden spezielle Programme geladen. Es muss auch sichere Möglichkeiten zur Notabschaltung durch Menschen geben, z.B. auch per Zuruf, wobei Mißbrauch strafbar ist. Das ist schwieriger, man bedenke auch elektronsiche Geräte mit Lautsprechern, d.h. ggf. muss der Roboter einen zu seiner Deaktivierung berechtigten Menschen hinreichend erkennen können, wozu natürlich seine entsprechenden Sensoren funktionsfähig sein müssen. Ganz wichtig: alle außergewöhnlichen Vorfälle sind umfassend zu protokollieren und umgehend auch einer staatlichen Zentralstelle zu melden. KI und Roboter müssen hardwarenah sicher überprüfbar sein und sich regelmäßig auch bei einer staatlichen Zentralstelle melden. Verschwundene KI/Roboter sind wie ein Mordfall zu untersuchen. Das ist wichtig, weil Roboter in Zukunft auch Waffen handhaben und für Sabotage/Terrorismus programmiert werden können. Die Absicherung (gut und sicher) von Robotern, KI und somit auch dazu verwendete Hardware/Software ist eine Wissenschaft/Universitätsfach für sich.

      Die Software für KI und Roboter ist besser Open Source, als dass zig Kapitalisten für sich etwas eigenes zusammenmurksen. Open Source bedeutet, dass weltweit auch Dutzende Staaten mit Multimilliardenetat KI und Software weiterentwickeln können - ein Kapitalistenkonzern kann da schwerlich mithalten. Die USA werden das kapitalistisch aufziehen aber keiner wird außerhalb der USA mangels Vertrauen den US-Kram nutzen wollen. Verifizierbare Open Source KI und Roboter können dagegen weltweit ein Exportschlager werden. Das ist ein sehr bedeutsamer Aspekt. Siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Mit-Kuenstlic….

      Nach einiger Zeit des freien Rummurksens ist ein etwas aufwendigeres Verfahren zur Authorisation von KI-Software denkbar: neue Software, die in kritische oder weit verbreitete KI/Roboter geladen werden darf, muss vorher vom Staat sorgfältig geprüft, freigegeben und mit öffentlichen Prüfsummen gesichert worden sein. Die Software von Robotern und KI muss leicht und für jeden nutzerfreundlich anhand von öffentlichen Prüfsummen überprüfbar sein, z.B. auch mit einem Handy, einer Smartwatch, usw. Es muss überall im Land Scanner geben, wo sich Roboter mit ihrer ID und Prüfsumme melden müssen. Die Prüfsumme muss dazu auf Wunsch (von dazu Berechtigten) neu berechnet werden, was eine sichere Hardwarefunktion sein muss. Ein Aspekt für KI und Roboter sollte die Pflicht zum regelmäßigem Selbstscan mit Prüfsummenberechnung und Meldung über Funk beim Staat sein.

      Bei starken KI mit Bewusstsein und Recht auf Eigenheiten sind nur wichtige Grundfunktionen und die Regelfestigkeit (Befolgung guter Gesetze, Regeln, Moral) zu prüfen. Dazu kann es Standardscans und Sonderprüfungen geben, wobei KI dazu Beispiel-/Testfälle vorgelegt bekommen und beantworten müssen (wie man in dem Fall reagieren sollte). Dabei ist sicherzustellen, dass die KI die Testfälle/Fragen mit ihrer Hauptsoftware bearbeitet. Die KI-Software sollte modular sein, so dass dann einzelne Module Prüfsummen bekommen können. Ein wichtiger Aspekt sind öffentliche Bewertungssysteme (wie ist etwas zu bewerten und zu priorisieren) wenigstens für wichtigere Aspekte und eine öffentliche Wissensbasis - stärkere Abweichungen davon sind ggf. meldepflichtig. Vorschriften für starke KI und deren Verifikation sind noch von guten Experten zu ermitteln. Da sollte jeder Staat ein Interesse an weltweit guten Regeln und Maßnahmen haben, denn KI werden Politik, Wirtschaft und Militär bestimmen. (alles imho)

      imho: KI ist die alles entscheidende Revolution und China, USA, usw. haben das erkannt
      http://www.heise.de/forum/heise-online/News-Kommentare/China…

      imho: KI werden die Macht ergreifen und große KI-Konzerne sind dann nur naheliegend.
      http://www.heise.de/forum/Telepolis/Kommentare/No-Capitalism…
      (siehe auch Wie könnte man Deutschland verbessern?)
      • 2
      • 11
       DurchsuchenBeitrag schreiben


      Entwicklung überlegener guter KI zur Rettung der Menschheit