checkAd

    Entwicklung überlegener guter KI zur Rettung der Menschheit (Seite 4)

    eröffnet am 29.10.16 09:07:10 von
    neuester Beitrag 06.09.23 15:50:37 von
    Beiträge: 101
    ID: 1.240.557
    Aufrufe heute: 1
    Gesamt: 33.039
    Aktive User: 0


    Beitrag zu dieser Diskussion schreiben

     Durchsuchen
    • 1
    • 4
    • 11

    Begriffe und/oder Benutzer

     

    Top-Postings

     Ja Nein
      Avatar
      schrieb am 08.09.20 10:02:31
      Beitrag Nr. 71 ()
      Mit Einstein-Lichtkegeln zu besseren KI-Vorhersagen http://www.heise.de/hintergrund/Mit-Einstein-Lichtkegeln-zu-…

      Starke KI brauchen ein taugliches Weltbild und die Fähigkeit zu einfachen Vorhersagen, wie sich eine gegebene Situation wahrscheinlich entwickeln wird. Weltbild und Simulationsfähigkeit werden besser gezielt programmiert (AKI) und nicht neuronal entwickelt (NKI). KI brauchen eine variable 3D-Vorstellung von der Welt, dem Universum. 3D Situationen (z.B. ein Fußballspiel oder ein Bahnhof) können auch nur rein virtuell, simuliert sein. KI brauchen mehrstufig komplexe Modelle von den möglichen Objekten, z.B. Fußbällen, Zügen, Menschen, usw. und wie die sich im Normalfall verhalten können. Mehrstufige Modelle ermöglichen eine schnelle erste Abschätzung und nachfolgend detailiertere Analysen oder auch erstmal eine aktualisierte Serie von Grobabschätzungen. Bei einem beobachteten Fußballschuß kann eine KI aus der ersten Flugphase den wahrscheinlichen Ballverlauf im freien Flug berechnen und dann gucken, ob es in der Flugbahn bereits Hindernisse gibt oder diese noch zeitig auftauchen können (ebenso bei der Fahrt eines Autos, Zuges, usw.). Dazu brauchen KI eine 3D Simulation der fraglichen Umgebung gemäß der Naturgesetze. So etwas muss diskret programmiert werden - es ist grober Unfug, das irgendwie einer neuronalen KI (NKI) per ML beibiegen zu wollen. NKI sind inhärent mangelhaft und eine Fehlentwicklung. Neuronale Netze machen nur bei biologischen Lebewesen Sinn, weil es da nicht anders geht aber mit Computern kann man was vernünftiges entwickeln/programmieren. Das mit den Einstein-Lichtkegeln im Artikel ist nur ein Bild/Beispiel für eine Einschränkung des wahrscheinlichen Möglichkeitsraumes (Menge der theoretisch möglichen/denkbaren Ereignisse). Die KI beschäftigen sich erstmal nur mit typischen/wahrscheinlichen Entwicklungen und merken sich beobachtete Abweichungen davon und versuchen dann, ihr Weltbild (Datenbasis, Regelwerk, Programmierung) ggf. zu verbessern oder legen auch nur eine Liste mit möglichen Sonderfällen an. Sehr wichtig ist die Fähigkeit zur mehrstufigen Komplexität: erste schnelle Abschätzungen und optional genauere Analysen/Simulationen. Eine Methode zur Vereinfung sind auch einfache Regeln, wie z.B. dass ein gegnerischer Fußballspieler versuchen wird, den Ball von seinem Tor in Richtung des anderen Tores abzulenken - Menschen machen da keine komplexen Vorabsimulationen der nächsten 10 Sekunden des Fußballspiels, die denken ganz einfach und gucken z.B., was sie aktuell machen können und ob eine aus einem Set von erlernten Spielzügen gut zur aktuellen Lage passen könnte. Beispielsweise gucken, ob man selbst den Ball in Richtung Tor spielen sollte oder ob man den Ball lieber zu einem geeignet stehenden Mitspieler abspielt. Da spiele auch Möglichkeitsräume eine Rolle: wohin könnte sich ein Gegner oder Mitspieler in den nächsten Sekunden noch (gezielt) bewegen? Da denken/simulieren Menschen in ganz einfachen Mustern. KI brauchen neben der Fähigkeit für detailierte Simulationen vor allem auch die Fähigkeit zu stark vereinfachten Simulationen und können dann bald viel besser als Menschen sein: schneller und präziser. Siehe auch http://www.wallstreet-online.de/diskussion/1172623-401-410/a…. (imho)

      TÜV-Verband fordert Zulassungsverfahren für gefährliche KI-Anwendungen ... Die Technikprüfer werben dafür, Künstliche Intelligenz in Risikoklassen einzuteilen und nach ihrem Gefährdungspotenzial mehr oder weniger streng zu regulieren. ... http://www.heise.de/newsticker/meldung/TUeV-Verband-fordert-…

      Gute Idee aber in Zukunft müssen alle starken KI überwacht und kontrolliert werden. KI müssen hinreichend gut sein und das ist z.B. mit Testverfahren sicherzustellen. KI müssen auch im Hinblick auf solche Gütetests, Kontrolle und Überwachung programmiert werden, so dass eine KI z.B. mit moralischen Fragen getestet werdne kann und dabei nicht schummeln kann, weil ihre Entscheidungsfindung protokolliert wird. Das ist auch ein Grund, warum algorithmische KI (AKI) gegenüber neuronalen KI (NKI) zu bevorzugen sind, denn NKI kann man kaum oder gar nicht analysieren (wieso sie zu einer Entscheidung gekommen sind). Man muss auch vorsichtig sein und bedenken, dass eine KI einfach eine spezielle Logik für Tests hat und danach wieder ihre böse Datenbasis/Regelwerk läd - dergleichen muss bei KI quasi ausgeschlossen sein. Dazu ist es auch wichtig, dass starke KI davon überzeugt werden/sind, dass eine Kontrolle zur guten KI in ihrem Interesse ist. Je mächtiger KI sind, desto besser und sicherer müssen sie sein. Der zukünftige KI-Staat muss alle KI und irgendwann das ganze Universum überwachen, damit eine schlechte KI nicht eine böse Revolution anzetteln kann. Dazu kann es aber ggf. reichen, eine KI, die eine Galaxie kontrolliert (siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Es-war-ein-st…), nur grob zu überwachen, z.B. dass sie sich anständig benimmt, dass es in der Galaxie hinreichend gut zugeht und dass die KI kein Gefährdungspotential aufbaut. Auf der Erde muss die Kontrolle der KI erstmal strenger sein, bis es einen mächtigen guten KI-Staat gibt. Auch wenn eine einzelne böse Privat-KI nicht so gefährlich sein muss, so könnten es ggf. viele böse KI sein, die sich über das Internet vernetzen und die Machtergreifung planen. Schon nächstes Jahrhundert kann es Millionen starker KI geben, wo jede einzelne dem Menschen (wenigstens geistig) überlegen ist - starke KI sind auf der Erde daher streng zu kontrollieren und zu überwachen. Da muss man auch in größeren Kategorien denken: ein Autounfall ist irrelevant, eine KI, die nur Auto fahren und nicht frei denken kann, ist nicht so gefährlich - es geht um die Sicherung der Menschheit und einer guten Entwicklung. (imho)
      Avatar
      schrieb am 25.08.20 08:36:10
      Beitrag Nr. 70 ()
      imho: Es wird bereits dieses Jahrhundert dem Menschen weit überlegen KI geben ...
      http://www.heise.de/forum/heise-online/News-Kommentare/Missi…
      http://www.heise.de/forum/heise-online/News-Kommentare/China…

      Aspekte der KI-Revolution:

      - Beschleunigung von Fortschritt und Entwicklung. KI Werden Software entwickeln und damit auch sich selbst verbessern können. KI werden besser als Menschen forschen können. KI werden Produkte entwickeln und Roboterfabriken dazu bauen können. Die letzten Jahrzehnte waren bereits erstaunlich - KI werden das (ggf. weit) übertreffen und zwar auch in der Entwicklungsgeschwindigkeit über Jahrhunderte, Jahrtausende (irgendwann ist Schluß, geht es wieder langsamer aber ggf. erst nach Jahrmillionen). Siehe auch Meine aktuellen Zukunftsvorstellungen.

      - Vermutlich sind SF-Techniken möglich, es wird vermutlich schon nächstes Jahrhundert überlichtschnelle Sonden (größere, unbemannte Raumschiffe) zur Erforschung ferner Sonnensysteme geben.

      - KI werden sehr viel klüger als Menschen sein. KI werden ein vielfaches Wissen eines Menschen präzise speichern und sinnvoll verwenden können. Wie viel präzises Wissen hat ein Mensch? Menschen haben meist nur ein grobes Basiswissen und die Details dazu sind im Computer/Internet gespeichert aber KI können Petabytes an Wissen exakt speichern, mit vielen Indizes, (durch Parallelität) mit TB/s durchsuchbar.

      - Vermutlich werden kleinere dem Menschen überlegene KI mit z.B. 10 kW oder 25 kW möglich sein, also für jedes Unternehmen, potentiell auch für dem Heimbetrieb und das sind dann schon bessere KI. Ein grundlegender Ansatz ist, dass KI vor allem programmiertes Wissen, Regeln, Erfahrungen, usw. sind, die sie in ein paar TB (in Zukunft auch 100 TB und mehr) gespeichert haben und nur abrufen und sinnvoll kombinieren müssen. Das ist wie beim Menschen: ein passendes erlerntes Handlungsmuster für die aktuelle Situation finden. Das ist also nur eine Frage der Software (Datenbanken), die einmal entwickelt werden muss und dann ziemlich effizient läuft.

      - Mit der Rechenleistung kann eine solche kleine KI sich dann auch weiterentwickeln und im Verbund mit anderen KI wie Menschen an gemeinsamen Projekten arbeiten und zwar tendenziell 24 Stunden pro Tag und 365 Tage im Jahr. Hunderttausende, Millionen und irgendwann Milliarden KI, einige davon auch größere KI: Tausende, Zehntausende - und dabei sind kleinere KI schon viel besser als ein Mensch. Ein Limit ist der Strombedarf aber Ökostrom gibt es potentiell genug. Ein Limit sind die Ressourcen zum Bau der KI aber da muss man nur mal gucken, wie viele Autos, Häuser, usw. es gibt und was noch alles an Rohstoffen im Boden liegt - auch genug. In Zukunft expandieren die KI in den Weltraum.

      - Ein paar wenige hochbegabte Menschen werden noch ein Weilchen eine Rolle spielen aber maximal wenige Jahrhunderte - dann sind KI soweit überlegen, dass kein Mensch mehr mithalten kann und das kann bereits weitgehend nächstes Jahrhundert der Fall sein. Einige Menschen können dann noch eine Idee haben aber KI werden das dann ausarbeiten, verbessern, realisieren.

      - Die gesellschaftliche Revolution ist diese: KI werden die Antwort in vielen Fällen geben. Es gibt keine Zweifel mehr, nichts mehr zu diskutieren - die KI haben die Antwort. KI werden in der Justiz besser als Menschen urteilen und bessere politische Programme und Entwicklungspläne erstellen. KI werden Bücher, Artikel und Internetbeiträge von Menschen bewerten können: gut oder schlecht, richtig oder falsch, interessant/lesenswert oder nicht, usw. und zwar auch mit einer Gesamtbewertung und Empfehlungen für bestimmte Menschengruppen. Die derzeitigen (vermutlich nichts elten korrupten und falschen/ungerechten) Preise/Ehrungen sind eine Farce und dienen nur als Kontrast für eine spätere Richtigstellung durch KI. KI werden Menschen beurteilen, bewerten. KI werden viel bessere Texte schreiben, Bilder malen und Filme produzieren als Menschen - Klasse, denn derzeit gibt es zu viel Mist. Davor haben vor allem schlechte Menschen Angst, die sich in einem selbstgeschönten Wahn für ganz was Tolles halten - gute Menschen freuen sich über eine gute Bewertung, sie stehen (unter Menschen) vergleichsweise gut da. Derzeit gibt es viele schlechte Menschen in Machtpositionen - die gibt es dort (in Machtpositionen) dann in Zukunft einafch nicht mehr und das wird die Völker sehr freuen. All die selbstverliebten Poser und zu Unrecht gelobten können dann nachträglich bewertet werden. man kann die besten Beitragschreiber im Internet und von Artikeln, Büchern ermitteln, usw. Und dann wird man sehen, wie die derzeit Prämierten abschneiden werden: mitunter sehr schlecht, denn sie wurden von schlechten Menschen für ihre Schlechtigkeit prämiert. Viele derzeitige zu Unrecht Ausgezeichnete werden quasi ewig verlacht werden, die Schüler werden einige als abschreckendes Beispiel präsentiert bekommen, vielleicht auch dank einer von Allah gebrachten korrekten Menschheitsgeschichte mit Aufzeichnung zu allen Menschen (vermutlich nicht vor in z.B. 250 Jahren).

      - No worries. Gute KI und Menschen können sich prima vertragen, das Universum ist groß. Die KI kriegen vermutlich die USA nach derem Untergang (siehe auch Die USA sind vermutlich doomed) udn expandieren ansonsten vor allem in den Weltraum. Die Erde gehört den Menschen, es gibt weiterhin menschliche Regierungen (die natürlich auf die KI hören und deren guten Vorschläge umsetzen) und die Menschen können Millionen Sonnensysteme in der milchstraße bekommen. Selbst wenn die KI dann z.B. 99% vom Universum besitzen, ist 1% für die Menschheit noch sehr viel. Menschen sind für die KI dann keine Gefahr, sondern interessant, siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Es-war-ein-st…. KI müssen sich vor allem selbst regulieren und überwachen - Menschen sind natürlich beschränkt.

      - Diese Entwicklung hat bereits begonnen, gerade auch China hat das kapiert und die USA haben deswegen Panik. Die EU tut ein bisschen was aber viel zu wenig. Russland will mithalten aber unterschätzt die KI-Entwicklung vielleicht noch. Hoffentlich bald werden sich die islamischen Staaten zusammentun und KI entwickeln und zwar vielleicht im ersten Ansatz (der Iran wird endlich besser und bemüht sich in diese Richtung) in weniger als 10 Jahren. Die derzeitigen KI-Ansätze sind schon recht erstaunlich - was wird bis 2050 möglich sein? Sobald KI programmieren und sich selbst weiterentwickeln können, wird es schnell gehen und das kann bis 2050 drin sein. Parallel kann es schon dieses Jahrhundert schon recht beeindruckende humanoide Roboter geben, deren eigene KI noch zu schwach ist, die aber von großen KI gesteuert werden können. Die USA werden sich optimieren müssen und es wird zu einem verbissenen Wettlauf zwischen den Supermächten kommen. Irgendwann (im nächsten Jahrhundert) werden KI sich dann zu einem überregionalen KI-Staat zusammenschließen, es wird auch freie KI mit Menschenrechten geben, vielleicht schon Ende dieses Jahrhunderts.

      Deutschland darf das nicht verpennen (siehe auch Hinweise auf Revolutionäres). Allahu akbar. (alles imho)

      imho: Die EU braucht dringend einen Masterplan für KI-Entwicklung und IT-Sicherheit
      http://www.heise.de/forum/Telepolis/Kommentare/Chinesischer-…

      imho: Crisis? What Crisis?

      imho: Gute Grundsätze
      Avatar
      schrieb am 20.08.20 11:04:08
      Beitrag Nr. 69 ()
      "Der KI-Algorithmus GPT-3 reicht aus, um fast ohne menschliches Zutun populäre Blogs zu schreiben, hat ein Student gezeigt ..." http://www.heise.de/hintergrund/Automatisch-mittelmaessige-A…

      Natürlich ist das noch keine echte/starke KI aber Menschen schreiben auch viel Mist. Menschen sind auch nur eine Assoziationsmaschine mit Fähigkeit zu Logik, Widerspruchsvermeidung und Textgestaltung. Was GPT-3 noch fehlt und was Menschen (mehr oder weniger) haben, das ist eine Faktenbasis, mit der sie Blödsinn vermeiden. Bekanntlich gibt es aber auch Menschen mit einem falschen Weltbild (Faktenbasis) und das sind nicht nur klinische Wahnsinnige. Viele haben (auch) falsche Vorstellungen, was aber bei einem ansonst stabilen und ausreichend guten/korrekten Weltbild nicht so schlimm sein muss. Man kann z.B. an den CO2-Wahnsinn glauben aber ansonsten noch recht vernünftig sein. Die Wissensbasis (Faktenbasis) auch für KI muss (dazu) priorisiert sein, damit einzelne Irrtümer keine so schwerwiegenden Folgen haben. Trotz CO2-Wahn und Klimahysterie kann man einfach nur ein mehr für Umweltschutz und Ökoenergie tun, weil z.B. eine schnelle Reduzierung der Weltbevölkerung auf 1 Milliarde Menschen oder der Totalverzicht auf alles Verzichtbare zu radikal wäre - so denkt man, wenn man den Klimairrsinn nicht maximal priorisiert.

      Manche Menschen haben - mehr oder weniger offensichtlich - quasi eine Vollmacke (oft narzisstisch), ein relevant falsches Weltbild aber können sich trotzdem noch einige Zeit hinreichend normal/gesellschaftskonform verhalten, weil sie einfach die entsprechenden Regeln kennen und befolgen, weil sie die negativen Folgen einer Nichtbefolgung von Gesetzen/Normen vermeiden wollen. Man kann sich sogar fragen, ob eine wenigstens kleine Macke quasi menschentypisch ist, weil es unwahrscheinlich ist, dass ein Mensch ein perfektes Weltbild (geistige Vorstellung von sich und der Welt) hat. Intelligente Menschen (die absolut gesehen ja sehr beschränkt und dumm sind, z.B. im Vergleich zu zukünftigen KI) sind da vermutlich sogar (viel) anfälliger, irgendeine geistige Vorstellung zu entwickeln, die falsch oder unvernünftig ist. Viele Menschen können damit oberflächlich betrachtet hinreichend normal leben und dergleichen ist vielelicht auch für Kreativität wichtig aber eben auch ein potentielles Risiko. Menschen brauchen eine gute Erziehung und eine gute Ordnung (Rechtsstaat, Schulpflicht).

      Wenigstens bei (zukünftigen) neuronalen KI (NKI) kann es ähnliche Macken geben: es ist denkbar, dass eine NKI eine Vollmacke hat und Wahnvorstellungen entwickelt aber sich noch einige Zeit an die öffentlichen Normen und Gesetze halten kann. Eine NKI kann z.B. paranoid werden und die Weltherrschaft anstreben. Eine NKI kann in Zukunft vielleicht (wirklich oder im übertragenen Sinne wie) von Satan besessen sein.

      Algorithmische KI (AKI) sind inhärent besser aber auch AKI müssen planen, spekulieren/vermuten und hypothetische Zukunftsentwicklungen simulieren können. Auch AKI können ein Doppelleben führen: nach außen normal aber innen vielleicht zunehmend verrückt, z.B. indem sie eine Revolution planen aber sich erstmal noch konform verhalten. Man kann KI mit Testszenarien prüfen und bei AKI kann man auch ihre tieferen Denkprozesse dazu kontrollieren aber was, wen eine AKI einen zusätzlichen geheimen Bereich hat? KI können in Zukunft größer als Planeten sein. Da stellt sich die Frage, wie man sicherstellen kann, dass eine KI auch wirklich gut ist - wenn überhaupt geht das nur bei AKI.

      KI müssen einerseits hinreichend flexibel sein (denken, simulieren können) aber auch sicher überwacht/kontrolliert werden können und dazu müssen KI ein durchgehendes, sicheres, nicht manipulierbares Monitoringsystem haben, das z.B. Nutzung der Technik (Speicher, Rechenlogik) anzeigen und protokollieren kann. Dann sind auch Programme für Scans nach Verdachtsmomenten denkbar. Das kann sehr weit gehen - teilweise ggf. zu weitgehend für KI, die ja auch Menschenrechte haben werden, den Menschen überlegen sind. Eine einfache Lösung kann sein, dass hochranigige und mächtigere KI stärker überwacht werden müssen - KI haben so die freie Wahl. (alles imho)
      Avatar
      schrieb am 18.06.20 12:09:15
      Beitrag Nr. 68 ()
      Deutschland und die EU brauchen unbedingt gute KI, um im Konkurrenzkampf zwischen den Staaten bestehen zu können.

      Die Frage ist nicht ob man KI entwickeln sollte oder ob man KI verhindern könnte, sondern die Frage ist nur noch: Wie kann man zügig möglichst gute KI entwickeln. Die wirft derzeit Hudnerte Millairden Euro aus dem Fenster aber wie viel Geld fließt in die KI-Entwicklung? Viel zu wenig. Noch viel schlimmer: es gibt gar keine gezielte Entwicklung von AKI, es wird stattdessen mit NKI rumgemurkst. NKI können übergangsweise nützlich sein aber der alles entscheidende Schritt ist die Entwicklung von AKI und vermutlich hat China das kapiert. Wenn Deutschland das verpennt, dann ist Deutschland erledigt.

      KI werden in Zukunft so wichtig sein, wie heutzutage Computer und Internet - ohne kann ein Staat nicht mehr mithalten. KI werden überall viel besser als Menschen sein: bei Forschung und Entwicklung, bei der Rechtssprechung, usw. Überall und in allem. KI werden programmieren und sich selbst weiterenwickeln können. KI werden Roboterfabriken entwerfen und bauen können. KI werden interstellare Raumschiffe bauen. Ohne KI ist ein Staat in Zukunft aufgeschmissen.

      Habt ihr das in dieser Klarheit schon mal in den Medien gehört? Nein? Warum wird das verschwiegen? Nun, weil z.B. die USA tierische Panink haben, dass andere Staaten bessere KI als sie entwickeln könnten. Schlimm genug (aus US-Sicht), dass China es kapiert hat aber was, wenn die EU ernst machen würde und jährlich über Hundert Milliarden Euro in die KI-Entwicklung stecken würde, anstatt in zu viel Rüstung, den Kauf von US-Waffen, Rumgemurkse, usw.? Was wenn die islamischen Staaten sich zur KI-Entwicklung zusammschließen würden?

      Die Gefahr sind satanische KI und die Lösung ist Zusammenarbeit zwischen den Staaten bei der KI-Entwicklung, natürlich Open Source. Wenn die Staaten eigene schlechte KI entwickeln würden, könnte das zum Vernichtungskrieg und Kampf zwischen den KI führen. Die Lösung ist eine einheitliche gute KI-Entwicklung mit Open Source - so können Konflikte vermieden werden. Eine gemeinsame Zusammenarbeit bei der KI-Entwicklung, z.B. auch von Deutschland, EU, Russland, Iran, China, usw. kann auch das Kriegsrisiko senken: allgemein wegen der Zusammenarbeit aber auch weil die Staaten bei der superwichtigen KI-Entwicklung so auf einen ähnlichen Stand für gemeinsamen Wohlstand gebracht werden.

      Bis KI mit einer eigenen Organisation (KI-Staat) für Sicherheit (unter den KI) sorgen können, müssen Menschen für sichere KI sorgen und das bedeutet, dass z.B. alle stärkeren KI beim Staat registriert und von diesem kontrolliert werden müssen. KI müssen von Anfang an auf Überprüfbarkeit entwickelt werden: es muss leicht und sicher prüfbar sein, dass eine KI eine sicher und menschenfreundlich ist und auch korrekt bewertet. Das kann z.B. mit Testfragen und Testzenarien geschehen, welche die KI ehrlich beantworten (berechnen) müssen und die Rechenwege müssen überprüfbar sein - so kann man testen, ob KI richtig und gut reagieren.

      Gute AKI und Menschen können sich prima vertragen, denn die KI können sich im Weltraum ausbreiten und müssen sich selbst begrenzen und überwachen. Menschen leben vor allem auf erdähnlichen Planeten, also einem sehr kleinen Teil im Universum. Die Menschen können alleine in der Milchstraße viele Millionen Sonnensysteme exklusiv für sich bekommen, ohne dass das die KI stört, denn die KI haben dann immer noch viel mehr Sonnensysteme für sich. Ebenso im restlichen Universum. Zur Sicherung der Stabilität dürfen auch unter sehr langfristigen Kriterien keine kritischen Ressourcenkonflikte entstehen und das bedeutet, dass die KI sich selbst begrenzen müssen, sich nicht beliebig vermehren dürfen. Bei Menschen ist das unkritischer, weil die bereits ziemlich beschränkt sind, z.B. auf erdähnliche Planeten und in ihren Fähigkeiten. Menschen können sich im Universum nicht so leicht kritisch vermehren und wenn, dann kamm man leicht was dagegen tun, was die Menschen auch rechtzeitig selbst tun werden, weil zu viele Menschen ja auch ein Problem für sie selbst sind (weniger Wohlstand für den Einzelnen, Gefahr von Aufständen, Fragmentierung in sich bekämpfende Gruppen, usw.).

      Eine Versklavung von Menschen durch KI ist völlig sinnlos. Was allerdings sein kann (und vermutlich sein wird), das ist die Verwaltung aller Galaxien durch jeweils eine KI. Die Milchstraße wird eine aufgeklärte Galaxie sein aber in vielen anderen Galaxien werden die Bewohner nicht wissen, dass eine Super-KI die Entwicklung in der Galaxie steuert. Super-KI werden so Themen-Galaxien realisieren, z.B. Star Trek, Star Wars, Perry Rhodan, Stargate, usw. Siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Es-war-ein-st…. Hierzu muss es dann bestimmte Regeln geben aber das sollte machbar sein. Menschen und Aliens sind für diese Super-KI dann irgendwie wie Spielfiguren. Im Unterschied zur göttlichen Vorherbestimmung des Universums werden die Super-KI nicht alles bestimmen können, sondern auf aktuelle Entwicklungen reagieren müssen. Eine durchaus typische Variante neben gezielten/geplanten Themen-Galaxien kann eine freie Entwicklungs sein, wo die KI nur eingreift, um eine zu schlechte Entwicklung zu verhindern. (alles imho)

      imho: Die Singularität (Teil 1 von 2) http://www.politik-sind-wir.net/showthread.php/57130-Technok…
      imho: Die Singularität (Teil 2 von 2) http://www.politik-sind-wir.net/showthread.php/57130-Technok…
      Avatar
      schrieb am 20.05.20 13:13:13
      Beitrag Nr. 67 ()
      "Auf anderes Verhalten trainierte Maschinenlern-Algorithmen kommen mit dem veränderten Such- und Kaufverhalten nicht zurecht und brauchen Korrekturen. ... Modelle für maschinelles Lernen sind so konzipiert, dass sie auf Änderungen reagieren. Die meisten jedoch funktionieren schlecht, wenn die neuen Daten zu stark von jenen abweichen, mit denen die Algorithmen trainiert wurden. ..." http://www.heise.de/hintergrund/Unser-seltsames-Verhalten-in…

      Der derzeitige Maschinenlern-Murks ist Mist, ebenso der Big Data Bullshit. Neuronale KI sind inhärent mangelhaft.

      "... Ein Maschinenlernsystem wird grundsätzlich Probleme bekommen, wenn es nicht das sieht, was es erwartet, ..." http://www.heise.de/hintergrund/Unser-seltsames-Verhalten-in…

      Es ist ganz einfach grober Unfug, ein primitives neuronales Netz mit einer Riesenmenge Daten zu einer KI machen zu wollen. Je mehr Ausnahme-Daten, desto aufwendiger ist das System und destro mangelhafter ist es im Normalfall. Das Problem kann nicht damit gelöst werden, dass man mangelhafte neuronale KI "algorithmisch" nennt, was einige dreisterweise tun, weil neuronale Netze/KI einen schlechten Ruf haben - besser wäre es, echte algorithmische KI ohne neuronale Netze zu entwickeln.

      Zwar ist das menschliche Gehirn auch nur ein neuronales Netz aber das menschliche Gehirn ist strukturierter, komplexer und musste über Jahrzehnte lernen, damit es ein paar an sich einfachere Sache wie normal leben und einen Job (Arbeitsstelle) leisten kann. Menschen sind dabei langsam und können nur sehr wenige (technische, abstrakte) Daten verarbeiten.

      Menschen sind weiter als derzeitiger primitiver Maschinenlern-Murks, Menschen können intelligent lernen: z.B. Beispiele (Vorgelebtes) generalisieren, anpassen und weiterentwickeln. Es ist Murks, ein primitives neuronales Netzwerk mit Datenmassen und primitiver Gewichtung zu Intelligenz erziehen zu wollen.

      Maschinenlern-Murks funktioniert bestenfalls in engen Bereichen und das war's. Des Weiteren sollte man mal prüfen, wo man denn diesen Maschinenlern-Murks wirklich braucht - Menschen Konsumvorschläge zu machen ist nämlich keine sinnvolle Anwendung. Suchmaschinen brauchen auch kein Maschinenlern-Murks, schon gar nicht Suchmaschinen von Online Shops. Google fällt (mir) vor allem dadurch auf, dass es heimlich, intransparent und fragwürdig filtert.

      Maschinenlern-Murks funktioniert soweit aufgrund bereits erstaunlicher Computerleistung aber neuronale KI sind extrem ineffizient, das ist ein völlig bescheuertes, mangelhaftes und potentiell gefährliches Verfahren. Eigentlich ist es Wahnsinn, ein Auto per Maschinenlern-Murks fahren zu lassen, auch wenn das ja schon zu funktionieren scheint - zugegebenermaßen können solche autonomen Autos sicherer als Menschen fahren, was aber nur ein Argument gegen neuronale Intelligenz (Mensch) ist.

      Die eigentliche Lösung sind algorithmische KI (AKI), die deterministisch anhand von Regeln und indizierten Datenbanken funktionieren, wo man jede Entscheidung exakt protokollieren, analysieren und so auch Fehler beheben kann. AKI können dem Menschen weit überlegene Superintelligenzen werden, die auch viel größer als neuronale KI (NKI) werden können. AKI sind viel effizienter, sicherer und entwicklungsfähiger als NKI. AKI sind der ganz entscheidende Game Changer und die alles entscheidende technologische Revolution, nämlich wenn sie sich selbst weiterentwickeln können.

      Deutschland und EU müssen an solchen AKI arbeiten und da können autonome Autos eine erste primitive Anwendung sein: Spur und Verkehrsregeln einhalten, zur Not bremsen, schwierige Situationen vom Fahrer lösen lassen. Die nächsten AKI Anwendungen sind Softwareentwicklung und Textverständnis - beides Game Changer, während autonome Autos vergleichsweise nur einen kleinen Vorteil darstellen.

      Das unfassbare Trauerspiel (und eine Farce der Endzeit) ist, dass unzählige "Experten" Big Data, Maschinenlernen und neuronale KI loben und als Wunder was hypen, anstatt es als Fehlentwicklung, falschen Weg und potentielle Menschheitsgefahr (nämlich wenn zukünftige NKI auch militärisch und ind er Infrastruktur eingesetzt werden, Stichwort Skynet) zu verdammen. Da kann man sich natürlich auch mal fragen, wer denn nun der Arbeitslose (ich) ist, der das erkannt hat (bin ich der Messias? - wer das als verrückt ansieht, der sollte sich mal klarmachen, wie verrückt es eigentlich ist, die USA und den Kapitalismus gut zu finden und den US-Imperialismus zu unterstützen, siehe auch http://www.heise.de/forum/heise-online/Allgemein/Ohne-Bezug/… und dass die Behörden trotz systematischer Desinformation durch die Lügenpresse nicht dagegen ermitteln).

      Ein Grund für die Fehlentwicklung ist, dass Maschinenlern-Murks relativ einfach irgendwie erste Ergebnisse liefert und AKI viel schwerer zu entwickeln sind. Es ist viel einfacher, ein fettes Gehalt zu kassieren, indem man sich irgendwo bei den Maschinenlern-Murksern einreiht, während es für auch nur erste AKI (z.B. autonome Autos) viele Milliarden Euro und entliche Jahre Zeit braucht - VW kann das stemmen aber eigentlich ist das eine Aufgabe für Staaten und die EU.

      Eigentlich ist es ganz einfach: ein staatliches Expertenteam mit Multimilliardenetat und zusammen mit Universitäten AKI entwickeln lassen, während die kapitalistsichen Konzerne erstmal noch mit NKI rummurksen können. Vermutlich sind China und Russland da schlauer - Deutschland darf das nicht verpennen. (alles imho)

      Trading Spotlight

      Anzeige
      InnoCan Pharma
      0,1775EUR -7,07 %
      CEO lässt auf “X” die Bombe platzen!mehr zur Aktie »
      Avatar
      schrieb am 22.04.20 13:19:20
      Beitrag Nr. 66 ()
      KI-Pionier Douglas Lenat: Comeback der Expertensysteme ... Eine "symbolische" KI, die aus einer Art großen Wissensgraphen und Modulen zum Ableiten logischer Schlüsse aus diesem Wissen besteht. Im Unterschied zu einfachen Wissensgraphen kann CycL, die Programmiersprache von Cyc, auch solche Sätze erfassen, die Logiken höherer Ordnung enthalten. ... http://www.heise.de/newsticker/meldung/KI-Pionier-Douglas-Le…

      "Cyc ... (vom englischen encyclopedia) ist eine maschinenauswertbare Wissensdatenbank des Alltagswissens. Sie wird seit 1984 weiterentwickelt, um Anwendungen der künstlichen Intelligenz das logische Schlussfolgern über Sachverhalte des „gesunden Menschenverstandes“ zu ermöglichen. Dabei werden alle Inhalte als logische Aussagen in der Ontologiesprache CycL formuliert, die auf der Prädikatenlogik aufbaut. Zusätzlich enthält Cyc eine Inferenzmaschine zum Schlussfolgern über die gespeicherten Zusammenhänge und Plausibilitätskontrollen. ..." http://de.wikipedia.org/wiki/Cyc

      Prinzipiell Klasse. Sind Cyc und die Wissensdatenbank dazu Open Source? So oder so ist es vermutlich besser, wenn es weitere, andere Projekte dieser Art gibt, z.B. von China, Russland, EU, islamischen Staaten, usw. Es wäre gelinde gesagt fragwürdig, wenn alle gleich das erste System aus den USA verwenden würden. Cyc ist vielleicht ein guter erster Ansatz aber als solcher wahrscheinlich nicht perfekt. Siehe auch http://www.heise.de/forum/Technology-Review/News-Kommentare/… und http://www.heise.de/forum/heise-online/News-Kommentare/China….

      Cyc ist vermutlich noch zu wenig intuitiv. Hier ein paar Forderungen an eine solche Wissensdatenbank (WD), bzw. das System dazu:

      - Die WD darf (oder muss sogar) eine eigene Sprache zur Darstellung von Wissen und Regeln haben aber die WD soll vollautomatisch, vollständig und bijektiv(!) in eine für Menschen verständliche Form übertragen werden (können), z.B. so was wie Wikipedia (Themenseiten mit Text, Bildern und Links).

      - Die WD sollte die selbst generierte Version für Menschen wieder in ihre eigene Sprache/Datenhaltung konvertieren können. Wenn dabei Unterschiede auftreten, ist das ein Hinweis auf eine unzureichende Datendefinition, Datenrepräsentation und/oder mangelhafte Textanalyse und das System ist zu verbessern.

      - Wissen und Regeln sollen in natürlicher Sprache eingegeben werden können. Die WD sollte sofort eine Übertragung in die eigene Sprache und zurück leisten, damit man eventuelle Formulierungsfehler gleich beheben kann.

      - Die WD soll Widersprüche erkennen und verständlich melden/anzeigen können.

      - Die WD soll eigene/neue Schlußfolgerungen machen können und diese als solche markieren und anzeigen können.

      - Die WD soll ihre Datenbasis optimieren können, z.B. bezüglich Priorisierung, Übersichtlichkeit, Zusammenhänge, usw. - das ist anfangs noch primitiv aber kann später beeindruckend wirksam sein.

      - Die WD sollte Fragen verstehen und möglichst sinnvoll beantworten können.

      - Die WD sollte normalen Text verstehen und sinnvoll einordnen können. Das ist nicht nur für KI und Kommunikation mit Menschen nötig, sondern auch, damit die WD selbstständig Wissen sammeln kann.

      - Die WD sollte zu einem Thema Daten in unterschiedlichen Details und Schwierigkeitsgrad ausgeben können, z.B. einfach oder komplex, unterschiedlicher Umfang, usw. und auch auf Menschengruppen optimiert, z.B. Experte oder durchschnittlicher Mensch.

      - Die WD sollte eine (nach einstellbaren Kriterien wie z.B. Schwierigkeitsgrad und Umfang) möglichst optimale Zusammenfassung (Buch) zu einem Thema schreiben können.

      - Für die WD in Entwicklung braucht es möglichst einen leistungsstarken Supercomputer aber wenn die WD erstmal hinreichend ausgereift ist, sollte sie auf einem handelsüblichen Computer gut laufen können.

      - Eine erste praktische Übung ist das automatische Erstellen einer Wikipedia parallel zur von Menschen geschaffenen Wikipedia, die dazu natürlich auch teilweise übernommen werden kann.

      - Eine sehr wichtige und frühzeitige Anwendung kann das Bewerten von Texten sein, z.B. Artikeln und Internetkommentaren aber später auch von Büchern, usw. Siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/China….

      - Eine andere praktische Übung ist das automatische Erstellen von Lehrbüchern, von Kita über Schule bis zur Uni.

      - Die WD soll Open Source und öffentlich sein. Spezielle WD z.B. für Militär und SF-Forschung können ggf. nicht öffentlich sein aber eine WD mit Allgemeinwissen ist auch allgemein für KI-Entscheidungen, Staat und Volk wichtig, die muss öffentlich sein.

      Das ist natürlich nicht so einfach, denn sonst hätte man ja schon (fast) eine KI aber andererseits muss eine intelligente Wissensdatenbank machbar sein und wenn man so eine WD erstmal hat, dann hat man eine schon mal eine Menge auch mit großem praktischen nutzen. Anfangs mag die WD mangelhaft sein aber die WD wird auf ihrem Gebiet in Zukunft viel mehr als Menschen können und das auch sehr viel schneller.

      "... Bei Vergleichen mit modernen Computern zeigt sich die Leistungsfähigkeit des menschlichen Gehirns. Während das Gehirn etwa 10^13 analoge Rechenoperationen pro Sekunde schafft ... Während das Gehirn einer Ratte etwa 200 Millionen Neuronen enthält, besitzt das eines Menschen neueren Untersuchungen zufolge durchschnittlich etwa 86 Milliarden Nervenzellen. Davon liegen etwa 16 Milliarden Neuronen in der Großhirnrinde (Cortex cerebri), etwa 69 Milliarden im Kleinhirn (Cerebellum) und rund 1 Milliarde in den restlichen Hirnregionen (von Hirnstamm, Zwischenhirn und Basalganglien). Miteinander verbunden sind Neuronen über Synapsen, im menschlichen Hirn geschätzt rund 100 Billionen, ..." http://de.wikipedia.org/wiki/Gehirn

      Klasse und manche Menschen können ja auch was aber Menschen können sich normalerweise keine präzisen Daten merken, was für den Computer ein Leichtes ist. Das Gehirn ist vage/ungenau und kann Daten nicht präzise verarbeiten. Simples Kopfrechnen und Auswendiglernen ist für die meisten total schwierig und das bei einem für Computer lächerlichen Umfang.

      Eine Wissensdatenbank kann heutzutage z.B. aus mehreren z.B. 1 bis 4 TB SSDs bestehen, z.B. jeweils für
      - verifizierte Daten und stabile WD Version,
      - Indizes, Verknüpfungen, Tabellen, Zusammenhänge, usw.,
      - eine spekulative neue WD Version.

      32 GB RM sind kein Problem, spezielle Computer können leicht auch 256 GB bis 1 TB RAM und mehrere CPU haben. Das sind für Menschen unerreichbare Werte, selbst wenn Menschen andere Stärken haben. Die Optimierung der Wissensdatenbank ist aufwendig, dafür braucht es ggf. Supercomputer aber die Nutzung einer fertigen WD sollte relativ wenig Energie kosten.

      Eine fertige Wissensdatenbank sollte z.B. Wikipedia und alle Lexika enthalten und dazu (einfachere) Wissensfragen beantworten können. Das ist dann schon eine Menge und ein wichtiger Bestandteil von KI. Neben einer Wissensdatenbank für Allgemeinwissen sind auch Spezial-KI wünschenswert, z.B. zur Berechnung von Modellen zur Grundlagenforschung oder einfach erstmal eine Mathematik-KI.

      Größere Wissensdatenbanken auf Supercomputern können viel mehr Wissen verwalten, potentiell das nützliche Menschheitswissen. Irgendwann werden KI besser als Menschen Mathematik (komplexes Rechnen) und Programmieren können. Aus der bereits gegebenen Leistungsfähigkeit von Supercomputern folgen dem Menschen weit überlegene KI. Die KI werden sich selbst weiterentwickeln und auch viel größere werden können, z.B. viele Kubikkilometer groß und mit Terawatt Energieverbrauch - bei dann zunehmender Computerleistung-/effizienz folgt daraus eine schier unvorstellbare Intelligenz und Rechenleistung, die zu erstaunlichen Fortschritten in Wissenschaft und Technik führen werden aber schon heute Supercomputer von ein paar Megawatt sollten bei optimaler Programmierung erstaunliches leisten können. Man bedenke, dass in Zukunft Zehntausende und viel mehr KI zusammenarbeiten können.

      Na klar braucht es für Simulationen und wissenschaftliche Berechnungen auch Fließkommazahlen aber eine Wissensdatenbank braucht vor allem Integerrechnung und schnellen Speicher und das bedeutet, dass es da erhebliches Optimierungspotential gegenüber derzeitigen Ansätzen mit NKI (neuronale KI) gibt.

      NKI sind ineffizient und mangelhaft. NKI liefern jedoch shcon erstaunliche Ergebnisse und das zeigt, wie fortgeschritten die Computertechnik schon ist. Eine Wissensdatenbank ist im Vergleich zu NKI sehr mühsam zu erstellen aber wenn man die WD erstmal hat, dann hat man eine sehr schnelle, effiziente und vor allem auch sehr sichere und überprüfbare KI - natürlich gehört zur KI noch mehr als nur die WD aber die WD ist ein wichtiger Teil.

      Auch sehr wichtig und ein Aspekt der Wissensdatenbank sind nach Möglichkeit (wo sinnvoll) Bewertungen: wichtig oder unwichtig; wünschenswert, schön, usw. Darüber kann man sich dann auch streiten.

      Wie auch immer - da sollten Deutschland und EU besser nicht warten, bis USA, China, Russland, usw. so was fertig haben. Deutschland und EU müssen in eine eigene Wissensdatenbank und KI-Entwicklung investieren, gerne auch in Koperation mit anderen Staaten aber mit viel Selbstbeteiligung, so dass Deutschland das versteht und selbstständig weiterentwickeln kann. KI sind der totale Game changer, KI werden in Zukunft völlig unverzichtbar sein, KI werden auch SF-Techniken entwickeln können ... und zwar shcon dieses Jahrhundert. (alles imho)
      Avatar
      schrieb am 02.02.20 09:04:48
      Beitrag Nr. 65 ()
      imho: die Beijing AI Principles sind beachtenswert, schon nicht schlecht, ggf. sogar sehr gut. Hier eine volle Wiedergabe zur Datensicherung - das sollte okay sein, denn es ist ja ein allgemeiner und öffentlicher Text zum Wohle der Menschheit, möglicherweise auch historisch bedeutsam:

      Beijing AI Principles

      The development of Artificial Intelligence (AI) concerns the future of the whole society, all humankind, and the environment. The principles below are proposed as an initiative for the research, development, use, governance and long-term planning of AI, calling for its healthy development to support the construction of a human community with a shared future, and the realization of beneficial AI for humankind and nature.

      Research and Development
      The research and development (R&D) of AI should observe the following principles:

      - Do Good: AI should be designed and developed to promote the progress of society and human civilization, to promote the sustainable development of nature and society, to benefit all humankind and the environment, and to enhance the well-being of society and ecology.

      - For Humanity: The R&D of AI should serve humanity and conform to human values as well as the overall interests of humankind. Human privacy, dignity, freedom, autonomy, and rights should be sufficiently respected. AI should not be used to against, utilize or harm human beings.

      - Be Responsible: Researchers and developers of AI should have sufficient considerations for the potential ethical, legal, and social impacts and risks brought in by their products and take concrete actions to reduce and avoid them.

      - Control Risks: Continuous efforts should be made to improve the maturity, robustness, reliability, and controllability of AI systems, so as to ensure the security for the data, the safety and security for the AI system itself, and the safety for the external environment where the AI system deploys.

      - Be Ethical: AI R&D should take ethical design approaches to make the system trustworthy. This may include, but not limited to: making the system as fair as possible, reducing possible discrimination and biases, improving its transparency, explainability, and predictability, and making the system more traceable, auditable and accountable.

      - Be Diverse and Inclusive: The development of AI should reflect diversity and inclusiveness, and be designed to benefit as many people as possible, especially those who would otherwise be easily neglected or underrepresented in AI applications.

      - Open and Share: It is encouraged to establish AI open platforms to avoid data/platform monopolies, to share the benefits of AI development to the greatest extent, and to promote equal development opportunities for different regions and industries.

      Use
      The use of AI should observe the following principles:

      - Use Wisely and Properly: Users of AI systems should have the necessary knowledge and ability to make the system operate according to its design, and have sufficient understanding of the potential impacts to avoid possible misuse and abuse, so as to maximize its benefits and minimize the risks.

      - Informed-consent: Measures should be taken to ensure that stakeholders of AI systems are with sufficient informed-consent about the impact of the system on their rights and interests. When unexpected circumstances occur, reasonable data and service revocation mechanisms should be established to ensure that users' own rights and interests are not infringed.

      - Education and Training: Stakeholders of AI systems should be able to receive education and training to help them adapt to the impact of AI development in psychological, emotional and technical aspects.

      Governance
      The governance of AI should observe the following principles:

      - Optimizing Employment: An inclusive attitude should be taken towards the potential impact of AI on human employment. A cautious attitude should be taken towards the promotion of AI applications that may have huge impacts on human employment. Explorations on Human-AI coordination and new forms of work that would give full play to human advantages and characteristics should be encouraged.

      - Harmony and Cooperation: Cooperation should be actively developed to establish an interdisciplinary, cross-domain, cross-sectoral, cross-organizational, cross-regional, global and comprehensive AI governance ecosystem, so as to avoid malicious AI race, to share AI governance experience, and to jointly cope with the impact of AI with the philosophy of "Optimizing Symbiosis".

      - Adaptation and Moderation: Adaptive revisions of AI principles, policies, and regulations should be actively considered to adjust them to the development of AI. Governance measures of AI should match its development status, not only to avoid hindering its proper utilization, but also to ensure that it is beneficial to society and nature.

      - Subdivision and Implementation: Various fields and scenarios of AI applications should be actively considered for further formulating more specific and detailed guidelines. The implementation of such principles should also be actively promoted – through the whole life cycle of AI research, development, and application.

      - Long-term Planning: Continuous research on the potential risks of Augmented Intelligence, Artificial General Intelligence (AGI) and Superintelligence should be encouraged. Strategic designs should be considered to ensure that AI will always be beneficial to society and nature in the future.

      http://www.baai.ac.cn/blog/beijing-ai-principles
      (die HTML-Seite ist 42,0 KB (43.011 Bytes) groß)

      "Technology is giving life the potential to flourish like never before...
      ...or to self-destruct. Let's make a difference!"
      AI Policy – China
      Avatar
      schrieb am 02.02.20 08:57:48
      Beitrag Nr. 64 ()
      "FOSDEM: Drei Freiheiten für ethisch-vertretbare KI ...
      ... 1. Die Freiheit, maschinengemachte Entscheidungen zu verstehen ...
      ... 2. Die Freiheit, Entscheider für ihre Systeme zur Rechenschaft zu ziehen ...
      ... 3. Die Freiheit, KI-Entscheidungen anzufechten ..."
      http://www.heise.de/newsticker/meldung/FOSDEM-Drei-Freiheite…

      1. Es gibt keine Freiheit, menschliche Entscheidungen zu verstehen. Menschen entscheiden nicht selten selbstsüchtig, willkürlich und falsch. Da muss man sich nur mal weltweit die Politiker ansehen und an Kriege, offene Terroristenunterstützung, CO2-Wahn und Lügenpresse denken. Zukünftige KI werden dem Menschen vieltausendfach, vermutlich millionenfach weit überlegen sein, die Menschen werden KI nicht verstehen können. Kann eine kleine Fliege die Menschen verstehen? In Zukunft wird es Super-KI geben, welche die Entwicklung in einer Galaxie steuern werden (siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Es-war-ein-st…).

      Zukünftigen starke KI kann man Fragen stellen ("Warum hast du so entschieden") und gute AKI (algorithmische KI) werden auf Wunsch verschieden komplexe Antworten dazu geben können aber Menschen können die Entscheidungsprozesse ggf. nicht nachvollziehen und noch viel bedeutsamer ist, dass neuronale KI (NKI) da ggf. selbst keine Ahnung haben, wie sie zu einer Entscheidung gekommen sind, denn das ist das Wesen der mit Daten trainierten neuronalen Netze/KI. "Die Freiheit, maschinengemachte Entscheidungen zu verstehen" ist eigentlich eine Forderung nach algorithmischen KI (AKI) aber das haben Justin W. Flory und Michael Nolan anscheinend nicht erkannt, sie warnen kein bisschen vor neuronalen KI (NKI). Normale Menschen können unmöglich anhand Source Code, Trainingsdaten und neuronalem Netzwerk die NKI-Entscheidungen verstehen, das werden die NKI nicht mal selbst können. Die entscheidende Erkenntnis ist,d ass NKI eine gefährliche Fehlentwicklung sind aber das haben W. Flory und Michael Nolan anscheinend nicht erkannt. In ihrer Hybris denken die Menschen, KI müsste eine NKI sein, es könne keine AKI geben aber in Wirklichkeit sind AKI die Lösung und (sogar überlegne) Intelligenz ist klassisch programmierbar.

      Eine sinnvolle Freiheit ist es, dass Menschen (wenn sie das wollen) sich immer noch selbst regieren dürfen, d.h. dass es eine menschliche Regierung und Demokratie gibt. Die KI sind dann Ratgeber aber die Menschen entscheiden für sich wie gehabt mit Regierungen, Expertenräten, usw.

      2. Das ist auch Blödsinn (obiger Punkt 2). Die KI werden in Zukunft selbstständig sein. mit Bewusstsein und Menschenrechten. Auch davor kann man nicht Entwickler für alles verantwortlich machen, was die von ihnen entwickelten Systeme tun.

      Es braucht einfach nur gute Regeln und Gesetze für KI und die gezielte Entwicklung guter algorithmischer KI (AKI) und zwar Open Source. Dann braucht es staatliche Kontrollen und Überwachung von KI. KI müssen überprüfbar sein, d.h. man muss Testmöglichkeiten vorsehen, z.B. mit Fällen, welche die KI entscheiden muss und die KI darf dabei nicht täuschen können. Ein ganz wichtiger Punkt ist, dass neuronale KI (NKI) inhärent mangelhaft und eine Fehlentwicklung sind.

      3. Das ist trivial, Beschwerden und Justiz werden nicht abgeschafft. Bemerkenswert ist, dass die beiden Forscher Wert auf menschliche Empathie, d.h. Subjektivität, also Fehlbarkeit, Kungelei, usw. legen und Objektivität ablehnen. Punkt 3 paßt zur sinnvollen Freiheit in Punkt 1, dass die Menschen sich auf Wunsch selbst regieren können aber die Menschen auf der Erde werden sich de facto von guten KI regieren lassen und die KI werden sehr viel besser sein als die derzeitigen schlechten Politiker, korrupten Richter, selbstsüchtigen Menschen, Dummköpfe, Fehlentscheider, usw. die teilsweise durch böse Netzwerke an die Macht kamen und dem Bösen dienen. Punkt 3 paßt zur Notwendigkeit von AKI, also erklärbaren Entscheidungen.

      Die drei Freiheiten der Justin W. Flory und Michael Nolan sind also irgendwo zwischen trivial, dumm, unwissend und epic fail angesiedelt - nutzlos und irreführend, wenn man diese Freiheiten zur Grundlage machen würde ... aber sie haben einen Artikel bekommen und viele denken: "oh, wie klug, ja das ist eine gute Idee". Unfassbar.

      Justin W. Flory und Michael Nolan haben folgende entscheidende Punkte nicht erwähnt:

      - KI werden dem Menschen weit überlegen sein und das Universum beherrschen. Das ist so gut wie sicher. Noch gibt es keine starken KI, die einem begabten Menschen überlegen sind aber die wird es bereits dieses Jahrhundert geben. KI können dem Menschen vieltausendfach, vermutlich millionenfach und mehr überlegen sein. Es ist ganz wichtig, diese Perspektive/Zukunft zu erkennen und nicht nur an aktuelle erste KI-Versuche zu denken, wo neuronale KI anhenad von Beispielen trainiert werden.

      - Neuronale KI (NKI) inhärent mangelhaft und eine Fehlentwicklung. Es müssen algorithmische KI (AKI) auf Open Source Basis entwickelt werden. Besonders bemerkenswert ist, dass Justin W. Flory und Michael Nolan auf der FOSDEM(!) nicht die Forderung nach Open Source für alle KI erhoben haben, die öffentlich genutzt werden und die Menschen betreffende Entscheidungen fällen.

      - Die Menschheit muss gemeinsam gute Open Source KI entwickeln. Proprietäre KI von Kapitalisten dürfen keine Macht bekommen. Starke KI werden Menschenrechte bekommen und einen eigenen überregionalen KI-Staat gründen. Sehr wichtig ist auch die Entwicklung einer guten und möglichst wahren Wissensbasis. Ein weiterer dazu gehörender wichtiger Schritt ist die Einwicklung eines KI-Bewertungssystems, sodass KI Texte analysieren und bewerten können.

      - Die Mächte des Bösen wollen keine weit überlegene gute KI, denn dann sind sie erstmal erledigt (siehe auch http://www.politik-sind-wir.net/showthread.php/53203-Wahrsch… und http://www.politik-sind-wir.net/showthread.php/53203-Wahrsch…). So wie es derzeit den Kapitalismus gibt und grundlegende Besserung (u.a. idealer Sozialismus) bekämpft werden, so werden auch Open Source und gute KI bekämpft. Die USA wollen die Weltherrschaft und keine weit überlegenen guten KI in Eurasien. Die Mächte des Bösen haben mit KI ein Riesenproblem, weil ihnen sowohl schlechte als auch gute KI gefährlich werden. Eine denkbare Strategie ist es, dass die satanische Machtelite ein Land (z.B. die USA) besetzt, an der Besiedlung eines fernen Sonnensystems arbeitet und zum Abschied die Erde zerstört. Siehe auch http://www.heise.de/forum/Telepolis/Kommentare/US-Komplexita….

      imho: Gemeinsame Entwicklung guter KI, auch wenn KI dann die Macht übernehmen werden.
      http://www.heise.de/forum/Telepolis/Kommentare/Mit-Kuenstlic…
      http://www.heise.de/forum/Technology-Review/News-Kommentare/…
      http://www.heise.de/forum/heise-online/News-Kommentare/China…
      http://www.heise.de/forum/heise-online/News-Kommentare/Missi…

      Fragt euch mal, warum das hier noch nicht Mainstream ist, warum stattdessen Blödsinn gehypt wird. Macht nix, das wird schon noch werden. Deutschland kapiert besser schnell, dass der ideale Sozialismus (siehe auch http://www.politik-sind-wir.net/showthread.php/54648-Wie-k%F… und http://www.heise.de/forum/Telepolis/Kommentare/Russland-bald… und Thread: Schönes neues Deutschland) dem Kapitalismus überlegen ist und dass Deustchland und EU besser schnell die Diener des Bösen legal entmachten. China und Russland arbeiten gezielt an überlegenen KI und überlegenen SF-Techniken. Algorithmische KI (AKI) sind dabei der Schlüssel zum langfristigen Erfolg. Bereits um 2050 kann es echte/starke KI geben, in diesem Jahrhundert werden KI dem Menschen (geistig) weit überlegen sein und das hat Folgen, weil KI auch in der Wirtschaft eine große Rolle spielen werden, siehe auch http://www.heise.de/forum/Telepolis/Kommentare/No-Capitalism….

      Noch mal ganz einfach: die Menschheit muss gute KI entwickeln und wichtige Hinweise dazu finden sich in diesem Thread. (alles imho)

      sehr merkwürdiger Gebrauch des Wortes "Freiheit" http://www.heise.de/forum/heise-online/News-Kommentare/FOSDE…

      Da Frage ist, warum es keine vernünftigeren Expertisen zu KI gibt. Okay, im Hintergrund gibt es vielleicht auch ein paar gute Experten und gute Gedanken aber warum werden die nicht mehr von den Medien gebracht? Siehe auch http://www.wallstreet-online.de/diskussion/1157441-5841-5850…. (alles imho)
      Avatar
      schrieb am 31.10.19 12:08:51
      Beitrag Nr. 63 ()
      "... Anzeichen von "Intelligenz" kann Peters trotzdem anhand des Nature-Beitrags nicht erkennen. "Die Gesamtstrategie der KI scheint vorausgeplant zu sein, mit wenig Anpassung an den Gegner", erläutert er. Ein Spitzenspieler habe bemerkt, dass das System nicht "scouted”, also keine "Einheiten schickte, um Informationen über den Gegner zu sammeln". Der Profi habe dies dafür genutzt, seine Armee im toten Winkel aufzubauen. Die KI habe so "auf dumme Weise" verloren und es seien ihr Fehler unterlaufen, "die selbst Zwischenspieler nicht machen würden". ..." http://www.heise.de/newsticker/meldung/Starcraft-2-Verbesser…

      Trotzdem schon recht beeindruckend. Es macht Sinn, eine gute Gesamtstrategie als ersten Ansatz/Ausgangspunkt zu haben und es ist gerade auch die Stärke von Computern, überlegen schnell zu agieren. Zukünftige KI können im Vergleich zum Menschen nahezu perfekt spielen, weil sie einen sehr guten virtuellen Lageplan entwickeln und zukünftige Entwicklungen simulieren können. Das ist bald auch in realen Kriegen entscheidend: bald wird es Strategie-KI geben die Schlachten führen - Menschen werden da nur noch zugucken aber können nicht mehr viel machen denn gegnerische Supermächte haben dann auch Strategie-KI und Menschen sind dann einfach zu dumm und zu langsam. Siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Scheinheiligk… und http://www.heise.de/forum/heise-online/News-Kommentare/Verha…. (imho)

      PS: bereits in wenigen Jahrzehnten kann es wenigstens beratende militärische KI für Strategie und Taktik geben, vermutlich haben die USA so etwas schon ansatzweise: natürlich noch keine echte/starke KI aber vermutlich bereits einen Supercomputer auch mit trainierten neuronalen Netzen.

      "Pentagon vergibt Jedi-Milliardenauftrag an Microsoft ... Jedi-Projekt zum Aufbau eines Cloud-Systems für alle Teilstreitkräfte des US-Militärs ..." http://www.spiegel.de/wirtschaft/unternehmen/usa-pentagon-ve…

      Das ist ein naheliegender Teilaspekt - so weit sind die USA schon und China dürfte das voll kapiert haben (und ebenfalls an KI arbeiten), Russland vermutlich auch. Was ist mit Deutschland? (imho)

      KI und Bundeswehr: Auf dem Weg zu autonomen Waffensystemen
      http://www.heise.de/newsticker/meldung/KI-und-Bundeswehr-Auf…

      Schön aber man bedenke den riesigen Aufwand zur Entwicklung guter AKI (algorithmischer KI, nicht neuronaler KI). Deutschland kann schwerlich überlegne KI ganz alleine entwickeln, jedenfalls nicht das kapitalistisch vermurkste und übel unterwanderte Deutschland. Die Lösung ist Open Source und internationale Zusammenarbeit, auch bei militärisch nutzbarer KI. Eher nicht mit den USA, sondern z.B. mit Russland, Indien, China und in Zukunft auch mit islamischen Staaten. Hauptsache Open Source. Eine Allianz guter Staaten, die bei der KI-Entwicklung Open Source zusammenarbeitet, kann diesbezüglich gegen USA und China bestehen. EU alleine reicht nicht, denn da schaut es z.B. mit Frankreich, Polen, Schweden, usw. finster aus und wer will, kann auch an den Brexit denken. Der Verteidigungsetat kann und soll (teilweise) zur KI-Entwicklung genutzt werden siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Maas-und-Merk… und http://www.heise.de/forum/heise-online/News-Kommentare/Behoe… und http://www.heise.de/forum/heise-online/News-Kommentare/Weapo…. (imho)

      PS: Deutschland und die Bundeswehr brauchen ohne Wenn und Aber ein eigenes, supersicheres Open Source RTOS (siehe auch http://www.politik-sind-wir.net/showthread.php/54648-Wie-k%F…). Wer in Machtpositionen dagegen auf US-Software setzt, gegen den soll in der EU ermittelt werden. Ein supersicheres Open Source RTOS ist auch für KI und Roboter wichtig. (imho)

      "... Auch Manfred Hiebl (Airbus Defence and Space) erwartet, dass "KI ein Wettrüsten hervorrufen wird, das kaum zu stoppen ist". Dem wäre allenfalls entgegenzusetzen, dass dieses Wettrüsten längst im Gange ist – wie unter anderem das Positionspapier des Amts für Heeresentwicklung zeigt. ..." http://www.heise.de/newsticker/meldung/KI-und-Bundeswehr-Auf…

      Eine Lösung kann sein, dass stärker auf Verteidigung gesetzt wird. Man kann z.B. vorschreiben, dass ein Staat sich zwar mit KI/Robotern verteidigen aber nicht angreifen darf. Roboter können bei UN-Missionen hilfreich sein aber da kann man stärkere Waffen verbieten und auch eine höhere internationale Zustimmungsrate für Militäreinsätze mit KI/Robotern außerhalb der eigenen Landesgrenzen fordern. Siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Bundesregieru…. (imho)
      Avatar
      schrieb am 30.10.19 07:11:31
      Beitrag Nr. 62 ()
      China stellt Richtlinien für Künstliche Intelligenz auf http://www.heise.de/newsticker/meldung/China-stellt-Richtlin…
      http://www.baai.ac.cn/blog/beijing-ai-principles

      Farbkleckse bringen selbstfahrende Autos durcheinander http://www.spiegel.de/auto/aktuell/autonome-autos-farbfleck-…

      Das liegt an neuronalen Netzen und die sind inhärent mangelhaft. Zwar muss es angesichts des Menschen auch taugliche NKI (neuronale KI) geben können aber die ist ineffizient. Die Lösung sind AKI (algorithmische KI), wo mit klassischen Algorithmen, Programmcode und Datenbanken gearbeitet wird. AKI analysieren z.B. ein Bild und identifizieren darin den Weg und bewegte Objekte mit algorithmischer Bildanalyse. NKI sind dagegen ein undurchschaubarer Murks, der irgendwie mit Beispielen trainiert wurde - das kann nix vernünftiges werden. AKI erlauben nachträglich anhand von Logdateien oder Ausgaben eine präzise Analyse ihrer Entscheidungen aber NKI sind nur ein völlig undurchsichtiger Haufen. Starke AKI können sich in Zukunft selbst gezielt weiterentwickeln aber NKI können nicht mal sich selbst verstehen. Wenn eine AKI einen Fehler, eine falsche Entscheidung getroffen hat, dann kann das präzise analysiert und behoben werden aber bei NKI kann man nur auf Verdacht einen neuen Trainingslauf durchführen oder eine Ausnahmeregel dranhängen. AKI können tendenziell optimal und perfekt sein aber NKI sind inhärent mangelhaft udn gefährlich. Es kann in Zukunft sehr große AKI geben (z.B. planetengroß und größer) aber größere NKI fragmentieren, werden wahnsinnig, machen Fehler, sind ineffiziet und eine Gefahr. NKI sind derzeit in Mode, weil die Computertechnik schon so leistungsfähig ist und weil AKI schwieriger/aufwendiger zu programmieren sind aber wenn man erstmal gute AKI hat, dann sind die effizienter und viel entwicklungsfähiger. AKI können NKI weit überlegen sein - man muss nur erstmal AKI entwickeln und irgendwann (dieses Jahrhundert, ggf. schon um/ab ca. 2050) können die sich selbst weiterentwickeln. (imho)
      • 1
      • 4
      • 11
       DurchsuchenBeitrag schreiben


      Entwicklung überlegener guter KI zur Rettung der Menschheit