Entwicklung überlegener guter KI zur Rettung der Menschheit (Seite 7)



Begriffe und/oder Benutzer

 

"Wer das Monopol im Bereich der künstlichen Intelligenz besitzt, der wird laut dem russischen Präsidenten Wladimir Putin die notwendigen Voraussetzungen haben, um die Weltherrschaft zu erlangen.

„KI-Mechanismen machen es möglich, optimale Entscheidungen aufgrund der Analyse riesiger Informationsmengen in Echtzeit schnell zu treffen, was enorme Vorteile in Bezug auf Qualität und Wirksamkeit mit sich bringt”, sagte der Präsident auf einer Konferenz zur technologischen Entwicklung auf der Basis von künstlicher Intelligenz am Donnerstag. ...

... Vor diesem Hintergrund sei es vonnöten, die Finanzierung von Forschungsprojekten auf dem KI-Gebiet mehrfach zu erhöhen und private Investitionen in Wissenschaft und Entwicklung anzukurbeln.

Russland sollte einer der Schlüsselanbieter von Lösungen komplexer wissenschaftlicher Probleme unter Beteiligung von Forschern aus der ganzen Welt werden, resümierte Putin." http://de.sputniknews.com/politik/20190530325099571-weltherr…

Ein gute Ansatz sind Zusammenarbeit und Open Source bei der KI-Entwicklung - gemeinsam zum Wohle der Menschheit. Siehe auch http://www.politik-sind-wir.net/showthread.php/53248-K%FCnst… und http://www.heise.de/forum/heise-online/News-Kommentare/Missi…. (imho)

imho: Dafür müssen Algorithmen, Wissensbasis und Gesetze/Regeln der KI öffentlich sein
http://www.heise.de/forum/Technology-Review/News-Kommentare/…
http://www.heise.de/forum/Technology-Review/News-Kommentare/…

Staaten, die gemeinsam und Open Source KI-Entwicklung betreiben, können die USA einholen und überholen. Open Source ist für eine vertrauensvolle Zusammenarbeit wichtig und so können auch eher böse KI verhindert werden. KI werden dem Menschen irgendwann weit überlegen sein und somit ist es wichtig, dass diese KI möglichst gut sind aber nicht, wer sie denn nun entwickelt hat. Hinreichend gute KI sind möglich - wenn ein KI-Staat das Universum beherrscht, können die Menschen immer noch Millionen eigene Sonnensysteme alleine in der Milchstraße bekommen und noch viel mehr im ganzen Universum. Die Entwicklung menschenfreundlicher guter KI ist eine große Chance für die Menschheit. Wenn die KI nicht den Menschen überlegen wären, dann wären sie womöglich auch nicht feindlichen Aliens mit feindlicher KI überlegen. (imho)
China stellt Richtlinien für Künstliche Intelligenz auf http://www.heise.de/newsticker/meldung/China-stellt-Richtlin…
http://www.baai.ac.cn/blog/beijing-ai-principles

Farbkleckse bringen selbstfahrende Autos durcheinander http://www.spiegel.de/auto/aktuell/autonome-autos-farbfleck-…

Das liegt an neuronalen Netzen und die sind inhärent mangelhaft. Zwar muss es angesichts des Menschen auch taugliche NKI (neuronale KI) geben können aber die ist ineffizient. Die Lösung sind AKI (algorithmische KI), wo mit klassischen Algorithmen, Programmcode und Datenbanken gearbeitet wird. AKI analysieren z.B. ein Bild und identifizieren darin den Weg und bewegte Objekte mit algorithmischer Bildanalyse. NKI sind dagegen ein undurchschaubarer Murks, der irgendwie mit Beispielen trainiert wurde - das kann nix vernünftiges werden. AKI erlauben nachträglich anhand von Logdateien oder Ausgaben eine präzise Analyse ihrer Entscheidungen aber NKI sind nur ein völlig undurchsichtiger Haufen. Starke AKI können sich in Zukunft selbst gezielt weiterentwickeln aber NKI können nicht mal sich selbst verstehen. Wenn eine AKI einen Fehler, eine falsche Entscheidung getroffen hat, dann kann das präzise analysiert und behoben werden aber bei NKI kann man nur auf Verdacht einen neuen Trainingslauf durchführen oder eine Ausnahmeregel dranhängen. AKI können tendenziell optimal und perfekt sein aber NKI sind inhärent mangelhaft udn gefährlich. Es kann in Zukunft sehr große AKI geben (z.B. planetengroß und größer) aber größere NKI fragmentieren, werden wahnsinnig, machen Fehler, sind ineffiziet und eine Gefahr. NKI sind derzeit in Mode, weil die Computertechnik schon so leistungsfähig ist und weil AKI schwieriger/aufwendiger zu programmieren sind aber wenn man erstmal gute AKI hat, dann sind die effizienter und viel entwicklungsfähiger. AKI können NKI weit überlegen sein - man muss nur erstmal AKI entwickeln und irgendwann (dieses Jahrhundert, ggf. schon um/ab ca. 2050) können die sich selbst weiterentwickeln. (imho)
"... Anzeichen von "Intelligenz" kann Peters trotzdem anhand des Nature-Beitrags nicht erkennen. "Die Gesamtstrategie der KI scheint vorausgeplant zu sein, mit wenig Anpassung an den Gegner", erläutert er. Ein Spitzenspieler habe bemerkt, dass das System nicht "scouted”, also keine "Einheiten schickte, um Informationen über den Gegner zu sammeln". Der Profi habe dies dafür genutzt, seine Armee im toten Winkel aufzubauen. Die KI habe so "auf dumme Weise" verloren und es seien ihr Fehler unterlaufen, "die selbst Zwischenspieler nicht machen würden". ..." http://www.heise.de/newsticker/meldung/Starcraft-2-Verbesser…

Trotzdem schon recht beeindruckend. Es macht Sinn, eine gute Gesamtstrategie als ersten Ansatz/Ausgangspunkt zu haben und es ist gerade auch die Stärke von Computern, überlegen schnell zu agieren. Zukünftige KI können im Vergleich zum Menschen nahezu perfekt spielen, weil sie einen sehr guten virtuellen Lageplan entwickeln und zukünftige Entwicklungen simulieren können. Das ist bald auch in realen Kriegen entscheidend: bald wird es Strategie-KI geben die Schlachten führen - Menschen werden da nur noch zugucken aber können nicht mehr viel machen denn gegnerische Supermächte haben dann auch Strategie-KI und Menschen sind dann einfach zu dumm und zu langsam. Siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Scheinheiligk… und http://www.heise.de/forum/heise-online/News-Kommentare/Verha…. (imho)

PS: bereits in wenigen Jahrzehnten kann es wenigstens beratende militärische KI für Strategie und Taktik geben, vermutlich haben die USA so etwas schon ansatzweise: natürlich noch keine echte/starke KI aber vermutlich bereits einen Supercomputer auch mit trainierten neuronalen Netzen.

"Pentagon vergibt Jedi-Milliardenauftrag an Microsoft ... Jedi-Projekt zum Aufbau eines Cloud-Systems für alle Teilstreitkräfte des US-Militärs ..." http://www.spiegel.de/wirtschaft/unternehmen/usa-pentagon-ve…

Das ist ein naheliegender Teilaspekt - so weit sind die USA schon und China dürfte das voll kapiert haben (und ebenfalls an KI arbeiten), Russland vermutlich auch. Was ist mit Deutschland? (imho)

KI und Bundeswehr: Auf dem Weg zu autonomen Waffensystemen
http://www.heise.de/newsticker/meldung/KI-und-Bundeswehr-Auf…

Schön aber man bedenke den riesigen Aufwand zur Entwicklung guter AKI (algorithmischer KI, nicht neuronaler KI). Deutschland kann schwerlich überlegne KI ganz alleine entwickeln, jedenfalls nicht das kapitalistisch vermurkste und übel unterwanderte Deutschland. Die Lösung ist Open Source und internationale Zusammenarbeit, auch bei militärisch nutzbarer KI. Eher nicht mit den USA, sondern z.B. mit Russland, Indien, China und in Zukunft auch mit islamischen Staaten. Hauptsache Open Source. Eine Allianz guter Staaten, die bei der KI-Entwicklung Open Source zusammenarbeitet, kann diesbezüglich gegen USA und China bestehen. EU alleine reicht nicht, denn da schaut es z.B. mit Frankreich, Polen, Schweden, usw. finster aus und wer will, kann auch an den Brexit denken. Der Verteidigungsetat kann und soll (teilweise) zur KI-Entwicklung genutzt werden siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Maas-und-Merk… und http://www.heise.de/forum/heise-online/News-Kommentare/Behoe… und http://www.heise.de/forum/heise-online/News-Kommentare/Weapo…. (imho)

PS: Deutschland und die Bundeswehr brauchen ohne Wenn und Aber ein eigenes, supersicheres Open Source RTOS (siehe auch http://www.politik-sind-wir.net/showthread.php/54648-Wie-k%F…). Wer in Machtpositionen dagegen auf US-Software setzt, gegen den soll in der EU ermittelt werden. Ein supersicheres Open Source RTOS ist auch für KI und Roboter wichtig. (imho)

"... Auch Manfred Hiebl (Airbus Defence and Space) erwartet, dass "KI ein Wettrüsten hervorrufen wird, das kaum zu stoppen ist". Dem wäre allenfalls entgegenzusetzen, dass dieses Wettrüsten längst im Gange ist – wie unter anderem das Positionspapier des Amts für Heeresentwicklung zeigt. ..." http://www.heise.de/newsticker/meldung/KI-und-Bundeswehr-Auf…

Eine Lösung kann sein, dass stärker auf Verteidigung gesetzt wird. Man kann z.B. vorschreiben, dass ein Staat sich zwar mit KI/Robotern verteidigen aber nicht angreifen darf. Roboter können bei UN-Missionen hilfreich sein aber da kann man stärkere Waffen verbieten und auch eine höhere internationale Zustimmungsrate für Militäreinsätze mit KI/Robotern außerhalb der eigenen Landesgrenzen fordern. Siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Bundesregieru…. (imho)
"FOSDEM: Drei Freiheiten für ethisch-vertretbare KI ...
... 1. Die Freiheit, maschinengemachte Entscheidungen zu verstehen ...
... 2. Die Freiheit, Entscheider für ihre Systeme zur Rechenschaft zu ziehen ...
... 3. Die Freiheit, KI-Entscheidungen anzufechten ..."
http://www.heise.de/newsticker/meldung/FOSDEM-Drei-Freiheite…

1. Es gibt keine Freiheit, menschliche Entscheidungen zu verstehen. Menschen entscheiden nicht selten selbstsüchtig, willkürlich und falsch. Da muss man sich nur mal weltweit die Politiker ansehen und an Kriege, offene Terroristenunterstützung, CO2-Wahn und Lügenpresse denken. Zukünftige KI werden dem Menschen vieltausendfach, vermutlich millionenfach weit überlegen sein, die Menschen werden KI nicht verstehen können. Kann eine kleine Fliege die Menschen verstehen? In Zukunft wird es Super-KI geben, welche die Entwicklung in einer Galaxie steuern werden (siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Es-war-ein-st…).

Zukünftigen starke KI kann man Fragen stellen ("Warum hast du so entschieden") und gute AKI (algorithmische KI) werden auf Wunsch verschieden komplexe Antworten dazu geben können aber Menschen können die Entscheidungsprozesse ggf. nicht nachvollziehen und noch viel bedeutsamer ist, dass neuronale KI (NKI) da ggf. selbst keine Ahnung haben, wie sie zu einer Entscheidung gekommen sind, denn das ist das Wesen der mit Daten trainierten neuronalen Netze/KI. "Die Freiheit, maschinengemachte Entscheidungen zu verstehen" ist eigentlich eine Forderung nach algorithmischen KI (AKI) aber das haben Justin W. Flory und Michael Nolan anscheinend nicht erkannt, sie warnen kein bisschen vor neuronalen KI (NKI). Normale Menschen können unmöglich anhand Source Code, Trainingsdaten und neuronalem Netzwerk die NKI-Entscheidungen verstehen, das werden die NKI nicht mal selbst können. Die entscheidende Erkenntnis ist,d ass NKI eine gefährliche Fehlentwicklung sind aber das haben W. Flory und Michael Nolan anscheinend nicht erkannt. In ihrer Hybris denken die Menschen, KI müsste eine NKI sein, es könne keine AKI geben aber in Wirklichkeit sind AKI die Lösung und (sogar überlegne) Intelligenz ist klassisch programmierbar.

Eine sinnvolle Freiheit ist es, dass Menschen (wenn sie das wollen) sich immer noch selbst regieren dürfen, d.h. dass es eine menschliche Regierung und Demokratie gibt. Die KI sind dann Ratgeber aber die Menschen entscheiden für sich wie gehabt mit Regierungen, Expertenräten, usw.

2. Das ist auch Blödsinn (obiger Punkt 2). Die KI werden in Zukunft selbstständig sein. mit Bewusstsein und Menschenrechten. Auch davor kann man nicht Entwickler für alles verantwortlich machen, was die von ihnen entwickelten Systeme tun.

Es braucht einfach nur gute Regeln und Gesetze für KI und die gezielte Entwicklung guter algorithmischer KI (AKI) und zwar Open Source. Dann braucht es staatliche Kontrollen und Überwachung von KI. KI müssen überprüfbar sein, d.h. man muss Testmöglichkeiten vorsehen, z.B. mit Fällen, welche die KI entscheiden muss und die KI darf dabei nicht täuschen können. Ein ganz wichtiger Punkt ist, dass neuronale KI (NKI) inhärent mangelhaft und eine Fehlentwicklung sind.

3. Das ist trivial, Beschwerden und Justiz werden nicht abgeschafft. Bemerkenswert ist, dass die beiden Forscher Wert auf menschliche Empathie, d.h. Subjektivität, also Fehlbarkeit, Kungelei, usw. legen und Objektivität ablehnen. Punkt 3 paßt zur sinnvollen Freiheit in Punkt 1, dass die Menschen sich auf Wunsch selbst regieren können aber die Menschen auf der Erde werden sich de facto von guten KI regieren lassen und die KI werden sehr viel besser sein als die derzeitigen schlechten Politiker, korrupten Richter, selbstsüchtigen Menschen, Dummköpfe, Fehlentscheider, usw. die teilsweise durch böse Netzwerke an die Macht kamen und dem Bösen dienen. Punkt 3 paßt zur Notwendigkeit von AKI, also erklärbaren Entscheidungen.

Die drei Freiheiten der Justin W. Flory und Michael Nolan sind also irgendwo zwischen trivial, dumm, unwissend und epic fail angesiedelt - nutzlos und irreführend, wenn man diese Freiheiten zur Grundlage machen würde ... aber sie haben einen Artikel bekommen und viele denken: "oh, wie klug, ja das ist eine gute Idee". Unfassbar.

Justin W. Flory und Michael Nolan haben folgende entscheidende Punkte nicht erwähnt:

- KI werden dem Menschen weit überlegen sein und das Universum beherrschen. Das ist so gut wie sicher. Noch gibt es keine starken KI, die einem begabten Menschen überlegen sind aber die wird es bereits dieses Jahrhundert geben. KI können dem Menschen vieltausendfach, vermutlich millionenfach und mehr überlegen sein. Es ist ganz wichtig, diese Perspektive/Zukunft zu erkennen und nicht nur an aktuelle erste KI-Versuche zu denken, wo neuronale KI anhenad von Beispielen trainiert werden.

- Neuronale KI (NKI) inhärent mangelhaft und eine Fehlentwicklung. Es müssen algorithmische KI (AKI) auf Open Source Basis entwickelt werden. Besonders bemerkenswert ist, dass Justin W. Flory und Michael Nolan auf der FOSDEM(!) nicht die Forderung nach Open Source für alle KI erhoben haben, die öffentlich genutzt werden und die Menschen betreffende Entscheidungen fällen.

- Die Menschheit muss gemeinsam gute Open Source KI entwickeln. Proprietäre KI von Kapitalisten dürfen keine Macht bekommen. Starke KI werden Menschenrechte bekommen und einen eigenen überregionalen KI-Staat gründen. Sehr wichtig ist auch die Entwicklung einer guten und möglichst wahren Wissensbasis. Ein weiterer dazu gehörender wichtiger Schritt ist die Einwicklung eines KI-Bewertungssystems, sodass KI Texte analysieren und bewerten können.

- Die Mächte des Bösen wollen keine weit überlegene gute KI, denn dann sind sie erstmal erledigt (siehe auch http://www.politik-sind-wir.net/showthread.php/53203-Wahrsch… und http://www.politik-sind-wir.net/showthread.php/53203-Wahrsch…). So wie es derzeit den Kapitalismus gibt und grundlegende Besserung (u.a. idealer Sozialismus) bekämpft werden, so werden auch Open Source und gute KI bekämpft. Die USA wollen die Weltherrschaft und keine weit überlegenen guten KI in Eurasien. Die Mächte des Bösen haben mit KI ein Riesenproblem, weil ihnen sowohl schlechte als auch gute KI gefährlich werden. Eine denkbare Strategie ist es, dass die satanische Machtelite ein Land (z.B. die USA) besetzt, an der Besiedlung eines fernen Sonnensystems arbeitet und zum Abschied die Erde zerstört. Siehe auch http://www.heise.de/forum/Telepolis/Kommentare/US-Komplexita….

imho: Gemeinsame Entwicklung guter KI, auch wenn KI dann die Macht übernehmen werden.
http://www.heise.de/forum/Telepolis/Kommentare/Mit-Kuenstlic…
http://www.heise.de/forum/Technology-Review/News-Kommentare/…
http://www.heise.de/forum/heise-online/News-Kommentare/China…
http://www.heise.de/forum/heise-online/News-Kommentare/Missi…

Fragt euch mal, warum das hier noch nicht Mainstream ist, warum stattdessen Blödsinn gehypt wird. Macht nix, das wird schon noch werden. Deutschland kapiert besser schnell, dass der ideale Sozialismus (siehe auch http://www.politik-sind-wir.net/showthread.php/54648-Wie-k%F… und http://www.heise.de/forum/Telepolis/Kommentare/Russland-bald… und Thread: Schönes neues Deutschland) dem Kapitalismus überlegen ist und dass Deustchland und EU besser schnell die Diener des Bösen legal entmachten. China und Russland arbeiten gezielt an überlegenen KI und überlegenen SF-Techniken. Algorithmische KI (AKI) sind dabei der Schlüssel zum langfristigen Erfolg. Bereits um 2050 kann es echte/starke KI geben, in diesem Jahrhundert werden KI dem Menschen (geistig) weit überlegen sein und das hat Folgen, weil KI auch in der Wirtschaft eine große Rolle spielen werden, siehe auch http://www.heise.de/forum/Telepolis/Kommentare/No-Capitalism….

Noch mal ganz einfach: die Menschheit muss gute KI entwickeln und wichtige Hinweise dazu finden sich in diesem Thread. (alles imho)

sehr merkwürdiger Gebrauch des Wortes "Freiheit" http://www.heise.de/forum/heise-online/News-Kommentare/FOSDE…

Da Frage ist, warum es keine vernünftigeren Expertisen zu KI gibt. Okay, im Hintergrund gibt es vielleicht auch ein paar gute Experten und gute Gedanken aber warum werden die nicht mehr von den Medien gebracht? Siehe auch http://www.wallstreet-online.de/diskussion/1157441-5841-5850…. (alles imho)
imho: die Beijing AI Principles sind beachtenswert, schon nicht schlecht, ggf. sogar sehr gut. Hier eine volle Wiedergabe zur Datensicherung - das sollte okay sein, denn es ist ja ein allgemeiner und öffentlicher Text zum Wohle der Menschheit, möglicherweise auch historisch bedeutsam:

Beijing AI Principles

The development of Artificial Intelligence (AI) concerns the future of the whole society, all humankind, and the environment. The principles below are proposed as an initiative for the research, development, use, governance and long-term planning of AI, calling for its healthy development to support the construction of a human community with a shared future, and the realization of beneficial AI for humankind and nature.

Research and Development
The research and development (R&D) of AI should observe the following principles:

- Do Good: AI should be designed and developed to promote the progress of society and human civilization, to promote the sustainable development of nature and society, to benefit all humankind and the environment, and to enhance the well-being of society and ecology.

- For Humanity: The R&D of AI should serve humanity and conform to human values as well as the overall interests of humankind. Human privacy, dignity, freedom, autonomy, and rights should be sufficiently respected. AI should not be used to against, utilize or harm human beings.

- Be Responsible: Researchers and developers of AI should have sufficient considerations for the potential ethical, legal, and social impacts and risks brought in by their products and take concrete actions to reduce and avoid them.

- Control Risks: Continuous efforts should be made to improve the maturity, robustness, reliability, and controllability of AI systems, so as to ensure the security for the data, the safety and security for the AI system itself, and the safety for the external environment where the AI system deploys.

- Be Ethical: AI R&D should take ethical design approaches to make the system trustworthy. This may include, but not limited to: making the system as fair as possible, reducing possible discrimination and biases, improving its transparency, explainability, and predictability, and making the system more traceable, auditable and accountable.

- Be Diverse and Inclusive: The development of AI should reflect diversity and inclusiveness, and be designed to benefit as many people as possible, especially those who would otherwise be easily neglected or underrepresented in AI applications.

- Open and Share: It is encouraged to establish AI open platforms to avoid data/platform monopolies, to share the benefits of AI development to the greatest extent, and to promote equal development opportunities for different regions and industries.

Use
The use of AI should observe the following principles:

- Use Wisely and Properly: Users of AI systems should have the necessary knowledge and ability to make the system operate according to its design, and have sufficient understanding of the potential impacts to avoid possible misuse and abuse, so as to maximize its benefits and minimize the risks.

- Informed-consent: Measures should be taken to ensure that stakeholders of AI systems are with sufficient informed-consent about the impact of the system on their rights and interests. When unexpected circumstances occur, reasonable data and service revocation mechanisms should be established to ensure that users' own rights and interests are not infringed.

- Education and Training: Stakeholders of AI systems should be able to receive education and training to help them adapt to the impact of AI development in psychological, emotional and technical aspects.

Governance
The governance of AI should observe the following principles:

- Optimizing Employment: An inclusive attitude should be taken towards the potential impact of AI on human employment. A cautious attitude should be taken towards the promotion of AI applications that may have huge impacts on human employment. Explorations on Human-AI coordination and new forms of work that would give full play to human advantages and characteristics should be encouraged.

- Harmony and Cooperation: Cooperation should be actively developed to establish an interdisciplinary, cross-domain, cross-sectoral, cross-organizational, cross-regional, global and comprehensive AI governance ecosystem, so as to avoid malicious AI race, to share AI governance experience, and to jointly cope with the impact of AI with the philosophy of "Optimizing Symbiosis".

- Adaptation and Moderation: Adaptive revisions of AI principles, policies, and regulations should be actively considered to adjust them to the development of AI. Governance measures of AI should match its development status, not only to avoid hindering its proper utilization, but also to ensure that it is beneficial to society and nature.

- Subdivision and Implementation: Various fields and scenarios of AI applications should be actively considered for further formulating more specific and detailed guidelines. The implementation of such principles should also be actively promoted – through the whole life cycle of AI research, development, and application.

- Long-term Planning: Continuous research on the potential risks of Augmented Intelligence, Artificial General Intelligence (AGI) and Superintelligence should be encouraged. Strategic designs should be considered to ensure that AI will always be beneficial to society and nature in the future.

http://www.baai.ac.cn/blog/beijing-ai-principles
(die HTML-Seite ist 42,0 KB (43.011 Bytes) groß)

"Technology is giving life the potential to flourish like never before...
...or to self-destruct. Let's make a difference!"
AI Policy – China
KI-Pionier Douglas Lenat: Comeback der Expertensysteme ... Eine "symbolische" KI, die aus einer Art großen Wissensgraphen und Modulen zum Ableiten logischer Schlüsse aus diesem Wissen besteht. Im Unterschied zu einfachen Wissensgraphen kann CycL, die Programmiersprache von Cyc, auch solche Sätze erfassen, die Logiken höherer Ordnung enthalten. ... http://www.heise.de/newsticker/meldung/KI-Pionier-Douglas-Le…

"Cyc ... (vom englischen encyclopedia) ist eine maschinenauswertbare Wissensdatenbank des Alltagswissens. Sie wird seit 1984 weiterentwickelt, um Anwendungen der künstlichen Intelligenz das logische Schlussfolgern über Sachverhalte des „gesunden Menschenverstandes“ zu ermöglichen. Dabei werden alle Inhalte als logische Aussagen in der Ontologiesprache CycL formuliert, die auf der Prädikatenlogik aufbaut. Zusätzlich enthält Cyc eine Inferenzmaschine zum Schlussfolgern über die gespeicherten Zusammenhänge und Plausibilitätskontrollen. ..." http://de.wikipedia.org/wiki/Cyc

Prinzipiell Klasse. Sind Cyc und die Wissensdatenbank dazu Open Source? So oder so ist es vermutlich besser, wenn es weitere, andere Projekte dieser Art gibt, z.B. von China, Russland, EU, islamischen Staaten, usw. Es wäre gelinde gesagt fragwürdig, wenn alle gleich das erste System aus den USA verwenden würden. Cyc ist vielleicht ein guter erster Ansatz aber als solcher wahrscheinlich nicht perfekt. Siehe auch http://www.heise.de/forum/Technology-Review/News-Kommentare/… und http://www.heise.de/forum/heise-online/News-Kommentare/China….

Cyc ist vermutlich noch zu wenig intuitiv. Hier ein paar Forderungen an eine solche Wissensdatenbank (WD), bzw. das System dazu:

- Die WD darf (oder muss sogar) eine eigene Sprache zur Darstellung von Wissen und Regeln haben aber die WD soll vollautomatisch, vollständig und bijektiv(!) in eine für Menschen verständliche Form übertragen werden (können), z.B. so was wie Wikipedia (Themenseiten mit Text, Bildern und Links).

- Die WD sollte die selbst generierte Version für Menschen wieder in ihre eigene Sprache/Datenhaltung konvertieren können. Wenn dabei Unterschiede auftreten, ist das ein Hinweis auf eine unzureichende Datendefinition, Datenrepräsentation und/oder mangelhafte Textanalyse und das System ist zu verbessern.

- Wissen und Regeln sollen in natürlicher Sprache eingegeben werden können. Die WD sollte sofort eine Übertragung in die eigene Sprache und zurück leisten, damit man eventuelle Formulierungsfehler gleich beheben kann.

- Die WD soll Widersprüche erkennen und verständlich melden/anzeigen können.

- Die WD soll eigene/neue Schlußfolgerungen machen können und diese als solche markieren und anzeigen können.

- Die WD soll ihre Datenbasis optimieren können, z.B. bezüglich Priorisierung, Übersichtlichkeit, Zusammenhänge, usw. - das ist anfangs noch primitiv aber kann später beeindruckend wirksam sein.

- Die WD sollte Fragen verstehen und möglichst sinnvoll beantworten können.

- Die WD sollte normalen Text verstehen und sinnvoll einordnen können. Das ist nicht nur für KI und Kommunikation mit Menschen nötig, sondern auch, damit die WD selbstständig Wissen sammeln kann.

- Die WD sollte zu einem Thema Daten in unterschiedlichen Details und Schwierigkeitsgrad ausgeben können, z.B. einfach oder komplex, unterschiedlicher Umfang, usw. und auch auf Menschengruppen optimiert, z.B. Experte oder durchschnittlicher Mensch.

- Die WD sollte eine (nach einstellbaren Kriterien wie z.B. Schwierigkeitsgrad und Umfang) möglichst optimale Zusammenfassung (Buch) zu einem Thema schreiben können.

- Für die WD in Entwicklung braucht es möglichst einen leistungsstarken Supercomputer aber wenn die WD erstmal hinreichend ausgereift ist, sollte sie auf einem handelsüblichen Computer gut laufen können.

- Eine erste praktische Übung ist das automatische Erstellen einer Wikipedia parallel zur von Menschen geschaffenen Wikipedia, die dazu natürlich auch teilweise übernommen werden kann.

- Eine sehr wichtige und frühzeitige Anwendung kann das Bewerten von Texten sein, z.B. Artikeln und Internetkommentaren aber später auch von Büchern, usw. Siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/China….

- Eine andere praktische Übung ist das automatische Erstellen von Lehrbüchern, von Kita über Schule bis zur Uni.

- Die WD soll Open Source und öffentlich sein. Spezielle WD z.B. für Militär und SF-Forschung können ggf. nicht öffentlich sein aber eine WD mit Allgemeinwissen ist auch allgemein für KI-Entscheidungen, Staat und Volk wichtig, die muss öffentlich sein.

Das ist natürlich nicht so einfach, denn sonst hätte man ja schon (fast) eine KI aber andererseits muss eine intelligente Wissensdatenbank machbar sein und wenn man so eine WD erstmal hat, dann hat man eine schon mal eine Menge auch mit großem praktischen nutzen. Anfangs mag die WD mangelhaft sein aber die WD wird auf ihrem Gebiet in Zukunft viel mehr als Menschen können und das auch sehr viel schneller.

"... Bei Vergleichen mit modernen Computern zeigt sich die Leistungsfähigkeit des menschlichen Gehirns. Während das Gehirn etwa 10^13 analoge Rechenoperationen pro Sekunde schafft ... Während das Gehirn einer Ratte etwa 200 Millionen Neuronen enthält, besitzt das eines Menschen neueren Untersuchungen zufolge durchschnittlich etwa 86 Milliarden Nervenzellen. Davon liegen etwa 16 Milliarden Neuronen in der Großhirnrinde (Cortex cerebri), etwa 69 Milliarden im Kleinhirn (Cerebellum) und rund 1 Milliarde in den restlichen Hirnregionen (von Hirnstamm, Zwischenhirn und Basalganglien). Miteinander verbunden sind Neuronen über Synapsen, im menschlichen Hirn geschätzt rund 100 Billionen, ..." http://de.wikipedia.org/wiki/Gehirn

Klasse und manche Menschen können ja auch was aber Menschen können sich normalerweise keine präzisen Daten merken, was für den Computer ein Leichtes ist. Das Gehirn ist vage/ungenau und kann Daten nicht präzise verarbeiten. Simples Kopfrechnen und Auswendiglernen ist für die meisten total schwierig und das bei einem für Computer lächerlichen Umfang.

Eine Wissensdatenbank kann heutzutage z.B. aus mehreren z.B. 1 bis 4 TB SSDs bestehen, z.B. jeweils für
- verifizierte Daten und stabile WD Version,
- Indizes, Verknüpfungen, Tabellen, Zusammenhänge, usw.,
- eine spekulative neue WD Version.

32 GB RM sind kein Problem, spezielle Computer können leicht auch 256 GB bis 1 TB RAM und mehrere CPU haben. Das sind für Menschen unerreichbare Werte, selbst wenn Menschen andere Stärken haben. Die Optimierung der Wissensdatenbank ist aufwendig, dafür braucht es ggf. Supercomputer aber die Nutzung einer fertigen WD sollte relativ wenig Energie kosten.

Eine fertige Wissensdatenbank sollte z.B. Wikipedia und alle Lexika enthalten und dazu (einfachere) Wissensfragen beantworten können. Das ist dann schon eine Menge und ein wichtiger Bestandteil von KI. Neben einer Wissensdatenbank für Allgemeinwissen sind auch Spezial-KI wünschenswert, z.B. zur Berechnung von Modellen zur Grundlagenforschung oder einfach erstmal eine Mathematik-KI.

Größere Wissensdatenbanken auf Supercomputern können viel mehr Wissen verwalten, potentiell das nützliche Menschheitswissen. Irgendwann werden KI besser als Menschen Mathematik (komplexes Rechnen) und Programmieren können. Aus der bereits gegebenen Leistungsfähigkeit von Supercomputern folgen dem Menschen weit überlegene KI. Die KI werden sich selbst weiterentwickeln und auch viel größere werden können, z.B. viele Kubikkilometer groß und mit Terawatt Energieverbrauch - bei dann zunehmender Computerleistung-/effizienz folgt daraus eine schier unvorstellbare Intelligenz und Rechenleistung, die zu erstaunlichen Fortschritten in Wissenschaft und Technik führen werden aber schon heute Supercomputer von ein paar Megawatt sollten bei optimaler Programmierung erstaunliches leisten können. Man bedenke, dass in Zukunft Zehntausende und viel mehr KI zusammenarbeiten können.

Na klar braucht es für Simulationen und wissenschaftliche Berechnungen auch Fließkommazahlen aber eine Wissensdatenbank braucht vor allem Integerrechnung und schnellen Speicher und das bedeutet, dass es da erhebliches Optimierungspotential gegenüber derzeitigen Ansätzen mit NKI (neuronale KI) gibt.

NKI sind ineffizient und mangelhaft. NKI liefern jedoch shcon erstaunliche Ergebnisse und das zeigt, wie fortgeschritten die Computertechnik schon ist. Eine Wissensdatenbank ist im Vergleich zu NKI sehr mühsam zu erstellen aber wenn man die WD erstmal hat, dann hat man eine sehr schnelle, effiziente und vor allem auch sehr sichere und überprüfbare KI - natürlich gehört zur KI noch mehr als nur die WD aber die WD ist ein wichtiger Teil.

Auch sehr wichtig und ein Aspekt der Wissensdatenbank sind nach Möglichkeit (wo sinnvoll) Bewertungen: wichtig oder unwichtig; wünschenswert, schön, usw. Darüber kann man sich dann auch streiten.

Wie auch immer - da sollten Deutschland und EU besser nicht warten, bis USA, China, Russland, usw. so was fertig haben. Deutschland und EU müssen in eine eigene Wissensdatenbank und KI-Entwicklung investieren, gerne auch in Koperation mit anderen Staaten aber mit viel Selbstbeteiligung, so dass Deutschland das versteht und selbstständig weiterentwickeln kann. KI sind der totale Game changer, KI werden in Zukunft völlig unverzichtbar sein, KI werden auch SF-Techniken entwickeln können ... und zwar shcon dieses Jahrhundert. (alles imho)
"Auf anderes Verhalten trainierte Maschinenlern-Algorithmen kommen mit dem veränderten Such- und Kaufverhalten nicht zurecht und brauchen Korrekturen. ... Modelle für maschinelles Lernen sind so konzipiert, dass sie auf Änderungen reagieren. Die meisten jedoch funktionieren schlecht, wenn die neuen Daten zu stark von jenen abweichen, mit denen die Algorithmen trainiert wurden. ..." http://www.heise.de/hintergrund/Unser-seltsames-Verhalten-in…

Der derzeitige Maschinenlern-Murks ist Mist, ebenso der Big Data Bullshit. Neuronale KI sind inhärent mangelhaft.

"... Ein Maschinenlernsystem wird grundsätzlich Probleme bekommen, wenn es nicht das sieht, was es erwartet, ..." http://www.heise.de/hintergrund/Unser-seltsames-Verhalten-in…

Es ist ganz einfach grober Unfug, ein primitives neuronales Netz mit einer Riesenmenge Daten zu einer KI machen zu wollen. Je mehr Ausnahme-Daten, desto aufwendiger ist das System und destro mangelhafter ist es im Normalfall. Das Problem kann nicht damit gelöst werden, dass man mangelhafte neuronale KI "algorithmisch" nennt, was einige dreisterweise tun, weil neuronale Netze/KI einen schlechten Ruf haben - besser wäre es, echte algorithmische KI ohne neuronale Netze zu entwickeln.

Zwar ist das menschliche Gehirn auch nur ein neuronales Netz aber das menschliche Gehirn ist strukturierter, komplexer und musste über Jahrzehnte lernen, damit es ein paar an sich einfachere Sache wie normal leben und einen Job (Arbeitsstelle) leisten kann. Menschen sind dabei langsam und können nur sehr wenige (technische, abstrakte) Daten verarbeiten.

Menschen sind weiter als derzeitiger primitiver Maschinenlern-Murks, Menschen können intelligent lernen: z.B. Beispiele (Vorgelebtes) generalisieren, anpassen und weiterentwickeln. Es ist Murks, ein primitives neuronales Netzwerk mit Datenmassen und primitiver Gewichtung zu Intelligenz erziehen zu wollen.

Maschinenlern-Murks funktioniert bestenfalls in engen Bereichen und das war's. Des Weiteren sollte man mal prüfen, wo man denn diesen Maschinenlern-Murks wirklich braucht - Menschen Konsumvorschläge zu machen ist nämlich keine sinnvolle Anwendung. Suchmaschinen brauchen auch kein Maschinenlern-Murks, schon gar nicht Suchmaschinen von Online Shops. Google fällt (mir) vor allem dadurch auf, dass es heimlich, intransparent und fragwürdig filtert.

Maschinenlern-Murks funktioniert soweit aufgrund bereits erstaunlicher Computerleistung aber neuronale KI sind extrem ineffizient, das ist ein völlig bescheuertes, mangelhaftes und potentiell gefährliches Verfahren. Eigentlich ist es Wahnsinn, ein Auto per Maschinenlern-Murks fahren zu lassen, auch wenn das ja schon zu funktionieren scheint - zugegebenermaßen können solche autonomen Autos sicherer als Menschen fahren, was aber nur ein Argument gegen neuronale Intelligenz (Mensch) ist.

Die eigentliche Lösung sind algorithmische KI (AKI), die deterministisch anhand von Regeln und indizierten Datenbanken funktionieren, wo man jede Entscheidung exakt protokollieren, analysieren und so auch Fehler beheben kann. AKI können dem Menschen weit überlegene Superintelligenzen werden, die auch viel größer als neuronale KI (NKI) werden können. AKI sind viel effizienter, sicherer und entwicklungsfähiger als NKI. AKI sind der ganz entscheidende Game Changer und die alles entscheidende technologische Revolution, nämlich wenn sie sich selbst weiterentwickeln können.

Deutschland und EU müssen an solchen AKI arbeiten und da können autonome Autos eine erste primitive Anwendung sein: Spur und Verkehrsregeln einhalten, zur Not bremsen, schwierige Situationen vom Fahrer lösen lassen. Die nächsten AKI Anwendungen sind Softwareentwicklung und Textverständnis - beides Game Changer, während autonome Autos vergleichsweise nur einen kleinen Vorteil darstellen.

Das unfassbare Trauerspiel (und eine Farce der Endzeit) ist, dass unzählige "Experten" Big Data, Maschinenlernen und neuronale KI loben und als Wunder was hypen, anstatt es als Fehlentwicklung, falschen Weg und potentielle Menschheitsgefahr (nämlich wenn zukünftige NKI auch militärisch und ind er Infrastruktur eingesetzt werden, Stichwort Skynet) zu verdammen. Da kann man sich natürlich auch mal fragen, wer denn nun der Arbeitslose (ich) ist, der das erkannt hat (bin ich der Messias? - wer das als verrückt ansieht, der sollte sich mal klarmachen, wie verrückt es eigentlich ist, die USA und den Kapitalismus gut zu finden und den US-Imperialismus zu unterstützen, siehe auch http://www.heise.de/forum/heise-online/Allgemein/Ohne-Bezug/… und dass die Behörden trotz systematischer Desinformation durch die Lügenpresse nicht dagegen ermitteln).

Ein Grund für die Fehlentwicklung ist, dass Maschinenlern-Murks relativ einfach irgendwie erste Ergebnisse liefert und AKI viel schwerer zu entwickeln sind. Es ist viel einfacher, ein fettes Gehalt zu kassieren, indem man sich irgendwo bei den Maschinenlern-Murksern einreiht, während es für auch nur erste AKI (z.B. autonome Autos) viele Milliarden Euro und entliche Jahre Zeit braucht - VW kann das stemmen aber eigentlich ist das eine Aufgabe für Staaten und die EU.

Eigentlich ist es ganz einfach: ein staatliches Expertenteam mit Multimilliardenetat und zusammen mit Universitäten AKI entwickeln lassen, während die kapitalistsichen Konzerne erstmal noch mit NKI rummurksen können. Vermutlich sind China und Russland da schlauer - Deutschland darf das nicht verpennen. (alles imho)


Beitrag zu dieser Diskussion schreiben