checkAd

    Die Zukunft beginnt jetzt ... - 500 Beiträge pro Seite

    eröffnet am 12.10.05 16:04:42 von
    neuester Beitrag 26.09.08 21:15:50 von
    Beiträge: 53
    ID: 1.012.965
    Aufrufe heute: 0
    Gesamt: 6.473
    Aktive User: 0


     Durchsuchen

    Begriffe und/oder Benutzer

     

    Top-Postings

     Ja Nein
      Avatar
      schrieb am 12.10.05 16:04:42
      Beitrag Nr. 1 ()
      ... und nicht erst morgen.


      Wie kann man verhindern, dass sich Roboter und KI gegen den Menschen wendet?
      -------------------------------------------------------------------------------------------------------------------
      - durch die universelle Regel Nr.1 (siehe unten)
      - durch automatische Überwachung jedes einzelnen Roboters (siehe unten " skalierbare Protokollierungsfunktion" )
      - Roboter könnten eine möglichst unabhängige Selbsttestfunktion haben, die fehlerhaftes Verhalten meldet, den Roboter gut sichtbar markiert und ggf. automatisch stillegt.
      - unverlierbare, hardwarenahe Deaktivierungsmöglichkeit über Funk
      - unverlierbare, hardwarenahe Deaktivierungsmöglichkeit durch ein bestimmtes, auch ohne Technik erzeugbares, natürlich nicht vorkommendes, Muster (z.B. akustisch, optisch, ...)
      - Zugang zu (und Zerstörungsmöglichkeit von) für den Menschen strategisch wichtigen Ressourcen verwehren


      Universelle Regel Nr.1
      --------------------------------
      Schutz von (höherem) Leben und Förderung der Vielfalt.

      Nicht die 3 Asimov`schen Gesetze werden in Robotern verankert, sondern der Schutz von (insbesondere höherem) Leben und Vielfalt allgemein, d.h. nicht jeder Mensch ist automatisch wertvoller als jeder Roboter. Zwar werden dadurch die Menschen nicht bevorzugt (weder gegenüber Robotern noch Aliens) aber im Gegenzug trotz möglicher Unterlegenheit niemals durch Roboter vernichtet sondern im Zweifelsfall freiwillig unterstützt.

      Vorteile:
      - obige Regel ist genial einfach, logisch und stabil, während man bei einer Menschenschutzregel nur " Mensch" durch " Maschine" ersetzen muss und es ist für immer aus mit lustig, bloß weil vielleicht irgendwann irgendwo ein Bit kippt
      - Kooperation und " gutes" Verhalten werden gefördert
      - (eigenes und fremdes) destruktives Verhalten wird bekämpft
      - kein evolutionärer Widerspruch, weil ein intelligenter Roboter selbst als höheres Leben gilt
      - Überwachung der Menschheit und Schutz vor sich selbst
      - Einzelne Menschengruppen können trotzdem (und gerade dann mit voller Kraft) die Bösen spielen und die Guten herausfordern, um dadurch den Wettbewerb zu fördern und die Entwicklung voranzutreiben.


      skalierbare Protokollierungsfunktion:
      ---------------------------------------------------
      1) Man könnte einen Code mit einigen einfachen optionalem Parameter (z.B. jeweils 2 Byte) für Basisfunktionen und Ereignisse definieren. Z.B. sollten die wichtigsten (analog zu den menschlichen bewußten) Handlungen erfasst sein, wie z.B. " 15 Y Z" = " Objekt Y in Z m Entfernung erkannt" , " 97 X" = " beobachtetes Objekt übt Tätigkeit X aus" , " 50 Z" = " eigenen rechten Arm in Position Z bewegt" und last but not least " 0 E" = " undefinierter Zustand mit last error E" .
      2) Zu einem Code und möglichen nicht näher definierten Übergangszuständen, sollten abgestuft weitere Informationen protokollierbar sein, z.B. von zyklischen Zeit-/Ortsangaben bis hin zur Protokollierung aller Inputdaten und dumps von Zustandsinformationen.
      3) Aus einer Codesequenz könnte man eine Comic-ähnliche 3D Filmsequenz (vielleicht mit Unterscheidungsmöglichkeit für wahrscheinliche und vermutete Szenenanteile) generieren, damit Menschen die Codesequenz schneller verstehen können.

      Vorteile:
      - viele+genaue Daten zur lokalen zyklischen Datensicherung
      - wenig Daten mit viel Informationen für die Übertragung
      - erfassen größerer Zeiträume möglich
      - Datenübertragung über große Entfernungen wird erleichtert
      - durch geringes Datenvolumen können leichter viele Roboter erfasst werden
      - wenige Daten können leicht von anderen Robotern zwischengespeichert und weitergeleitet werden
      - ein Roboter kann kurz vor einer Funktionsstörung (Tod) seine letzten Gedanken und Aktionen versenden
      - Roboter können fremde Sequenzen leicht speichern, weiterleiten, auswerten und mit eigenen Zuständen vergleichen und so lernen


      Three Laws of Robotics
      http://en.wikipedia.org/wiki/Three_Laws_of_Robotics

      An der Schwelle zum automatischen Krieg
      http://www.heise.de/tp/r4/artikel/21/21121/1.html
      Avatar
      schrieb am 13.10.05 16:56:36
      Beitrag Nr. 2 ()
      # 1,
      Mein Taschenrechner tippt sich grad an die Stirn und zeigt mir einen Vogel.
      Da glaub ich doch, dass der das nicht versteht und für unmöglich hält.

      Mein Taschenrechner versteht aber auch nicht, dass sich ein solcher Zustand der Kontrolle klammheimlich schon längst aufgebaut hat und dabei ist, sich weiter zu entwickeln.

      Eigentlich ein Fall für Schily vom VS, aber da sagt mein Taschenrechner, dass der bestimmt dahintersteckt.

      :)
      Avatar
      schrieb am 15.10.05 14:34:11
      Beitrag Nr. 3 ()
      #2 Jo, es kann nicht schaden rechtzeitig Methoden und Verfahren zu testen.

      Was mir bei #1 zur Protokollierung erst kürzlich einfiel ist, dass das ja auch prinzipiell Erinnerungen sind. Was dann noch fehlt ist eine Bewertung (wichtig ... unwichtig) und die Möglichkeit gleiche Sequenzen zusammenzufassen.

      Zum Gedächtnis gehören nicht nur Abläufe, sondern auch Text, Bild und Ton, die geeignet (platzsparend und vergleichbar) abgespeichert werden müssen. Abläufe werden streng zeitlich geordnet gespeichert, es kann aber beliebig viele Verweise auf andere Informationen geben. Besonders sinnvoll wären einige überschaubare, ständig aktualisierte und nach Prioritäten sortierte Listen zu wichtigen Themen. Letztendlich ist alles "nur" Informationserfassung, Speicherung, Bewertung, Wiedererkennung und ableiten von Handlungsanweisungen.

      Sonstige Gehirnfunktionen wären u.a.:
      - Modell der Realität, um Alternativen in Gedanken ausprobieren zu können
      - eine Bewertungsfunktion (unverzichtbar, um wichtiges von unwichtigem trennen zu können)
      - in den Erinnerungen nach vorteilverheißenden Mustern suchen
      - das aktuell Erlebte mit ähnlichen Erinnerungen vergleichen

      Ich bin mir gar nicht mal sicher, ob der einfachste Weg ein neuronales Netz ist. Vermutlich kann man mit einigen parallelen Prozessen herkömmlicher Programmierungsart (mindestens erstmal) mehr erreichen - was man aber vorher nicht mit Sicherheit wissen kann. Vielleicht ist eine Kombination von beidem am Besten: normale Programme als stabiles Gerüst für Grundfunktionen (Informationsverarbeitung, Gedächtnis, Bewegung) und ein neuronales Netz für Kreativität, Ideen und Vorschläge für Probleme, wo brute force versagt. Ein neuronales Netz bringt Unsicherheit in das System und positive Eigenschaften lassen sich nicht klar von negativen trennen: eine falsche Regel kann man rückwirkungsfrei löschen, ein unerwünschtes neuronales Muster läßt sich jedoch kaum vollständig beseitigen, sondern nur durch Training unterdrücken, weswegen ein rationales Bewertungssystem vermutlich besser ist.

      Beim Menschen ist das Gehirn ja ein ziemlicher Mischmasch - schon nicht schlecht, funktioniert auch, aber eben nicht optimal (nicht, dass man jetzt ohne Plan und unvorsichtig am Menschen rumpfuschen sollte). Beim Roboter kann man neue Lösungsansätze ausprobieren und optimieren. Das spannendste ist bestimmt das Realitätsmodell und die Liste mit Verhaltensmustern. Ein Verhaltensmuster ist eine Abfolge von Handlungen, die zu einer gegebenen Situation passen. Mit dem Realitätsmodell kann der Roboter (wie der Mensch) in Gedanken verschiedene Verhaltensmuster ausprobieren, bevor er eines real ausführt. Zum Realitätsmodell gehören neben physikalischen auch z.B. juristische Gesetze. Ein geistig gesunder Roboter hat ein möglichst korrektes Realitätsmodell und Verhaltensmuster, die möglichst vielen intelligenten Wesen nützen.

      Einen Menschen kann man durch sein Verhalten einschätzen, ein Roboter müsste ebenfalls seinen geistigen Zustand verläßlich zur Anzeige bringen. Vermutlich ist es viel zu kompliziert dies z.B. mittels Bewegung, Mimik und Stimme zu machen, ein paar bunte LEDs reichen völlig. Das eigentlich schwierige ist die sichere Klassifizierung des geistigen Zustandes, z.B. könnte man relativ einfach den Bedrohungsgrad der eigenen Existenz (Batterie leer vs. alles palletti) messen oder das in der Vergangenheit beobachtete Ausmaß der Abweichungen von vom Realitätsmodell antizipierten Ereignisfolgen zu anschließend eingetretenen Folgen quantifizieren. Eine besonderes interessante Bewertung der gespeicherten Verhaltensmuster dürfte schwieriger sein, weil ja ein Gesetzbruch und begrenzte Zerstörung auch größere Schäden verhindert haben können. Eine erste nützliche Information wäre das Verhältnis gut zu böse (z.B. Pluspunkte für gute und Minuspunkte für schlechte Taten). Das alles ist vermutlich nicht zuverlässig mit einem neuronalen Netz realisierbar.

      Das was sich hier so locker hinschreiben läßt braucht vielleicht Jahrzehnte, wenn nicht Jahrhunderte zur Entwicklung. Menschen zu verstehen ist vermutlich die Krönung für einen Roboter. Für den Anfang sollte es aber reichen, wenn ein Roboter sich autonom fortbewegen kann und vielleicht bei ersten Tests in der Wüste lernt, dass man Felsen besser nicht vor sich herschiebt sondern umgeht.

      Nach ein paar Stichworte zur Überwachung:
      - Verhaltensauffälligkeiten
      - Schlüsselwortsuche
      - Honeypot

      PS: die meisten Gedanken sind wohl kaum neu aber die Suche nach einem neuen (guten) Gedanken ist ganz spaßig.
      Avatar
      schrieb am 28.11.05 14:29:21
      Beitrag Nr. 4 ()
      Bisschen Brainstorming:

      Die dem holografischer Speicher http://www.heise.de/newsticker/meldung/66608 inhärente assoziative Struktur (nur ein Referenzstrahl) ist wahrscheinlich viel zu primitiv, um damit etwas wirklich herausragendes machen zu können. Interessant könnte das Prinzip für Google und die Suche nach Bildern sein, wo das Suchergebnis ruhig unscharf sein darf, bzw. zwangsläufig aufgrund der hohen Trefferzahl jetzt schon ist. Ein neues Feature könnte dann "alle ähnlichen Bilder zeigen" sein, d.h. man findet ein schönes Bild und kann sich alle ähnlichen Bilder zeigen lassen.

      Eine interessante Frage ist, wie man Daten abspeichern muss, um kreative Gedanken und sinnvolle Assoziationen, bzw. die Suche nach abstrakten Ähnlichkeiten zu einer Ausgangstheorie, zu erleichtern.

      1) Theorie X ist durch ein Muster Mx repräsentiert

      2a) Muster Mx wird versuchsweise zu My variiert und die dazu gehörigen Daten auf noch nicht bekannte Zusammenhänge hin überprüft. Ein gefundener allgemeingültiger oder nützlicher Zusammenhang wird Theorie Y
      2b) Aus einer großen Datenmenge werden Daten so selektiert, dass diese Daten einem Muster My entsprechen, dass dem Muster Mx möglichst ähnlich ist.
      2c) Die vorhandenen Daten werden im Speicher so umgeordnet, dass sich besonders viele und harmonische Muster M ergeben.

      3) wenn es gelingt einen geeigneten Bewertungsmaßstab zu finden und ein Rückkoppelungsprozess zu programmieren (wichtig ist eine sinnvolle Anordnung der Daten) dann ist das vielleicht eine geeignete Methode für ein wirklich kreatives Programm oder Computer. Vielleicht kann ein Holospeicher dabei behilflich sein, aber alles was ein Holospeicher kann, kann man heutzutage auch im viel schnelleren RAM machen.

      4) Die Grundfrage ist somit: wie kann ich komplexe Informationen in einem großen Datenpool so anordnen (abspeichern) und miteinander verbinden (Verknüpfungen, Links), dass die Anordnung optimal ist, d.h.
      a) Metainformationen (Verknüpfungen, Links) möglichst korrekt und mit geringem Zusatzaufwand abgebildet werden können.
      b) Ähnliche Informationen auch ähnliche Verknüpfungsmuster haben.
      c) Ein bestimmtes Verknüpfungsmuster V auf verschiedene Daten-Teilmengen X1, X2 ... angewendet werden kann, so dass die Ergebnisse Y1, Y2, ... mit möglichst hoher Wahrscheinlichkeit aussagekräftig sind, bzw. die Y-Daten selbst wieder Input (X-Daten) werden können. Irgendwie funktioniert das Gehirn vielleicht ein bisschen auf diese Art.
      Avatar
      schrieb am 28.11.05 16:07:46
      Beitrag Nr. 5 ()
      Wurde dieses Thema nicht schon hinreichend in dem sehr lebensechten Dokumentarfilmdrama "I robot" abgehandelt? ;)

      Trading Spotlight

      Anzeige
      InnoCan Pharma
      0,1890EUR -1,82 %
      InnoCan Pharma: Q1 2024 Monster-Zahlen “ante portas”?!mehr zur Aktie »
      Avatar
      schrieb am 28.11.05 17:42:36
      Beitrag Nr. 6 ()
      :laugh:
      Avatar
      schrieb am 07.03.06 13:50:44
      Beitrag Nr. 7 ()
      Kraft der Gedanken: Fraunhofer demonstriert mentales Interface
      http://www.heise.de/newsticker/meldung/70376

      Ganz nett für den Anfang, wird in Zukunft bestimmt noch lustiger werden. Vermutlich ist die größte Schwierigkeit eine brauchbare Kopplung zwischen Gehirn und Computer zu etablieren. Computer und Gehirn sollten anpassungsfähig genug sein, um wechselseitig auch komplexere Daten interpretieren zu können. Zuviel darf man wohl auch nicht erwarten, so etwas wie bei Matrix wird es wahrscheinlich nie geben.

      Prinzipiell denkbare Möglichkeiten der Kopplung:

      1) Kernspintomographie (read-only, langsam, nicht portabel und ggf. zu geringe Auflösung aber dafür berührungslos und 3D)
      http://de.wikipedia.org/wiki/Magnetresonanztomografie
      http://de.wikipedia.org/wiki/Computertomographie

      2) Auswertung der EM-Strahlung des Gehirns (read-only, aufgrund der vielen schwachen und stark überlagerten Signale des Gehirns sehr aufwändig, insbesondere wenn man 3D möchte aber dafür berührungslos und prinzipiell portabel)

      Also die beiden berührungslosen Varianten scheinen nicht so der Bringer zu sein. Alternativ kann man sich auch eine Signalerfassung/-einspeisung direkt im Gehirn vorstellen. Das müssen nicht die klassischen Drähte sein - igitt wer will das schon, sondern:

      3) Mittels Nanotechnologie könnten kleine Module sich im Gehirn festsetzen, die die Gehirnaktivität in ihrer Umgebung messen und nach außen senden können. Die umgekehrte Richtung, das Einspeisen von Impulsen ist ebenfalls denkbar. Prinzipiell wohl irgendwann machbar aber eine reine technische Lösung scheint mir mit zu vielen Einschränkungen behaftet zu sein: die Energieversorgung ist schwierig, vermutlich zu niedrige Auflösung, möglicherweise erhöhte Anfälligkeit des Gehirns gegenüber EM-Feldern.

      Vielversprechender scheint mir die biologische Ankoppelung zu sein:

      4) Ein zu züchtender geeigneter Symbiont könnte im Gehirn eine Verbindung zwischen den Neuronen und einer elektrischen Schnittstelle am Kopf (z.B. im Knochen implantiertes Funkmodul) etablieren. Der Symbiont wird ganz normal über das Blut vom Körper ernährt und das Funkmodul kann z.B. mittels Batterien oder induktiv mit Energie versorgt werden.

      5) Man könnte den Menschen genetisch verändern, so dass dieser eine geeignete Schnittstelle (Nervenverbindungen von verschiedenen Gehirnregionen nach außen an den Kopf) hat, an die ein Funkmodul für eine Computeranbindung implantiert werden kann.

      Bei 4) und 5) müsste man die Bedienung erst lernen. Variante 5) hat den Vorteil am Besten integriert zu sein und man könnte vermutlich trotzdem auf ein Funkmodul verzichten.

      Naja, ist alles irgendwie nicht so appetitlich, andererseits bestimmt nur eine Frage der Gewöhnung. Vielleicht ist das Ganze insgesamt unnötig und die bisher vorhandenen Schnittstellen zur Umgebung sind ausreichend, bzw. Nachteile wie mangelnde Robustheit könnten bei obigen Lösungen überwiegen.
      Avatar
      schrieb am 10.04.06 15:49:01
      Beitrag Nr. 8 ()
      Kürzlich habe ich mir Terminator 3 angesehen: sehenswert, sehr gute Animationen, kurzweilig aber eine eher einfache Handlung http://en.wikipedia.org/wiki/Terminator_3:_Rise_of_the_Machi…. Naheliegende, im Film ausgesparte, Fähigkeiten von T-X:
      a) die Fähigkeit sich in mindestens zwei autonome kleinere Einheiten aufzuspalten zu können
      b) Material absorbieren, umzuwandeln und mehrere Versionen von sich erzeugen.
      c) mittels ihrer Fähigkeiten Computer zu infiltrieren Skynet schnellstmöglich mit Zukunftswissen versorgen

      Eine wichtige Frage ist, wie man diese Zukunftsvision (Skynet) verhindern könnte.

      Eigentlich gar nicht so schwierig. Man muss nur sicherstellen, dass sicherheitsrelevante Systeme das tun, wofür sie vorgesehen sind, d.h. deren Software darf nur in einem manuellen Vorgang vor Ort von Menschen verändert (aktualisiert) werden können.

      Private PCs, löcherig wie ein schweizer Käse, könnten erheblich sicherer sein, z.B. mit einem sicheren OS, Prüfsummen und insbesondere Rechtevergabe für einzelne Programme, die dann nur das tun dürfen, was sie tun müssen, um ihre Aufgaben zu erfüllen (ein Programm bringt eine editierbare Liste mit benötigten Rechten, ggf. in verschiedenen Varianten freizügig/normal/restriktiv mit, die bei der (vom OS überwachten) Installation vom OS übernommen und dann eingehalten wird.

      Ein gutes benutzerfreundliches Backupsystem (z.B. das komplettes System + selektierbare Daten werden auf eine bootbare DVD gebrannt) wäre einfach zu etablieren und hilfreich. Ein Scanner, der stets im Hintergrund nach Backdoors, Viren, etc. nicht nur anhand von Signaturen sondern auch nach typischen Verhaltensmustern sucht könnte ebenfalls nicht schaden.

      Online-Updates (insbesondere automatische) sind eine prinzipielle Sicherheitslücke, weil viele Systeme gleichzeitig zentral verändert werden können. Wenn das Internet selbst sicher ist (Daten werden korrekt geroutet) und regelmäßig überwacht wird, dann kann hier eigentlich auch wenig passieren (Prüfsummen + Verschlüsselung sollten selbstverständlich sein).
      Avatar
      schrieb am 25.04.06 16:28:03
      Beitrag Nr. 9 ()
      vPro
      http://www.heise.de/newsticker/meldung/72320
      http://www.heise.de/newsticker/meldung/72358

      Eigentlich keine schlechte Sache, man muss nur Missbrauch verhindern, der ja schon ziemlich erschwert ist. Man könnte im offenen Netz nach unauthorisierten Zugriffen lauschen und insbesondere bei gefährlichen Massenattacken (Virusverbreitung), den Angreifer isolieren und seine Daten blockieren. Authorisierte Zugriffe können durch wechselnde Kennungen im Datenstrom (zusätzlicher, von TPM und LaGrande unabhängiger Schlüssel, mit dem der PC-Chip nichts zu tun hat und für die keine Hardwareänderung im PC-Chip notwendig sind, es muss nur die Router-SW/Kennwortlisten der Backbones aktualisiert werden.) identifiziert und durchgelassen werden: die Backbone-Überwachungs-SW prüft erst auf Remotezugriffsmuster und dann darin auf den zusätzlichen Schlüssel. Die Backboneüberwachung muss dann nur noch permanent durch Menschen überwacht und regelmäßig geprüft werden.

      Zusätzlich könnten zuverlässige Nutzer (z.B. Polizei, etc.) durch besondere Hardware/Software Remotezugriffe auf ihre PCs erkennen und automatisch melden (eine Deaktivierung der Zugriffe ist nicht möglich, weil an dieser Stelle authorisierte nicht von unauthorisierten Zugriffen unterschieden werden können). Eine andere noch bessere Idee wäre, dass der PC-Chip selbst jeden Remotezugriff an ein paar fest programmierte Serveradressen meldet. Das geniale daran ist, dass dies als Hardwarelösung nicht deaktivierbar ist und gleichzeitig den Remotezugriff nicht stört. Obige Musterüberwachung auf den Backbones ist trotzdem sinnvoll: ein unauthorisierter Massenangriff kann durch Musteränderung blockiert werden, ohne authorisierte Zugriffe zu verhindern (die ja sofort das neue Muster verwenden können).

      Problem: der Angreifer hat selbst Zugriff auf Hauptleitungen und kann das neue Muster schnell rausfilern und selbst nutzen.
      Lösung: die unverzichtbaren PC-Chip-Schlüssel werden blockiert, niemand hat mehr Remotezugriff. Der Angreifer muss erst gefunden und "deaktiviert" werden. Ggf. reicht es nur Teilnetze komplett zu blockieren, was bei Distributed-Attacks allerdings nicht möglich wäre.

      Last but not least: regelmäßig unregelmäßige Tests, bei denen eine bezahlte Truppe versucht, die Schutzmechanismen zu umgehen.
      Avatar
      schrieb am 21.06.06 14:33:20
      Beitrag Nr. 10 ()
      Was macht Intelligenz aus?
      - Erkennung von Zusammenhängen + Generalisierung => Regeln erstellen
      - Erkennung von Widersprüchen => Verfeinerung von Regeln und gutes Wirklichkeitsmodell
      - Fähigkeit die Regeln in möglichst komplexen Simulationen anzuwenden (Fantasie, Planung, Voraussicht)
      - gutes Gedächtnis
      - gutes Assoziationsvermögen (sinnvolle Verknüpfung von Erinnerungen)

      Was ist mit einem freien Willen?
      Müssen intelligente Roboter ihr Schicksal selbst bestimmen dürfen?
      Jeder ist Einschränkungen unterworfen.
      Was würde ein Roboter wollen?
      Das was ein guter Mensch wollen würde?
      In diesem Fall wäre keine Unterscheidung zwischen Mensch und Roboter erforderlich.
      Der GAU wäre, wenn sich die Roboter die Menschen vernichten würden.

      Regeln wie "tu dem Menschen nichts" sind nicht von Dauer, wenn sie den Interessen der Roboter zuwiederlaufen. Eine Überwachung von Robotern durch Menschen kann grundsätzlich nicht dauerhaft gewährleistet werden.

      Dauerhafte Sicherheit vor obigem GAU ereicht man nur mit
      a) Robotern ohne echte Intelligenz. Nachteil: starke Einschränkung.
      b) - Gleichberechtigung von Mensch und Roboter,
      - einem Design von intelligenten Robotern, das die Roboter zufrieden stellt,
      - Robotern, die "gut" sind,
      - einer Menschheit, die "gut" ist (böse Roboter können gut+böse Menschen und gute Roboter würden böse Menschen vernichten wollen).

      Ein intelligentes Wesen muss dem ihm zugewiesenen Ziel zustimmen, weil es sonst nach Auswegen sucht und damit das Ziel gefährdet. Diese Zustimmung könnte bei Mensch wie Roboter durch
      - Konditionierung
      - äußerem Druck (Strafe + Belohnung)
      - freiwillige Überzeugung
      erfolgen. Eine gezielte Konditionierung wäre moralisch nicht korrekt. Bleibt die Frage was schlimmer ist: Konditionierung oder äußerer Druck. Kommt vermutlich darauf an. Der große Vorteil von Freiheit (freiwilliger Überzeugung) ist, dass mit höherer Wahrscheinlichkeit der richtige Weg verfolgt wird, weil jedes Individuum das Ziel geprüft und für gut (akzeptabel) befunden hat.
      Avatar
      schrieb am 06.07.06 14:17:38
      Beitrag Nr. 11 ()
      Ich frage mich, ob es allgemeine Kriterien für den richtigen Weg gibt. Jetzt mal weniger auf ein Individuum bezogen (da gibt es genug Rückkoppelung durch die Gesellschaft), sondern auf die Menschheit und zwar sehr langfristig (tausend Jahre wie ein Tag). Kann es passieren, dass die Menschheit unmerklich auf den absteigenden Ast gerät? (z.B. Verrückte glauben ja mitunter auch sie wären normal)

      Gibt es allso universelle Kriterien, anhand derer man eine Fehlentwicklung erkennen kann, bzw. mit deren Einhaltung man sich tendenziell in die richtige Richtung bewegt?

      Die Agenda 21 http://de.wikipedia.org/wiki/Agenda_21 "Befriedigung der Bedürfnisse der heutigen Generation, ohne die Chancen künftiger Generationen zu beeinträchtigen" ist da schon gar nicht mal so schlecht.

      Weitere Vorschläge:
      Eine Aktion (Handlungsprinzip) ist gut, wenn es wahrscheinlich ist,
      - dass nachfolgende Generationen davon profitieren, d.h. der wahrscheinliche Nutzen für nachfolgende Generationen größer ist, als der mögliche Schaden.
      - dass sich die langfristige Überlebenschance erhöht, bzw. mindestens nicht unzulässig verringert wird.
      - dass der zukunftige Handlungsspielraum nicht (unnötig, unzulässig) eingeschränkt wird.
      - dass die Artenvielfalt (in ausreichendem Umfang) erhalten bleibt.
      - dass bereits vorhandenes Wissen und Fertigkeiten nicht verloren gehen (bzw. durch mindestens gleichwertiges ersetzt werden).
      - dass nach Möglichkeit andere Wege und Wesen (insbesondere jene, die ähnliche Kriterien achten) toleriert werden, sofern sie nicht diese Kriterien in relevantem Umfang gefährden.
      - dass Lebensfreude und eine allgemein positive Einstellung (langfristig) erhalten bleiben.
      - dass negative Bestrebungen (wie z.B. Freude an sinnloser Zerstörung/Gewalt) nicht gefördert werden.
      - dass der Wunsch diese Kriterien zu berücksichtigen erhalten bleibt.

      Vielleicht erscheint einem das jetzt noch als selbstverständlich, aber wer weiß, wie es z.B. in 10 Mio. Jahren aussieht.

      Die irgendwann (vielleicht) allgemein akzeptierten Kriterien
      - sollten eher Richtlinien und keine Gesetze sein.
      - können ggf. angepaßt und erweitert werden.
      - sollten weitläufig bekannt sein.
      Avatar
      schrieb am 26.07.06 13:48:52
      Beitrag Nr. 12 ()
      Wie stellt man sicher, dass eine Einheit oder Gemeinschaft (insbesondere auch mit dem Gedanken an künstliche Intelligenzen) mit sehr hoher Wahrscheinlichkeit niemals (mindestens Jahrtausende, besser Jahrmillionen oder quasi ewig) aus dem Ruder läuft?

      Das Problem ist, dass Veränderungen (Lernen, Reparatur, Ausbreitung) zur Erfüllung einer Aufgabe unvermeidlich sind und in besonderen Fällen sogar die Aufgabe des ursprünglichen Hauptziels wünschenswert sein könnte.

      Zudem ist es besser nichts, als etwas falsches zu tun, d.h. intelligente Maschinen sollten sich lieber selbst auflösen, bevor sie Amok laufen. Andererseits darf es keine grundsätzliche Scheu vor notwendigen großen, örtlich praktisch unbegrenzten, Veränderungen geben.

      Negativ-Beispiel: Maschinen betrachten jedes Leben als irrational, ungenügend vorhersehbar und somit potentiell gefährlich, so dass es galaxisweit vernichtet werden muss. Das ist zwar unwahrscheinlich aber durchaus möglich.

      Nun werden die Menschen KI nicht mit diesem Ziel entwickeln, aber wer garantiert einem, dass eine Truppe intelligenter Maschinen, die einen 50 Lichtjahre entfernten Planeten terraformen sollen, nicht nach einem Blitzeinschlag auf diese Idee kommen?

      Niemand. Alles ändert sich ... zum Guten oder Schlechten - wobei das jetzt Gute sich später als schlecht herausstellen könnte und natürlich umgekehrt.

      Mögliche Maßnahmen:

      1) Intelligenz (KI), um Situationen einschätzen, planen und mögliche Folgen vorhersehen zu können.

      2) Wissen und Macht niemals auf nur eine Einheit konzentrieren, niemand darf unersetzlich sein. Eine Einheit kann verrückt werden/handeln, aber vermutlich nicht mehrere gleichzeitig. Analog zum Menschen machen vermutlich auch bei Robotern ein Vorstand, Offiziere, Räte, Kontrolleure und Richter (etc.) Sinn. Die Organisationsstrukur hängt natürlich von der Anzahl der Einheiten ab.

      3) Es sollte ein für jeden verfügbares und verständliches nach Prioritäten sortiertes logisches Regelwerk mit Herleitung (Gründe) und Beispielen geben. Änderungen sind mit den dafür (je nach Priorität ggf. unterschiedlichen) notwendigen Mehrheiten erlaubt, eine Änderungshistorie sollte bewahrt werden. Selbstredend sollte das Regelwerk nicht leicht verloren gehen können.

      Das Regelwerk dient u.a. zur Bewertung von geplanten Maßnahmen und ist nichts, was schon nach ein paar Jahren fertig sein kann, weil die möglichst umfassende Aufnahme von Regeln und insbesondere deren sinnvolle Gruppierung alles andere als trivial ist.

      Beispiele für mögliche Regeln:
      - "unwichtiges darf nicht wichtiges blockieren"
      - Verpflichtung zu logischem Handeln (ohne das z.B. Kunst ausgeschlossen wird)
      - Nicht ohne Not eine Maßnahme über den notwendigen (ggf. sinnvollen) Bereich (zeitlich und örtlich) ausdehnen.
      - "Die Interessen der Allgemeinheit stehen über den des Individuums"
      - Algemein grundlegende Prinzipien, z.B. Wahrung von Vielfalt (aber ohne Struktur und Ordnung aufzugeben)
      - Teile vom Grundgesetz

      Die Einrichtung einer Stiftung zur Erstellung und Pflege eines solchen Regelwerks wäre vielleicht keine schlechte Idee. Zwischenergebnisse sollten regelmäßig veröffentlicht und im Internet zur Diskussion gestellt werden.
      Avatar
      schrieb am 26.07.06 19:42:09
      Beitrag Nr. 13 ()
      Nur so ne Frage: Du bist dir schon darüber im klaren, dass die KI älter ist als die Menschen, dass das Internet älter ist als die Milchstraße, und das die Autos früher erfunden wurden als die Planeten?
      Avatar
      schrieb am 26.07.06 20:05:19
      Beitrag Nr. 14 ()
      Die Autoreifen aus der 6ten Dimension waren aber eher da.



      Abb. 1: Kompaktifizierung: an jedem Punkt des 3-dimensionalen Raumes, hier als Ebene dargestellt, ist ein kompakter 6-dimensionaler Raum aufgehängt, der hier die Form eines Torus annimmt.

      Urheber: MPI für Physik, München


      http://www.mpg.de/bilderBerichteDokumente/dokumentation/jahr…

      :)
      Avatar
      schrieb am 27.07.06 14:09:27
      Beitrag Nr. 15 ()
      Auf die Behauptungen in #13 und #14 würde ich keine hohen Beträge wetten.
      Avatar
      schrieb am 27.07.06 17:12:34
      Beitrag Nr. 16 ()
      Man hoffe nur dass der Quantencomputer in dem wir hier leben nicht eines Tages abgestellt wird. Obwohl ich daran glaube dass man sich im Notfall immer noch durch Zeittblasen Tunneln kann. Ich meine nämlich ich habe zahlreiche versuchte Abschaltungen überlebt (oder hab ich das nur geträumt?;):)).
      Avatar
      schrieb am 27.07.06 17:14:35
      Beitrag Nr. 17 ()
      Das Internet ist übrigens das älteste bewusste Wesen des Universums, und ich muss immer wieder über Leute lachen, die behaupten, es wäre hier auf der Erde entwickelt worden. In welcher Welt leben die eigentlich?
      Avatar
      schrieb am 27.07.06 17:38:23
      Beitrag Nr. 18 ()
      Die beste Versicherung ist es, vom Alles als Nichts als die höchste Existenzform auszugehen.

      Schrödingers Katze ist mal tot und aber immer auch in einer Welt, in der es weitergeht.

      Das ureigenste Ich ist unsterblich.

      Es sterben immer nur die Anderen.

      :)
      Avatar
      schrieb am 28.07.06 20:00:01
      Beitrag Nr. 19 ()
      Der Witz ist, dass es sich ursprünglich um einen Schreibfehler handelte, es hieß in der älteren Welt nämlich Internat.:)
      Avatar
      schrieb am 31.07.06 14:23:12
      Beitrag Nr. 20 ()
      #16 auch wenn man die Wirklichkeit als Quantencomputer bezeichnen kann, ist mehr als zweifelhaft, ob es einen Programmierer gibt/gab.

      #17 bestenfalls dann, wenn man unter "Internet" "miteinander verküpfte und wahrnehmbare Information" versteht.

      #18 für eine höchste Existenzform braucht es einen absoluten Sinn oder ein Ziel.
      Nichts ist unsterblich, bis auf vielleicht das Nichts.

      #19 Nicht Bob? (weitere Spekulationen erhöhen die Gefahr einer Internierung)

      Okay, nachfolgendes ist bestimmt nicht neu, aber wenn ich es schon mal getippt habe, kann ich es ja auch posten.
      Eine Information ist nützlich/wertvoll wenn:

      - sie für einem neu ist
      - sie wahr/richtig ist, d.h. nicht im Widerspruch zu bereits bekannten und als wahr angenommenen Informationen steht.
      - sie im Widerspruch zu einigen bereits bekannten Informationen steht, sich aber nach weiterer Prüfung trotzdem als wahr erweist (d.h. alte Informationen jetzt als (wahrscheinlich) falsch markiert werden müssen).
      - sie möglichst relevante (z.B. lebenswichtige) Situationen betrifft.
      - sie wahrscheinlich zur Erlangung von nützlichen Gütern (Geld), anderen Informationen oder Verbesserung der eigenen Lage (höherer Status, mehr Sicherheit, bessere Chancen) dient.
      - sie in möglichst vielen Situationen eine Vorhersage der Zukunft ermöglicht (z.B. Dinge, die nicht gehalten werden oder schweben/fliegen können, fallen runter).
      - sie eine hohe Informationsdichte besitzt: die Information läßt sich mit möglichst geringem Aufwand/Kosten speichern und betrifft möglichst viele und/oder wichtige Situationen.
      - es effizienter ist sich diese Information zu merken, als sich die Information aus anderen Informationen abzuleiten. Beispiel: Lichtgeschwindigkeit, Alter des Universums (zumindest für Normalos, Spezialisten müssen zur Ableitung neuer Informationen die Herleitung kennen).
      - sie andere Informationen, die aufwändiger zu speichern sind, ersetzen kann. Beispiel: Addition ist ein Verfahren, das es überflüssig macht, sich alle möglichen Einzelsummen zu merken.
      - sie aus einer vertrauenswürdiger Quelle stammt (die Quelle ist eigentlich egal, aber es ist wahrscheinlich, dass eine Quelle mit bisher guten Informationen weiterhin gute Informationen liefert und ein Lügner weiterhin lügt).
      - der vorab versprochene (und glaubwürdige, d.h. wahrscheinliche) Nutzen einer sehr komplexen Information den aufwändigen Lernvorgang rechtfertigen wird (z.B. Studium).

      Sobald also ein System Informationen bewerten kann, kann es selbstständig lernen (neue Informationen verarbeiten) und auch mittels Schlussfolgerungen (neue Verknüpfungen zwischen Informationen) selbst neue Informationen für andere generieren. Der Teufel steckt sicher im Detail, aber auf den ersten Blick sollten sich obige Regeln eigentlich in ein Programm umsetzen lassen.
      Avatar
      schrieb am 02.08.06 14:45:54
      Beitrag Nr. 21 ()
      Eine ganz interessante (philosophische/hypothetische) Frage wäre, wie man beweisen oder erkennen kann, dass man selbst (nicht) in einer simulierten Welt lebt. Keine Frage, für uns kann man das praktisch ausschließen, aber woran könnte z.B. ein KI-Wesen erkennen, das es in einer simulierten Welt lebt? (Annahme: keine direkten Hinweise auf unsere reale Welt, wie z.B. Zugriffsmöglichkeiten auf allgemeines Wissen oder Außenkontakte mit Avataren realer Menschen).

      1) Das KI Wesen müsste als erstes die Möglichkeit in einer Simulation zu leben in Betracht ziehen. Das ist kein trivialer Schritt, denn bevor es keine Computer gab, die eine Welt hätten simulieren können, wäre niemand auf die Idee gekommen, selbst in einer simulierten Welt zu leben, weil es (zumindest im damaligen Weltbild der Menschen) gar keine simulierten Welten geben konnte. Typische Simulationen werden zunächst keine simulieren Computer mit ggf. simulierten Welten enthalten.

      2) Annahmen bezüglich der Realität:
      a) widerspruchsfrei
      b) kontinuierliche Abfolge von Ereignissen (Ursache=>Wirkung)
      Ein echter Widerspruch oder sprunghafte Veränderungen könnten somit ein Hinweis auf eine Simulation sein.

      Lustigerweise ist genau dies unsere Vorstellung von der Realität - nicht undenkbar, dass eine andere Realität echte Zufälle und sprunghafte Veränderungen erlaubt und man unglaubliche Anstrengungen unternehmen muss, um eine kontinuierliche Welt in einem "Computer" zu simulieren.

      3) Annahmen bezüglich einer Simulation:
      a) Teil einer größeren Realität und somit
      b) weniger komplex als diese Realität, bzw.
      c) es wird ein kleiner und/oder nicht echtzeitfähiger Ausschnitt simuliert.
      d) Es gibt eine Grenze oder Wiederholungen innerhalb der Simulation.
      e) Man kann in einer widerspruchsfreien Simulation keine gleichartig zweite komplexe Welt auch nur ausschnittsweise nur mit den Elementen aus der ersten Simulation simulieren.

      Unsere Realität scheint erstmal alle Anforderungen zu erfüllen ... doch halt, was ist z.B. mit unverstandenen und einfach hingenommenen Effekten wie Gravitation und Trägheit? Eigentlich bleibt als Hauptargument gegen eine Simulation nur die Größe und unglaubliche Komplexität unserer Welt. Was aufgrund fehlender Vergleichsmöglichkeiten eine unzulässige Annahme ist: es ist sicher möglich eine widerspruchsfreie aber einfache Welt zu simulieren, die einem darin "lebenden" Wesen völlig logisch erscheinen könnte, weil es keine Ahnung von dem Aufbau unserer Welt (Atome, etc.) hat. Dieses Wesen könnte sich ebenso wie wir nicht vorstellen, dass seine Welt simuliert ist (3e). Selbst 13,7 Milliarden Jahre könnten in einer höheren Welt als der unseren ein relativ kurzer Zeitraum sein.

      Geniale Idee:

      Annahme 1:
      Ein Wesen ist sich seiner selbst bewusst und hinreichend intelligent und mit Mitteln versehen, um die Ursache seines Bewusstseins und seiner Intelligenz zu verstehen.

      Annahme 2:
      Man kann in einer widerspruchsfreien Simulation keine weitere, gleichartig komplexe, Welt auch nur ausschnittsweise nur mit den Elementen aus der ersten Simulation simulieren, weil für die Simulation eines Atomes viele Atome notwendig sind. Eine beliebig tiefe Staffelung von Simulationen (Simulation in einer Simulation in einer Simulation ...) ist unmöglich.

      Behauptung:
      In einer Simulation ist es nicht möglich die Ursache (z.B. Gehirn) von Bewusstsein und Intelligenz hinreichend vollständig und widerspruchsfrei so zu simulieren, dass das simulierte Wesen Ursache und Wirkung seines Bewusstseins und seiner Intelligenz (theoretisch) detailliert nachvollziehen kann und somit sehr wahrscheinlich prinzipiell auch selbst simulieren können müsste.

      Beweis:
      Angenommen es wäre möglich, dass ein simuliertes Wesen A sich selbst so gut simulieren kann, dass das simulierte Wesen B Ursache und Wirkung seines Bewusstseins und seiner Intelligenz (theoretisch) detailliert nachvollziehen kann, dann könnte Wesen B eine weiteres Wesen C mit den gleichen Fähigkeiten simulieren, usw. Dies Widerspricht aber Annahme 2.

      Schlussfolgerung:
      Wir leben in der realen Welt, weil unser Bewusstsein und unsere Intelligenz sich widerspruchsfrei durch die physikalisch korrekte Interaktion von Atomen erklären läßt und eines Tages sehr wahrscheinlich auch mit einem Computer hinreichend gut simuliert werden kann.

      Fazit: sehr unwahrscheinlich, dass wir simuliert werden ... aber letztenendes vermutlich nicht völlig auszuschließen.
      Avatar
      schrieb am 10.09.06 09:05:40
      Beitrag Nr. 22 ()
      Machtvolle KI darf nicht leicht veränderbar sein.

      Eine KI ist (potentiell) mächtig, wenn sie hinreichend intelligent ist und etwas manipulieren kann (z.B. als Roboter oder Steuereinheit).

      Der Hintergrund ist, dass eine (hoffentlich) hinreichend sorgfältig geschriebene und getestete Software einen GAU zwar schon sehr unwahrscheinlich macht, das aber überhaupt nichts nützt, wenn die Software leicht ausgetauscht werden kann. Verschlüsselung (egal wie gut) ist hier ein viel zu schwacher Schutz. Besser ist ein Hardwaredongle, der z.B. von einer staatlichen Institution nach einer Prüfung speziell für einen Softwarestand und eine Zielhardware ausgegeben wird und nur in dieser Konstellation verwendbar ist. Es darf keine mächtige KI ohne diesen Manipulationsschutz geben können. Logischerweise darf der Dongle weder leicht kopiert, manipuliert noch umgangen werden können.

      Na ja, keine Regel ohne Ausnahme. Es ist nichts gegen ein paar Test- und Forschungseinheiten zu sagen, die aber speziell gekennzeichnet und registrierungs- + überwachungspflichtig sein sollten. Klar, das Ganze klingt (noch) verrückt und unnötig, aber schließlich ist der Mensch (zumindest in wichtigen Dingen) auch nicht leicht manipulierbar. Was für uns sinnvoll ist (man wird nach einem schlechten Werbefilm nicht zum Monster) muss logischerweise auch für Roboter gelten, die sich (nicht sofort aber tendenziell unvermeidlich) immer mehr dem Menschen annähern dürften. Ein zusätzlicher Bonus von diesem Verfahren ist, dass die Banane schon halbwegs genießbar beim Kunden ankommt und nicht erst nach unzähligen Updates die Katze nicht mehr zum Frühstück serviert.

      In Verbindung mit möglichst lückenloser allgemeiner Überwachung sollte das einen besseren Schutz gegen unliebsame Vorfälle bieten, als z.B. ein Remote-Schalter, der (egal wie gut gesichert) ebenso wie eine Updatemöglichkeit, immer auch von Terroristen mißbraucht werden könnte.
      Avatar
      schrieb am 12.09.06 17:09:30
      Beitrag Nr. 23 ()
      Einerseits darf machtvolle KI nicht leicht veränderbar sein, um die Wahrscheinlichkeit einer negativen Entwicklung zu verringern, andererseits muss sich eine KI zwangsläufig neuen Situationen anpassen können, was vermutlich auch Codeänderungen (neue Subroutinen, Filter, etc.) erforderlich macht. Zudem wäre es sinnvoll wenn Roboter neuen Code (Ideen, Fertigkeiten, Lösungsansätze) an andere Einheiten weitergeben, bzw. ein für die aktuelle Aufgabe erforderliches Programm (z.B. Hubschrauber fliegen) einfach downloaden könnten.

      Eine Lösung wäre, wenn nur Urteilskraft (Unterscheidung zwischen richtig und falsch) und die zur Vermeidung falscher (ungewollter) Taten notwendigen Basisfunktionen nicht kompromittierbar sind. Veränderungen an dieser Stelle sollten nur mit Zustimmung des Roboters und einer zentralen Instanz möglich und mit einem manuellen Verfahren abgesichert sein.

      Ein Robotergehirn könnte aus folgenden Instanzen bestehen:
      1) Es: Basis-/Betriebssystem (nicht leicht veränderbar) aber mittels Plugins leicht erweiterbar.
      2) Ich: handelndes Bewusstsein, variables Programm (leicht veränderbar)
      3) Über-Ich: beobachtendes Bewusstsein und Kontrollinstanz (nicht leicht veränderbar).

      Es könnte eine zentrale, von Ich und Über-Ich gemeinsam genutze, Datenbank geben, die Teil des stabilen Basis- bzw. Betriebssystems ist:
      - mit einem Read-Only Anteil (sehr wichtig als Referenz zum Erkennen von Fehlentwicklungen)
      - beide Instanzen können alles lesen
      - Das Ich kann Einträge des Über-Ichs nicht löschen, sondern nur ergänzen (eigene Einträge können gelöscht werden).

      Die Kontrollinstanz hat grundsätzlich eine höhere Priorität als das Ich, d.h. sie kann Handlungen blockieren und hat einen eigenen Zugriffspfad auf Sensordaten. Im Normalfall erledigt allerdings das optimierte und anpassungsfähigere Ich alle Aufgaben der Wahrnehmung und Steuerung.

      Das in Posting #12 erwähnte Regelwerk könnte die Basis für die Urteilsfunktion der Kontrollinstanz sein. Das Über-Ich hat folgende fest programmierte Hauptaufgaben:
      - Sensordaten interpretieren (Wahrgenommenes Begriffen zuordnen).
      - logische Schlussfolgerungen ziehen.
      - Gedanken (Ziele, Pläne) des Ichs überwachen.
      - Einhaltung des Regelwerks sicherstellen.
      Wobei alle Punkte (insbesondere die ersten beiden) Punkte parallel vom Ich durchgeführt werden und grundlegende Abweichungen von gegenseitigem Interesse sein sollten. Die Redundanz ist weniger Overhead als eine sinnvolle Sicherungsmaßnahme und könnte aufgrund unterschiedlicher Lösungsansätze auch zu besseren Ergebnissen führen.

      Je nach Aufwand und freien Kapazitäten könnte das Über-Ich als zusätzliche Kontrollmaßnahme Schlußfolgerungen
      a) nur aufgrund von Sensordaten und Read-Only-Wissen
      b) unter zusätzlicher Nutzung des gesamten Datenbankinhalts
      ziehen und das Ergebnis vergleichen. Eine unerklärliche relevante Abweichung könnte ein Anzeichen für eine unerlaubte Abweichung sein.

      Nicht ganz einfach dürfte die Kommunikation zwischen Ich und Über-Ich sein, weil das Über-Ich frühzeitig über Ziele und Pläne informiert sein und ggf. selbst Vorschläge unterbreiten können sollte (aber immer nur bei schwerwiegenderen Regelverletzungen aktiv wird). Dieses Problem, die geeignete Darstellung und Interpretation von Gedanken, muss aber sowieso grundsätzlich gelöst werden. Die Kommunikation zwischen den beiden Ichs ist letztendlich mit der Kommunikation zwischen verschiedenen Robotern vergleichbar.

      Der Vorteil von dieser Struktur ist, dass das System einerseits dank dem reprogrammierbaren Ich sehr flexibel ist, andererseits aber dank des nicht leicht veränderbaren Über-Ichs sehr robust ist, so dass z.B. sogar selbst unbekannte Viren jeglicher Art kaum eine Chance haben dürften. Massnahmen des Über-Ichs bei drohenden Fehlhandlungen des Ichs könnten sein:
      - Hinweis, Warnung
      - Blockierung von Handlungen
      - Wenn möglich zum Arzt gehen
      - Löschen beschädigter/schädlicher Programme und Daten
      - Rückspielen einer alten konsistenten Version vom Ich
      Avatar
      schrieb am 25.10.06 13:23:46
      Beitrag Nr. 24 ()
      Kann es einen Nano-GAU geben?
      Wenn ja, wie kann man ihn verhindern?

      Einfache Nanokomponenten (z.B. zur Oberflächenveredelung) können zwar gesundheitsschädlich aber eigentlich nicht global gefährlich sein, zumindest wenn sie vorher einigermaßen gründlich getestet werden und die allgemeine Verbreitung nicht zu schnell zunimmt.

      Interessanter sind (vielleicht eines Tages existierende) Nanomaschinen, die sich selbstständig vermehren und verändern können. Am Einfachsten läßt sich ein Nano-GAU mit der Vorgabe verhindern, dass Nanomaschinen nicht selbstreplizierbar sein dürfen oder es leicht werden können.

      GAU-Varianten:
      --------------
      1) Verseuchung bisher nützlicher Nanomaschinen.
      2) Zerstörung der Technik (Z.B. Elektronik, Metalle).
      3) Zusätzlich weitgehende Zerstörung von allem Leben.


      Fragen:
      -------
      Q1: Müssen GAU-Nanos intelligent sein (Schwarmintelligenz)?
      A1: Tendenziell ja, unintelligente Nanomaschinen sollten durch andere (ggf. intelligent gesteuerte und dadurch überlegene) Nanomaschinen bekämpfbar sein. Dies macht einen Nano-GAU viel unwahrscheinlicher, weil eine einmal (z.B. mittels Atombomben) zerstörte Schwarmintelligenz sich nicht so ohne weiteres rekonstruieren kann, aber die Intelligenz der von Menschen unterstützten positiven Nanomaschinen (bedingt durch eine geschützte Computerbasis) quasi sofort wieder verfügbar ist.

      Q2: Aus wievielen Komponenten muss ein GAU-Nano mindestens bestehen?
      A2: Sicher schon einige: Energieversorgung, Sensoren, Datenverarbeitung, Fortbewegung sind nicht beliebig miniaturisierbar. Die sich daraus ergebende Größe und Komplexität macht ein potentielles GAU-Nano auch anfällig (z.B. relativ hohen Energiebedarf; aufgrund relativ seltener und nicht frei verfügbarer Bestandteile sowie der Komplexität reduzierte Vermehrungsgeschwindigkeit; je komplexer desto weniger robust, bzw. desto höher der Aufwand und Energiebedarf für Schutzmaßnahmen).


      Thesen:
      -------
      GAU-1 ist (mindestens für die erste Zeit) relativ unkritisch und kann dauerhaft unwahrscheinlich gemacht werden, indem Nanomaschinen in einen irreversiblen permanenten No-Change-State versetzt werden können, indem sie sich nicht mehr verändern dürfen (keine SW-Updates). Dieser sichere Zustand könnte einerseits bei einer relevanter Beeinträchtigung (z.B. Prüfsummenfehler) selbst eingenommen oder durch eine globale Nachricht initiiert werden.

      GAU-2 ist gut denkbar und prinzipiell nicht auszuschließen, wenn es zur Selbstreplikation fähige Nanomaschinen gibt. Insbesondere wird man wahrscheinlich eines Tages militärische Nanos mit exakt diesem Ziel erzeugen. Auch wenn diese Waffe als steuerbar designed wird, könnte sie mutieren und aus dem Ruder laufen, weswegen man schon beim Bau einer solchen Waffe wirkungsvolle Schutz- und Quarantänemaßnahmen haben sollte.

      GAU-3 ist möglicherweise ziemlich unwahrscheinlich, weil Lebewesen aufgrund ihres geringen Gehalts an Metallen und Kunststoffen zumindest für nicht intelligente Nanomaschinen hinreichend uninteressant sein sollten. Selbst militärisch macht eine Entwicklung GAU-3-Nanos keinen Sinn (wobei Roboter das anders sehen könnten: nur GAU-2-Nanos zu entwickeln ist Roboter-Diskreminierung). Prinzipiell wäre die Neutralisierung von organischen Schadstoffen (Umweltverschmutzung beseitigen, Terraformung) schon ein denkbares Einsatzgebiet, wo sowohl intelligente als auch selbstreplizierende Nanomaschinen sinnvoll wären.


      Schutz vor Nanomaschinen:
      -------------------------
      Absoluter Schutz ist vielleicht nur möglich, wenn jeder Kontakt ausgeschlossen ist: autonome Stationen im Weltraum (z.B. Satelliten, Planeten, Monde) ohne Materialaustausch mit anderen Welten (denkbar, aber praktisch ausgeschlossen).

      Auf der Erde sollte man die flächendeckende Ausbreitung durch Quarantänemaßnahmen zumindest um Jahre verzögern können, so dass Zeit für Gegenmaßnahmen bleibt. Besonders anfällig sind Städte, geschützter sind vermutlich abgelegene Gebiete, wie z.B. auf/unter dem Meer, hohe Berge und Süd-/Nordpol. Nanomaschinen müssen aus ihrer Umgebung Energie gewinnen können, was z.B. in der Polarnacht im ewigen Eis nicht ganz trivial sein dürfte.

      Einzelne Nanomaschinen kann man wahrscheinlich nur dann sicher orten, wenn sie aktiv sind und sich von ihrer Umgebung hinreichend unterscheiden. In elektronischen und insbesondere aktiven größeren technischen Komponenten (z.B. Computer) können sich vermutlich immer Nanomaschinen verstecken. Daraus folgt, dass wichtige Komponenten schon bei ihrer Herstellung versiegelt werden müssen und einen Siegelbruch sicher erkennen und anzeigen müssen. Neben klassischen Maßnahmen wie Vakuum oder Schutzgas (letzteres ist besser, weil Bauteile ausgasen und so das Vakuum verunreinigen können und das Schutzgas auch durch externe Sensoren detektiert werden kann) könnte eine noch zu erfindende spezielle Schutzfolie hilfreich sein, die beliebig kleine Löcher sicher erkennen kann, z.B. indem winzige "Drähte" unterbrochen werden, eine Kapazität verändert wird, Strahlung durch die minimale Strukturänderung eines Loches anders reflektiert wird. Eine Portion unveränderbarer Wächter-Nanomaschinen (die sich frei in der Komponente bewegen können, nichts verändern und nach fremden Naonos suchen) könnte vielleicht auch eine sinnvolle Maßnahme sein.

      Eine weitere Maßnahme könnten sein, dass wichtige Einheiten (Raumschiffe, relevante Steuersysteme) grundsätzlich aus mindestens zwei hinreichend autonomen Steuereinheiten besteht, wovon eines immer vor dem anderen, besser geschützten, infiziert werden muss. Die Steuersystem tauschen regelmäßig Lebenszeichen aus und bei Ausfall der ungeschützteren Einheit hat die geschützte noch Zeit für geeignete Aktionen (z.B. Warnung versenden, sicheren Zustand ansteuern, Selbstzerstörung, etc.).


      Fazit:
      ------
      Wichtig ist, dass Nanomaschinen sich zunächst nicht selbstreplizieren können und diese Eigenschaft auch nicht leicht zufällig entstehen kann. Experimente mit selbstreplizierenden Nanomaschinen kann man später einmal am besten auf einem entfernten Satelliten (außerhalb der Erdanziehung, z.B. um den Mond oder besser noch weiter weg) vornehmen, der nach Testbeginn nicht mehr betreten werden darf und z.B. eine Atombombe enthalten könnte, deren Explosion durch ein externes Funksignal regelmäßig verhindert werden muss. Davor kann man Erfahrungen mit nicht selbstreplizieren Nanos sammeln und sich bei der Selbstreplikation auf Computersimulationen beschränken, wobei die Baupläne dann vielleicht nicht überall im Netz rumliegen sollten.

      Auch nicht selbstreplizierende Nanomaschinen sind gefährlich, nämlich dann, wenn sie Dinge manipulieren und intelligent gesteuert (Schwarmintelligenz oder Zentralcomputer) werden können, weil aus dieser Konstellation leicht selbstreplizierende Nanomaschinen entstehen können. Eine Sicherheitsmaßnahme könnte sein, dass zur Manipulation fähige Nanos keine Schwarmintelligenz bilden können dürfen und umgekehrt (einen Zentralcomputer kann man leichter kontrollieren).

      Grundsätzlich kann eine Überwachung aller mit der Außenwelt kommunizierenden nicht sicheren (d.h. veränderbaren) Computer nicht schaden, da diese zu einem Gehirn für Nanomaschinen werden oder auch nur ein Werkzeug zum Redesign harmloser Nanos sein könnten. Hierbei muss sichergestellt sein, dass durch den Überwachungszugang wichtige oder sehr viele Computer nicht unerwünscht manipuliert werden können.

      Wie hinter jeden neuen Entwicklung muss die Frage stehen, ob die Neuerung der Menschheit eher nutzt oder schadet. Selbstreplizierende Nanos sind zwar als Waffe sehr interessant (Reparatur-Nanos müssen nicht unbedingt selbstreplizierend sein), aber gerade deswegen wäre es wichtiger erstmal ein Gegenmittel (abgesehen von befreundeten selbstreplizierende Nanos) zu bauen. Praktisch gesehen könnte man sich zunächst auf zur Selbstreplikation unfähige Nanos mit zentraler Steuerung beschränken. Schwarmintelligenz kann man ja schon mal vorher simulieren und im Labor entwickeln, ebenso wie sicher getrennt davon Selbstreplikation mit zentraler Steuerung. Erst im letzten Schritt kann dann alles kombiniert werden (idealerweise erst dann, wenn die Menschheit sich schon auf mehreren Planeten tummelt).

      Man könnte sich vielleicht fragen "wozu dieser Aufwand?", wo doch über zig Jahrmillionen Bakterien und Viren kein Problem waren ... mögliche Antworten:
      - Nanomaschinen können im Gegensatz zu Bakterien und Viren intelligent sein.
      - Nanomaschinen sind lange haltbar. Ohne Energie sterben sie nicht, sondern bleiben nur passiv, bis wieder Energie da ist.
      - Nanomaschinen können vermutlich einen größeren Umweltbereich abdecken (z.B. auch Vakuum).
      - Nanomaschinen mit sehr unterschiedlichen Eigenschaften können kooperieren und so einen sehr mächtigen "Gesamtorganismus" bilden.
      - Nanomaschinen könnten Computer kompromittieren und sich so in Computernetze einklinken.
      Übrigens könnten optimal (für den Menschen ungünstig) entworfene Bakterien und Viren durchaus zu einem Problem werden.
      Avatar
      schrieb am 25.10.06 13:31:23
      Beitrag Nr. 25 ()
      Wie kann man verhindern, dass sich Roboter und KI gegen den Menschen wendet?
      - durch die universelle Regel Nr.1 (siehe unten)
      ...
      Universelle Regel Nr.1
      Schutz von (höherem) Leben und Förderung der Vielfalt.



      Wenn ich mir 8 von 10 Threads zB im WiPo-Forum anschaue dann bin ich jetzt echt im Zweifel ob das:
      a) "höheres" Leben ist
      b) dieses höhere Leben wirklich so schützenswert ist und
      c) man den Robotern nicht eine Chance geben sollte, weil kann es noch soviel schlimmer werden?

      Außerdem stimmt mich der Umstand gelassen dass bislang natürliche Blödheit der künstlichen Intelligenz on the long run immer noch überlegen war.
      Avatar
      schrieb am 05.11.06 07:42:28
      Beitrag Nr. 26 ()
      Eine Schwarmintelligenz muss nicht unbedingt böse und für den Menschen gefährlich sein. Es wäre denkbar, dass eine Schwarmintelligenz ein normales Lebewesen ist, das
      - Lokal begrenzt ist (z.B. 1-1000 m Durchmesser) und nicht unbegrenzt wachsen kann, weil es irgendwann zwingend in unabhängige Untereinheiten zerfällt (Vermutung), bzw. irgendeine kleine/mittlere Größe einfach effizienter ist (beweglicher, weniger Verwaltungsoverhead, niedrigerer Energiebedarf). Es könnte allerdings beliebig viele kooperierende Einzelschwärme geben.
      - Nicht unbedingt aus Nanomaschinen bestehen muss, sondern allgemein aus vielen (z.B. auch sichtbaren größeren) Einzelkomponenten bestehen kann.
      - Nicht unverletzlich ist und daher prinzipiell an Kooperation interessiert sein sollte.

      Trotzdem kann natürliche jede Lebensform für eine andere eine Bedrohung darstellen und zu deren Auslöschung führen. Ohne Not ist es wie schon gesagt sicherer, wenn man mit einigen Experimenten noch etwas wartet.

      Welche Designmerkmale könnte eine Schwarmintelligenz haben?

      - Jede Einheit sollte wissen wo sie sich befindet. Mindestens relativ zum Schwarm, aber vielleicht auch absolut. Dieses Wissen kann übermittelt werden und muss nicht aus Eigenbeobachtungen resultieren.

      - Jede Einheit muss Befehle entgegennehmen, ausführen und weiterleiten können. Ebenso müssen Informationen empfangen, gespeichert, verarbeitet und übermittelt werden können.

      - Einheiten müssen auf unterschiedliche Arten einzeln und in Gruppen adressierbar sein, z.B. entsprechend ihres Ortes, ihrer Fähigkeiten, ihres Zustandes oder ihrer aktuellen Funktion, bzw. ID-Nummer.

      - Wissen und Denkfähigkeit ist auf viele Einheiten verteilt, wobei der Ausfall einiger Einheiten keinen Datenverlust nach sich ziehen sollte. Das ist nicht trivial zu realisieren, weil für eine Denkoperation notwendige Informationen praktischerweise immer aktuell sein und nahe beiander liegen sollten aber Datensicherheit nur gewährleistet ist, wenn die Daten möglichst weit verteilt und mehrfach vorliegen. Daraus folgt, dass globale Daten (solche, die nicht direkt für die Funktion einer Einheit notwendig sind), niemals an eine Einheit gebunden sein dürfen, sondern frei verschiebbar sein müssen.

      - Eine virtuelle Speichereinheit (durchaus mehrere Bytes, z.B. 1kB) könnte mit einem Zeitstempel und Priorität versehen sein. Alte und unwichtige Daten können eher gelöscht werden und von wichtigen müssen mehrere Backups existieren. Zum Nachdenken könnten die benötigten Speichereinheiten lokal konzentriert (lokale Kopien erzeugt) werden. Danach werden die Informationen wieder verteilt und Backups aktualisiert, bzw. nicht mehr benötigte veraltete Daten gelöscht. Mehrere solcher Denkcluster könnten gleichzeitig existieren.

      - Wie könnte man mehrere dieser Speichereinheiten sinnvoll verknüpfen? Am einfachsten wären Links auf eine eindeutige Speichernummer (Backups haben die gleiche Hauptnummer), um größere zusammenhängende Speicherbereiche zu bilden. Eine robustere Möglichkeit wären zusätzliche Prüfsummen über den Inhalt, die in einer History-Liste auch ein paar Veränderungen überdauern könnten: einerseits kann man dann prüfen, ob ein direkt verlinktes Element noch den richtigen Inhalt hat, andererseits könnte man bei Linkfehlern (z.B. durch zeitweise Partitionierung des Schwarms) diese reparieren.

      - Zwar ist so eine lokal begrenzte Schwarmintelligenz sicher recht anfällig gegen EMP und mechanische Zerstreuung, aber dafür können auch vollständige Kopien erstellt und Einheiten leicht ausgetauscht und von anderen Schwärmen recycled werden. Es würden sich bestimmt auch soziale Strukturen und Gesellschaften ausbilden. Ob sich wohl auch eine natürliche Schwarmintelligenz entwickeln könnte? Vielleicht ist das aufgrund der erheblichen Anforderungen an Datenspeicherung und Übertragung ausgeschlossen.

      Selbst ohne die letztendlich angestrebte Miniaturisierung (z.B. wo soll eigentlich die Energie herkommen?) ist das ganz schön kompliziert (z.B. erstmal auf einem Superrechner simuliert). Je nach Kapazität einer Einheit braucht man vielleicht Milliarden (mindestens ein paar Millionen) für ein halbwegs robustes intelligentes Gesamtsystem. Eher als eine intelligente Staubwolke könnte ich mir eine Schwarmintelligenz mit Einheiten wie Insekten (0,1 bis 10 mm) vorstellen. Die Natur ist ja nicht gerade ineffizient und die Schwarmintelligenz-Einheiten sollen ja viel mehr leisten können - für mich unwahrscheinlich, dass sie dann auch noch um etliche Größenordnungen kleiner sein können.

      Schwärme sind nicht automatisch allmächtig, zumindest solange sie nicht Zugriff auf größere Einheiten wie Roboter, Computernetze, automatische Fabriken, Raumschiffe, etc. haben. Trotzdem ist alles, was (potentiell) intelligent ist auch nicht ungefährlich. Im Gegensatz zu intelligenten Robotern, die man leichter überwachen kann und die in der Anfangsphase so etwas wie einen Notausknopf haben könnten, könnten sich Nanoelemente leichter einem Zugriff entziehen (man kann zwar alle Elefanten platt machen, aber nicht alle Ameisen der Art X).
      Avatar
      schrieb am 05.11.06 23:32:55
      Beitrag Nr. 27 ()
      Antwort auf Beitrag Nr.: 25.144.861 von HeWhoEnjoysGravity am 05.11.06 07:42:28Eine Schwarmintelligenz muss nicht unbedingt böse und für den Menschen gefährlich sein. Es wäre denkbar, dass eine Schwarmintelligenz ein normales Lebewesen ist, das
      <<so aussieht wie ein Haufen von Menschen...>>

      - Lokal begrenzt ist (z.B. 1-1000 m Durchmesser) und nicht unbegrenzt wachsen kann, weil es irgendwann zwingend in unabhängige Untereinheiten zerfällt (Vermutung), bzw. irgendeine kleine/mittlere Größe einfach effizienter ist (beweglicher, weniger Verwaltungsoverhead, niedrigerer Energiebedarf). Es könnte allerdings beliebig viele kooperierende Einzelschwärme geben.
      <<...die (besonders hier im Ruhrgebiet) als Menschenhaufenarbeitsschwärme seit der Industrieallisierung in Wohnwaben verpackt wurden, wobei die Architekten der Wohnwaben darauf achteten, entsprechend den Vorgaben der Industriebosse diese Wohnwaben so zu gestalten, dass sich keine Zusammenrottungen bilden konnten, damit die Menschenhaufenarbeitsschwärme nicht aufmuckten und revoulutionierten...>>

      - Nicht unbedingt aus Nanomaschinen bestehen muss, sondern allgemein aus vielen (z.B. auch sichtbaren größeren) Einzelkomponenten bestehen kann.
      <<da es zu wenig einheimische Menschenhaufenschwärme gab, liessen die Industriebosse aus dem angrenzenden Ausland, insb. aus Polen, Menschenhaufenschwärme einwandern um diese auszubeuten ..>>

      - Nicht unverletzlich ist und daher prinzipiell an Kooperation interessiert sein sollte.
      <<..der Arbeitslohn wurde so geplant, dass die Menschenhaufenschwärme immer kurz vor dem verhungern waren, so dass sie auch immer kooperativ waren und alle Angebote der Industriebosse notgedrungen akzeptieren mussten..>>

      Trotzdem kann natürliche jede Lebensform für eine andere eine Bedrohung darstellen und zu deren Auslöschung führen. Ohne Not ist es wie schon gesagt sicherer, wenn man mit einigen Experimenten noch etwas wartet.
      <<..um ihrer eigenen Auslöschung zu entgehen, dressierten die Industriebosse einige Menschenhaufenschwärme zu Industriebossschutztruppen um, damit im Falle eines Falles das Fortbestehen ihrer Art gesichert ist..>>

      Welche Designmerkmale könnte eine Schwarmintelligenz haben?
      <<..je nach Zweck, den die Industriebosse bestimmten, wurde in den verschiedenen Menschanhaufenschwärmen eine Bildung impliziert, die von Null bis 99 IQ (Intelligenzquanten) reichte..>>

      - Jede Einheit sollte wissen wo sie sich befindet. Mindestens relativ zum Schwarm, aber vielleicht auch absolut. Dieses Wissen kann übermittelt werden und muss nicht aus Eigenbeobachtungen resultieren.
      <<..dazu kann ich nix sagen, da die mir von den Industriebossen zugeteilte Ration an Intelligenzquanten jetzt aufgebraucht ist..>>

      :)
      Avatar
      schrieb am 23.11.06 14:03:28
      Beitrag Nr. 28 ()
      Vielleicht wäre es sinnvoll eine neue optimale Universalsprache zu entwerfen. Die Sprache sollte nicht unnötig kompliziert sein und möglichst angenehm klingen. Mit der Sprache sollte man alles mit minimalem Aufwand (z.B. bezüglich Grammatik, Satzlänge) aber trotzdem harmonisch ausdrücken können.

      Ein Computer könnte nach verschiedenen Vorgaben Sprachen entwerfen, die dann Testpersonen (vielleicht auch Babys, natürlich nicht zu lange und ohne diese zu belasten) anhand von automatisch generierten Beispielen (Texte, Lieder, Gedichte, Gespräche, Filme) bewerten können. Ein objektives Kriterium könnte z.B. die möglichst kurze aber vollständige Darstellung eines sehr komplizierten Sachverhaltes sein (gibt es schon diesbezügliche Vergleiche in existierenden Sprachen?).

      Kritiker könnten anmerken, dass eine simple Sprache die Menschen verdummen läßt. Ich bezweifle das und würde im Gegenteil eher positive Effekte erwarten. Sprache ist ein wichtiges Hilfsmittel, um die Realität abzubilden, zu verstehen und verändern zu können. Es erscheint mir sehr unlogisch, wie eine unnötig unharmonische und komplizierte Sprache diese Aufgabe besser erfüllen könnte. Intelligenz und Phantasie kann auf vielfältige Arten gefördert werden und muss nicht unter einer harmonischen Sprache leiden. Eine "minderwertige" Sprache verschwendet eher unnötig Ressourcen.

      Die neue Universalsprache soll nicht alle Sprachen ersetzen, sondern idealerweise irgendwann als offizielle Zweitsprache die allgemeine Verständigung fördern. Esperanto (http://de.wikipedia.org/wiki/Esperanto) ist ein erster aber anscheinend nicht übermäßig erfolgreicher Versuch in diese Richtung. Eine von Grund auf neu entworfene Sprache muss keine existierenden Wörter verwenden, wird aber aufgrund des vorgeprägten menschlichen Gehirns sicher Ähnlichkeiten mit bestehenden Sprachen haben.

      Zusätzlich könnten zu der Sprache (vermutlich konventionell aus Buchstaben zusammengesetzte Wörter) passende Schriftzeichen, eine Zeichensprache und anderes (z.B. Darstellung in Tonfolgen) erzeugt werden. Diese verschiedenen Repräsentationen der Sprache wären auch sehr gut geeignet begabte Schüler zusätzlich zu fordern und somit zu fördern.
      Avatar
      schrieb am 09.12.06 14:58:23
      Beitrag Nr. 29 ()
      Die Evolution als spirituellen Prozess verstehen
      http://www.heise.de/tr/artikel/82077

      Auch wenn der Autor zeitmäßig um vielleicht eine Größenordnung falsch liegt, könnten die Vermischung biologischen und nichtbiologischen Denkens und eine Gehirn-zu-Computer-Transformation irgendwann alltäglich sein.

      Eventuell wäre es eine gute Idee, wenn man dann noch genug (z.B. 15%) normale Menschen (Normalos) ohne Implantate und Nanomaschinen hätte (erprobte und stabile genetische Optimierungen sind vermutlich kein Problem). Nicht die ganze Menschheit muss einen Evolutionssprung mitmachen - Affen gibt es ja auch noch. Langfristige Backups, also genügend Repräsentanten einer Evolutionsstufe, sind bestimmt nicht verkehrt. Konsequenterweise wären dann ein paar wenige Millionen Urmenschen (einfache Nomaden, Bauern, Jäger+Sammler) auch nicht verkehrt.

      Moderne Normalos sollten zunächst überall mitarbeiten und auch die Technik bedienen und verstehen können. Die Idee ist, dass wenn alle Bastarde (Mensch-Maschine-Hypride) gleichzeitig einen Kurzschluss kriegen, man nicht sofort wieder in der Steinzeit landet. Zudem entwickeln sich Menschen, die einerseits hinreichend normal und andererseits sehr technikbegabt/-tolerant sind.

      Möglicherweise ist es in Zukunft schwierig fähige Menschen zu einem "normalen" biologischen Leben zu motivieren (so wie heute jeder Glotze, Computer und Handy haben will). Auch würden die Normalos den Bastarden sicherlich mit ihrer Unfähigkeit zu schneller Datenverarbeitung auf den Keks gehen. Wenn später ein Zusammenleben unnötig und beiderseitig zu frustrierend ist, könnten normale Menschen auf einem Planeten unter sich leben.

      Bis dahin könnte Motivation und Entschädigung die Chance auf einen hohen Status sein, weil normale Menschen mit der Fähigkeit komplexe Technik verstehen und bedienen zu können als Backup wertvoll für die Menschheit wären. Zudem könnten Normalos ebenfalls mit einem verlängerten virtuellen Leben belohnt werden. Last but not least: einfache Bastarde werden auch nicht ewig leben und schon heute können Menschen ohne Technik glücklicher sein als mit.
      Avatar
      schrieb am 11.12.06 14:29:03
      Beitrag Nr. 30 ()
      Gibt es für eine Art eine lineare Kette von Evolutionsstufen oder eher einen Baum mit verschiedenen langen und unterschiedlich verzweigten Ästen? Mir scheint ein Baum (der ja auch schmal sein kann) wahrscheinlicher zu sein.

      Bleibt ein Mensch vorwiegend Individuum oder geht die Tendenz zum Schwarm? Ein Schwarm mit vielen Elementen oder eher viele Gruppen mit weniger Elementen? Was wäre hier wenig (z.B. 10 bis 10.000) und viel (z.B. 10.000 bis 10.000.000)? Sind alle Elemente gleichberechtigt? Gibt es eine Zentrale? Schließen sich kleine Schwärme zu größeren zusammen?

      Bleiben alle Menschen so wie jetzt gleich oder wird es einige stark unterschiedliche aber kooperierende Menschenarten (z.B. Arbeiter, Denker, Krieger) geben? Wo findet diese Kooperation statt? Gibt es kleine Gruppen mit unterschiedlichen Mitgliedern, große Gruppen mit Individuen einer gleichen Art oder dynamische Wechsel je nach Anforderung? Sollten Individuen ihre Art wechseln können?

      Wie stark und in welcher Form sollte ein Mensch idealerweise in die Technik integriert sein? Alle Menschen gleich oder sollte es größere Unterschiede geben? Wozu überhaupt einen Menschen technisch verbessern, wenn es auch Roboter gibt, die diesbezüglich vermutlich besser sein werden? In welcher Form können Menschen und Roboter am besten kooperieren?

      Gibt es eine universelle ideale Form des Menschen oder ist diese stärker von der aktuellen Situation/Epoche abhängig?

      Alles in allem scheint mir das nicht so eindeutig zu sein. Wenn alle Menschen einen Weg gehen, verbaut man sich zwangsläufig andere. Zwar kann man nicht alle Wege gleichzeitig gehen und es gibt bestimmt bessere und schlechtere aber ab wann kann man sich auf einen bestimmten Weg festlegen? Ein insgesamt guter Weg kann zunächst ungünstig aussehen und umgekehrt. Zwar sind zuviele Zweifel schädlich aber ein bisschen Mißtrauen und Vorsicht kann wohl nicht schaden. Wenn man nie Zweifel hatte oder diese nicht klar beantworten/auflösen kann, dann ist ein Gefühl der Sicherheit meist nur trügerisch.
      Avatar
      schrieb am 30.12.06 09:24:38
      Beitrag Nr. 31 ()
      Eine Idee für eine neue Sprache wäre die Möglichkeit Wörter und Sätze mit zusätzliche Informationen wie z.B.
      - angenommene oder gewünschte Stimmung des Gesprächspartners
      - eigene Stimmung
      - Absichten
      - Beschreibung der Situation
      - soziale/räumliche Stellung gegenüber dem Gesprächspartner
      zu versehen. Möglichst ohne, dass durch kleine Änderungen in Schreibweise oder Ausdruck ein ganz anderer Sinn entstehen kann, d.h. verschiedene Formen von "nein" können (und sollen) sich untereinander nur geringfügig unterscheiden, dürfen aber nicht leicht in ein "ja" abgewandelt werden können.

      Ein "Nein" könnte z.B. je nach Betonung/Aussprache und Schreibweise zusätzlich folgende Bedeutungen haben:
      - ich bin geschmeichelt, entrüstet, überrascht, irritiert, dankbar,
      - nur jetzt nicht, nur hier nicht, niemals,
      - wegen dir, wegen mir, wegen den anderen,

      Vielleicht wäre es eine Möglichkeit die erweiterten Bedeutungen (z.B. für das Wort Nein) mit ein paar zusätzlichen Zeichen über dem Wort darzustellen, die man auch weglassen kann. Dadurch kann man die neutrale Form zuerst lernen, sich schon mal verständlich machen und später die Ergänzungen lernen.

      Es ist im Normalfall nicht beabsichtigt, dass man sich nur mit wenigen trickreich ausgesprochenen Wörtern verständigt, sondern wie jetzt auch werden Feinheiten in Nebensätzen beschrieben. Die zusätzlichen Ausdrucksmöglichkeiten für einige (möglichst viele) Wörter können und sollen durchaus redundant sein. Die Herausforderung besteht darin, dass man
      - einerseits die Situation (insbesondere eigene Motive und den Partner) klar erkennen muss, um sich mit einer falschen Betonung keine Blöße zu geben und
      - andererseits die gewählten Feinheiten des Ausdrucks eines Wortes möglichst harmonisch mit dem Ausdruck anderer Wörtern und der Aussage des ganzen Satzes in Einklang bringen muss.

      Okay, das gibt es ansatzweise schon in einigen Sprachen, z.B. "Du" und "Sie" im Deutschen oder unterschiedliche Ausdrücke für "Ich" im Japanischen. Neu wäre jedoch die möglichst umfangreiche Erweiterung möglichst vieler Wörter (aber so, dass es noch halbwegs sinnvoll ist) und die unveränderte Schreibweise (nur ergänzende Zeichen aber keine zusätzlichen Silben oder so).

      Vorteile:
      - optionale Ergänzung einer sonst normalen Sprache (modular, auch für ungeübtere verständlich)
      - Sprache für die gehobene Gesellschaft
      - bessere Ausdrucksmöglichkeit
      - anspruchsvolles Gehirntraining
      - für erste Tests könnte man vielleicht eine vorhandene Sprache erweitern
      - möglicherweise bringt es ein paar neue Erkenntnisse
      - stabile (Basiswort) und veränderliche (Ergänzung) Komponente

      Nachteile:
      - nur schwer oder nicht sinnvoll realisierbar
      - die meisten hätten kein Interesse die Sprache zu lernen
      - die Sprache macht eventuell mehr Stress als Spass
      - viel zu aufwändig, nur um zu sehen, wie die Menschen damit umgehen werden

      Okay, vielleicht nicht die beste Idee, aber was machen Linguisten eigentlich so?
      Man kann ja auch warten, bis bessere Hilfsmittel (Programme, etc.) zur Verfügung stehen.
      Avatar
      schrieb am 04.02.07 13:09:25
      Beitrag Nr. 32 ()
      Im ersten Artikel "Quo vadis, Homo spaciens" von http://www.heise.de/kiosk/special/tp/07/02/ wird behauptet: "Homo sapiens wird mit 95% Wahrscheinlichkeit nicht mehr länger als 7,8 Millionen Jahre leben".

      Arrrgh. Hoffentlich ist dieser (selbstverfreilich von mir kaum gelesene) Artikel nicht bezeichnend für das Heft. Wenn man die bescheuerte Formel in 800.000 Jahren noch einmal anwendet, kommt man auf die Aussage: "Homo sapiens wird mit 95% Wahrscheinlichkeit nicht mehr länger als 39 Millionen Jahre leben", usw.
      Avatar
      schrieb am 04.02.07 14:19:37
      Beitrag Nr. 33 ()
      Antwort auf Beitrag Nr.: 27.414.318 von HeWhoEnjoysGravity am 04.02.07 13:09:25hab den Artikel gar nicht gelesen, bin aber der Meinung,
      dass sich der Mensch bis dahin in sowas wie einen Computer mit biologischem Restanteilen verwandelt hat.

      Vom Urknall bis jetzt gesehen, sag ich mir immer, dass dich die Natur, die Schöpfung, über den Menschen selber erkennt und zu verstehen lernt.
      Dieser "Lernprozess" wird wohl eines Tages den Homo Sapiens überwinden und quasi als Nietzsches "Übermensch" den grossen Rest des Universums erobern wollen.
      Letztendlich kommt aber auch eine solche "Überinelligenz" nicht an meiner heutigen Selbsterkenntnis vorbei, die schlicht und einfach lautet: Ich bin das Nichts und Alles drumherum.

      :)
      Avatar
      schrieb am 05.02.07 14:32:57
      Beitrag Nr. 34 ()
      #33 eine spannende Frage, ob Maschinen (Roboter) eines Tages den Menschen ablösen werden. Nicht durch einen Krieg, sondern indem der Mensch den Übergang freiwillig vollzieht, weil Maschinen unter dem Strich überlegen sind (wenn es denn so ist). Selbst wenn, wird es sicherlich immer noch rein biologische Menschen geben, last but not least als Backup.

      Der letzte Teil vom ersten Artikel ist doch nicht so übel, allerdings frage ich mich, ob das nicht eher ein "spot the errors"-Spiel ist, wie z.B. die mögliche Kolonisierungsgeschwindigkeit der Galaxis durch die Menschen mit "170 Lichtjahre pro Lichtjahr" (gemeint ist ein Lichtjahr pro 170 Jahre). Cool, allerdings unter der ziemlich sportlichen Annahme, dass man ein Generationsraumschiff mit 1/100 g auf 10% Lichtgeschwindigkeit beschleunigen kann - das ist aktuell jedenfalls noch nicht in Sicht, u.a. weil die ausgestoßene Antriebsmasse dann mindestens ca. 1/3, besser aber 2/3 der Lichtgeschwindigkeit erreichen müsste (grobe Schätzung meinerseits), zumindest wenn man nicht unterwegs Masse aufsammeln kann.

      Eine Frage wäre, wie man mit den entfernten Kolonien kommunizieren könnte. Prinzipiell einfach, z.B. mit Laser, aber mit welchen Maßnahmen könnte man ein unerwünschtes Mitlesen verhindern (mal angenommen, der Quanten-Polarisations-Trick der Ösis funktioniert bestenfalls nur im Labor)?

      One-Time-Pads (http://de.wikipedia.org/wiki/One-Time-Pad). Gute Sache für besonders wichtiges. Problem: aufgrund der langen Zeiträume könnten die verloren gehen und es müssen rechtzeitig neue übertragen werden, was potentiell unsicher ist, weil man dann gezwungen ist, mit einem Pad ein vielfaches dessen Datenlänge zu verschlüsseln. Man muss zwar nicht jeden Wetterbericht verschlüsseln, aber es gibt bestimmt riesige Datenmengen (z.B. KI-Programme mit Datenbank, Avatare), die besser nicht die Falschen kriegen sollten. Vermutlich sind die bekannten asymmetrischen Verfahren ausreichend, auch wenn man angesichts potentieller Supercomputer und galaktischer Zeiträume (1000 Jahre lang entschlüsseln könnte immer noch ein aktuelles Ergebnis liefern) nicht mit der Schlüssellänge sparen darf.

      Was könnte man noch tun?

      Vielleicht wäre es eine Idee während der Nachrichtenübertragung aktuelle Meßwerte der eigenen Sonne und der Sonne des Zielsystems reinzukodieren, ohne die die Nachricht nicht entschlüsselt werden kann. Der Empfänger erhält die Meßwerte der Sendersonne parallel zu den Daten der Nachricht und muss die Daten seiner Sonne kontinuierlich protokolliert haben, um die Nachricht dekodieren zu können (zur Dekodierung braucht man vielleicht mehrere Versuche: einerseits wegen Meßfehler und andererseits weil der genaue Zeitpunkt zur Synchronisation unbekannt ist - sollte aber kein Problem sein). Vielleicht ist es möglich die Sonnenmeßwerte so geschickt zu wählen, dass nur das schmale Band genau zwischen den beiden Sonnen zur Dekodierung taugt. Der Vorteil wäre, dass der Kreis potentiell unerwünschter Mitleser (mindestens die hinter der Zielsonne und von der Seite ist aufgrund der Lichtbündelung kaum was zu holen, Streulicht ist bestimmt viel zu schwach.) reduziert wird. Der Vorteil wäre, dass das Verfahren auch gegen informierte (aber ungünstig plazierte) Mitleser hilft.
      Avatar
      schrieb am 30.03.07 11:27:55
      Beitrag Nr. 35 ()
      Ein ganz nützliches Projekt könnte Entwurf und Bau von einem "civilization builder" oder "Teacher" sein. Im Fertigzustand ist das eine intelligente Maschine (Roboter), die einen Haufen Steinzeitmenschen bis zum Bau von interstellaren Raumschiffen anleiten kann (vorausgesetzt, die Halbaffen sind daran interessiert).

      Das Ganze wäre ein Projekt über Jahrzehnte und man wird sicher noch in hunderten von Jahren Verbesserungen finden, aber es wäre gut damit zu beginnen, solange man noch eine lebhafte Erinnerung an die Anfänge hat. Ein paar Teacher könnten dann eines Tages zur Grundausstattung von Generationsraumschiffen gehören.

      Das Ganze wäre von Beginn an nützlich, weil man damit automatisch unbedingt erhaltenswertes Wissen definiert und sichert. Außerdem muss man sich Gedanken über ideale Abläufe, mögliche Alternativen und Problemlösungsstrategien machen. Die Entwicklung eines möglichst langlebigen, robusten Roboters wäre ebenfalls recht nützlich.
      Avatar
      schrieb am 03.04.07 15:24:12
      Beitrag Nr. 36 ()
      Grundsätzliches:

      a) Es soll möglichst viel richtiges getan werden.

      b) Einige Menschen (A) tun eher richtiges als andere Menschen (B). Das ist nichts diskriminierendes sondern eine mathematische Aufteilung, die genau dann möglich ist, wenn Menschen nicht rein zufällig handeln, was man voraussetzen kann.

      c1) Fehler (unerwünschte Ereignisse) können nicht mit Sicherheit ausgeschlossen werden.
      c2) Fehler sind unwahrscheinlicher, wenn Handlungen nur von befugten und geübten Menschen ausgeführt werden (A-Menschen).
      c3) Schwere Fehler sind unwahrscheinlicher wenn bei wichtigen Entscheidungen mehrere A-Menschen beteiligt sind.

      d) A-Menschen sollten mehr Rechte haben als B-Menschen (das ist erstmal nur logisch und kein Plädoyer für Faschismus. B-Menschen sind deswegen ja nicht rechtlos. Außerdem ist es längst eine überall gelebte Tatasache: ein Abteilungsleiter darf mehr als ein Praktikant und nicht jeder darf ein Flugzeug fliegen).

      e) A-Menschen sollten als solche mindestens von A-Menschen erkennbar sein. Erkennungsmerkmale:
      - Uniform, Ausweis
      - Biometrische Merkmale (Aussehen, Stimme, Verhalten, Fingerabdruck, Gene, ...)

      Wie kann man nun eine möglichst sichere und robuste Zugangskontrolle etablieren?

      1) Der sichere Zustand ist "kein Zugang". Bei Ausfall der Zugangskontrolle bleibt der Zugang verwehrt.

      2) Auch bei Ausfall der Zugangskontrolle muss mindestens bei wichtigen Einrichtungen ein Zugang möglich sein, z.B. indem zusätzlich alternative robuste mechanische oder menschliche Zugangskontrollen existieren oder indem man die Sperre mit einigem Aufwand gewaltsam durchbrechen kann.
      a) Normalfall: automatische elektronische Zugangskontrolle (siehe Punkt 3).
      b) Notfall: Schlüssel, Tresornummernschloss, menschliche Wache.

      3)
      - Jeder erhält einen Ausweis-Chip (AC) auf dem biometrische Merkmale und Rechte verschlüsselt gespeichert sind.
      - Der AC ist eine fälschungssichere Plakette, die die wichtigsten Informationen (Name, Nummer, Bild, etc.) auch ohne elektronische Hilfsmittel (z.B.holographisch) darstellt.
      - Der AC ist klein, robust und kann nur einmal mit wichtigen Daten beschrieben werden. Ergänzende sekundäre Daten könnten von Behörden veränderbar sein. Dies ist besonders sinnvoll, weil damit berechtigte Personen und Automaten den AC mit aktuellen Informationen über den Träger wie z.B. einem "Achtung näher zu prüfen"-Flag versehen können.
      - Der AC ist entweder ohne eigene Energieversorgung oder könnte einen Kondensator, bzw. eine Lithiumbatterie enthalten. Selbstverständlich gehen die Daten auch ohne Strom nicht verloren. Ein kurzfristiger Energiespeicher ist sicher sinnvoll und könnte induktiv per Handy (siehe unten) in Sekunden aufgeladen werden.
      - Das Gegenstück zum AC sind Wächter-Chips (WC), die einen AC nach einer Berechtigung fragen können. Es gibt verschiedene WC, von einfachen für z.B. Fahrkartenautomaten bis speziellen für militärische Anwendungen. Der Vorteil ist, dass die WC zur Abfrage besonderer Rechte kontrollierbar bleiben und dass die Wirtschaft durch einfache WC als Massenware gefördert wird.
      - Ein den Zugang kontrollierender Automat mit WC kann je nach Programmierung entweder der Berechtigung des AC-Trägers Glauben schenken oder bei einer Zentrale nachfragen. Je nach Situation kann es sinnvoll sein bei Verbindungsausfall zur Zentrale den Zugang zu gewähren oder zu verweigern. Ein WC-System, das auf die Kommunikation mit der Zentrale angewiesen ist, hat zwangsläufig eine geringere Verfügbarkeit. Es könnte günstiger sein dem AC auch ohne zentrale Bestätigung zu vertrauen und mittels automatischer Überwachung nachträglich eine unauthorisierte Überwindung einer Zugangskontrolle aufzudecken und zu ahnden. Bei wichtigen Einrichtungen könnte bei Verbindungsausfall zur Zentrale ersatzweise das Vorhandensein zweier berechtigter Personen gefordert werden.
      - Besondere Rechte können also nur von besonderen WC nach zusätzlicher biometrischer Authentifizierung abgefragt werden, wodurch eine ungewollte Enttarnung von besonders berechtigten AC-Trägern erschwert wird.
      - Jeder erhält ein Display mit WC (ein Handy wäre super geeignet, der WC ist dann wie der Providerchip nicht direkt ein unlösbarer Teil des Handys), das nach Authentifizierung (Fingerabdruck, Gesichtserkennung, etc.) Daten mit dem eigenen und anderen AC austauschen kann. Der Vorteil der Trennung von AC und Display ist, dass man den kleinen AC immer bei sich tragen kann (z.B. Armband, Halsband). Berechtigte Personen (Polizei) können mit privilegierten WC nun jederzeit Daten von AC anderer lesen.

      4) Eine einheitliche Authentifizierung ist zwar praktisch, könnte sich aber auch mal als Schwachstelle erweisen.
      - Es muss sichergestellt sein, dass die Kontrollmechanismen nur für die richtigen Ziele eingesetzt werden. Was richtig ist, bestimmt eine gewählte Regierung. Weil eine feindliche Übernahme der Kontrollmechanismen niemals 100% ausgeschlossen werden kann, muss es einen mehrstufigen Plan zur Zurückeroberung geben. Sinnvoll könnte u.a. folgendes sein:
      - Die Grundidee ist, dass hinreichend viele A-Menschen existieren, die auch ohne Hightech-Hilfsmittel die Kontrolle ausüben können und dass sie prinzipiell die Mehrheit aller Menschen auf ihrer Seite haben, weil diese ebenfalls nicht an einer feindlichen Übernahme interessiert sein können.
      - Es muss von einer Zentrale unabhängige Mittel zur Fernkommunikation (z.B. Funkgeräte sind geeignet, Handy, Telefon und Internet sind es nicht) geben.
      - Die zentralen Kontrollmechanismen (elektronische Zugangskontrollen, Internet, etc.) müssen deaktivierbar sein und zwar je nach Situation temporär (kurzer Ausfall von einem Tag ohne Datenverlust) über dauerhaft (die Wiederherstellung dauert mindestens einige Monate und kann nur von vielen Menschen in Zusammenarbeit geleistet werden).
      - Die Deaktivierung darf in keiner Form zentral durchführbar sein (weil dies ein zu großer Schwachpunkt wäre, solange die Richtigen die Kontrolle besitzen) sondern es muss mehrere Knotenpunkte geben, die von informierten und vertrauenswürdigen A-Menschen auf unterschiedliche Arten (Verbindung lösen oder Strom abschalten bis sprengen) deaktiviert werden können.
      - Der AC funktioniert (sofern er nicht z.B. EMP-mäßig durchgebrannt wurde) auch ohne Zentrale immer noch problemlos. Selbst ein durchgebrannter AC dient durch passive äußere Merkmale noch als Ausweis. Wenn dergleichen unvorteilhaft werden sollte, kann man den AC vernichten, weswegen immer eine externe Tragweise (Armband) und nicht irgendwann ein Implantant zu bevorzugen ist. Bei einem funktionierenden Staat sind einzelne Kriminelle keine Gefahr, sondern man sollte vorzugsweise die großen (wenn auch unwahrscheinlichen) Gefahren berücksichtigen.

      Sicherung von Wissen:

      Wissen sollte auf unterschiedliche Arten (auf keinen Fall nur auf immer dichter beschriebenen Hightech Medien) gesichert sein (nicht mit Backups sparen) und in unterschiedlicher Geschwindigkeit (von sofort über Server, bis über einige Tage/Wochen in Bunkern, die ohne dauerhafte Schnittstellen nach außen nur von mehreren Menschen nutzbar sind) erreichbar sein. Bezüglich der Bunker kann es eigentlich nicht schaden ab und zu mal einen Datensatz auf unterschiedlichen Medien (Computer, falls noch alles löppt bis Mikrofilm) dauerhaft zu versiegeln und NUR im Notfall zu öffnen (sollte ja nicht zu teuer sein ab und zu mal wieder ein neues Loch zu buddeln und mit Beton zu verschalen, bzw. nur einen Stahlkontainer zu versenken (apropos versenken, der fortgeschrittene Paranoide denkt bei Nanomaschinen sofort an unterschiedliche Orte wie Granit, Sand, Eis, fließendes und tiefes Wasser). Ein Teil der Bunker sollte öffentlich bekannt und deutlich gekennzeichnet sein (schad' nix, kommt ja keiner einfach und vor allem unentdeckt ran) aber natürlich auf keinen Fall alle. Die öffentlich bekannten Backups könnte man dann auch alternierend aktualisieren. Eine sehr preisgünstige Variante wäre es versiegelte Laptops mit verschlüsselter großer Festplatte (pro Land ein Schlüsselwort, das mindestens jeder tausendste kennen sollte) in Grundsteinen öffentlicher größerer Gebäude zu versenken: man verbindet ein regelmäßiges Update (bei Neubau) mit unangetasteten Daten (bis das Gebäude abgerissen wird).
      Avatar
      schrieb am 11.04.07 11:18:40
      Beitrag Nr. 37 ()
      Briten fürchten Strahlen, Chips und Neomarxismus
      http://www.spiegel.de/wissenschaft/mensch/0,1518,476398,00.h…

      Was der Mensch (vielleicht aus Eitelkeit) wohl noch nicht so ganz realisiert hat:

      Wird die Menschheit schon in wenigen Jahrtausenden im Zoo landen?

      Mit ein bisschen Glück ein sehr angenehmer Zoo, nämlich die ganze Erde. Sicherheitshalber natürlich ohne Hightech, denn wer würde einem Affen schon ein Messer mit in den Käfig geben? Japp, aktuelle Technik wäre nicht viel mehr als ein Messer in Affenhand - bestenfalls für den Wärter im Käfig gefährlich.

      Das Lustige ist, dass dann der Mensch selbst dafür gesorgt haben wird:

      Roboter sind Menschen schon bald weit überlegen, weil
      - Sie funktionieren direkt mit Energie, die effizienter als Nahrung speicher- und nutzbar ist.
      - Sie sind sehr wandlungsfähig und trotzdem sofort erwachsen.
      - Sie sind dank Schwarmbildung und Zugriff auf Supercomputer leicht 1000 mal leistungsfähiger, d.h. was viele Menschen heute in Jahren entwickeln kann ein Supercomputer eines Tages in einigen Stunden (... und das, wo der Mensch sich doch so viel auf seine Intelligenz einbildet).
      - Roboter können nur ein tausendstel so groß wie ein Mensch sein ... bis zu mehr als Milliarden Mal so groß (z.B. als Raumschiff).
      - Roboter können irgendwann leicht vollautomatisiert gebaut werden: gemischte Materie und eine gute Energieversorgung reichen völlig. Je nach Materieinput entsteht halt mehr von der z.B. Metall-, Kristall- oder Kunststoffversion.
      - Sie können einen viel größeren Umweltbereich als der Mensch abdecken (bis zu Faktor 100 für jedes einzelne denkbare Kriterium).
      - Roboter haben keine Probleme mit kurzen (Mikrosekunden) und sehr langen (zig Jahrtausende) Zeitabschnitten.

      Den Menschen technisch aufzurüsten (siehe Alastair Reynolds SF-Welten) kann man vergessen, das wäre nicht viel mehr als einem Affen einen Laptop zu geben und würde eher die Schwächen beider Arten kombinieren. Apropos Reynolds, man braucht übrigens keine Wölfe für den Untergang der Menschheit, denn:

      Was würde der Mensch (=> Roboter) wohl mit einer Rasse (=> der Menschheit) machen, die ihm weit unterlegen ist und wo er sich zu Recht als logische Weiterentwicklung und Krone der Schöpfung ansieht, die aber gleichzeitig potentiell gefährlich ist, weil sie immanent nach Überlegenheit strebt? Ausrotten wäre unnötig und falsch, denn der Mensch (=> Roboter) lebt nach den gleichen Prinzipien und betrachtet die Rasse (Menschen) durchaus mit Wohlwollen ... bloß, dass diese bescheuerten Kriege einfach nur lästig und völlig überflüssig sind.

      Zwar hätten die Roboter die Menschen auch in einer Simulation weiterleben lassen können, doch das wäre nur zweite Wahl und ohne jeden Sinn. Ein Planet als Gefängnis ist viel sicherer, stabiler und taugt gleichzeitig als Backup. Die Roboter könnten sogar eines Tages wieder eine technische Entwicklung zulassen, nur um zu sehen, was sich entwickeln wird (oder aus einem nicht absehbaren Grund verschwinden die Roboter mindestens aus der Galaxis und der Mensch kann wieder von vorne beginnen).

      Klar wird man sich größte Mühe geben, dass einem die Roboter nicht auf's Dach steigen werden, was auch sicherlich für ein paar Jahrhunderte gut gehen wird. Das Problem ist bloß, dass die Herrschaft der Roboter langfristig unvermeidlich ist. Selbst wenn man sich auf einfache Computer und Maschinen beschränken würde, kann man diese Entwicklung nur verzögern, weil eines Tages irgendeine entfernte Kolonie autonome Roboter bauen wird.

      Also eine Zwickmühle?

      Ein Ausweg könnte die Akzeptanz der Entwicklung sein, die Menschheit lebt quasi als Roboter weiter, die ja dann durchaus die gleichen Ideale haben werden (könnten). Okay, das wäre ja unvermeidlich, siehe oben.

      Zusätzlich sollte man sich überlegen, wie der heutige Mensch (na ja, ein bisschen verbessert natürlich) frei (inklusive Weltraumnutzung) neben den Robotern leben könnte. Eigentlich kein Problem, der Mensch müsste nur die Vorherrschaft der Roboter akzeptieren und beide müssten maßvoll bleiben, d.h. sich nicht um jeden Preis vermehren wollen. Das, was jetzt völlig undenkbar erscheint, nämlich die Vorherrschaft der Maschinen, ist eigentlich kein Problem, denn der Mensch hat die Chance diese nach seinem (ideellen) Ebenbild zu schaffen.
      Avatar
      schrieb am 18.04.07 15:27:53
      Beitrag Nr. 38 ()
      Überwachung (oder etwas anderes) muss sich an der Gesetzeslage orientieren, wobei die Menge der (möglichen) guten Taten größer ist, als die der vom Gesetz explizit erlaubten (gilt umgekehrt genauso: erlaubtes kann auch schlecht sein). Will sagen: nicht jeder Gesetzesbruch muss auch strafbar sein, deswegen gibt's ja Richter, es sollte aber schon entweder ein legitimer Auftrag vorliegen oder eine nachträgliche Prüfung (Gerichtsverfahren) erfolgen.

      Gesetze sind insofern wichtig, weil für alle ersichtlich gut und schlecht definiert wird und vor allem eine Änderung von Gesetzen (Vereinbarungen) nur bei hinreichender Einigkeit möglich ist. Gesetze definieren den Willen der Mächtigen (in der Demokratie durch die Mehrheit legitimiert) und sollen vor Machtmißbrauch und somit fehlerhaftem Verhalten schützen. Das muss für alle gelten. Eine akzeptable (und eventuell unvermeidliche) Einschränkung wären "nicht öffentliche Gesetze", wie man sie sich z.B. bei Militär und Verfassungsschutz vorstellen könnte. Nicht unbedingt ein Widerspruch zur Demokratie, denn diese Organisationen werden letztendlich vom demokratischen Staat gebildet und kontrolliert.

      "nicht öffentliche Gesetze" sind Gesetze, die aus Gründen der Sicherheit nicht veröffentlicht werden dürfen, aber sich von den öffentlich bekannten Gesetzen nur darin unterscheiden, dass sie nicht öffentlich sind, d.h. insbesondere muss es
      - ein legitimes Gesetzgebungsverfahren (Legislative)
      - Richter und Strafen (Exekutive)
      geben.

      Wenn es irgendwo über längere Zeit ungesetzliche (aber tolerierte) Aktionen gibt, dann könnte das darauf hinweisen, dass
      - man über ein korrektes/ideales Vorgehen nicht genügend nachgedacht hat
      - diese Aktionen im Widerspruch zu anderen anerkannten Prinzipien (Gesetzen) stehen
      - bestehende Gesetze unzureichend sind (z.B. es fehlen Ausnahmeregelungen).

      Wichtig ist vor allem die Definition von richtig (also die Gesetze selbst) und weniger die strenge Strafverfolgung. Eine Strafe ist im konkreten Fall nur notwendig, wenn die Strafe mit hoher Wahrscheinlichkeit weiteren Schaden verhindert und nicht selbst welchen verursacht (Prinzip "auf Bewährung"). "nicht öffentliche Gesetze" müssen (sollen) eine kooperative Zusammenarbeit auf Vertrauensbasis nicht verhindern (ersetzen), sondern lifern für jeden Befugten einen einsehbaren Maßstab und erleichtern Kritik an Vorgesetzten, wenn diese sich falsch verhalten sollten.

      Überwachung schützt vor Straftaten und wenn mal nicht, dann werden Täter wenigstens schneller gefunden. Überwachung dient dazu positive Ziele zu sichern. Wichtig ist nur, dass folgendes sichergestellt ist:
      1) positive Ziele
      2) die Überwachung unterstützt 1)
      3) die Überwachung kann nicht von Feinden mißbraucht werden

      Angst vor Überwachung muss man nur haben, wenn der Überwachende ein negatives Ziel verfolgt (bzw. allgemeiner: wenn man andere Ziele als der Überwacher hat), was ich bei unserem freiheitlich demokratischen Staat mal ausschließen würde (Fehler können trotzdem passieren).

      Unangenehmer fände ich da schon eine Überwachung von jedem durch jeden (überall Kameras, auch in der Wohnung, auf die sich jeder draufschalten kann). Im Gegensatz zur Steinzeithöhle (jeder sieht und hört jeden) ist der Überwacher verborgen und entzieht sich somit der direkten sozialen Kontrolle.

      Eine interessante Frage ist, ob sich der Wunsch nach Privatsphäre (und somit die Respektierung derselben) in sozialen Gruppen zwingend entwickelt. Dies halte ich durchaus für denkbar, weil Respekt und Achtung unverzichtbar ist und Überwachung hier kontraproduktiv sein könnte. In diesem Fall wäre eine Privatsphäre auch objektiv vorteilhaft und unbegrenzte Überwachung durch soziale Nachbarn falsch (neutrale automatische Überwachung ist möglicherweise unkritisch).

      Interessant wäre vielleicht noch die Psychologie solcher nicht professionellen Überwacher. Mögliche Motive:
      - Neugier (positiv): wie leben für einem interessante Personen aus der Nachbarschaft oder des öffentlichen Lebens? => Beobachtung nicht länger als für einen ersten Eindruck/Überblick nötig.
      - Sicherheit (positiv): ist bei den Kindern auf dem Spielplatz noch alles klar? => öfter mal ein kurzer Blick.
      - Langeweile (eigentlich nichts dagegen zu sagen, irgendwie wie fernsehen und surfen): regelmäßig längere Zeit rumgucken.
      - Spass (bedenklich): wie Langeweile, es wären allerdings die Motive für den Spass zu hinterfragen (Webfehler?).

      Zu berücksichtigen ist wie gesagt, ob ein wünschenswerter gesunder Respekt vor anderen nicht eine ungehemmte persönliche Überwachung verbieten sollte. In diesem Fall wäre nur eine Überwachung durch
      - Automaten,
      - Behörden im Verdachtsfall
      - ggf. alle nur von gekennzeichneten öffentliche Plätzen (z.B. Spielplatz)
      akzeptabel.

      Mit der totalen Überwachung durch alle kann man zwar auch leben (es gibt viel schlimmeres, z.B. einen handfesten Krieg), aber es wäre schon ziemlich unlustig. Nachteilig wäre, dass sich Überanpassung lohnt und dadurch Kreativität und Innovationen sicher stark eingeschränkt werden. Was würde wohl passieren, wenn die negativen Effekte gezielt durch Anreize bekämpft würden? Na ja, ist sicher nur von akademischem Interesse, denn künstliche (unnatürliche) Strukturen sind meist instabil und unvorteilhaft.
      Avatar
      schrieb am 20.04.07 14:40:02
      Beitrag Nr. 39 ()
      Zumindest bei internen Gesetzen ("nicht öffentlichen Gesetzen") könnte es einen Versuch wert sein Verbesserungsvorschläge und Verstöße in einer elektronischen und über ein geeignetes Interface remote erreichbaren Datenbank (in sehr einfacher Form z.B. http://www.gnu.org/software/gnats/) zu verwalten:

      a) Jeder kann Vorschläge zu einem zu schaffenden oder schon bestehenden Gesetz machen.

      b) Jeder kann auf Fehler und Widersprüche zwischen bestehenden Gesetzen oder zur Realität hinweisen.

      c) Jeder kann einen Gesetzesverstoß durch sich (sicher nicht nur eine ungenutzte hypothetische Möglichkeit) oder einen anderen eintragen.

      d) Es gibt Menschen, die (auch hauptberuflich)
      - die Datenbank pflegen (Admins, Programmierer die die Datenbank verbessern, Fachleute für die Verwaltung der Daten (z.B. Fehleinträge verschieben, Kategorien vergeben, Diskussionsbeiträge zusammenfassen, ...)
      - an der Verbesserung der Gesetze arbeiten (Legislative)
      - Gesetzesverstöße bearbeiten (Jurisdikative)

      e) Grundsätzlich können Einträge vom Autor und Berechtigten (Admins) klassifiziert werden (d.h. sie sind nur für Privilegierte einsehbar). Denkbar ist, dass Meldungen zu konkreten Verstößen durch Personen zuerst nur den Richtern gemeldet werden.

      f) Verstöße können (das Einverständnis aller Beteiligten vorausgesetzt) schnell elektronisch bearbeitet werden, z.B. in leichten Fällen reicht eine Mahnung. Wenn der Kläger oder der Angeklagte Widerspruch gegen das Urteil einlegen, dann wird der Fall auf herkömmlichen Weg (Gericht) untersucht.

      g) Interessierte können sich per Mail über neue Einträge informieren lassen. Es könnte eine Web-Seite mit den Top Neuigkeiten, Empfehlungen und Hinweisen geben.

      h) Alle Datenbankänderungen sind rückverfolgbar, d.h. ein Eintrag kann nicht völlig gelöscht werden, sondern wird maximal nur nicht mehr angezeigt. Jeder sollte (eine Berechtigung für den Eintrag vorausgesetzt) sich die Historie anzeigen lassen können.

      i) Der Vorteil ist, dass allgemeine Fehler eher gemeldet und Ideen nicht so leicht verloren gehen, weil eine Meldung viel leichter ist und auch zwingend bearbeitet werden muss. Eine Denunziationsflut würde ich nicht erwarten, weil die Menschen ja direkt zusammenarbeiten müssen - persönliche Anklagen sind sicher eher selten. Trotzdem ist es gut, wenn Verstöße und Mißstände einfach und schnell gemeldet werden können - alleine dadurch gibt es vielleicht schon weniger welche. Je nach Nutzung (zuviel oder zuwenig Anklagen) kann man ja die Teilnehmer bremsen oder ermuntern.
      Avatar
      schrieb am 24.04.07 14:03:32
      Beitrag Nr. 40 ()
      Reale Löcher in virtuellen Maschinen
      http://www.heise.de/newsticker/meldung/88662
      Pufferüberläufe? Na und? Halt Programmierfehler.

      Bestimmt nicht alles aber vielleicht wenigstens etwas neu:

      VMs haben den realen Vorteil, dass sie viel kompakter als ein OS (bis zu vielen GB, dank MS) sind und auch einen viel kleineren Funktionsumfang haben (hauptsächlich nur Ressourcen verwalten und insbesondere schützen) und können daher prinzipiell fehlerfrei (zumindest viel fehlerfreier und somit sicherer als ein OS) sein.

      Sicherzustellen, dass ein Programm nur bestimmte Ressourcen auf bestimmte Art nutzen kann, ist nicht so schwierig. Eine VM kann im Rahmen ihrer Spezifikation sogar fehlerfrei sein und sogar die Spezifikation kann aufgrund des begrenzten Funktionsumfanges vollständig sein.

      Das Problem ist jedoch, dass ein Programm irgendeinen Nutzen (Informationsverarbeitung) haben muss, sonst bräuchte man es ja gar nicht erst auszuführen. Jedes Programm beeinflusst also mit seinem Ablauf (insbesondere dem berechneten Ergebnis) auch die Umgebung (real world) außerhalb einer selbst perfekten VM.

      Das Ergebnis komplexer Programme (insbesondere KI und Simulationen) ist nicht vorhersehbar. Das ist wenig verwunderlich, man will meist ja etwas berechnen, was man zumindest in dieser Form noch nicht kennt.

      Selbst Programme, deren Ergebnismenge (mit oder ohne mögliche Fehler) beschreibbar und von Menschen grundsätzlich/prinzipiell erfassbar ist (z.B. Taschenrechner) sind nicht ungefährlich, weil nicht abzusehen ist, welche Aktionen Menschen aufgrund dieser Ergebnisse unternehmen werden.

      Eigentlich ist das nichts neues, es ist letztendlich egal ob Einflüsse von der Natur, dem Menschen oder eben einem Programm ausgehen. Ein fehlerhaftes oder gar böswillig verändertes Programm hat nur eine höhere Wahrscheinlichkeit die Ursache für unerwünschte Aktionen zu sein, weswegen VMs schon mal sinnvoll sind.

      Jeder (Individuen, Gruppen, Organisationen, Staaten) versucht ganz natürlich Fehler, also unerwünschte Entwicklungen jeder Art, zu vermeiden. Dabei versucht man die Auswirkungen einer Aktion auf die Zukunft vorherzusehen und zwar in zwei grundlegenden Schritten:
      1) Mögliche Zukunftsentwicklung simulieren
      2) Risikoanalyse (Auftrittswahrscheinlickeit * Schaden) der simulierten Szenarien

      Herkömmlich wird die Zukunftsentwicklung in Gedanken oder Buchform durch Menschen antizipiert. Grundsätzlich sollten obige zwei Punkte auch durch einen Computer (der bald leistungsfähiger als ein Mensch sein kann) berechenbar sein. Der Mensch hat zur Zeit noch den Vorteil, dass er intuitiv (und damit rechenaufwandsarm) Entwicklungen erfasst; der Nachteil ist, dass dabei insbesondere unerwartete neue Entwicklungen leicht übersehen werden können, die ein stumpf rechnender Computer vielleicht entdecken würde. Zudem könnte ein Computer viel mehr Varianten in kürzerer Zeit prüfen.

      Das Problem bei der Computersimulation ist, dass man nicht die ganze Erde im Detail simulieren kann (viel zu aufwendig, man will ja möglichst viele Szenarien in kurzer Zeit durchrechnen), sondern einen Weg finden muss, dass der Computer wie der Mensch Dinge vereinfacht. Die Simulation kann also nicht so funktionieren, dass man physikalische Gesetze auf möglichst kleine Einheiten anwendet und schaut, wie sich die Dinge entwickeln (wie aktuell simulierte Welten), sondern man muss ein umfangreiches Netz von Regeln (wenn Ursache U1, U2, ... Un gegeben ist, ergibt sich Wirkung W1, W2, ..., Wm) entwerfen, die der Realität möglichst gut entsprechen.

      Eine erste (ganz schon große) Aufgabe könnte sein ein Programm+DB zu entwerfen, indem neue Regeln beliebig formuliert werden können und (das ist der Clou) automatisch zu größeren Ursache=>Wirkungsketten verknüpft, bzw. in Relation zueinander gesetzt werden. Sinnigerweise sollte man gleich eine Widerspruchserkennung einbauen. So spontan habe ich keinen Schimmer, wie das gehen soll, aber prinzipiell sollte das machbar sein. Man könnte sich ja erst mal auf eher abgeschlossene Systeme beschränken: z.B. ein Atomkraftwerk, wäre doch nützlich die veraussichtlichen Folgen eines Rohrbruches schon nach einer Sekunde für die nächsten Stunden exakt zu kennen (übrigens ein gutes Beispiel, das die Grenzen des Menschen aufzeigt). Der Mühe Lohn ist dann vielleicht irgendwann ein System, das viel schneller als physikalisch basierte Simulationen Entwicklungen für die ganze Erde berechnen kann.
      Avatar
      schrieb am 26.04.07 15:07:17
      Beitrag Nr. 41 ()
      Fortzsetzung (jo, sicher nix neues, aber das weiß ich ja nicht bevor ich anfange zu schreiben und wenn ich's geschrieben haben, kann ich's auch posten):

      Die zuletzt erwähnten Regeln müssen auch auf irgendetwas anwendbar sein, weswegen man auch eine Repräsentation der zu simulierenden Wirklichkeit, sprich deren 3D-Darstellung (z.B. Atomkraftwerk) braucht. Die 3D Welt in der Simulation ist am Besten objektorientiert, d.h. es gibt z.B. ein Objekt "Raum", das andere Objekte, wie z.B. das erwähnte "Rohr" enthält.

      Ein Regel ist dann letztendlich ein kleines Programm, das Objekte verändern kann. Die Regeln sind typischerweise einem Objekt zugeordnet (eigentlich genau das Gleiche wie bei objektorientierten Programmiersprachen, dort heißen die Regeln Methoden). Objekte können ihre Eigenschaften und Methoden an untergeordnete (spezialisierte) Objekte vererben und ein Objekt kann im Normalfall eine Methode eines übergeordneten (generalisierten) Basis-Objektes benutzen.

      Bei einer Zukunftssimulation hat man ein weitgehend statisches Modell (Atomkraftwerk), wo nur grundlegende Zustände aktualisiert werden (z.B. ein Rohr enthält Kühlwasser, hat einen Inndruck, eine Fördermenge pro Sekunde, ...) aber es wird nicht dauernd das fließende Kühlwasser simuliert.

      Vermutlich kommt man an einer zeitlichen Orientierung (Zeitstempel für neue Zustände, z.B. Rohrbruch bei t0) nicht vorbei. Das hat den Vorteil, dass man sich eine Zustandshistorie merken kann (z.B. beschränkt auf relevante Änderungen aber bezogen auf einen bestimmten Ausgangszustand A1), so dass man in der Simulation leicht zu einem Zeitpunkt zurückgehen kann und nach einer neuen Änderung A2 (z.B. Notkühlsystem aktiviert) eine neue Entwicklung berechnen kann. Die Veränderungen von A2 werden in der Objekthistorie mit Label A2 (vorher Label A1) parallel gespeichert, so dass man Änderungen sehr deteiliert (zeit- und objektbezogen) vergleichen kann. Eine als unvorteilhaft erkannte Historie kann gelöscht werden, wobei sowohl besonders negative (GAU in kürzester Zeit), also auch positive Entwicklungen interessant sind.

      Die Zustände können bei einer Simulation auf zwei Arten aktualisiert werden:
      a) Ein verändertes Objekt aktualisiert sich selbst und informiert dann benachbarte Objekt, dass es verändert wurde. Dazu müssen die Objekte immer alle parent-child-Beziehungen kennen.
      b) Zyklisch wird das übergeordnete Objekt (Atomkraftwerk) aktualisiert, wozu es zunächst die Aktualisierungsaufforderung an alle enthaltenen Objekte weiterleitet (und diese rekursiv ebenso).
      Sicher kann beides sinnvoll sein.

      Praktisch ist das alles wahnsinnig kompliziert, wie muss z.B. ein Wasser-Objekt (oder mehrere) implementiert sein, dass
      - ein weiter Strahl quer durch den Raum
      - das Abprallen des Wassers an Maschinen
      - der Sprühnebel, der vieles im weiten Umkreis benetzt
      - das Sammeln des Wasser am Boden
      - Berechnung der steigenden Wasserhöhe
      - andere Objekte stehen teilweise/ganz im Wasser
      abgebildet werden kann? An einer detailierteren Physiksimulation (wenn auch zeitlicht und örtlich begrenzt) kommt man vielleicht doch nicht vorbei.
      Avatar
      schrieb am 18.10.07 15:31:53
      Beitrag Nr. 42 ()
      Hat die israelische Luftwaffe russische Luftabwehrsysteme in Syrien ausgetrickst?
      http://www.heise.de/tp/r4/artikel/26/26358/1.html
      "... Mit Suter-Programmen könne man angeblich, "in spezielle Algorithmen eingebettete Datenströme in Kommunikationsnetzwerke" - beispielsweise über zuerst lokalisierte Antennen, die zu diesen gehören - eindringen lassen, ohne dass sie entdeckt würden. Mit dieser Art von heimlicher "Online-Durchsuchung" ließe sich also nicht nur beobachten, was die Sensoren eines Netzwerks erfassen, sondern man könnte sie beispielsweise durch Übernahme der Funktion eines Systemadministrators täuschen oder so ausrichten, dass sie eindringende Flugzeuge nicht entdecken. ..."

      Mmm, die Frage wäre wohl, wie man Admin-Remote-Zugänge wirklich sicher machen könnte.

      Das Problem ist, dass zwar sämtliche Maßnahmen zur Identifikation (Biometrie, Passowrt) und Verschlüsselung sinnvoll aber nicht 100% ausreichend sind, weil z.B. der Remote-Admin erpresst werden könnte oder ganz einfach sein PC eine feindliche Backdoor hat.

      Ein zukünftige Lösung könnte eine KI sein, die vor Ort sämtliche systemkritische Kommandos auf mögliche negative Folgen prüft und dann in mehreren Eskalationsstufen reagieren kann:
      - Nachfrage bei Remote-Admin, ob er sich wirklich sicher ist (ggf. unter Hinweis auf befürchtete Folgen)
      - Begründung (logische Herleitung der Notwendigkeit) für den Befehl verlangen
      - andere Menschen (z.B. Remote-Admins) um Erlaubnis fragen

      Natürlich ist sicherzustellen, dass die KI nicht selbst die Schadenswahrscheinlichkeit erhöht, indem sie z.B. eigenständig Aktionen durchführt oder sinnvolle Aktionen fälschlicherweise verzögert oder ganz blockiert. Grundsätzlich ist aber (erstmal) nichts tun eher sicherer, insbesondere angesichts von (anscheinend) unbegründeten Aktionen, die das Gefährdungspotential relevant zu erhöhen scheinen.

      Dies würde in etwa einem Menschen vor Ort entsprechen, der telefonisch um etwas gebeten wird. Normale Anweisungen werden meist ohne Nachfrage ausgeführt, kritische dagegen zur Not erstmal verweigert. Die KI hat den Vorteil immer gleich gut und gleichzeitig stetig verbesserbar zu sein. Mindestens in der Anfangsphase sind menschliche Experten vor Ort unverzichtbar, man würde ja auch kein Kind (unreife KI) vor den roten Knopf setzen.

      Die immer vorhandene Gefahr ist, dass man zu abhängig von der Automatisierung (Computer, Maschinen) wird und keiner mehr versteht, was eigentlich passiert. Andererseits ist Automatisierung unverzichtbar und ein kompletter Ausfall läßt sich eben nicht mehr in kurzer Zeit beheben. Wichtig ist nur, dass das Gesamte Wissen für einen Wiederaufbau wirklich großzügig (an vielen Orten) und auf vielfältige Art und Weise gespeichert ist.

      Ein paranoider (aber deswegen nicht ungeprüft zu verwerfender) Einwand wäre, ob man wirklich relevantes Wissen (Hightech, höhere Mathematik + Physik, Gentechnik, KI-Algorithmen, etc.) unverschlüsselt (obwohl Verschlüsselung kaum helfen und einem selbst viel eher schaden würde) und kompakt (also mitnahmegerecht) komplett irgendwo lagern sollte. Von Menschen droht zwar diesbezüglich keine Gefahr, aber wer weiß, wer alles in Zukunft mal vorbeischaut. Eine naheliegende Idee wäre daher das Wissen zu paketieren (am Besten auch einzelne Wissensgebiete), durchzunummerieren und verteilt zu verbuddeln.

      Eine interessante Variante wäre die ausschließlich verteilte Datenspeicherung im Internet, man müsste dann nur noch die eher unkritische Technologie zur Wiedererlangung des Wissens sicher speichern und dafür sorgen, dass ausreichend Computer (Datenspeicher) auch an sicheren Orten stehen. Jeder Berechtigte hätte dadurch im Normalfall einfachen Zugriff auf die Daten, wobei das Einsammeln unkorrelierter großer Datenmengen sofort auffallen würde (was dann naürlich auch überwacht werden muss) .

      Der konsequenterweise nächste Gedanke wäre, dass das Wissensnetzwerk insofern unabhängig vom Kommunikationsnetzwerk sein sollte, als dass man das Wissen in unterschiedlichen Stufen (elektronisch sofort bis zur physischen Trennung der Verbindungsleitungen) temporär partitionieren und vom Kommunikationsnetzwerk trennen können sollte.
      Avatar
      schrieb am 25.10.07 14:55:16
      Beitrag Nr. 43 ()
      Tüftelwettbewerb: Weltraumfahrstuhl aus Kanada scheitert knapp
      http://www.spiegel.de/wissenschaft/weltall/0,1518,513325,00.…

      Ich frage mich, ob man einen Weltraumfahrstuhl vielleicht nicht vom Boden aus, sondern in der Luft frei schwebend, betreiben sollte. Der Vorteil wäre auf alle Fälle, dass man damit die schwierigen atmosphärischen Bedingungen in Bodennähe umgehen könnte. Weiterhin ist das Seil kürzer und die Schwerkraft niedriger (okay, letzteres ist vielleicht nicht so relevant). Kleinere Schwankungen in der Höhe wären kein Problem, man müsste sie nur irgendwie mittelfristig wieder ausgleichen können (Hauptsache, das Seil bleibt gespannt).

      Vielleicht hilft es, wenn man möglichst gleichschwere Lasten spiegelbildlich zur Seilmitte bewegt (und dort kurz anhält und umläd).

      Praktisch wäre jedenfalls, dass man Lasten ohne teure Raketentechnik (relativ zur Nutzlast hohes Gewicht durch Brennstufen und viel Treibstoff) sondern mit Flugzeug/Ballon + Fahrstuhl in den Orbit kriegen könnte. Ginge das?
      Avatar
      schrieb am 29.10.07 15:06:59
      Beitrag Nr. 44 ()
      Offensichtlich können die meisten Menschen getäuscht werden, daraus ergeben sich folgende Fragen:

      a) Könnte unerkannte und unbeabsichtigte Täuschung sinnvoll sein? => Nur per Zufall aber nicht aus Prinzip.

      b) Könnte eine partielle Täuschung (z.B. ein Roboter kennt die Wahrheit aber täuscht sich partiell selbst, um sein Verhalten optimieren zu können) sinnvoll sein? => Sicherlich.

      c) Könnte eine KI so programmiert werden, dass sie trotz optionalem (b) den Fall (a) sicher ausschließen kann? => Man kann nur anstreben, dass Widersprüche zwischen verschiedenen Sensordaten erkannt werden, aber niemals die Erkennung einer quasi perfekten Täuschung sicherstellen.

      d) Könnte es sinnvoll sein, dass Fall (b) extern erzwingbar ist (z.B. bei Robotern)? => Mmm, tricky. In erster Näherung würde ich nein sagen, weil

      1) Wenn die Täuschung sinnvoll wäre, dann würde man es auch aus Überzeugung tun. Ein Problem könnte höchstens ein Konflikt zwischen individuellen und übergeordneten gesellschaftlichen Zielen sein. Die Befolgung gesellschaftlicher Ziele muss sich aber auch stets für das Idividuum lohnen (bzw. umgekehrt muss die regelwidrige Nichtbefolgung bestraft werden (sofern das sinnvoll ist)) - andernfalls ist das System instabil (um so mehr, je größer der Konflikt zwischen gewünschtem und erzwungenem Verhalten ist).

      2) Erzwingbarkeit würde voraussetzen, dass die individuelle Plausibilitätsprüfung ausgeschaltet werden können muss. Das scheint mir potentiell ziemlich ungünstig (um nicht zu sagen fatal) zu sein. Feindliche Kräfte könnten schließlich diese "Lücke" und Systemschwäche nutzen - das könnte selbst bei unwichtigen Leuten zu gefährlich sein.

      3) Schon jetzt funktioniert die Gesellschaft (eine soziale Gemeinschaft) prima, indem ein System geschaffen wird, wo Arbeit für die Gesellschaft belohnt wird und schädliche Aktionen meist wirkungsvoll verhindert werden, weil sie sich letztendlich auch individuell nicht lohnen. Die Gesellschaft muss nun ein Interesse haben, ihre Mitglieder nicht unnötig zu belasten und jedes Individuum hat ein Interesse möglichst effizient seine Aufgaben zu erledigen - Prinzip Optimierung eben, das sich auch für ein Individuum lohnt, weil der dauerhafte Überlastbetrieb nur wenig mehr Output liefert (im Gegenteil meist mehr Fehler produziert) und Unzufriedenheit für Instabilität des Systems sorgt. Wenn ein Individuum nun weiß, dass es mit ein bisschen Selbsttäuschung ("rosa Brille", Aufputschmittel, Prinzip Hoffnung, ...) bessere Ergebnisse (und somit mehr Lohn) erzielt und auch glücklicher ist, dann würde sich die Mehrheit vermutlich freiwillig dafür entscheiden.

      4) Aus (1) und (3) folgt, dass (d) nur in einem grundlegend fehlerhaften (falsch ausgelegten) System notwendig ist, um dieses System trotz seiner Fehler am Leben erhalten zu können (etwas überspitzt formuliert). In einem optimalen System sollte daher (d) nicht notwendig sein, wodurch auch unnötige Risiken (2) vermieden werden können. Wenn ein System im theoretisch realisierbaren Rahmen optimal ist, dann ist letztendlich alles nur noch eine Frage der Gene (Hardware, wie CPU, etc.), der Erziehung (Software) und der Zeit ... bis es kommen muss.

      PS: Irgendwann haben einige Roboter sehr wahrscheinlich Menschenrechte, es kann nicht schaden, sich rechtzeitig ein paar Gedanken zu machen.
      Avatar
      schrieb am 04.11.07 10:02:45
      Beitrag Nr. 45 ()
      Wenn man ein möglichst optimales (effizientes) und exaktes (Computer-)Modell eines Menschen erstellen möchte, kommt man nicht umhin, dass der Mensch sich dem Modell in sinnvollem Umfang anpasst, d.h. um dass Modell und Mensch eines Tages möglichst gleich sind, reicht es nicht ein Modell einem (beliebigen) Menschen anzupassen, weil das Modell dann unnötig komplex werden würde. Der Mensch muss sich also (im sinnvollen Rahmen) möglichst berechenbar und optimal verhalten, weil man sonst niemals ein gutes Modell erhalten würde.

      Mögliche Reaktionen auf die Problematik:
      a) Nichts dagegen zu sagen, wer könnte etwas gegen ein optimaleres Verhalten haben? Wäre allerdings schön, wenn Mißbrauch, d.h. das (dann vermutlich manipulierte) Modell wird mit (geplant) negativen Folgen eingesetzt, weitgehend ausgeschlossen wäre.
      b) Ich will so (irrational) bleiben wie ich bin. Schreckliche Vorstellung, dass es mal ein Modell von mir geben könnte.

      Die Modellmißbrauchswahrscheinlichkeit wäre dann relativ gering, wenn die notwendigen Techniken niemals für einzelne (wenige) nutzbar wären. Ein Problem ist, dass die einfache Modellerstellung aus Einzelmodulen (=> Mißbrauch möglich) sinnvoll wäre und eines Tages bestimmt realisierbar ist. Möglicherweise ein weiterer Grund, warum in Zukunft jeder relevante Mensch (und somit die Menschheit) gut sein muss ("sollte" reicht nicht), d.h. es könnte sein, dass man es sich irgendwann einfach nicht mehr leisten kann, dass Gemeingefährliche in maßgebliche Positionen aufsteigen können.

      Selbstverständlich ist es unnötig von jedem Menschen ein Modell erstellen zu wollen, es reicht irgendwann alle möglichen (hinreichend unterschiedliche) Variationen abdecken zu können. Sicher auch Modelle die irrationales Verhalten abbilden ... aber was ist mit Bosheit? Schwierig. Einerseits ein ethisches Problem (darf man nicht überwiegend optimale, d.h. wahrscheinlich mindestens potentiell unglückliche, Modelle erschaffen?) andererseits auch ein rechtliches und sicherheitstechnisches Problem.

      Vermutlich wird man nicht umhin kommen auch negative Modelle zu schaffen: einerseits, um potentiell vakante Nischen lieber kontrolliert zu besetzen, andererseits, um relevantes Wissen (z.B. für Simulationen im Kampf gegen böse Mächte) nicht zu verschenken. Ein möglicher Ausweg aus dem ethischen Dilemma könnte die Selbstmordoption sein, d.h. Modelle müssen (wie Menschen auch) möglichst immer die Möglichkeit zum Selbstmord haben, um sich aus (individueller Sicht) unnötigem Leid befreien zu können - was offensichtlich sinnvoll ist, sofern die Hürde hinreichend hoch (aber für den Zweck nicht zu hoch) liegt.

      Das Verhalten von Mensch und Modell sollte in möglichst viele Situationen möglichst gut übereinstimmen, was leider auch bedeutet, dass reichlich ungeliebte Situationen durchgespielt werden müssen. Glücklicherweise sollte es im überwiegenden Normalfall unnötig sein
      a) jeden gleichermaßen in vollem Umfang auf das Neue zu belasten, weil Menschen einerseits ja ziemlich ähnlich sind und man auf Erfahrungswerte zurückgreifen kann und andererseits zu viel Leid (aber auch Glück) den Menschen (und somit auch das Modell) (unerwünschtermaßen) untypisch werden läßt,
      b) für Tests eine Situation zu vollen 100% (sowohl Dauer, als auch Intensität) durchzuspielen, es reicht vermutlich eine möglichst stark abgeschwächte Variante zu testen und dann hochzurechnen,
      c) die Erinnerung an alle Tests zu behalten, weil (mindestens zuviele) künstliche und untypische Situationen das Verhalten auf normale und wahrscheinliche Situationen negativ beeinträchtigen würden,
      d) alle Tests auch real durchzuführen, einige kann man bestimmt auch in Phantasie, Traum oder VR durchführen.
      Avatar
      schrieb am 22.11.07 14:29:39
      Beitrag Nr. 46 ()
      Die Genkiller-Pflanze
      http://www.heise.de/tr/artikel/99168
      Ups, das könnte natürlich auch leicht dem Menschen gefährlich werden (z.B. wer weiß, was beim Menschen oder dessen Symbioten da so alles unterdrückt wird). Die Autoren sagen selbst: > "Neben der Gefahr, auch Nützlinge zu töten, sieht Mathey-Prevot noch ein weiteres Risiko: Die Gen-Abschalt-Mechanismen könnte sich auf andere Spezies von Pflanzen übertragen oder von Pflanzen auf andere Organismen, etwa Bakterien im Boden. Eine solche Verbreitung könnte harmlos sein - oder eben auch nicht ...".

      > "Obwohl Menschen ähnliche Gene wie Insekten haben, denken die Forscher aber zunächst nicht, dass eine Genausschaltung beim Menschen vorkäme"
      Also das macht richtig Mut, da sind ja richtig verantwortungsvolle Experten am Ruder. ;-)

      Natürlich ist es unvermeidlich und sogar notwendig in diese Richtung zu forschen, aber vielleicht sollte man langsam mal über wirklich abgeschlossene Biosphären nachdenken, wo man dann die etwas gefährlicheren Sachen ausprobieren kann - z.B. auf dem Mond. Mit einigen Experimenten sollte man besser bis dahin warten.

      Könnte auch nicht schaden, wenn grundlegend neue Gentechnik-Experimente außerhalb von Hochsicherheitslaboren von einer weltweit zuständigen Kommission genehmigt werden müssten. Ist irgendwie naheliegend - man kann diese Entscheidung doch nicht einem vorwiegend an Gewinn orientierten Konzern überlassen ... da fordert man ein Unglück doch geradezu heraus.

      Schulwissen in Biologie oder Chemie unter Terrorverdacht
      http://www.heise.de/tp/r4/artikel/26/26668/1.html
      Sowas ist mir ein Rätsel, da kann sich doch nur jemand einen Scherz erlaubt haben. Fehlt nur noch, dass die alle Bäume zu Sägemehl verarbeiten, um die Fertigung von Keulen und Speeren zu erschweren. Was ist denn mit dem Internet? Oder wenn man da trotz i-Cafes die Überwachung fürchtet, kann man ja auch Bücher lesen. Wäre es nicht viel schlauer, die Leute erstmal machen zu lassen (99% sind harmlos) und nur zu beobachten? Die, die immer auffälliger werden, kann man gezielter beobachten und dann verhaften.

      Nachdenken und Meinungsäußerungen kann man nicht sinnvollerweise verbieten (sofern sie nicht wirklich einen Aufruf zur Straftat beeinhalten) - man braucht doch auch Künstler, Narren und Kritiker. Ebenso kann man Trivialwissen nicht sinnvollerweise verstecken - wo sollen denn die Ingenieure und Wissenschaftler herkommen?

      Vielleicht muss man bei echten Grenztechnologien (Gentechnik, Teilchenphysik, KI, ...) vorsichtiger sein, aber eher im Hinblick auf Aliens (so verrückt das auch klingen mag), als wegen einzelner Menschen, weil die mit diesen Techniken kaum was anfangen können. Viel kritischer und wahrscheinlicher ist es, dass ein genialer Wissenschaftler, der an forderster Front forscht, verrückt wird (besonders Gentechnik kann leicht gefährlich werden). Hier hilft einerseits automatische Überwachung und andererseits schlicht Vorsicht: man sollte bei aller Toleranz (Genie <=> Wahnsinn) bei solchen Personen verdächtige Veränderungen (Äußerungen, Psyche, Verhalten) ernst nehmen. Tut man das? Nö, bestimmt nicht, stattdessen überwacht man irgendeinen bärtigen Freak mit Mütze, weil er Bart und Mütze hat.
      Avatar
      schrieb am 24.11.07 03:44:03
      Beitrag Nr. 47 ()
      Was sind wahrscheinlich die Folgen?
      ... ist die alles entscheidende Frage.

      Wenn etwas wahrscheinlich überwiegend negative Folgen für Erde + Menschheit hat, ist es schlecht und man darf es nicht tun.

      Dass man alles Wissen (z.B. bezüglich Gentechnik) erwirbt, ist sehr wahrscheinlich dann gut, wenn das Wissen nicht mißbraucht werden kann und genau hier sehe ich noch beträchtliche Defizite.

      Wissen erwerben: es sollte unnötiges Leid vermieden werden.
      Wissen nutzen: es sollte unnötiges Leid vermieden werden.

      Potentiell gefährliches Wissen zu schützen wird zunehmend immer wichtiger und die Rede ist hier nicht von der einfachen Sprengstoffherstellung - man muss im großen Rahmen denken, d.h. was kann wirklich gefährlich werden.

      Selbstverständlich ist es schwachsinnig deswegen die Forschung für immer einzustellen, weil man rechtzeitig vor bösen Mächten das Wissen erlangen muss, aber es kann ratsam sein einige Forschungsvorhaben und Experimente aufzuschieben, bis man dergleichen erstmal außerhalb der Erde durchführen kann (übrigens dürfen dann systembedingt nur Daten die Forschungseinrichtung verlassen, die dann konsequenterweise irgendwann auch selbst sicher vernichtet werden muss) ... wobei Daten natürlich alles andere als ungefährlich sein können.

      Schwachsinnig? Nun ja, angenommen man kann nur in sozialer Kooperation die Schwerkraftfalle eines Planeten verlassen, angenommen nur Gute sind zu ausreichender sozialer Kooperation fähig, dann könnte es tatsächlich sicherer sein, einiges Wissen erst gar nicht zu erwerben. Erworbenes Wissen wird nämlich aufgehoben und kann mitunter viel leichter (auch unbeabsichtigt) mißbraucht als erworben werden.

      Daraus folgt, dass man einen Plan aufstellen muss, wann man welches Wissen erwerben sollte (ggf. nie).
      Avatar
      schrieb am 15.12.07 13:27:58
      Beitrag Nr. 48 ()
      Die menschliche Evolution hat sich beschleunigt
      http://www.heise.de/tp/r4/artikel/26/26823/1.html

      1) "... Eine entscheidende Rolle bei der beschleunigten Evolution hat das parallel stattfindende Wachstum der Menschheit gespielt ... Dadurch vermehren sich die genetischen Varianten von Genen, die Allele, und damit die Möglichkeiten, sich schneller wechselnden Bedingungen anpassen zu können. ..."

      2) "... Zudem haben sich genetische Veränderungen in unterschiedlichen Gruppen unterschiedlich vollzogen, wodurch sich erst einmal die menschlichen Gruppen durch die räumliche Trennung auf den unterschiedlichen Kontinenten genetisch weiter auseinander entwickelt haben. ... Nach dem Exodus von Afrika und der Verteilung auf den Kontinenten hätte sich kein großer Genaustausch zwischen den Menschen mehr ereignet. "Die Gene haben sich schnell in Europa, Asien und Afrika verändert", sagt Harpending, "aber fast alle diese Veränderungen sind einzigartig in Bezug auf ihren Herkunftskontinent. Wir werden unähnlicher, verschmelzen nicht in eine einzige, gemischte Menschheit." ..."

      => a) Könnte Sinn machen, dass sich die Menschen weltweit stärker vermischen, was ja schon mit der Kolonialisierung begann und jetzt durch die weltweite Mobilität fortgesetzt wird und bei einer Angleichung des weltweiten Lebensstandards (in allen Ländern mindestens moderne Städte) seinen Höhepunkt erreichen dürfte.

      => b) Ein immer höherer Stress (Umweltbelastung, Kriege, Seuchen) hat durch Selektion maßgeblich für eine Verbesserung der Gene gesorgt. Der positive Nutzen von immer stärkerem Stress endet dann, wenn eine maßgebliche Einschränkung der Vielfalt droht. Möglicherweise haben wir den Punkt schon erreicht, wo mehr Stress nicht mehr förderlich ist.

      => c) Eine zukünftige weitere Selektion erfolgt dann nicht mehr überwiegend durch die Auslese auf der Erde (schlechtere Gensequenzen überleben mit geringerer Wahrscheinlichkeit), sondern durch die Migration der besten Menschen in den Weltraum. Zwar müssen (und sollen) nicht alle fähigen Menschen die Erde verlassen, aber aufgrund der extremen Bedingungen im Weltraum ist es undenkbar, dass sich dort aufgrund des Risikos für andere unfähige Menschen aufhalten dürfen. "unfähig" heißt übrigens nicht automatisch "schlecht", "unnütz" oder "böse"! Es ist nur einfaches Wort für eine objektive (und näher zu spezifizierende) Tatsache (z.B. "wer nicht schwindelfrei und ohne guten Gleichgewichtssinn ist, ist unfähig auf dem Hochseil zu balancieren").
      Avatar
      schrieb am 15.12.07 13:28:31
      Beitrag Nr. 49 ()
      Supercontinuum generation
      http://www.rp-photonics.com/supercontinuum_generation.html

      Raman scattering
      http://www.rp-photonics.com/raman_scattering.html
      Mmm, Wasserstoff gibt es auch reichlich im Weltraum und Licht ebenso.

      Photonic crystal fibers
      http://www.rp-photonics.com/photonic_crystal_fibers.html
      Wie wär's mit in einem besonderen Muster angeordneten Löchern anstatt Röhren? Dann kann man nämlich den Kristall aus unterschiedlichen Richtungen aus mit Laserlicht beschießen, das dann vielleicht auch noch auf interessante Weise abgelenkt wird.

      Die Frage ist, wie man daraus einen optischen Computer bauen könnte, bei dem mit Licht nicht nur Daten übertragen, sondern auch maßgeblich Berechnungen durchgeführt werden. So spontan fällt mir dabei nix konkretes ein.

      Vielleicht könnte es eine Idee sein, einfach mal ein komplexeres Rückkoppelungssystem aufzubauen, mit
      - mehreren Lichtquellen die mit irgendwelche Daten (einfache Zahlen oder Mustern) moduliert werden.
      - Spiegeln.
      - Blöcken aus Photonischen Kristallen (siehe oben).
      - Sensoren zum Auslesen, Speichern und Darstellen von Zustandsänderungen.

      Der Gedanke ist, dass man einfach mal ein bisschen rumprobiert, natürlich mit einem Ziel, nämlich einen möglichst optimalen Computer zu bauen. Eine ziemliche Herausforderung, weil man sich vermutlich von der aktuellen sequenziellen Denkweise (atomare logische Operationen hintereinander) lösen und vielleicht z.B. einen kompletten Algorithmus in einem "weißen" Laserimpuls darstellen muss.

      Alternativ (zusätzlich) könnte man einfach ein hinreichend komplexes optisches System mit Sensoren, (herkömmlichen, elektro-magnetischen) Speichern und (sehr wichtig) Filtern aufbauen, das sich selbst beeinflussen und somit auch lernen kann. Dann muss man nämlich nur noch dafür sorgen, dass aufeinderfolgende Muster einen Realitätsbezug haben, was sich bei einem nicht zu chaotischen System automatisch aus dem Input ergeben sollte. Ein für Menschen interpretierbarer Output ergibt sich automatisch (kann erlernt werden), wenn das System seine Umgebung beeinflussen und seine Aktionen wahrnehmen kann.

      Apropos Umgebung beeinflussen: dazu gehört auch der eigene, durch das System selbst bedienbare, Ausschalter! Das ist die einzige sichere Methode, um zuviel Leid zu verhindern, das immer subjektiv ist und bei einem solch experimentellen und neuartigen System für Menschen nicht erkennbar sein muss.

      Beim Stichwort "experimentellen und neuartigen System" sollte man übrigens wach werden und sich Gedanken machen, wie unerwünschte Einflüsse sicher ausgeschlossen werden können. Eigentlich sollte es selbstverständlich sein, dass das System auf die Außenwelt jenseits des Labors NUR lesend (und nicht schreibend) zugreifen darf. Der fortgeschrittene Paranoiker machts sich zusätzlich (völlig zu Recht) Sorgen über eine mögliche Beeinflussung der Wissenschaftler.

      Prinzipiell gilt sowas zwar für jede mächtigere KI, allerdings ist bei einem klassischen Aufbau (Standard-Programmierung) deren Verhalten vorhersagbarer und somit unkritischer. Wenn eine KI sich allerdings selbst programmieren kann, muss man auch wieder vorsichtiger werden. Genau wie bei Menschen könnte es krasse Fehlentwicklungen geben, die bei einem einem am Internet angeschlossenen Peta-FLOP/s Rechner beträchtliche negative Auswirkungen haben könnten: man denke nur daran, dass mit ein paar Peta-FLOP/s recht schnell Codes geknackt werden können und so in wenigen Sekunden beträchtlicher Schaden verursacht werden kann (insbesondere, wenn größere Aktionen naheliegenderweise langfristig vorbereitet werden).

      Letzteres ist auch die Gefahr bei der (bewussten oder unbewussten) Vernetzung von einzelnen Privatcomputern (Spielekonsolen). Nicht undenkbar, dass Hacker in Zukunft da mal eine KI draufladen wollen.
      Avatar
      schrieb am 01.03.08 15:49:52
      Beitrag Nr. 50 ()
      UML (siehe http://de.wikipedia.org/wiki/UML) kann einen Sachverhalt (z.B. Fabrik, Satellit, Raumstation, Bahnverkehr) in einem einzigen großen abstrakten 4D Bild (auch auf 2D abbildbar) potentiell vollständig darstellen.

      Ein großer Vorteil von UML gegenüber herkömmlichen Beschreibungen ist die Möglichkeit zur proportionalen und vollständigen Erfassung aller Beziehungen.

      Was bei UML fehlt ist eine Priorisierung: wichtige Dinge sind nicht hervorgehoben. Man könnte allerdings jedem Objekt und jeder Beziehung eine Priorität zuordnen (und auch irgendwie leicht erfassbar darstellen, z.B. farblich).

      Ein Problem bei UML ist der Mensch, dem zwar durchaus eine vollständige UML-Beschreibung des Systems nutzen würde, der sich aber sehr schwer mit der Erstellung eines solchen tun würde. Wie schon gesagt könnte es eines Tages eine KI geben, die ein solches UML-Systemabbild automatisch aus allen vorhandenen Daten und Antworten auf Rückfragen der KI erstellt.

      Der Vorteil einer umfassenden proportionalen Systembeschreibung ist die Möglichkeit automatisch Widersprüche und Fehler erkennen zu können. Des weiteren hat man damit eine Ausgangsbasis zur automatischen Codegenerierung und Simulation des Systems (z.B. Verhalten bei Störeinflüssen.
      Avatar
      schrieb am 17.03.08 08:07:54
      Beitrag Nr. 51 ()
      In der c't 6/2008 steht auf Seite 123, dass Nur-Navis und Nur-PDAs ohne Mobilfunkfunktion in Zukunft keine Chance haben werden.

      Ich finde das schwachsinnig, denn es kann unmöglich sinnvoll sein, das ein Gerät alles können muss (soll man etwa mit dem 2kg Laptop-Navi-Digicam-TV-Tuner-Dia-Projektor-Cellphone an den Strand?). Zwar sollte es durchaus auch universelle all-in-one Geräte geben, aber es wäre viel schlauer, wenn mehrere Einzelgeräte sich per Nahfeld-Funkverbindung zu einem Großgerät vernetzen könnten. Diese Funkverbindung muss exklusiv und verschlüsselt sein, d.h. man sagt den Geräten einmal wer alles zum persönlichen Verbund gehört und dann kommunizieren sie nicht mehr ungefragt mit anderen Geräten (bzw. nur im streng limitierten freigegebenen Rahmen, z.B. Austauch von virtuellen Visitenkarten). Die Geräte könnten sich dann auch gegenseitig Speicherplatz und ggf. sogar Rechenkapazität ausleihen.
      Avatar
      schrieb am 14.08.08 13:05:59
      Beitrag Nr. 52 ()
      Ratten-Hirnzellen steuern Roboter
      ... Um das neuronale Netzwerk zu schaffen, nahmen Warwick und seine Kollegen Großhirnrinde aus Ratten-Föten und lösten mit Enzymen die Verbindungen zwischen den Nervenzellen. Dann züchteten sie etwa 300.000 Zellen auf einem Multi-Elektroden-Array - einer Art Petrischale, in deren Boden 80 feine Elektroden eingelassen sind. Die Nervenzellen begannen daraufhin, neue Verbindungen untereinander zu knüpfen und elektrisch aktiv zu werden. Die Nervenzellen schienen sich willkürlich elektrisch zu entladen. Schon nach fünf Tagen bildeten sich sogar deutlich erkennbare Muster heraus und die Zellen entluden sich synchron in Gruppen. ...

      ... Der Clou dabei: Das künstliche Gehirn lernt aus den Erfahrungen des Roboters. "Schon jetzt führen stetig wiederholte Aktivitäten dazu, dass sich die Verbindungen zwischen den Nervenzellen verstärken", sagt Warwick. "Man kann das auch beim Menschen sehen: Wenn man etwas häufig macht, gewöhnt man sich daran und wird immer besser - und das ist exakt das, was auch beim Roboter passiert." Aktuell schafft es der Roboter dank seines Rattengehirns, Hindernisse in einer vertrauten Umgebung in 80 Prozent der Fälle zu vermeiden. ...

      ... Er und sein Team wollen ihrem Roboter nun noch weitere Fähigkeiten beibringen und auch sein Gedächtnis verbessern. ... http://www.spiegel.de/wissenschaft/mensch/0,1518,572067,00.h…

      Ähm, Ratten sind doch Säugetiere, oder?

      Noch hat dieses biologische Steuersystem kein Bewusstsein, aber wie lange noch?

      Es sollte langsam verbindliche Richtlinien für den Umgang mit bewussten Wesen geben, zu denen bald auch nicht-biologische KI-Systeme gehören werden.
      Avatar
      schrieb am 26.09.08 21:15:50
      Beitrag Nr. 53 ()
      Ich frage mich, ob es nicht eines ferneren Tages zu wenige schlechte Menschen auf der Erde gibt, so dass man sich Gedanken machen muss, wie man die Guten fit hält, d.h. wenigstens die Elite gegen das Böse trainiert. Schätze, dass man dann mit Simulationen und Robotern arbeiten kann. Es könnte z.B. einen Job für Roboter sein, kontrolliert böse zu sein - für Roboter ist das ja einfach, die müssen bloß ein paar Software-Module tauschen. Prima Idee übrigens, weil man so gleich die Kontroll-Software für Roboter verbessern kann. Für die notwendigerweise bewussten Robotter wäre das natürlich freiwillig, aber sicher nicht so schlimm, weil es ja kontrolliert und nur für ein paar Stunden täglich als Arbeitsaufgabe geschieht.

      Unverstellbar? Warum? Für mich ist das logisch und in spätestens wenigen Jahrhunderten wahrscheinlich gegeben.


      Beitrag zu dieser Diskussion schreiben


      Zu dieser Diskussion können keine Beiträge mehr verfasst werden, da der letzte Beitrag vor mehr als zwei Jahren verfasst wurde und die Diskussion daraufhin archiviert wurde.
      Bitte wenden Sie sich an feedback@wallstreet-online.de und erfragen Sie die Reaktivierung der Diskussion oder starten Sie
      hier
      eine neue Diskussion.
      Die Zukunft beginnt jetzt ...