checkAd

    Tagebuch des 21. Jahrhunderts: Die Wissensflut - 500 Beiträge pro Seite

    eröffnet am 11.06.01 16:13:29 von
    neuester Beitrag 12.06.01 23:58:40 von
    Beiträge: 4
    ID: 418.938
    Aufrufe heute: 0
    Gesamt: 296
    Aktive User: 0


     Durchsuchen

    Begriffe und/oder Benutzer

     

    Top-Postings

     Ja Nein
      Avatar
      schrieb am 11.06.01 16:13:29
      Beitrag Nr. 1 ()
      Tagebuch des 21. Jahrhunderts: Die Wissensflut

      Die Wissensmenge wird unüberschaubar

      Jedes Jahr erscheinen weltweit mehr als 1.000.000 neue Bücher, und über 10 Milliarden Seiten von Periodika (Zeitungen, Zeitschriften), die die Menge an vorhandenem neuem Wissen widerspiegeln. Wenn man zum Lesen einer Seite eine Minute braucht, müßte ein Mensch 19.000 Jahre lang lesen, um alle geschriebenen Seiten eines Jahres zu lesen. Dazu kommen elektronische Medien, Radio und Fernsehen. Selbst wenn man bedenkt, daß vieles irrelevant ist und vieles doppelt berichtet wird (z.B. die verschiedenen Tageszeitungen eines Tages) läßt sich diese Informationsmenge vielleicht auf ca. 100 Millionen Seiten pro Jahr reduzieren, die in 190 Jahren durchgelesen werden könnten. Wir sind auf einem Stand angekommen, auf dem kein Mensch mehr in der Lage ist, auch nur im Ansatz die neu akkumulierte Menge an Wissen und Information zu verarbeiten, geschweige denn die bereits vorhandene Menge zu überschauen. Selbst Spezialisten in ihrem eigenen Gebiet haben damit Schwierigkeiten. Es gibt über 1000 relevante chemische Fachzeitschriften, die jährlich über 2.000.000 Seiten an Informationen über chemische Fragen anbieten. Dazu kommen mehr als 1000 Fachbücher und eine unüberschaubare Menge an grauer Literatur (interne Berichte, Laborprotokolle usw.). Dieses Wissen kann zwar über Datenbanken verwaltet und durchsucht werden, aber ein Überblicken ist nicht möglich. Die Gefahr, das Sachverhalte mehrmals entdeckt werden, wächst und belastet die Effizienz der Forschung.

      Die Zahl der offenen Fragen wächst schneller als die der Antworten

      Stanislaw Lem hat einmal in Summa Technologiae ausgeführt, daß die Zahl relevanter Forschungsergebnisse langsamer wächst als die Zahl der Forscher (um etwa einen Faktor 3) und als Beleg dafür die vielen Diplomarbeiten und Dissertationen anführt, die meist mit irrelevanten Inhalten in Archiven verstauben. Er hat vielleicht übertrieben, aber im Kern ist es richtig, daß inzwischen die Aufrechterhaltung des Wissenschaftsbetriebs, die Verwaltung des Wissens, das Erlernen des Standes der Forschung und rein technische und administrative Probleme die aktive Zeit für Forschung bei jedem Wissenschaftler beschneiden. Bei eines Tages stagnierenden Wissenschaftlerzahlen und Forschungshaushalten könnte sogar bei sinkendem Ergebnisausstoß je Wissenschaftler die Geschwindigkeit der Forschung abnehmen. Das wird umso mehr bedrohlich, als die Zahl der Forschungsthemen notwendigerweise ansteigt.

      Den Wissenschaftsthemen gehen die Wissenschaftler aus

      Die Menge an potentiell verfügbaren Wissen ist monströs. Es gibt z.B. auf der Erde eine gewaltige Zahl an Bioverbindungen: ca. 10 Milliarden bis 1000 Milliarden Proteine und Nukleinsäuren in Organismen. Bisher erforscht wurden davon ca. eine Million. Mit der gegenwärtigen Forschungsgeschwindigkeit werden wir noch über 100.000 Jahre brauchen, um alle Bioverbindungen auf der Erde erforscht zu haben, wenn inzwischen nicht neue hinzugekommen sind. Dies gilt aber nur für eine kleines Teilgebiet der Chemie, denn die Zahl möglicher chemischer Verbindungen ist praktisch unendlich. Selbst das wird der Menge vorhandenen Nichtwissens nicht gerecht. Über jede Verbindung könne zahlreiche Fragen gestellt werden, z.B. aus der Sicht des einfachen Anwenders: ist diese Verbindung als Medizin geeignet? Ist sie giftig? Ist sie als industrieller Grundstoff geeignet? Dazu muß man nicht nur in der Lage sein, eine bestimmte Verbindung herzustellen, man muß ihre Eigenschaften untersuchen. Physikalische Eigenschaften, wie optisches Verhalten, Schmelz- und Siedepunkte, Verhalten gegenüber anderen Verbindungen, Aufgaben im lebenden Wesen und Verhalten dort usw. Es ist ein hoffnungsloses Unterfangen, alle Bioverbindungen in lebenden Wesen entdecken und erforschen zu wollen. Jedes Jahr sterben viele 1000 Arten aus, und Wissen über bestimmte Bioverbindungen ist damit unwiederbringlich verloren. Jede neu synthetisierte chemische Verbindung hat Wirkungen in der Umwelt – ein einzelnes Forschungsergebnis erzeugt also viele neue Fragen. Auch Veränderungen in der Gesellschaft bewirken neue Fragen für Politologen, Soziologen, Historiker und Psychologen. Jeder Fortschritt in der Weltraumforschung gibt neue Daten über fremde Welten, zeigt neue physikalische Phänomene, erfordert neue Materialien. Die Zahl der Forscher ist aber nicht beliebig vermehrbar und damit auch nicht die Geschwindigkeit der Forschung.

      Automatisierung der Forschung notwendig

      Daher gibt es Vorschläge, die Forschung zu automatisieren. Ein Beispiel wäre folgendes: Bakterien werden darauf eingerichtet, Bioverbindungen herzustellen. Nun werden sie einer Strahlenquelle ausgesetzt und mutieren. Dabei stellen die mutierten Bakterien andere Bioverbindungen her. Der Vorgang ist rein zufällig. Theoretisch könnten die Bakterien so jede mögliche Bioverbindung herstellen. Die Bakterien werden separiert, dann vermehrt und die erzeugten Bioverbindungen werden abgetrennt und analysiert. Bis hierhin könnte alles gleich einem industriellen Prozeß ohne Teilnahme von Menschen ablaufen. Erst bei der Bewertung der Analyseergebnisse kämen menschliche Forscher ins Spiel. Automatisierungen dieser Art werden in Zukunft die Voraussetzung dazu sein, daß die wissenschaftliche Erkenntnissammlung weiter beschleunigt werden kann, wenn die Zahl der menschlichen Forscher nicht mehr wachsen kann.

      ___________________________________________________________

      Tagebuch des 21. Jahrhunderts ist eine Serie im reg. W:O Sofa.
      Bisher erschienen: Parallelwelten Thread: Tagebuch des 21. Jahrhunderts: Parallelwelten, Die Wiederkehr der Infektionskrankheit Thread: Tagebuch des 21. Jahrhunderts: Die Wiederkehr der Infektionskrankheit, Der sich selbst erfindende Mensch Thread: Tagebuch des 21. Jahrhunderts: Der sich selbst erfindende Mensch, Demographische Katastrophen Thread: Tagebuch des 21. Jahrhunderts: Demographische Katastrophen, Der neue Limes Thread: Tagebuch des 21. Jahrhunderts: Der neue Limes, Ethik und Religion als Ware Thread: Tagebuch des 21. Jahrhunderts: Ethik und Religion als Ware.
      Avatar
      schrieb am 11.06.01 16:14:33
      Beitrag Nr. 2 ()
      Simulationen werden wichtiger, bergen aber Fallen

      In der Forschung spielen Computersimulationen eine wachsende Rolle. Statt einen Windkanal aufzubauen, simuliert man Strömungsverhältnisse in Computern. Wettervorhersagen oder Wasserabflußberechnungen beruhen auf Modellen, die auch in der Forschung eingesetzt werden. Klimamodelle, Modelle für Temperaturverteilungen in Materialien im Reaktorbau, Evolutionsmodelle, Wirtschaftsmodelle, Modelle für die Vorgänge in Sternen: es gibt zahllose Beispiele für Prozeßsimulationen, die Kosten und Zeit sparen oder die bestimmte Forschung erst möglich machen. Teilweise ist eine Untersuchung von Phänomenen im Experiment gar nicht möglich. Das gilt vor allem für viele Szenarienstudien, bei denen gefragt wird, was eigentlich passiert, wenn man einen bestimmten Parameter ändert, wie etwa Energieverbrauch der Menschheit im Klimamodell, Leitzins einer Zentralbank im Wirtschaftsmodell oder der Kohlenstoffanteil in einem Spezialstahl in einer Simulation von Reaktorbauteilen. Das Problem dabei ist immer, daß Modelle notwendig Idealisierungen der Wirklichkeit sind. Sie können nur so gut sein, wie die zur Bestimmung aller Modellbedingungen verwendeten Daten. Alle Modelle haben Begrenzungen ihrer Aussagekraft, die man zum Betrieb des Modells genau kennen muß. Ein weiteres zentrales Problem der Modelle ist, daß sie oftmals so detailliert sind, wie es die Rechnerkapazitäten erlauben. Damit ist aber auch die Menge erzeugter Daten an der Grenze dessen, was in Computern verarbeitet werden kann. Eine unglaubliche Menge an Daten wird produziert, archiviert und dann oft vergessen, selten nur genau ausgewertet. Besonders große Datenmengen produzieren Wettervorhersage und Klimarechnungen, aber auch Satellitenaufnahmen der Erde. Daten, die zu lange nicht ausgewertet werden, verlieren mit der Zeit an Qualität, weil sie nicht mehr geprüft werden können oder weil die Datenformate veralten und schließlich schwer lesbar werden. Auch hier bedeutet eine zu langsame Forschung, daß Wissen für immer verloren gehen kann.
      Avatar
      schrieb am 11.06.01 16:17:29
      Beitrag Nr. 3 ()
      Informationsdienst Wissenschaft (idw) - Pressemitteilung
      European Media Laboratory GmbH, 11.04.2001

      Datenbanken als Suchmaschinen

      Dämme gegen die Datenflut: Internationale Informatik-Konferenz "ICDE
      2001" in Heidelberg


      "Datenbanken dienen längst nicht mehr nur als Informationsspeicher,
      sondern sind zu hochleistungsfähigen Suchmaschinen geworden": So lautete
      ein Resümee der 17. International Conference on Data Engineering (ICDE),
      zu der sich jetzt rund 250 Datenbank-Spezialisten aus aller Welt in
      Heidelberg trafen. Vor allem die zunehmende Nutzung drahtloser, mobiler
      Geräte beeinflusst die Arbeit der Dateningenieure. Sie kommen in
      unterschiedlichen Formen und Funktionen vor - vom Telefon über den
      Organizer und Media-Player bis zur elektronischen Geldbörse. "Im Jahr
      2003 wird es mehr mobile Geräte mit Internet-Anschluss geben als PCs",
      so der Informatikprofessor Andreas Reuter, Vorsitzender der Konferenz
      und Direktor des Heidelberger European Media Laboratory (EML). "Die
      Herausforderung an die Datenbankingenieure liegt darin, die Flut der
      Daten permanent auf den neuesten Stand zu bringen und mit geeigneten
      Werkzeugen die gewünschten Informationen wieder auffindbar zu machen."
      Ein wichtiges Einsatzgebiet für den Einsatz von Datenbanken bei mobilen
      Geräten bilden geographische Informationssysteme. Ein Beispiel: Das EML
      entwickelt im Forschungsprojekt "Deep Map" einen mobilen Touristenführer
      für den Individualtouristen.
      Ganz im Trend liegt derzeit "Data Mining": die Aufgabe, aus gewaltigen
      Datenmengen die wichtigen Daten herauszufiltern. Damit kann zum Beispiel
      ein Manager langfristige Entwicklungstendenzen seiner Branche erkennen
      und so besser strategisch planen. Wer jedoch die "Datenschätze heben"
      will, hat es nicht mit konstanten Daten, sondern mit sich ständig
      verändernden Datenströmen aus unterschiedlichen Quellen (Texte,
      Zahlenkolonnen, Grafiken, Bilder, Video- und Audiodateien) zu tun. Diese
      Arbeit erleichtern wird XML (eXtended Markup Language), eine neue
      "lingua franca" der Datenwelt: XML hilft, unterschiedliche Inhalte zu
      standardisieren, und ermöglicht damit einen leichteren Austausch. So
      lassen sich mit XML erstmals völlig verschieden aufgebaute Datenbanken
      auswerten.
      Das Programm der ICDE 2001 umfasste neben Tutorien und Demonstrationen
      auch Exkursionen zu SAP und DaimlerChrysler. Als Hauptreferenten aus der
      Wirtschaft sprachen die Manager Stuart Feldman (IBM), Peter Zencke (SAP)
      und Gerhard Barth (Dresdner Bank). Den Vorsitz hatte Andreas Reuter
      inne, Informatikprofessor an der International University in Germany und
      wissenschaftlicher Direktor des Heidelberger European Media Laboratory
      (EML) in der Villa Bosch. Das EML zeichnete auch für die Organisation
      verantwortlich. Mehr Informationen zur ICDE unter:
      http://projects.eml.org/ICDE

      Die International Conference on Data Engineering (ICDE) wird in einem
      jährlich wechselnden Turnus innerhalb und außerhalb der USA
      veranstaltet. Veranstalter ist das Institute of Electrical and
      Electronics Engineers (IEEE), die wichtigste internationale
      Berufsorganisation für Ingenieure der Elektrotechnik und
      Informationstechnik. Die ICDE 2002 wird in San José, Kalifornien,
      stattfinden (http://www.ieee.org).

      Die European Media Laboratory GmbH (EML) (http://www.eml.villa-bosch.de)
      ist ein privates Forschungsinstitut für Informationstechnik und ihre
      Anwendungen. Im Zentrum des Interesses steht die Entwicklung neuer,
      intelligenter Methoden der Informationsverarbeitung zum Nutzen des
      Einzelnen und der Gesellschaft. Die EML-Forscher arbeiten eng mit
      Universitäten und der Industrie zusammen. Derzeit bearbeitet das EML im
      wesentlichen Forschungsprojekte der gemeinnützigen Klaus Tschira
      Stiftung (KTS) (http://www.kts.villa-bosch.de). Ebenso wie die KTS ist
      das European Media Lab in der Villa Bosch in Heidelberg beheimatet, dem
      ehemaligen Wohnsitz des Nobelpreisträgers Carl Bosch (1874 - 1940).

      Für weitere Informationen wenden Sie sich bitte an:

      Dr. Peter Saueressig
      European Media Laboratory GmbH
      Presse- und Öffentlichkeitsarbeit
      Tel: +49-6221-533-245
      Fax: +49-6221-533-198
      peter.saueressig@eml.villa-bosch.de
      Avatar
      schrieb am 12.06.01 23:58:40
      Beitrag Nr. 4 ()
      Schon seit Urgedenken hat die Menschheit das Wissen nicht universal geteilt. Ich denke nicht, daß ein Mensch damals das Erzeugen und die Beherrschung des Feuers entdeckt hatte und diese Kunde in alle Welt getragen wurde. Das verhinderten allein die fehlenden Kommunikations- und Transportmittel. Auch der Speer, der Hebel, die Rolle und das Rad, der Pflanzenanbau, das Zählen und und und sind mit Sicherheit Mehrfacherfindungen gewesen.
      Der Unterschied zu heute liegt einzig in der rasant steigenden Quantität des Wissens. Und dazu kommt, daß sich auf Grund der jetzt gegebenen technischen Möglichkeiten wirklich weltbewegendes neues Wissen in Stunden auf fast der gesamten Welt verbreiten kann. Die entsprechenden Wissenschaftler werden schon von selbst dafür sorgen, daß solches weltbewegendes neues Wissen sich verbreitet. Ich denke nicht, daß man etwas bedauern muß. Lieber zu viel Wissen, welches auch mehrfach "errungen" werden muß, als zu wenig.

      Mit Sicherheit wird sich in naher Zukunft auch die Wissensverarbeitung vollautomatisierter Techniken bedienen. Zu diesen automatischen Techniken müssen Speicherung, Wiederauffindung, Abgleich, Vergleich, interdisziplinäre Vernetzung, Automatisierung stupider Mustererkennungen (siehe das Beispiel der "chemischen Muster"), Statistiken, Visualisierungen, Übersetzungen und viele weitere Techniken gehören. Ein Medium, in dem sich diese Technik bewegen wird, ist mit dem Internet schon geschaffen.

      Gruß
      GerhardS


      Beitrag zu dieser Diskussion schreiben


      Zu dieser Diskussion können keine Beiträge mehr verfasst werden, da der letzte Beitrag vor mehr als zwei Jahren verfasst wurde und die Diskussion daraufhin archiviert wurde.
      Bitte wenden Sie sich an feedback@wallstreet-online.de und erfragen Sie die Reaktivierung der Diskussion oder starten Sie
      hier
      eine neue Diskussion.
      Tagebuch des 21. Jahrhunderts: Die Wissensflut