Ingo Rechenberg

Bionik und Evolutionstechnik

Technische Universität Berlin

 
     

Eine bionische Welt im Jahr 2099

 
   

 

 

Prolog: Sinn und Unsinn technischer Prognosen

Neue Wissenschaftsdisziplinen entstehen und vergehen. Kybernetik, Syn­ergetik, Adaptronik geraten langsam in Vergessenheit. Die Bionik hat sich (seit 1958) unerschüttert be­haup­ten können, und ich bin überzeugt, dass dies so bleibt. So ist es nicht abwegig, über eine bionische Welt im Jahr 2099 zu spekulieren.

Um die Überschrift aufzunehmen: Sinn der Pro­gno­sen ist ein Spiel mit Möglichkeiten, die zeigen, dass es noch Wünsche gibt, de­ren Er­fül­lung ich von der Bionik erwarte. Unsinn ist es, Prognosen für bare Münze zu nehmen. Die Pro­phe­zeiung Lord Kelvins im Jahr 1895: „Flug­ma­­schi­nen schwe­rer als Luft wird es nie geben“, hat sich noch zu seinen Leb­zei­ten als falsch er­wie­sen. An­drej D. Sacharow (Vater der russi­schen Wasserstoffbombe) sagte 1983 voraus: Für den Individu­alver­kehr wird das Auto durch ein batte­rie­getriebenes Fahrzeug auf me­cha­nischen Bei­nen ersetzt, das weder die Grasnarbe verletzt noch asphal­tierte Straßen benötigt“. Hier glaube ich liegt er daneben.

Überprüft man Prognosen der Vergangenheit auf ihr mögliches Eintreffen, so stellt sich heraus, dass sie kurzzeitig zu optimistisch und langzeitig zu pessimistisch waren. Ich werde deshalb auch für kleine bionische Fortschritte größere Zeitspannen einplanen. Denn Tatsache ist, dass in einer komplexer werdenden Welt Entwick­lungen immer länger dauern. Mögen Journalisten noch so oft verheißen, technische Entwick­lung ginge immer schneller voran. Edisons Phonograph hat vielleicht ein Jahr bis zum Erstverkauf gebraucht. Der Plasma-Bild­schirm (1966 von Wissenschaftlern an der Universität von Illinois in den USA erfunden) hat bis zur Markteinführung 30 Jahre benötigt.

 
   

Bionische Fertigung im Jahr 2099

Autos, die wie im Bild 1 gesät, pflanzenähnlich wachsen und fahr­be­reit geerntet wer­den – so etwas gibt es auch im Jahre 2099 nicht. Dennoch, die Fertigungs­technik hat sich revolutionär geändert. Denn im Ver­gleich zur biolo­gi­schen Molekular-Fertigung sind die dem 19. und 20. Jahr­hun­dert entstammenden Produk­tions­me­thoden als plump zu bezeichnen: Durch monströse Maschinen wurde das Werkstück von außen in seine Form gezwungen. Bionische Ferti­gung im Jahre 2099 heißt, molekulare Selbst­or­gani­sation formt das Werkstück von innen heraus. Viele Ideen der Bio­niker werden erst durch diese bioanaloge Produk­tions­methode realisierbar.

 
 

        Bild 1:  Bionik pur? - Die gereiften Automobile werden eingefahren

 
   

Die Geburtsstunde der atomar-molekularen Fertigung schlug im Jahre 1990. In diesem Jahr konnten mit dem kurz zuvor erfundenen Raster-Tun­nel-Mikroskop als Atom­mani­pulator 35 Xenon­atome so auf einer Nickel­kristall-Ober­fläche positioniert werden, dass der Name einer bekann­ten Computer­firma lesbar wurde. Be­stärkt durch diese Leistung traten die Verkünder der Nanotech­nologie auf den Plan, die den kosten­günsti­gen Aufbau von Materie durch universelle Nano­mon­teure propa­gierten. Achsen mit dreiato­migem Quer­schnitt, die sich in Benzolring-Lagern dre­hen. Mole­kulare Fließ­bänder, die von einem Nanoro­boter bedient werden. So stellten sich Ende des 20. Jahr­hun­derts die Nano­technologen eine zukünftige Fer­ti­gungstechnik vor.

Aber moleku­lare Fertigung gehorcht anderen Gesetzen als ihr Pen­dant in der Makro­welt. Es müssen Ähnlichkeitsgesetze und quan­ten­physikalische Wirkungen berücksichtigt werden. Mole­kulare Ferti­gungs­technik muss aber nicht neu erfunden werden. Eiweiß­moleküle sind pure mole­ku­lare Fer­ti­gungs­ma­schinen. Nanotechnolo­gie wird so zu einer bioni­schen Schlüs­seldis­ziplin. Mole­kulare Selbstreplikation, mole­ku­lare Erkennung und Wachs­­tum haben sich 2099 als die drei Grund­pfeiler einer nano­bioni­schen Ferti­gung erwiesen.

Bereits zur Jahrtausendwende gelang es Chemikern, einfache selbst­repli­kationsfähige Mole­küle zu erschaffen (Bild 2). Im Jahr 2099 ist die Synthese sich selbst verdoppelnder Moleküle zu einer che­mischen Grundoperation geworden. Dabei hat eine neue Forschungs­disziplin unter dem Namen Replionik (Selbstver­meh­rungs-Chemo­technik) die Entwicklung außerordentlich beschleunigt. Die Replionik hat vor allem daran gearbeitet, selbstreplizierende Moleküle auf einer anderen als der Kohlenstoffbasis zu entwickeln. Das ist mit Silizium weitgehend gelun­gen. Science-Fiction-Autoren haben ja schon im 20. Jahrhundert über Silizium-Leben (als Pendant zum Koh­len­stoff-Leben) spekuliert. Denn Silizium weist ähnliche vielseitige che­mische Bin­dungs­­eigen­schaften auf wie Kohlen­stoff. Die Schaffung sich selbst­ver­mehrender Moleküle auf Siliziumbasis war fundamental wichtig: Die Befürch­tung, dass künst­liches und natür­liches Leben sich unkon­trolliert vermischen könn­ten, war gebannt.

 
 

      

         Bild 2:  Schema sich selbst replizierender Moleküle

 
   

Selbstreplizierende Moleküle ergeben allein noch keine neue Fer­ti­gungs­technologie. Die Moleküle müssen sich von selbst zu Struktu­ren, Über­strukturen, Über-Überstrukturen ... organisieren. Deshalb wur­de kurz nach dem Aufkommen der Replionik die Schwesterdisziplin der Auxonik (Wachstums- und Gestaltbildungs-Chemo­technik) begründet. Weg­be­rei­ter für diese „neue Chemie“ wurde die Morphobionik, deren Ziel es ist, die gestaltbildenden Prin­zi­pien des onto­gene­tischen Wachs­tums für die tech­ni­sche Form- und Funktionsgebung einzusetzen. Die bionischen Un­ter­dis­zi­plinen Replionik und Auxonik bilden Ende des 21. Jahr­hun­derts die Schüs­seltechnologien für eine bionische Ferti­gungstechnik (Bild 3).

 
   

     Bild 3:  Die neue Fertigung ― Wachsen versus Spanen

 
   

Zur Wende in das anstehende 22. Jahrhundert wird eine weitere revo­lu­tio­nie­ren­de Fertigungstechnik diskutiert: Die skalierte Selbstor­ga­n­isation. Was in der Welt der Biologie möglich ist, dass Hormone onto­genetische Selbstorganisations-Phasen zum richtigen Zeitpunkt an- und ab­schal­ten und so die Proportionen des Phäno­typs bestimmen, sollte auch tech­nisch (diesmal extrem gesteigert) mach­bar sein. Dann könnten tech­nische Objekte im handlichen Maß­stab konstru­iert, funktionell er­probt und dann durch Zugabe von Skalierungs­stoffen z. B. 1000fach ver­größert oder verklei­nert ge­fer­tigt werden (Bild 4). Für die nano­bi­oni­sche Zukunftssicht wird es eher die Verkleinerung sein.

 
 

       Bild 4:  Maßstabsänderung durch skaliertes Wachstum

 
   

Dabei gilt es, nach der Theorie der Bionik die universell gültigen beltistometrischen Gesetze einzupla­nen. Die Beltistometrie (grie­chisch: mit bestem Maß) ist eine Erweiterung der von Biologen definierten Allometrie (grie­chisch: mit anderem Maß). Ein beltisto­metrisches Gesetz gibt an, in welchem Verhältnis zueinander sich die Variablen einer Optimalkonstruktion ändern müssen, damit bei Ver­größerung oder Verkleinerung des Objekts die Optimalität erhalten bleibt.

 
   

Materialien und Funktionswerkstoffe

Werkstofftechnik und Fertigungs­technik gehen 2099 Hand in Hand. Es ist primär der Werkstoff, der durch seine speziellen Eigenschaften und den ihm innewohnenden Selbstor­ga­ni­sations­zwang, gekennzeichnet durch Selbstreplikation, molekulare Er­ken­nung und Wachs­tum, die stoffliche Welt des Menschen im Jahr 2099 ent­stehen lässt.

Hoch beanspruchte Konstruktionen werden vor­nehm­lich aus Ossit hergestellt. Ossit ist ein biomimetischer Werkstoff, der Eigen­schaften der Spongiosa (Knochenbälkchen) in den Knochen der Wirbeltiere nach­bildet. Brechen wir uns z. B. einen Schenkel­kno­chen und wachsen die Bruchstücke etwas verdreht wieder zusam­men, so richten sich in einem Selbstorganisationsprozess die Knochen­bälk­chen in Richtung der Hauptspannungsflüsse aus. Das Geheimnis von Ossit sind metallische Nano­Stabkristalle, die in einer dem Knochen­material nach­gebildeten supramolekularen Matrix ein­ge­lagert sind (Bild 5). Wird Ossit belastet, entsteht in dieser Matrix ein elektrisches Feld, dessen Feldlinien den Spannungsrtrajektorien folgen. Wie Elementarmagnete richten sich nun die Stabkriställchen von Ossit nach diesen Feldlinien aus. Die trajektorienorientierten Whiskers führen zu einer enormen Fes­tig­keits­zu­nahme des betref­fenden Werk­stücks unter der gegebenen Belastung..

 
 

  Bild 5:  Werkstoff mit trajektorienorientierter Selbststrukturierung

 
   

Eine Ossit-Brücke darf deshalb in der ersten Wo­che nur von Fuß­gän­gern, in der 2. Woche auch von PKWs und  in der 3. Woche zu­sätz­lich noch von LKWs benutzt werden (Bild 6). Die Weiterent­wick­lung von Osssit, das Novo-Ossit, imitiert zusätz­lich die biolo­gische Eigen­schaft der Selbst­heilung. Mikro­risse in Materialien ver­schwin­den durch eine sofort einsetzende trajek­to­rien­ori­entierte Rekris­tal­­li­sierung des Mate­ri­als. Novo-Ossit ist ein Ver­kaufs­schlager im Jahre 2099

 
 

Bild 6:  Ossit-Brücke in der ersten, zweiten und dritten Woche nach der Eröffnung

 
   

Ein exotischer Funktionswerkstoff im Jahr 2099 ist Annelidin. Bioniker sind auf diesen Stoff durch das Studium der Wattwürmer (Anneliden-Art) gestoßen. Die zu lösende Aufgabe lautete: Erfinde eine Substanz, die bereits in geringsten Mengen dem Wasser beige­mengt eine Partikelverklebung bewirkt. Modellhaft dafür steht der Watt­wurm, der seine U-förmigen Gänge im Meeresboden durch einen kle­brigen Schleim verstärkt. – Ein Stoff, den man als „Wasserver­festiger“ bezeich­nen könnte, ist Ingerferm. Bei der Ent­wicklung dieser Substanz stand der Schleimaal (Inger) Pate. Schleimaale hüllen sich bei nahen­der Ge­fahr in einen volu-minösen konsistenten Schleimklumpen ein, wobei auch hier gering­ster Substanzverbrauch Grundsatz der Evolution ist. Annelidin und Ingerfirm werden von Kleinstrobotern benötigt, sowohl um Lecks in Wasser-leitungen und Wassertanks zustopfen, als auch um Deiche dicht zu halten.

Ein weiteres biomimetisches Material im Jahr 2099 ist Resilinex (Resilin extended). Resilin ist ein Gum-miprotein, das von Insekten als kurzeitiger potentieller Energiespeicher eingesetzt wird. Sagenhafte 97% be-trägt der elastische Wirkungsgrad des Rückschnell-Resilins in den Flügelgelenken der Heuschrecke. Das Stu-dium des funktionellen Aufbaus von natürlichem Resilin hat die Chemiker befähigt, den Wir­kungsgrad von syn-hetischem Resilin auf 99% zu steigern. Ein Super­ball des Jahres 2099, aus 1 m Höhe fallengelassen, springt nach dem 50. Rück­prall immer noch 60 cm hoch (Bild 7). Der Wham-o Superball aus dem Jahr 2005 (h = 92%) brachte es nach dem 50. Aufprall auf nur noch 1,5 cm. Ein Trampolin aus Resilinex wird zu einem sehr gefährlichen Sportgerät, weil ein geübter Springer sich damit theoretisch bis zu 30 m Sprunghöhe hochschaukeln könnte. Resilinex ist 2099 als Energiespeicher für kraftvolle Kurzzeit­ak­tionen bei Mikrorobotern unentbehrlich. Beispiele für solche kurzzeitigen Kraftaktionen finden sich in der Natur beim Floh und beim Schnellkäfer.

 
 

               Bild 7:  Resilinex- Superball des Jahres 2099

 
   

Ein völlig anderes Ziel verfolgt die Entwicklung von PROMIM (Abkürzung für Protein-Mimese). Mit dem Multifunktionswerkstoff PROMIM kann man so ziemlich alles herstellen, von der optischen Linse bis zum Halbleiter. Ein PROMIM-Produkt wird zwar niemals so leistungsfähig sein wie das Konkurrenzprodukt aus dem fachgemäßen Spezialwerkstoff. Der Vorteil von PROMIM: Alles kommt in einen Recyclingtopf (siehe Kapitel: Bionik der Abfallbeseitigung).             

Seit eh und je bewundern Ingenieure das Spinnennetz. Es ist gar nicht so sehr die sagenhafte Festigkeit des Spinnenfadens. Es ist die außergewöhnliche Dehnbarkeit des Fadens und damit die Energie, die von einem Spinnennetz absorbiert werden kann, was den Ingenieur fasziniert. In der Natur müssen die Fäden eine Biene stoppen, die mit rund 30 km/h in das Netz fliegt. Im Jahr 2099 ist es Vorschrift, dass jede Start- und Landebahn eines Flughafens mit einem überdi­men­sionalen künstlichen Spinnennetz endet. Flugzeuge, die über die Start bzw. Landebahn hinausschießen oder gar landeunfähig sind, werden mit einem heraus-kata-pultierten künstlichen Spinnenetz aufgefangen. Die Technik erinnert an die sportliche Fangtechnik netzwerfender Spinnen. Schließlich ist es die enorme Energieabsorption von künst­lichen Spinnenfäden, wodurch die voluminöse kugelsichere Weste ver­gan­­gener Zeiten im Jahr 2099 zum dünnen T‑Shirt mutiert.

Energietechnik 2099

Erdöl und Erdgas sind zur Rarität geworden. Kohle als Energieträger scheidet wegen des CO2-Problems aus. Das Zeitalter der solaren Was­serstofftechnologie ist angebrochen. Was­ser­stoff wird bereits seit Mitte des 21. Jahrhunderts weltweit durch künst­liche Pho­tosynthese gewon­nen. Vorbild der Wasserspaltung ist ein Ver­bund­prozess, wie er in der Blaualge Nostoc muscorum zwischen den vegeta­tiven Zellen und den Hetero­cysten-Zellen stattfindet. Der Zwei-Zellen-Trick verhindert, dass nativer Wasserstoff wieder in Kon­takt mit dem Sauerstoff gerät (Knallgasbildung). Dies geschieht durch: 

     1.  Bindung des Wasserstoffs der solaren Wasserspaltung

          an ein Transportmolekül in der vegetativen Zelle.

     2.  Lösung des zwischengespeicherten Wasserstoffs

          aus dem Transportmolekül in der Heterocysten-Zelle.

Wie bei der technischen Elektrolyse entstehen so Sauerstoff und Was­ser­stoff räum­lich getrennt. Das Bild 8 zeigt eine solare Nostoc-Wasserstoff-Farm in der Sahara mit einer Spitzenleistung von 600 kW.

 
 
 

    Bild 8:  Heliomiten in der Sahara  ―  Solare H2-Produktion 2099

 
   

Ein anderes Konzept zur photobiologischen H2-Produktion ist der Algensee (Analogon zur vegetativen Zelle von Nostoc) und der angekoppelte Purpurbakteriensee (Pendant zur Heterocyste von Nostoc): Kohlendi­oxid als Transportmolekül wird im Algensee mit Wasserstoff beladen (Kohlenhydratbildung) und im Purpurbak-teriensee wieder entladen. Der Purpurbakteriensee muss nicht wasserstoffdicht abgedeckt wer­en. Die Was-serstoff-Freisetzung erfolgt an lokal beschallten Stel­len. Es konnte durch Gen-Manipulation die Membran von Purpurbak­terien so umkonstruiert werden, dass sich deren H2-Durchlässigkeit durch Ultraschall steuern ließ.

Nachdem der Wirkungsgrad des H2-Stoffwechsels der Algen und Purpurbakterien gentechnisch beträchtlich erhöht werden konnte, kommt das Zwei-Seen-Konzept auf einen solaren Wir­kungs­grad von 9%. Zum glei­chen Zeitpunkt kann allerdings das klassische Konzept (Solarzelle + Elektrolyseur) mit einem Wirkungs­grad von 15% bril­lieren. Deshalb wird von den Bionikern 2099 das biotechnologische ArBAS-Konzept (Artifizielle Bakterien Algen Symbiose) eher als ein Denkmo­dell ange­sehen, um eine Verfah­rensidee zu studieren. Es gilt, die biologischen Komponenten des Zweistufenpro­zesses durch künstliche Systeme zu ersetzen. Dabei ist ein wissenschaftlicher Durchbruch richtungwei­send: Die 2090 geglückte Erzeugung von primitivem Leben auf Silizi­umbasis. Damit könn­te – so die Vorstellung der Bioniker – ein Engpass der pflanzlichen Photo­syn­these beseitigt werden, näm­lich das mit 0,04% Konzentra­tion fast als ein Spurengas zu be­zeichnende Koh­lendioxid aus der Umgebung herauszu­filtern. An die Stelle von Kohlen­dioxid tritt nun ein Siliziumdioxid-Kom­plex. Man hält es für mach­bar, durch Nachbildung des ArBAS-Prozesses auf der Basis von Silizium-Leben einen solaren Wirkungsgrad der Energiespeicherung von 35% zu erreichen. Das Kohlenhydrat-Analogon mit dem am Sil­zium-Sau­erstoff-Kom­plex gebun­de­nen Wasser­stoff lässt sich leicht transpor­tieren. Durch Erhit­zung lässt sich der Wasser­stoff heraus­lösen. Das End­pro­dukt ist Quarz­sand, der sich problemlos entsorgen bzw. recyceln lässt.

Der „Fluch“ der geringen solaren Energiekonstanten bleibt auch im Jahr 2099 erhalten. Um zählende Energiebeiträge zu ernten, müs­sen Ingenieure große Areale mit bionischen Photosyn­the­se­anlagen be­decken. Bau, Erhalt und Betrieb der Anlage müssen sich rech­nen. Das Entstehen der Plastik-Treibhausfelder an Spaniens Südküste vor 100 Jahren, die sich im Laufe des 21. Jahrhundert weit über die nordafri­kani­sche Küste hinweg ausgebreitet haben, zeigt, welch riesige Areale Menschen technisch überdecken kön­nen. Die Energie speichernde Pho­tosynthese des 22. Jahrhunderts mit Hilfe von „Silizium-Leben“ soll an einer Substratfolie (Silizium-Moos genannt) stattfinden, an deren Un­ter­seite sich das Silizium-Kohlenhydrat-Analogon ab­schei­det (Prinzip der Kartoffel). Über einen Was­serstrom wird das Wasser­stoff-Speicher­molekül von der Folienunterseite abge­löst und an den Verbraucher­orten zu Wasserstoff weiter­ver­arbeitet. Diese Art der Son­nenen­er­gie-Ernte wird bevor­zugt von den  Ländern betrieben, die auch im 20. Jahr­hundert als Energie­liefe­ranten (Erdöl) galten.

Windenergie-Anlagen, die zu Beginn des 21. Jahrhunderts wegen ihrer die Landschaft belas­tenden visu-ellen Unruhe an Wertschätzung verloren, erfahren eine Blütezeit. Der Grund ist eine Erfin­dung, die es erlaubt, Windenergie ohne sichtbar bewegliche Elemente zu ern­ten. Der starre Strömungswandler beruht auf einer Umkehrung des Phä­no­mens des elektrischen Windes. Elektrische Ladung wird vom Wind ent­gegen des Feldstärkegefälles transportiert. Die Anwendung des nano­strukturierten Luft-Ionisierungsgitters rechnet sich aber nur, wenn die Erntefläche der Windenergie drastisch verkleinert wird. Dies wird möglich durch den Einsatz eines Wind­kon­zen­trators. So erlebt die bio­nische Entwicklung der Konzen-trator-windturbine BERWIAN aus den 1980er Jahren eine Wiederauferste­hung. Der nach dem Prinzip des auf­gespreizten Vogelflügels konzipierte Windbeschleuniger konnte soweit verbessert werden, dass eine 4-fache Geschwindigkeitserhöhung erreicht wird. Die Leistung einer Windkraftanlage steigt mit der dritten Po­tenz der Windgeschwindigkeit. Bei verlustlos angenommener Transfor­ma­tion der Energiedichte wird so die um den Faktor 43 = 64 gestiegene Leis­tungs­dich­te von einer Fläche abgeerntet, die sich gegenüber der An­lagen-Stirn­fläche um den Faktor 1/43 = 1/64 verkleinert hat (Bild 9).

 
 

          Bild 9:  Vom Vogelflügel zum BERWIAN NT

 
   

Besonders patente Herstellungsmethoden im Jahr 2099 basieren auf selbst­organisierende „ontoge-ne-tische“ Prozesse: Gewünschte Struk­tu­ren ord­nen sich von selbst so an, dass ein gebrauchsfertiges Produkt entsteht. Nach diesem Sche­ma funkti­oniert die solare Energiefarbe (Bild 10). Dieser sonder­bare Anstrich härtet erst aus, wenn er durch auf­ge­setzte Elek­troden unter Strom gesetzt wird. Dabei kristal­lisiert das Material – ra­di­al von den Elek­troden ausgehend – so in einen Ord­nungszustand aus, dass in der fer­tigen Schicht bei Licht­einfall ein umgekehrter aktiver Stromfluss ein­tritt. Zwar beträgt der Wirkungs­grad der Solarfarbe im Jahre 2099 nur magere 6%. Aber der Einsatz von Solarfarbe steigt von Jahr zu Jahr, da nun jeder Haus­an­strich neben der optischen Wirkung einen zusätz­lichen Nutzen erbringt.

 
 

Bild 10:  Solare Energiefarbe ― Entwicklung des Herrmann-Hesse-Instituts

 
   

Mobilität im Jahre 2099

Mobilität zu Lande, zu Wasser und in der Luft ist eine Grund­ei­gen­schaft des Lebens. Eisbären wandern auf der Jagd zirkumpolar 10 000 Kilometer im Jahr, Aale schwimmen zum Laichen in die 10 000 km ent­fernte Sargassosee und der einwöchige Nahrungsflug eines Albatros während der Brutphase führt ebenfalls über 10 000 km. Was die Natur vormacht will auch der Mensch im Jahre 2099 nicht missen. Die Wert­schätzung naturnaher Ver­haltensweisen und Techni­ken geht jedoch nicht so weit, dass bei der Fort­bewegung auf dem Lande das radge­trie­bene Fahrzeug durch zwei- vier- oder sechsbeinige Laufmobile ersetzt wird. Wo der Mensch Verkehrs­wege ebnet, dominiert immer noch das Rad. Diese energiesparende Fortbewegungsart wäre gewiss auch der biologischen Evolution eingefallen, wenn es in den natürlichen Land­schaften der Erde die not­wendigen Fahrbahnen gege­ben hätte. (In der Wüste gibt es rollende Spinnen und wie ein Raupenschlepper sich win­dende Schlangen).

Die Fort­schritte im Straßen­ver­kehr des Jahres 2099 (die Öko­apostel mögen darüber hinwegkommen, dass es immer noch Stra­ßen gibt) betreffen vornehmlich die Sicher­heit. So wie im Mücken- Fisch- oder Vogelschwarm keine Kollisionen auftreten, gibt es im Stra­ßen­verkehr eine automatische Abstandskoordination, die – ge­schwin­dig­keits- und posi­ti­­ons­abhängig – Autos wie gleich­gepolte Mag­nete auf Distanz „presst. Vieles haben die Ingenieure dabei von den Sonar­systemen der Fleder­mäuse und Delfine gelernt. Auch das Seiten­lini­en­organ der Fische war ein Studienobjekt auf dem Weg zu einer effek­tiven Schwarmregelung. Im Jahr 2045 wurde das DPS (Distance Posi­ti­oning System) eingeführt, das seinen Namensvetter GPS (Global Positioning System) nicht etwa ablösen, sondern ergänzen sollte. Das DPS arbeitet autonom dezen­tral. Das Tower-Lotsen-System zur Steu­erung der Luft­fahr­zeug­bewe­gungen musste in der ersten Hälfte des 21. Jahrhunderts mehr und mehr eingestellt wer­den. Die zunehmende Luftverkehrs­dichte konnte zentral von Flug­lot­sen nicht mehr bewältigt werde. Es sind bioni­sche Schwarm­re­ge­lungs-Algorithmen, die im Jahre 2099 de­zen­tral autonom mit Hilfe des DPS die Flugbewe­gun­gen koordi­nieren. Wieder einmal er­weist sich, dass zentrale Kommando­sys­teme in komplexen Um­welten nicht mehr arbeits­fähig sind.

Lebewesen sind selbstreparierende Systeme. Auf einer Standfes­tigkeitsskala würden Lebewesen ganz oben stehen. Am untersten Ska­len­ende befänden sich u. a. Hauptverkehrsstraßen und Auto­bahnen. Per­ma­nent müs­sen sie auch 2099 bis auf den Grund erneuert werden. Der volks­wirt­schaft­liche Schaden ist immens. Aber 2099 werden erste Fahr­bahn­beläge erprobt, die Eigenschaften des Knochen- und Baum­wachs­tums imitieren. Stellen erhöhter Belastung erfahren eine von in­nen kom­mende Materialverstärkung, die den Abrieb kompensiert. Ris­se im Straßenbelag wachsen durch Rekris-talli-sationsvorgänge von selbst wie­der zusammen. Und der „lebende“ Straßenbelag glättet sich durch ein­ebnende Fließvorgänge von selbst. Der bionische Straßenbelag ist zwar noch sündhaft teuer, aber er bedarf 50 Jahre lang keiner Reparatur.

Eine andere biologisch inspirierte Erfindung für das Ver­kehrs­wesen ist Delfiplaque, ein hochgradig schallabsorbierender Fahrbahn-Rad-Belag Das Material Delfiplaque entstand als Spin-off-Produkt im Zuge der For­schungen zum Phänomen des Delfinhaut- und Sandskink­effekts. Delfiplaque setzt sich aus zwei Kom­ponenten zusammen. Eine Komponente muss auf die Oberfläche der Straße oder Schiene, die andere auf die Räder aufge­bracht werden. Das Ineinander­greifen bei­der Molekül­strukturen erzeugt bei Schall, wenn er auf der einen Seite entsteht, auf der Gegenseite einen phasenverschobenen Gegenschall. Origi­nal- und Gegen­schall löschen sich durch Interferenz aus. So rollen Autos und Bahnen auf Delfiplaque-Oberflächen nahezu ge­räuschlos durch Stadt und Land.

„Mole­kula­rer Schall“ ist nach der Vor­stellung der Nanotribologen und Tribobioniker auch Ursache der Festkörperreibung. So gab es an­fänglich die Schwierigkeit, dass man auf einem Delfiplaque-Belag nur schwer bremsen konnte. Erst als es gelang, molekulare Schall­felder fre­quenzabhängig zu steuern, und man Schallauslöschung auf den mensch­li­chen Hör­bereich begrenzte, konnte Delfi­plaque sei­nen Sieges­zug an­treten. Bei der Entwicklung von Delfiplaque XT im Jahr 2099 wird molekularer Schall sogar außerhalb des Hörbe­reichs verstärkt. Die ver­stärk­te Energiedissipation bewirkt, dass die Reibung zwischen Fahrbahn­belag und Rad beim Bremsen beträchtlich zunimmt.

Der Verkehr zu Wasser findet 2099 mehr und mehr unter der Ober­fläche statt. In der Natur gibt es ja auch kein schnelles Was­sertier, das auf der Oberfläche schwimmend dem Wellenwider­stand trotzt. Bei der Konzeption von Verkehrs-U-Booten gelangen konsequent alle trick­reichen Erfin­dungen zur Vermin­de­rung des Rei­bungs­wider­stands zu Anwendung, wie sie die Evolution bei schnel­len Wassertieren hervor­gebracht hat. Schnelle Unterwasserboote besitzen nach dem Vor­bild der Delfine im Frontbereich elastisch-dämpfende Oberflächen­auf­träge. Durch diesen Trick wird der Bereich gering reibender laminarer Strö­mung stromab ausgedehnt. Ein Verkehrs-U-Boot im Jahr 2099 besitzt selbst­ver­ständlich im rückwärtigen Teil rillenförmige Mikro­struk­turen, die denen von Hai­fisch­schuppen nachgebildet sind. Durch diese Füh­rungs­rillen werden turbulente Schlingerbewegungen ge­dämpft und damit weitere Reibungsverluste eingespart. Schließlich werden in Bereichen beson­ders hoher turbulenter Reibung durch Lufteintrag in die Grenzschicht Mikro­blasenschleier erzeugt, die den örtlichen Rei­bungs­widerstand besonders stark reduzieren (bis zu 80 Prozent, wobei allerdings Energie zugeführt werden muss). Das Unterseeschiff 2099 erfährt so gegen­über dem wellenerzeu­genden klas­sischen Schiff eine Reduktion des Gesamtwider-standes von 85%.

Am Flugzeug im Jahr 2099 ist die gerillte Haifischoberfläche ebenfalls zur Regel geworden. Dabei wird nicht mehr wie gegen Ende des 20. Jahrhunderts mit selbstklebenden Ribletfolien gearbeitet, son­dern es gibt selbstorganisierende Anstriche, die im frischen Zustand während so genannter Formierungsflüge – von den Schubspannungen gesteuert – eine Längsrillenstruktur annehmen.

Das Flugzeug war von Anbeginn eine bionische Erfindung. In der Mitte der Rumpf, vorn der Flügel und hinten das Leitwerk: Das ist die Lösung der biologischen Evolution, die der opti­mierende Inge­nieur nicht besser hat konzipieren können; und das gilt auch im Jahr 2099. In einigen Details ist das Flugzeug sogar noch vogelähnlicher gewor­den. Aufgespreizte Flügel­enden, Multi-Winglets ge­nannt, zieren jedes Flugzeug. Dieser aerodyna­mische Kunstgriff setzt bei Flü­geln begrenz­ter Streckung den Rand­wir­bel­widerstand um 10 bis 15% herab.

Vom Vogel inspiriert ist auch der aerodyna­mische Trick der künst­lichen Deckfedern. Das Deckfeder-Phänomen war schon 1995 be­kannt: Wenn sich bei hoher Flügelanstellung vorn auf der Flüge­lober­seite ein hoher Un­ter­druck aufbaut kehren wand­nahe abgebremste Strö­mungsteil­chen ihre Strö­mungs­rich­tung um. Die rückströmende Grenzschicht hebt die Haupt­strömung von der Flügeloberfläche ab und es kommt zur Strömungsab­lösung mit dem gefürchteten Auftriebs­zu­sam­menbruch. Die bie­ge­weichen Deckfedern der Vögel fungieren als Ablösebremsen, indem sie wie Rückschlagventile eine umgekehrte Strö­mung nicht passieren lassen. Die Ablösebremsen 2099 werden nicht mehr mecha­nisch durch sich abhebende fingerförmige Klappen reali­siert. Statt­dessen wird ein bremsender Ionenwind erzeugt, der die Grenz­schicht-Rückströmung aufhält. Oberflächenkämme in Mikrome­ter­größe mit stromab weisenden Nano-Zinken injizieren Elektronen in die Grenz­­schicht. Luftmoleküle werden ionisiert, die sich dann stromab zur in die Oberfläche eingelassenen Anode bewegen. Es waren die Ladungs-Ab­streifkämme des Sahara-Sandskinks, die bei der Entwick­lung der Elek­tronen emittierenden Nano-Spikes Pate gestan­den haben. 

Die Besonderheit des Vogelfluges ist der Schwingen­an­trieb. Doch es gibt auch im Jahre 2099 keine Ver­kehrsflugzeuge mit schwin­genden Flügeln. Es ist kaum machbar, einen 30 Meter langen Flügel nach Vo­gel­art auf- und abzuschwingen. Die vordergründige Naturkopie ist aber auch nicht Ziel der Bionik. Der Bioniker fragt nach den Prinzipien, die einer Lösung der biologischen Evolution inne­wohnen. Die Antwort: Beim Schwingenantrieb wird Luft­ über der ganzen Spannweite erfasst und beschleunigt. Die große Luftmasse muss, um den notwendigen Schub zu erzeugen, dann nur wenig beschleunigt werden. So wird we­ni­ger (mit dem Quadrat der Geschwindigkeit anwachsende) kinetische Ver­lust­energie hinter dem Flugobjekt zurückge­las­sen als beim Schub­strahl eines Strahltriebwerks. Energetisch ideal ist es, nur die durch Reibung am Flugobjekt abgebremsten Luft­partikel wieder auf die ursprüngliche Geschwindigkeit zu beschleunigen. Hinter einem solchen Flugobjekt herrscht, wenn es vorbei geflogen ist, vollkommene Ruhe. Es hinterlässt keine kinetische Verlustenergie.

 So ist es gerecht­fertigt, von einer Nachahmung des Schwingen­fluges zu sprechen, wenn 2099  das Integral­trieb­werk erprobt wird. Das Integraltrieb­werk verzahnt Widerstands- und Vor­triebs­er­zeugung. Strei­fen­­för­mi­ge in die Oberfläche eingebettete elektro­nische Treib­bän­der (Plasma-Aktuatoren genannt) beschleu­nigen die abgebremste Strö­mung. Der Aktuator-Flieger operiert in einer Flughöhe von 20 000 Meter. Wie bei der evakuierten Elektronenröhre wird hier die Elektronenemission erleichtert. In Kon­kurrenz zu diesem elektrischen Inte­gral­antrieb steht im Jahre 2099 ein thermody­namisch-akustisches Sys­tem, das in der Form einer Wan­derwelle die Strömung beschleunigt. Die energiesparenden Wellenantriebe eignen sich nur für den Reiseflug (Bild 11). Für des Starten und Steigen eines Plasma-Fliegers müssen singuläre Hochschub-Trieb­werke eingesetzt werden, die in Reiseflughöhe eingefahren werden. Bedingt durch einen Lawi­nen­effekt besitzen die Plasma-Flieger des Jahres 2099 einen um 80% redu­zierten Treib­stoffverbrauch.

 
 

Bild 11:  Aktuator-Verkehrsflugzeug 2099  (von einer Wolke verdeckt )

 
   
Bionik der Abfallbeseitigung

Besorgniserregend entwickelte sich mit steigender Lebensqualität der Menschheit das Anwachsen des Abfalls. Anfänglich versprach sich die Umweltschutz-Bewegung von einer bionischen Zukunft die Lösung die­ses gravie­renden Problems. Scheint doch das Prinzip dem Leben inne­zuwohnen, allen Abfall or­dentlich zu entsorgen. Doch bei genauerem Hinsehen wird klar, dass Organismen keineswegs „umwelt­bewusst, handeln. Die Erfindung der Photosynthese in der Urzeit und die damit verbundene Sauer­stofffreisetzung war eine ernsthafte Bedrohungen des Le­bens auf der Erde. Das Umweltgift „Sauerstoff“ wurde nur langsam als neuer Roh­stoff vom Leben akzeptiert. Es ist kein inhärentes orga­nisches Prinzip, sondern es ist der Mangel, der das Leben zwingt, alles orga­nische Material aufzuarbeiten. Mangel – man denke an die Zeiten nach den großen Kriegen – lässt Abfall gar nicht erst entstehen. Der Mangel in der biolo­gischen Welt resultiert aus der Tatsache, dass die Evolution jede Nah­rungsnische mit einer Organis­men-Popula­tion be­setzt, die sich bis an die Grenze des Möglichen vermehrt.

Mangel walten zu lassen war keine Alternative um dem Besorgnis erregenden Anwach­sen des Mülls Herr zu werden. Recycling musste verordnet werden. Doch der Aufbau einer technischen Kultur mit „erzwungenem“ Recycling wurde im 21. Jahrhundert zunehmend kost­spieliger. Der Wunsch nach immer leis­tungsfähigeren technischen Pro­dukten hatte zur Folge, dass die stoff­liche Welt im­mer vielfältiger wurde. Die exotischen Produkte mussten mühselig zerlegt und die Rohstoffe wieder aufbereitet werden.

In der Welt des Lebens ist die Wiederverwer­tung der Ausgangs­stoffe einfacher. Orga­ni­sche Technik kon­struiert – salopp gesehen – mit zwei Mate­ri­alien, einem festigkeitsge­benden Stützmaterial (Knochen) und einem universellen Form- und Funktions­material (Gewebe). Davon profitiert jeder Palä­on­to­loge, der Jahrmillionen alte Knochen und Scha­len aus­gräbt, während das Weichma­terial längst in den biolo­gi­schen Kreislauf rückge­speist wurde. Durch diese simple Tatsache geleitet bekam die Materialwissenschaft im 21. Jahrhundert eine neue Aufgabe: Es galt, nicht mög­lichst viele neue Mate­rialien zu erfinden; gewünscht war ein univer­selles supra­mo­lekulares Funktions- und Struk­­tur­mate­rial, das in den ver­schie­de­nen Erschein­ungs­formen die Eigen­schaft von Gummi, Glas, Lei­ter, Halb­lei­ter, Isolator, Leucht­stoff, Ener­gie­speicher, Schmier­stoff, Kühl­mit­tel, Kleber, u. a. über­neh­men kann. Und ein solcher Stoff wurde mit der Erfindung der Protein-Mi­mese PROMIM geschaffen. Kenn­zeichen von PROMIM ist, dass es – ge­treu dem biolo­gi­schen Vorbild – primär nur schwache Molekülbindungen eingeht (an Stelle einer star­ken kova­len­ten chemischen Bindung tritt z. B die Was­ser­stoff­brücken­bin­dung). So lässt sich PROMIM leicht ausein­an­der­brechen, sodass die ur­sprüng­lichen mole­ku­laren Grund­bau­steine zu­rück­erhalten werden. 

Damit setzt sich 2099 mehr und mehr die bioanaloge Recycling-Idee durch. Ein Fernseher, ein Kühl­schrank, ein Auto, ein Haus besit­zen z. B. eine tragende Struktur aus Alu­mi­nium, während der form- und funk­ti­onsge­bende Rest mehr und mehr aus der Protein-Mimese PROMIM aufgebaut ist. Es gibt bereits einige Produkte, die zu 100 Pro­zent diese Zwei-Materialien-Tech­nik verwirklichen. Und die Palette der reinen PROMIM-Produkte nimmt stetig zu. Es ist der Preis, der den Markt in der gewünschten umweltschonenden Weise reguliert. Denn der Preis eines technischen Gegenstands bestimmt sich 2099 immer aus dem Auf­wand, der notwendig ist, um diesen Gegenstand ein 2. Mal aus demselben Material ent­stehen zu lassen. Wegwerfprodukte oder Pro­dukte mit großem Recyc­ling­aufwand sind so im Nachteil. Das Bild 12 zeigt die bioanaloge „Verkompostierung“ von PROMIM-Produkten unter der Zugabe eines den Zersetzungsprozess beschleunigenden Katalysators.

 
 
 

Bild 12:  Alles auf einen Haufen - Verkompostierung von PROMIM-Produkten

 
   

Verunreinigungen, bedingt durch gezielte „Dotierung“ oder unge­wollte Verschmut­zung von PROMIM, werden durch ein künst­liches Im­mun­system (der Nachbildung des biolo­gi­schen Saubermachers) ent­fernt. Der Immuni­sator ist ein Mole­kül­komplex, der Fremdstoffe ge­zielt erkennt und konglo­me­rieren lässt, sodass diese ausflocken. Wer ein „dotiertes“ PROMIM-Produkt auf den Markt bringt muss den Immuni­sator mit zur Verfügung stellen. Zusammengefasst: Mit der Wende in das 22. Jahrhundert beginnt das Zeitalter der selbstor­gani­sie­renden replikativen Produk­tion­stechnik mit bioana­lo­gem Recycling.

 
   

Computer im bionische Zeitalter

In der Mitte des 21. Jahrhunderts musste eine Krise in der Com­pu­tertechnik überwunden werden. Die Programme hatten eine Kom­plexi­tät erreicht, dass sie von Menschenhirnen kaum noch gewartet, geschweige denn weiter­entwickelt werden konnten. Schon damals wur­den Möglichkeiten geprüft, um diese vorausgesehene Komplexi­täts­bar­riere zu überwinden. Mit der so genannten genetischen Pro­gram­mie­rung sollte z. B. Software sich selbst generieren. Schon bald konnten Mathematiker exakt beweisen, dass die Selbstprogrammierung eines klassischen Von-Neumann-Computers niemals schneller als mit expo­nen­tiellem Aufwand erfolgen kann, das heißt ein so genanntes NP-har­tes Problem vorliegt. Selbstprogram­mie­rung lässt sich nur durch einen evolutionsanalogen Prozess bewerk­stelligen, und die­ser er­for­dert das Vorhan­densein einer star­ken Kau­sa­lität des Systems (kleine Ände­run­gen → kleine Wirkungen). Einen Computer mit dieser Eigenschaft gab aber schon längst, nämlich das Gehirn. Der biologische Com­puter, der auf eine evolutionäre Pro­grammierung angewiesen ist, arbei­tet jedoch anders als der von Neu­mannsche Com­puter. Hardware und Software bilden eine geschlossene Einheit, in wel­cher das Prinzip der starken Kau­salität erfüllt wird.

Neuronale Netze sind evolutions- und lernfähig. Computer-Archi­tek­turen mit gehirnähnlichen neuro­nalen Strukturen verdrängten des­halb in der zweiten Hälfte des 21. Jahr­hunderts endgültig den klas­si­schen Compu­ter. Die neuro­nalen Computer wur­den nicht mehr auf kon­ventionelle Weise program­miert, sondern vom Lehrer wie ein Schü­ler belehrt. Der „Programmierer“ konnte ein Zeichenprogramm ent­werfen, indem er dem Computer die Grundoperationen des Zeichnens auf einem Grafik­ta­blett vor­machte. Doch dieses langwierige Belehren durch Vor­machen wurde nur selten praktiziert. Man konnte sich neu­ronale „Hauslehrer“ vom GNN (Global Neural Net) herunterladen und so seinen Computer in der ge­wünschten Weise fit machen.

Das anstehende 22. Jahrhundert wird als Beginn des neuronalen Zeitalters gefeiert: Das Gehirn und seine Ar­beits­weise ist das Vorbild der Infor­mationsverarbei­tung. Das Global Neural Net, in dem die Neuro­computer weltweit zusammengeschlossen sind, ist um Grö­ßen­ord­nun­gen leistungsfähiger als das World Wide Web vergangener Zeiten. Das GNN arbeitet wie ein überdimensionales Gehirn, in das  komplizierte wissenschaftliche Fragestellungen eingegeben werden können. Die Antworten führen zu einer gewaltigen Erweiterung des menschlichen Wissens und zu sensationellen technischen Erfindungen. Mit dem Ausbau des GNN ist erstmals wieder eine Beschleunigung des wissen­schaftli­chen und technischen Fortschritts zu beobachten.    

Seit Gutenbergs Erfindung um 1440 war Drucken eine zwei­di­men­sionale Kunst. Ein elektronischer Gutenberg-Drucker gehörte Ende des 20. Jahr­hun­derts zu jedem Computer-Arbeitsplatz. Als dann das Rapid Pro­totyping entwickelt wurde stellte sich die Frage: Lässt sich ein Drucker bauen, der dreidimensionale Gegen­stände in einer Art Nähr­lösung wachsen lässt? – Der 3D-Drucker wurde Mitte des 21. Jahr­hunderts Wirk­lichkeit. Vorbild für seine Konstruktion war die durch Botenstoff-Diffusion gesteuerte biologische Ontogenese. An die Stelle der Botenstoffe traten elektrische und magnetische Felder, die Start und Stopp des räumlichen „Auskristallisierens“ eines protein-mime­tischen Materials steuerten. Die ersten 3D-Drucker konnten lediglich einfache Spielzeugfiguren für Kinder erzeugen. Bald darauf waren ein­fache Gebrauchsgegenstände wie eine Sup­pen­schüssel, eine But­ter­brot­dose, eine Zahn­bür­ste, ein Klei­derhaken im Internet abruf­bar, die mit einem Morphoprinter materialisiert wurden. Lange bestan­den die Pro­dukte der Morphoprinter aus einem homogenen Material. Ein Durch­bruch gelang mit einer weiterentwickelten Morpho-Nähr­lösung, bei der sich auch die Mate­rialei­gen­schaften über das variable elek­trische und magnetische Feld räumlich verändern ließen. So kann im Jahre 2099 ein schickes Port­monee im Internet angewählt und per Telefertigung realisiert werden (Bild 13).

 
 
 

            Bild 13:  Aus der Betriebsanleitung für den MorphJet 7

 
   

Eine andere epochale Erfindung im Jahr 2099 betrifft das PNN (Personal Neural Net). Die Miniaturisierung von Licht- Schall- Tast- Riech- und Schmeck­sensoren nach biologi­schem Muster sowie die gewal­tige Asso­ziations­leistung neuronaler Chips machte es möglich, dass Men­schen ihre persönliche Informationsaufnahme parallel in ein mini­a­tu­ri­sier­tes tech­nisches Neuronennetz ein­spei­sen und speichern können (Bild 14). So kann ein erlebnis­reicher Ur­laub rück­wir­kend in allen Ein­zelheiten repro­duziert werden. Gegen Ende des 21. Jahr­hun­derts werden die Auswirkungen dieser Praxis kon­trovers diskutiert. Denn mit dem Fort­schreiten der neuronalen Com­puter­tech­nologie und kon­sequenter An­wen­dung dieser parallelen Aufzeich­nungs­technik entsteht so etwas wie ein gespei­chertes Paral­lelwesen im PNN. Man diskutiert heiß darüber, was mit einem zukünf­tigen „Paral­lelgehirn“ nach dem Ableben der Trägerin oder des Trä­gers zu tun sei.

 
 

          Bild 14:  An künstliche Sinnesorgane

      angekoppeltes Paralleles Neuronales Netz (PNN)
 
   

Zweisprachig aufgewachsene Träger eines PNN vertreiben im Jahre 2099 die besten Neuro-Chips für die simul­tane Sprachüber­set­zung. Alle bisherigen Ansätze, synthetisch einen leistungsfähigen Sprach­übersetzer zu programmieren, konnten das Sprach­gefühl eines Men­schen nicht erreichen. Erst das Asso­zia­ti­ons­ver­mö­gen eines lang­zeit­trai­nierten massiven neuronalen Net­zes führte zum ersehnten Durch­bruch. Der elektronische Dolmet­scher, der nicht radebrechend hilft, sondern Lyrik in Lyrik umsetzt, ist 2099 verwirklicht. Aufsehen­erre­gende Erfolge werden mit zwei­spra­chigen PNN-Chips erzielt, die von verschiedenen Trä­gern stammen und nach dem Muster der Biolo­gie auf einer höheren Organisa­tions­stufe zusam­men­ge­schaltet werden.

Im Jahr 1994 hatte Leonard M.Adleman gezeigt, dass Erbmo­le­küle (DNA-Moleküle) rechnen können, indem er ein einfaches Beispiel des Hamiltonschen Wegeproblems der Informatik im biochemi-schen Labor löste. Tatsächlich erinnert das Über­schrei­ben der Erbinfor­ma­tion von der DNA auf die RNA für die Protein­syn­these an eine Turing-Maschi­ne. Der DNA-Rechner 2099 ist aber eher wie ein Ana­logrechner vergangener Zeiten konzipiert. DNA-Rechen­elemente sind Mikrofluss­reak­toren für die Strang­re­plikation, das Strangschneiden, die Sequenz-Insertion, die Sequenz-Deletion, die Se­quenz­selektion, die Se­quenz­län­gen­separation bis hin zur Se­quenz­detektion. Nach­dem der Program­mierer das Fluss­bild seiner Basis­­operationen festge­legt hat, werden die elementaren Mikrofluss­reak­to­ren nach diesem Plan in das computer­gesteuerte Grundsystem einge­steckt. Dieser gene­tische Com­pu­ter ist ein Exot. Er wird einge­setzt, wenn die Lösung eines Pro­blems die voll­ständige Enumeration aller Möglich­keiten erfordert. Probleme dieser Art (von Ma­the­matikern NP-hart genannt), für die es keine Lösungs­algorithmen gibt, werden in einer Welt zunehmender Kom­plexität immer zahlreicher. Mit einem DNA-Com­pu­ter 2099 kön­nen parallel 1028 Lösungsmög­lich­keiten durchmustert wer­den. 1028 ent­spricht z. B. der Zahl der Tiere, die in den letzten 500 Millionen Jahren auf unserer Erde gelebt gaben. Das Bild 15 zeigt einen DNA-Com­puter, wie er um das Jahr 2000 betrieben wurde. Tatsächlich wur­den in den Anfängen der gene­tischen Rechentechnik DNA-Moleküle wie in einem Schul­expe­riment synthetisiert, rekombiniert, repliziert und sel­ek­tiert. Bei den ausgereiften Modellen der DNA-Com­puter sind che­mische Reakti­onsgefäße nicht mehr sicht­bar. Dreidi­mensionale Mole­kül­operationen in flüssiger Phase bleiben Grund­lage der geneti­schen Rechentechnik.

 
 

 Bild 15:  Historischer DNA-Molekülcomputer aus dem Jahr 2000

 
   

Bionische Robotik

Die nach dem Ebenbild des Menschen geformten Roboter sind 2099 nicht wegzudenken. Es sind laufende, mit bioni­schen Händen verse­hene Maschinen (mit Kindchenschema), die den Besitzer unterhalten sollen (z. B. Halma spielen oder an Ge­schick­lich­keits­wett­bewerben teil­neh­men). Mit einer Palette von Zusatzgeräten können die humanoiden Un­ter­haltungsroboter auch nützliche Tätig­keiten verrich­ten, z. B. Ra­sen­ mähen, Staub ­saugen, Kranke pflegen, Kinder beaufsichtigen usw.

Bei der Erkundung von Planeten und Monden des Sonnensystems haben auf sechs Beinen krabbelnde autonome Roboter die rad­ge­trie­be­nen Rovers völlig verdrängt. Es bestätigt sich, dass die biologische Lösung des Laufens un­schlagbar ist, wenn es um das Fortkommen im un­wegsamen Gelände geht. Das hat die biologische Evolu­tion offen­sicht­lich auch er­fah­ren. Eine besondere Domäne im Jahre 2099 ist der Bau von Kleinst- und Super­kleinst-Robotern. Schneckenähn­liche Mi­kro­­ro­boter, so genannte Cochlo­iden, „fressen“ perma­nent den Schmutz von den Fens­ter­scheiben (Bild 16). Und der Traum der Mediziner wird wahr: Super­kleinst­roboter (über­stei­gert Nanobots genannt) zir­ku­lieren im Blut­kreis­lauf, um uns unentwegt von Innen zu inspizieren.

 
 
 

     Bild 16:  Haushaltshilfe 2099 ― Cochloid beim Fensterputzen

 
   

 

Spezialroboter sind zu Lande, zu Wasser und in der Luft tätig. Die Schar der Unterwasserroboter für das Arbeiten im Meer und auf dem Meeresgrund teilt sich in zwei Gruppen. In der freien Was­serwelt operieren die Robofische. Sie sind, wie der Name andeutet, fischähnlich mit Heckantrieb durch eine Flosse. So wie im Flugzeug­ent­wurf haben sich andere Lösungen als die der Evolution nicht durch­setzen können. Am Meeresboden wiederum agieren die Robo­krab­ben. Auch hier gilt: Die Evolution hat in der Formgebung der Krabbe op­ti­male Vorarbeit geleistet. Krabben halten sich auch bei starken Ge­zei­tenströmungen auf den Beinen. Wird eine Brandung zu stark, gräbt sich der Gliederfüßler kurzzeitig im Sand ein. Und mit ihren 8 Beinen sind Krabben beim Überwinden von Hinder­nissen besonders robust.       

Bereits 1957 hatte der Schriftsteller Ernst Jünger in seinem Roman „Gläserne Bienen“ die Vision einer künstlichen Biene, die im Gar­ten eines Industriemagnaten über Video die Besucher ausspio­niert. Beginn des 21. Jahrhunderts haben dann Ingenieure metho­disch und Modellflug-Enthusiasten mehr sportlich daran gearbeitet, kleinste Flug­objekte, so genannte Mikro Air Vehikel (MAV) nach dem Vorbild kleiner Vögel und Insekten zu erschaffen. Besonders ehrgeizig war das Projekt RoboFly an der Universität Berkeley, das den Bau einer piezo­elektrisch angetriebenen künstlichen Fliege mit 2,5 cm Flügel­spann­weite zum Ziel hatte. Was dabei schließlich herauskam, war noch weit von dem entfernt, was eine echte Fliege kann. Aber RoboFly hat die Bioniker herausgefordert, es wieder und wieder zu versuchen.

Erst seit 2090 gibt es die Libelloide, die es dem biologischen Vorbild gleichtun. Während frühere künstliche Libellen im Freiland rasch vom Winde verweht wurden, beherrscht der Libelloid 2099 die Kunst, auch bei Windstößen auf der Stelle ste­hen zu bleiben. Libelloide werden für die Überwachung enger Straßen­schluch­ten, für die Umwelt­inspektion und für die Höhlen­er­kundung einge­setzt. Ein Libelloid kann durch U-Bahnschächte fliegend diese inspi­zieren. Er kann durch Abwasserkanäle hin­durch fliegen, die für das Begehen durch einen Men­schen zu klein sind. Gebäudeklimatische Mes­sungen (Luftzirkulation, Temperatur, Feuchtigkeit) werden mit Schwärmen von Libelloiden durchgeführt. Lecks in Gaslei­tungen, schmorende Stromkabel und  Schimmelnester werden durch Libelloide aufgespürt. Das Bild 17 zeigt das 2099er Modell eines Multifunktions-Libelloids.

 
 

       Bild 17:  Multifunktions-Libelloid  (Modell 2099)

 
   

Die Entwicklung geht weiter. Es wird der Prototyp einer künst­lichen Mücke angekün­digt. Der Moskitoid soll einen Delinquenten (ein­schließlich Terroristen) unbe­merkt durch einen schnell wirkenden Betäu­bungsstich kampfun­fähig machen.

Schwarm-Ingenieurwesen (Hesmonik)

In den 1950er und ’60er Jahren war die Kybernetik in aller Mun­de. Dieser Wissenschaftszweig hatte das Ziel, Regelungs- und Steu­erungs­vorgänge in Biologie und Technik von einer übergeordneten Warte zu behandeln. Im 21. Jahrhundert hat die Hesmonik das Erbe der Kyber­ne­tik angetreten. Schwarmbildungen in Biologie und Technik wer­den von einer gemeinsamen Metaebene behandelt. Das Wort Hesmonik wurde aus dem Griechischen ©σμος = Bienen­schwarm abgeleitet. Die Theorie der auto­nomen mobilen Schwärme spannt sich vom astro­phy­sikalischen Vielkörperproblem über die Computeragenten bis hin zum wirbelnden Mückenschwarm und wimmelnden Ameisen­haufen.

Die Entwicklung von Schwarmrobotern gilt als eine besondere Diszi­plin in den Ingenieurwissen­schaften. Ein Schwarmroboter, kurz Schwarmbot genannt, besitzt die geeigneten Kommunikationskanäle, um mit den Nachbarn in ständigem Kontakt zu sein. Erst durch die Verbindungen entsteht die so genannte Schwarmintelligenz. Schwarm­bots besitzen häufig Kopplungsglieder, mit denen sie sich bei Bedarf zu größeren Konstrukten selbst zusammenfügen können.  

Schwarmintelligenz wird ausgiebig in der Robotik genutzt. Neben dem klassischen Bauen mit Baggern, Kränen, Betonmi­schern und Stamp­fern etabliert sich 2099 eine Technik, die mehr der Kunst der Termiten gleicht. Handtellergroße grabungs-, kletter- und hand­ha­bungs­fähige Baurobo­ter machen den Bauar­bei­tern Konkurrenz. Die in Massen agierenden Robo­terter­miten wer­den so programmiert, dass sie im Kom­mu­ni­ka­tions­gefüge des Schwarms kunstvolle Bauten erstel­len. Es ist die Aufgabe der Programmierer, das emer­gente Schwarmver­halten evo­lu­ti­ons­strategisch so zu modifizieren, dass aus der termiten­bau­ähn­li­chen Plastik ein für den Menschen nützliches Bauwerk ent­steht. Für gewisse Elementarbauten wie Mauer, Treppe, Säule, Bogen ist der Einsatz von Robotertermiten im Jahr 2099 Stand der Technik (Bild 18 ).

 
 

      Bild 18:  Robotertermiten errichten die Pfeiler einer Autobahnbrücke

 
   

Das Schwarm-Ingenieurwesen ist die Konsequenz der Roboter­minia­turisierung. Was kann ein Zenti- Milli- oder gar Mikrometer mes­sender Robo­ter schon bewerkstelligen, damit spürbare Resultate für den Menschen entstehen? Erst die Kooperation sehr vieler Minia­tur­roboter wird in der Mesowelt des Menschen Phänomene hervor­bringen, deren Eigen­schaften häufig eine neue Qualität besitzen.

 Schwarmbots operieren zu Lande, in der Luft und im Wasser in der Form von verteilten Systemen. Das Gebiet wird nicht seriell abge­scannt, sondern der optimal verteilte Schwarm macht eine Mo­ment­aufnahme der zu messenden Umweltparameter. Robo­ter­schwärme sind 2099 bei geo­physikalischen Ver­mes­sungen, der Um­welt­über­wachung oder im Kata­stro­pheneinsatz nicht mehr wegzu­denken. Autonome Un­ter­­wasser­roboter  betrei­ben Bergbau am Meeresboden, und ihre kleins­ten „Artge­nos­sen“ filtern Spurenelemente aus dem Meerwasser. Die Kunst der Pro­gram­mierung dieser Filter­roboter besteht darin, sie in einem steuer­baren Schwarm zusammen­zuhalten. So kann der vom Schwarm heraus­gefilterte Stoff periodisch einfach abge­erntet werden. Ein Ölteppich wiederum wird durch schwim­mende intelligente Roboter im kollektiven Schwarm wesentlich effektiver abgesaugt als es durch die klassischen Techniken möglich war.

Eine besonders segensreiche Aufgabe vollbringen im Schwarm agierende krebsähnliche Roboter bei der Stopfung von Undichtigkeiten an Staudämmen und im Deichwesen. Schon im Keim werden undichte Stellen von den Stopf­krebsen aufgedeckt und kollek­tiv mit den bionischen Dicht­mitteln  Annelidin oder Ingerfem  zugestopft (Bild 19).

 
 

                Bild 19:  Stopfkrebse dichten eine Deichwand

 
   

Im Jahr 2099 kommt eine neue Methode der Detektion von verschüt­teten Menschen zum Einsatz: Miniatu­risierung der Mikro-Air-Vehikel und moderne Schwarm­algorithmen ermöglichen es, dass eine Wolke autonom fliegender Libelloide die Form einer Antenne annimmt, deren Geometrie sich opti­mal an das zu detektierende Signal anpasst. Die intelligente Antenne kann so ein Areal mit höchster Empfind­lichkeit abscannen. Mit der selbstorganisierenden adaptiven Freiluft­antenne kann das elek­tro­mag­ne­tische Feld eines menschlichen EEG auf eine Entfernung bis zu 100 m detektiert werden. Das Verfahren erinnert an die Fähig­keit der Haie, im Mee­resboden verborgene Beute durch Detek­tion ihres neu­ro­nal erzeugten elektrischen Feldes auf­zuspüren (Bild 20).

 
 

           Bild 20:  Libelloide formen eine Schwarmantenne zur

         Detektion von Verschütteten unter einer Lawine

 
   

Ebenfalls neu ist 2099 die Verwirklichung einer lokal gezielten Schäd­lingsbekämpfung in der Land- und Forstwirtschaft durch Libello­ide. Ein Schädlingsfraß setzt fast immer spezifische Duftstoffe der ge­schädigten Pflanze frei. Die mit Einmoleküldetektoren ausgerüsteten Libelloide eines Schwarms fliegen in windstillen Morgenstunden diese Duftquellen gezielt an und versprühen lokal ein Insektizid (Bild 21). Zum Alltag im Jahr 2099 gehört auch, dass Libelloid-Wolken als besondere Attraktion am Himmel, über Sportstadien und auch in Straßen­schluchten dreidi­mensi­onale Rekla­mebilder formen.

 
 

        Bild 21:  Libelloid lokalisiert und eliminiert einen Kartoffelkäfer

 
   

Bionische Sensorik

Die Empfindlichkeit biologischer Sensoren war und ist (auch 2099) die Herausforderung für die Mess­technik. Photorezep­toren sprechen auf ein Lichtquant an, Duftrezeptoren können die Menge von einem Mole­kül detektieren, und Haarzellenrezeptoren messen mechanische Ver­schiebungen von nur einem Zehntel des Durchmessers eines Wasser­stoffatoms. Um die extreme Empfindlichkeit und hohe Selektivität der biologi­schen Signaldetektoren zu nut­zen hatte die Wissenschaft der Bio­sen­sorik biotech­nologisch-bionische Zwittersysteme entworfen. Das Herz eines Biosen­sors, die Region der Signalaufnahme, entstammte einem Organismus. Der Rest der Appa­ratur baute sich da­gegen aus rein technischen Ele­menten auf.

Es war der biologische Teil des Mess-Systems, der den Messtech­niker nicht befriedigen konnte. Ein Biosensor musste am Leben erhal­ten werden und das machte ihn äußerst anfällig. Die Bioniker waren aufgerufen, den vollsynthetischen Biosensor zu entwickeln. Das ist in vielen Fällen gelungen. So kann im Jahr 2099 für fast jedes relevante Molekül ein vollsynthetischer Biosensor angeboten werden. Das Mess­prin­zip imitiert ziemlich genau die Arbeitsweise biologischer Chemo­sensoren. Zuerst wird ein „Negativmolekül“ synthetisiert, an welches das zu detektie­rende Molekül andockt (Schlüssel-Schloss-Prinzip). Das so beladene Nega­tivmo­lekül ve­rwandelt sich in einen Katalysator, der einen chemi­schen Syntheseprozess in Gang setzt. Die Produkte dieses Prozesses wirken ihrerseits wiederum katalytisch und so fort. In einer solchen Katalysatorkaskade wird durch den anlaufenden Lawi­nen­ef­fekt die riesige Verstärkung erzielt, um das Andocken nur eines Signalmoleküls an das primäre Negativmolekül messbar zu machen (Bild 22).

 
 

        Bild 22:  Ein-Molekül-Detektion durch eine Katalysator-Kaskade

 
   

Eine Katalysatorkaskade zum Laufen zu bringen ist für den Che­miker das kleinere Problem. Viel schwieriger erweist sich das Stoppen der chemischen Syntheselawine. Das gelingt nur, wenn eine zeitlich ver­setzte Synthese von Stoppmolekülen die kata­ly­tischen Produkte wieder aufbricht. Die Konstruktion eines Einmolekülmessgeräts nach dem Vorbild der Natur gelingt deshalb nur mit Hilfe diffiziler rege­lungs­technischer Theorien. Nach dem Prinzip der Katalysatorkaskade wurden auch extrem empfindliche mecha­nische, akustische, magne­tische und elek­trische Sensoren entwickelt  

Der technische Nutzen dieser biologisch inspirierten Super-Sen­soren ist immens. Künstliche Libellen, die mit Einmolekül-Spreng­stoff­sensoren ausgerüs­tet sind, spüren verborgene Sprengsätze auf. Es gibt 2099 so genannte Canisoren (künstliche Hundenasen), die mit einer Aus­wahl von Einmolekülsensoren auf Komponenten des mensch­lichen Schweiß­geruchs spezialisiert sind. Künstliche Libellen, mit einem ent­sprechend geeichten Canisor bestückt, fol­gen so der Spur eines Ver­bre­chers. Die Beobachtung, dass Tiere ein bevorstehendes Erdbeben spü­ren können, führte zur Entwicklung von Erdbeben-Frühwarn­detek­to­ren. Ausdünstungen der Erde, Infraschallemissionen und Magnet­feld­ano­malien werden mittels molekularer Kaskadensensoren gemes­sen. Die Eichung dieser komplexen Erdbeben-Frühwarnsensoren ist 2099 noch in vollem Gange.

Bionische Ingenieur-Ausbildung

Im 20. Jahrhundert, der Sturm und Drang Zeit der Technik, wurden die Leistun­gen der Natur von technophilen Ingenieuren belächelt. Wo gab es in der Natur etwas Vergleichbares wie ein Kernkraftwerk, eine Rakete, eine Erd­außen­station, einen Jumbojet, einen Flugzeug­trä­ger. Diese Ein­stel­lung führte dazu, dass Natur und Technik mehr und mehr in einen Ge­gensatz gerieten. Und in der Ingenieur-Ausbildung wurde die Diver­genz zwischen Biologie und Technik wie „die zwei Kulturen“ C. P. Snows sogar gepflegt.

Zu Beginn des 21. Jahrhunderts kam die Wende. Man be­gann, Technik in biolo­gischen Kategorien zu denken. Die Devise der empor­kommenden Bionik lautete, soviel Technik wie mög­lich naturanalog zu gestalten. Inge­ni­eurstech­nische Lösungen, die naturgemäß nicht von der biologischen Evolution „abge­schlif­fen“ wurden, geraten zwangs­läufig in Kon­flikt mit der Umwelt. Denn die Tech­niken des Lebens haben sich im Zuge der Evo­lution anein­ander an­passen und in die Um­welt einpassen müssen. Das Umweltgift „Sauerstoff“ wurde im Laufe der Zeit zum Lebens­elixier. Bionik befasst sich grundsätzlich mit evolu­ti­onskon­formen Lösungen. Diese Hinwen­dung zu einer biologischen Tech­no­logie hat schulische und univer­sitäre Ausbil­dung stark refor­miert. Bionik wurde im 21. Jahrhundert zum zen­tralen Grund­la­gen­fach, ver­gleich­bar mit der Phy­sik im 20. Jahr­hun­dert. Denn im Fach Bionik können techni­sches und biolo­gi­sches Wissen parallel ver­mit­telt werden. Ingenieure erhalten so ihre biologische Grundausbildung. Der Wandel technisch-naturwis­sen­schaftlichen Den­kens im 21. Jahr­hun­dert zeigt sich auch darin, dass Theo­rien besonders gern am Beispiel bio­­lo­gischer Objekte ent­wickelt und geprüft werden (Bild 23).

Pinguinrumpf, Delphinhaut und Haifischschuppe sind die Vor­zei­ge­objekte, um die Theorie lami­narer, laminar instabiler und turbu­len­ter Strö­mungen zu vergegenständlichen. Im Fach Bionik wird klarge­stellt, dass sich die Theorie der Unter­schall-Aerody­namik in allen Finessen am Vogel ver­wirklicht findet. Die Theorie der Festkörper­rei­bung (mo­derne Nanotribologie) wird unter Zuhilfenahme von Wüstentieren und Wüstenpflanzen abge­handelt. Die Finessen der mathema­tischen Opti­mie­rungs­theorie wer­den aus den raffinierten gene­tischen Regeln des Verer­bungs­systems ab­ge­leitet. Das klas­si­sche Gebiet der Werkzeug­technik wird an der Werk­zeug­palette der Natur abge­han­delt, denn von der Ahle bis zur Zange ist hier alles vorhanden. Ähnliches gilt für die Messtechnik, deren Systematik vom Akustik- bis zum Zeilensensor zu­sätzlich an biologischen Vor­bil­dern dargelegt werden kann. Und die ultra­empfindlichen Messgeräte, die auf Katalysatorkaskaden aufbauen, sind ohne Biologiebezug sowieso nicht erklärbar.

 
 

Bild 23:  Biologisch-technische Grundvorlesung für Ingenieure 2099

 
   

Die Compu­tertechnik hat sich im 21. Jahrhundert in star­kem Maße auf die biolo­gische Seite geschlagen. Durch den mas­siven Ein­satz neu­ro­naler Systeme mit holografischem Speichervermögen orientiert sich die Ausbildung in der Computer­technik zwangsläufig am Vorbild „Gehirn“. Ebenso hat die Fer­tigungs­tech­nik im 21. Jahr­hundert einen grund­le­gen­den Wandel erfah­ren. Drehen, Bohren, Fräsen, Bie­gen, Pres­sen, Stan­zen, Gießen, Schweißen und ähn­lich grobe Opera­tio­nen ge­­hö­ren ja der Vergangenheit an. Fertigung im Jahre 2099 heißt Nano­tech­nologie gekoppelt mit selbst­organisierendem Wachstum. Deshalb sind die Prinzipien der biochemischen Protein-Fal­tung und die Onto­genie-Gesetze der Biologie die Lehrinhalte einer neuen Ferti­gungs­technik.

Bionik in Wissenschaft und Forschung

Mit dem ausgehenden 21. Jahrhundert kündigt sich das „beschwo­rene“ nach­wissenschaftliche Zeitalter an. Der wissenschaft­liche Mensch ist sich der Grenze seiner Denk­kapazität bewusst. Was er hat ersinnen können ist ersonnen worden. Mitte des 21. Jahr­hun­derts wurde erkennbar, dass sich die Wissen­schaft zu­nehmend im Kreise dreht. Zwar werden immer wieder neue Denk­ansätze kreiert. Letztlich zeigt sich jedoch, dass nur da gewesenes in neuem Gewand wiederholt wird. Jede vermeintlich neue Idee kann in der uner­mess­lich an­ge­wach­senen wissen­schaftlichen Litera­tur nach­träg­lich gefun­den werden. Zwar wer­den – getreu dem Vorbild des Zu­sammen­schlusses von Orga­nismen auf einer höheren Organisations­stufe – gigantische interdiszi­pli­näre For­schungs- und Wissen­schafts-Ver­bünde organisiert, um die begrenzte Denkkraft des Einzelhirns zu poten­zieren. Doch würde ein wirklich effektiver Gehirnverbund erfor­dern, dass der Mensch bereit wäre, einen Großteil seines freiheit­lichen individu­ellen Den­kens aufzugeben, um in einem Kasten­dasein dem Geistes-Verbund zu dienen. Dieser Weg wird aus ethischen Grün­den nicht beschritten.

Es gibt auch im auslaufenden 21. Jahrhundert mehr Wün­sche denn je, dieses und jenes besser zu machen. Und es gibt weiterhin Welt-Probleme. Noch längst ist kein paradiesischer Zustand der Mensch­­heit erreicht. In dieser Denk-Krise melden sich Anhänger der evolu­tionären Erkenntnistheorie zu Wort, und zwar mit dem Argu­ment, dass die neu­ronale Informationsverar­beitung einen „Schöp­fer“ hatte, nämlich die ge­ne­tische Informationsver­ar­beitung. Wenn man nun weiter philoso­phiert und da­von ausgeht, dass das erschaffende System über dem erschafften steht, sollte die genetisch-evolutive Informati­onsver­arbei­tung über der men­talen ste­hen. Kurz: Die gene­tisch-evolutive Informa­tions­verar­bei­tung sollte mehr leisten als die mentale. Die Regeln der biolo­gischen Evolu­tions­strategie sind von den theore­tischen Biologen mittlerweile gründ­lichst analysiert worden. Das lange als wunder­liche Tatsache angesehene Phänomen, dass 90% der DNA scheinbar keine Auf­gabe zukommt, hat eine über­ra­schende Auf­klä­rung er­fah­ren: Es ist diese falsch eingeschätzte Abfall-DNA, die mit der so faszinierenden Infor­mationsverarbeitung in unse­rem Gehirn vergleich­bar ist und die raf­fi­nierten Regeln der biolo­gischen Evolutionsstrategie codiert.

Die Denk­fabri­ken des wissenschaftlichen Zeit­alters werden durch Evolutions­fa­briken des evoluti­ons­technischen Zeital­ters abgelöst. Schon in der Mitte des 21. Jahrhun­derts wurden, in Anlehnung an die Max-Planck-Institute, die ersten Hermann-Hesse-Institute gegründet. Hier wird das visionäre Glasperlen­spiel Hermann Hesses in der Form von Molekül­spielen nach den geneti­schen Regeln der Evolution zur Reali­tät. In einem Molekül-Synthetisierer werden die Grundmoleküle (native Aminosäuren, siliziumanaloge Amino­säuren) polymerisiert. Das sich durch atomare Kräfte knäulende Makromolekül wird im Fitness-Eva­lu­a­tor geprüft. Die Registriernummern der besten Molekülkonformationen ge­langen in den Genotyp-Computer, der diese evolutionsstrategisch mo­di­fiziert. Eine solche „reale Molekülevolution“ in Reagenzglä-sern ist sehr zeit­aufwendig. Das epochale Experiment des Hermann-Hesse-In­sti­tuts für evolutionsstrategische Molekültech­nik, bei dem es gelang, sich selbstrepro­duzie­ren­de Mole­kül­ver­bände auf Silizi­um­ba­sis (die erste Stufe künstlichen Sili­zium-Lebens) zu kon­stru­ieren, lief ununterbrochen drei Jahre (Bild 24). Im Jahr 2099 ist es möglich, mit einem speziellen Molekül-Neuro­nen­computer die Eigenschaft der aus den Grundmolekülen synthe­ti­sierten Makromoleküle vorauszuberechnen. Die Molekülevolution wird dras­tisch beschleunigt. Das reale Reagenzglasexperiment wird nur noch für eine verfeinerte Nach-Evolution angewendet. Die neue Fertigungstechnik mit sich selbst­orga­ni­sie­ren­den, wach­­sen­den Materialien blüht. Mehr und mehr Zen­tren der Evolu­tions­tech­nik werden gegründet, in denen mit­­tels neu­ro­­naler Supercom­puter, die mit dem Global Neural Net (GNN) verbun­den sind, neue bioni­sche Moleküle evolu­ti­oniert werden.

 
 

          Bild 24:  Entwicklung eines Silizium-Replikatormoleküls Im

    Hermann-Hesse-Institut für evolutionsstrategische Molekültechnik

 
   

Auch evolutionskonforme Technik – das Ziel der Bionik – wird Probleme heraufbeschwören. Technik­folgeabschätzung, eine Erfindung des 20. Jahrhunderts, wird weiterbetrieben. Der Weise Weltrat, ein Zu­sam­men­schluss der 1000 besten Denker der Menschheit, versucht die Folgen jeder neuen Technik zu hinter­fragen. Dennoch, es gibt keinen Fortschritt ohne Fehler! Fehlent­wick­lungen müssen – getreu den Re­geln der Evolution – rückblickend selektiert werden.

Bionik in Politik und Management

Nachhilfe in Biologie für Manager im Jahr 2000: „Mucksmäuschenstill ist es im Saal, und der Vortragende fährt fort: So wie sich ein Orga­nismus selbst reguliere und auf Störungen der Außen­welt reagiere, ge­nau so müsse ein Betrieb funktionieren. Die Voraus­setzung dazu sei, die Komplexität der Abläufe innerhalb und außerhalb einer Firma zu er­fassen. Dazu bedarf es ganzheitlichen Denkens. Ein System muss funk­ti­onieren, statt nur produktorientiert zu arbeiten, erklärt der Vor­tra­gende. Ellenbogenmentalität schade, Erfolg verspreche das Jiu-Jitsu-Prinzip: Negative Energie von Mitarbeitern müsse genutzt werden, nur die Richtung solle man steuern. Tosender Beifall. Mit den Worten: Haben Sie den Mut, Ihre Firma als Organismus zu begreifen, der sich selbst re­gu­liert – dann sind Sie für die Zukunft gewappnet, beendet der Vortra­gende den Kurs. Frenetischer Jubel – auch so mancher knall­harte Per­so­nal­chef spendet minutenlang Applaus.“

Solche Gemeinplätze, zu finden auf einer Internetseite im Jahr 2000, haben aber bis 2099 nichts bewirkt. Wer eine Firma mit einem Orga­nismus vergleicht, will sagen, dass hier Regeln des Organischen gelten. Eine Regel des Organischen ist der Mechanis­mus der Evolution, und Evolution mit von außen aufoktroyierten Zügen ist keine Evolu­tion, sondern Steuerung. Um eine Moralitäts-Phrase des Vor­tra­genden aus Jahr 2000 aufzunehmen: Ellenbogenmentalität ist unsittlich; das Eier­legen des Kuckucks in fremde Nester ist es auch. Aber die Evo­lution hat diese Strategie allein zum Vorteil des Kuckucks erfunden. Wenn alle Firmen nach den Maximen des Vortra­genden agie­ren wür­den, wie kann die Einzelfirma damit die anderen noch schlagen?

Der Manager im Jahr 2099 hat an einem Kurs für evolutionäres Management teilgenommen. Er weiß, dass die Vielfalt des Lebens durch die vielen Arten bestimmt wird. Jede Art besetzt einen Gipfel in der ge­ne­tischen Berglandschaft. Und Lebewesen haben dann die größte Aus­sicht auf ein Überleben, wenn sie einen neuen Gipfel erobern und nicht mit Konkurrenten um die letzten Höhenmeter eines schon besetz­ten Ber­ges ringen. Die Evolutionsforschung im 21. Jahrhundert hat die genetischen Me­cha­nismen entdeckt (so genannte Innovations-Gene), mit denen die Evolution ihre Chance erhöht, in das Einzugsgebiet neuer Berge zu gelangen.

Der Manager des Jahres 2099 kennt das zentrale Fortschritts­gesetz der Evolution, wie es sich aus der evolutionsstrategischen Fort­schrittstheorie herleitet. Er beherrscht die Regeln, die aus der geringen Band­breite des Fortschrittsfensters der Evolution folgen. Ein wenig zu zag­haft oder ein wenig zu forsch entschieden, und schon fällt er aus dem Evolutionsfenster heraus (Bild 25).

 
        

Bild 25:  Entscheidungsfenster für den maximalen Fortschritt

 
   

Bei der Suche nach der richtigen Ent­schei­dungsschrittweite be­dient sich der Manager 2099 der so genann­ten Ein-Fünftel-Erfolgs­re­gel. Sie besagt, dass maximaler Fortschritt dann erreicht wird, wenn im Mittel jeder fünfte Versuch ein Erfolg ist. Wer zaghaft entscheidet, wird zwar mehr Erfolge haben; aber es sind Mini-Erfolge. Der revo­lutionäre Manager wiederum würde bei Erfolg einen Riesenfort­schritt erzielen, aber das geschieht zu selten. Die rich­tige Entschei­dungsbreite ist das A und O in der Politik wie im Mana­gement. Das Kennen der Ein-Fünftel-Erfolgsregel hat zu Folge, dass der Vorstand in einem evo­lutionär geführten Unter­nehmen anders be­wer­tet wird als vor 100 Jahren. Wer hintereinander zwei oder gar drei Fehlentscheidungen trifft wird längst nicht mehr gefeuert.

Eine revolutionäre Vertriebs- und Fertigungstechnik verwirk­lichen 2099 die so ge­nann­ten Darwin-Mendel-Fabriken. Die Firma microNN (NN steht für Neu­ro­nale Netze) hatte in den 60er Jahren des 21. Jahr­hunderts damit ange­fangen. Evolutions­bio­logen wissen, dass sich z. B. die Indi­viduen einer Fliegenpo­pulation ge­ring­fü­gig voneinander unter­scheiden; aber kein normaler Mensch würde es bemer­­ken. Und so war es auch mit den Pro­duk­ten von microNN; sie waren alle mi­ni­mal modi­fi­ziert. Die Käu­fer wuss­ten, dass sie Teil­neh­mer einer evolutiven Pro­duk­­tions­methode waren. Des­halb waren die Darwin-Pro­dukte von microNN ja auch preis­werter als die der Konkurrenz. Im GNN (Global Neural Net) konnte microNN je­des ihrer Produkte identifi­zieren. Die Güte des indi­vi­du­ellen Verkaufs­stücks ließ sich im Umfeld des An­wen­ders fest­stel­len. Die Zuordnung „Nummer des Verkaufsstücksgemittelte Ge­brauchsgüte des Ver­kaufs­stücks“ ermög­lichte es, die NeuroNetware mit einer (ml)-Evo­lutionsstrategie weiterzu­ent­wickeln. Der Fertigungs­computer sucht unter den l ver­kauften Stücken die m besten heraus, re­kom­biniert diese à la Mendel, mutiert Synapsengewichte und Netzstruktur à la Darwin und bringt die so indivi­duell modifizierte NeuroNetware wieder auf den Markt (Bild 26). So er­spart sich microNN ein aufwen­diges teures Ent­wick­lungs­labor. Die strategischen Größen Elternzahl m, Nach­kom­men­zahl l und Mutationsschrittweite d ergeben sich aus der evolu­ti­onsstrate­gi­schen Fortschrittstheorie.

 
 

Bild 26:  Darwin-Mendel-Fabrik: Mutation und Kreuzung in der Fabrik, Selektion am Markt

 
   

Bionische Aspekte der Raumfahrt

„Angenommen, die Evolution intelligenten Lebens hätte schon vor 500 Mil­li­onen Jahren im Meer stattgefunden, und die denkfähi­gen Unter­wasser­spezies hätten entschieden, auf eine Erobe­rung des Landes zu verzichten. Nicht auszudenken“ – sagen die Zeitgenossen 2099 und wid­men sich intensiv der interstellaren Raum­fahrt. Und wenn es dann so weit ist, soll die „Krönung der Schöp­fung“ in den kosmi­schen Wettbe­werb des Lebens hinaus­geschickt werden.

Es ist klar, dass interstellare Reisen des Menschen Jahr­zehnte und länger dauern werden. Es war der Plan der Utopisten des 20. Jahr­hun­derts, in Raumschiffen künstlich beleuchtete Gärten an­zu­le­gen, um in einem natür­lichen Kreislauf die Raumschiff­atmos­phäre, das Wasser und sonstige Stoff­wechselprodukte zu regenerie­ren sowie zu­gleich Nahrung zu erzeu­gen. Doch „Sonne und Garten“ sind ein Erd­relikt, das nicht unbedingt zur Erfüllung der interstellaren Raum­fahrtmission notwendig ist. Als Alternative stellen Bioniker Ende des 21. Jahr­hun­derts einen Kreisprozess namens Gaiatech vor, der in kom­pak­ter Form die Elementar­prozesse des biologischen Kohlen­stoff-, Sau­er­stoff-, Stick­stoff- und Rest­ele­mente-Umlaufs nachbildet und dabei direkt an das elektrische Energie­versor­gungs­­system eines Raum­schiffs ange­schlos­sen ist. Natürlich fehlt der Besatzung der entspannende Aufenthalt in einem Sonnen beschienenen Garten. Aber der geküns­telte Raumgarten kann mit der Perfek­tion der virtuellen Com­pu­ter­welten im Jahre 2099 ohne­dies nicht mithalten. –­ In einem Pilot­ver­such wurde das Kompakt­system Gaiatech 2075 bereits für die Dauer von 10 Jahren erfolgreich in einer Erdum­laufbahn betrie­ben.

In der Ausführung des Plans, Erdleben in den Kosmos aus­zusen­den, scheiden sich die Geister. Die Einen wollen den Men­schen (die Krö­nung der Schöpfung) als Original auf die Reise schicken. Sie gehen davon aus, dass es Menschen gibt, die das Sendungsbewusstsein in sich verspüren, auch als Zwischen­generation einer solchen Raumfahrt­mis­sion zu dienen. Die Anderen meinen, dass es genügt, primitivere Le­bens­­formen hinauszuschicken. Auf einem erdähnlichen Planeten ange­kommen setzt dann eine Evolution der ausgewählten Leit-Organismen ein. Biologen und die Evolutionsstrategen im Jahr 2099 sind sich sicher, die Leit-Organismen zu kennen, von denen ausgehend die kon­ver­­gen­ten Kräfte der Evolution auch wieder zu einem men­schen­ähn­lichen Wesen führen. Den Beweis für diese These sehen die Biologen in der Paral­lelevolution der Lebenswelt auf dem australischen Konti­nent und dem Rest der Welt. Die Evolutions­strategen wiederum bauen auf die Ergebnisse ihrer Com­putersimulationen.                

Da die Fertigungstechnik im Jahr 2099 die Selbstreplikation kennt und nutzt, plant man die Experimentierplattform einer Von-Neu­mann-Sonde (so genannt, weil der Mathematiker John von Neumann erstmals das theo­retische Konzept eines autark sich selbst herstellen­den Automaten entwickelt hat). Die Von-Neumann-Sonde ist so etwas wie ein lebendi­ges Raumschiff, das auf einem extrasolaren Planeten landet und die dorti­gen Rohstoffe verwendet um Kopien von sich selbst her­zustellen. Die Von-Neumann-Kopien tanken schließlich Energie und starten zu weiteren extrasolaren Pla­neten (Bild 27). Anstatt Abermillionen von Raumsonden ins All zu ­schicken genügt so der Start einer funktionierenden Von-Neumann-Sonde, um die Galaxis kontinuierlich dichter wer­dend mit Botschaftern der Erde zu kolo­ni­sieren und dort Lebenskeime auszusetzen.

 
 

     Bild 27:  Von-Neumann-Sonden streunen in der Galaxie

 
   

„Terraforming der Venus“ heißt das Projekt, das zur Wende in das 22. Jahrhundert feierlich gestartet wird Der Astronom Carl Sagan hatte schon 1961 vorgeschlagen, die heiße Venus dadurch erdähnlich zu ma­chen, indem man ihre Atmosphäre mit 1000 Raketenladungen von blau-grünen Algen besät. Solange die Algen in der oberen, noch kühlen Venus­at­mosphäre schweben, können sie aus dem Kohlendioxid den Sauerstoff heraus­spalten. Es würde ein Lawinenprozess in Gang ge­setzt. Die Venus würde kühler werden, sodass terrestrisches Leben da­rauf existieren könnte. Statt mit Algen wird in dem Terra­forming-Pro­jekt des Jahres 2099 mit artifiziellen sich selbst­repro­du­zierenden Bal­lon-Organis­men gear­beitet, deren Schwebe­fähig­keit eine lange Ver­weil­zeit in der oberen Venus­atmosphäre gewährleistet (Bild 28).

 
 
 

                       Bild 28:  Terraforming der Venus

    Ein Ballon versprüht ABOs (Artifizielle Ballon-Organismen)

 
   

Für die unbemannte Erkundung der Oberfläche der Planeten wer­den 2099 grundsätzlich autonome 6-beinige Laufroboter eingesetzt. Der rad­be­trie­bene Planet-Rover ist abgeschrieben. Zu häufig ist das Rad in einer Marswüste oder an einem Saturnstein gescheitert. Sofern die Planeten eine hinreichend dichte Gashülle besitzen erkunden vogel- und insek­ten­ähn­li­che Flugvehikel die weitläufigere Umgebung der Lande­stelle. Die MAVs (Mikro-Air-Vehikel) werden nach ihrer Mission mit einem künst­lichen Spinnennetz wieder aufgefangen oder sie gehen sanft wie eine Libelle auf einer Landeplattform nieder.

Bionik in Sport und Spiel

Fliegen wie die Vögel, Schwimmen wie die Delfine, Tauchen wie die Wale und Springen wie die Kängurus – der Mensch möchte es im Spiele diesen Tieren gleichtun. So hatte er es auch niemals aufgegeben, den Schwin­genflug der Vögel nachzuahmen. Und im Jahr 2066 war es dann so weit: Einem Holländer gelang es, sich im Muskelkraft-Schwingen­flug für kurze Zeit vom Boden zu erhe­ben. Aber der Muskel­kraft-Schwingen­flug blieb danach eine extra­vagante Betäti­gung für beson­ders leicht­gewich­tige Athleten. Dagegen war das mus­kel­kraft­betrie­bene Flug-Surfen in der Mitte des 21. Jahrhunderts zu einem sehr beliebten Freizeitsport geworden. Vorbild für die­se Fortbewegungsart sind die fliegenden Fische, die sich flossen­schlagend ener­ge­tisch optimal vom harten Medi­um Wasser ab­stoßen und den auft­riebs­stei­gern­­den und rand­­wider­standsmin­dernden Bodeneffekt zum Flie­gen nut­zen. Sämt­liche das bodennahe Fliegen erleichternde Effekte führen dazu, dass Flug-Surfen nicht, wie Muskelkraft-Fliegen, nur Superathleten gelingt. Ebenfalls eine sehr be­liebte Freizeitbe­tätigung wurde das Känguru-Hüp­fen. Leichte an­schnall­bare Hüpf­geräte, die die Auf­sprungenergie mit dem biomimetischen „Gummi“ Resilinex speichern und zum Ab­sprung wieder freige­ben, erlau­ben eine beschwingt lustvolle Über­land-Bewe­gung (Bild 29). Einmal einen Meter hochgesprungen bedeutet, dass man auf hartem Untergrund ohne weiteres Schwungholen nach dem 50sten Aufsprung immer noch 60 cm hochschnellt. An­hänger die­ser neuen Bewe­gungs­art vergleichen das Hüpfen über Stock und Stein gar mit dem Fahrradfahren auf ebenem Gelände.

 
 

   Bild 29:  Känguru-Hüpfen 2099 mit Resilinex-Meilenstiefeln

 
   

Auto-, Motorboot- und Motorrad­rennen wurden Ende des 20. Jahr­­hunderts von den Ökoaposteln als Provokation angeprangert. Den­noch, der Mensch möchte auch im neuen Jahrhundert mal über die Stränge schlagen. Gal­ten früher imponierende technische Grenz­leis­tun­gen als sport­liche Heraus­for­derung, sind es Ende des 21. Jahr­­hunderts exo­ti­sche biologi­sche Leistungen, die den homo ludens faszi­nieren. So wird alle zwei Jahre im Rahmen eines Weltfestspiels das feierliche Lummobil-Rennen ausgetragen.

Ein Lummobil ist ein motorisiertes Vierphasen-Fahrzeug, das sich auf dem Lande, auf dem Wasser, unter Wasser und in der Luft bewegen kann (Bild 30). Vorbild ist die einzigartige Leistung der pola­ren Lum­men, die auf dem Lande laufen, auf dem Wasser schwimmen, unter Wasser tauchen und in der Luft fliegen können. Wer eine Dickschna­bellumme in den vier Bewe­gungsdis­zipli­nen hat beobachten können, wird den Eindruck nicht los, dass die Evo­lu­tion hier alle Finessen hat anwenden müssen, um diese Leistungen halbwegs hinzubekommen.

Die Regeln des Lum­mobil-Rennens lauten: Es ist ein 8000 Meter Rund­kurs zu durch­mes­sen, der mit einer zu überquerenden hindernis­reichen Land­strecke von 2000 Meter Länge beginnt. Am Ende dieser Strecke liegt ein künstlich angelegter See, auf dem das Lummobil zunächst schwim­mend die nächsten 1000 Meter zurück­legen muss. Danach wird abgetaucht, wo­bei unter Wasser gespannte Kabel unter­schwommen werden müssen. Besonders pfiffige Lummobil-Piloten sprin­gen hinter jedem unterschwommenen Kabel nach Delfinart kurz aus dem Wasser, um den geringeren Luftwider­stand zu nutzen. Nach wiederum 1000 Meter Tauch­strecke muss die Trosse einer Boje um­run­det werden. Der 180º Wende folgt der wohl schwierigste Teil des Ren­nens, wenn von der Unterwasserbewegung zum Flug in der Luft ge­wech­selt wird. Dieser Pha­senübergang ruft die größte Begeisterung bei den Zuschauern hervor, insbesondere wenn fortgeschrit­tene Lum­mobil-Piloten aus dem Was­ser schießend unmittelbar in das Medium Luft überwechseln. Nach der Landung am Startpunkt muss der Rund­kurs zwei weitere Male durch­messen werden.

 
 

         Bild 30:   Weltfestspiele 2099:  Ein Lummobil geht in die Luft

 
   

Kürzlich wurde der inter­nati­onalen Lum­mobil-Regel-Kommission der Vorschlag unterbreitet, den Parcours durch eine fünfte Schikane zu erweitern. Nach dem Vorbild des Sahara-Sand­skinks soll nach der Landstrecke eine lockere Sandaufschüttung unterquert wer­den. Da dies als zu hochgesteckt erscheint ist geplant, den Sand vorerst durch ein leichteres Granulat zu ersetzen. Die Realisierung eines Fünf­pha­sen-Fahrzeugs mit der Fortbewegung auf dem Land, unter dem Sand, auf der Wasser­oberfläche, unter dem Wasser und in der Luft wird zur Herausfor­derung für das beginnende 22. Jahrhundert.

Ebenfalls eine hochtechnische Sportart ist 2099 das Kiementauch­schwim­men. Es gilt wie ein Fisch eine Unterwasserstrecke ohne mitge­führten Sauerstoff zu durchmessen. Wasser enthält, wie alle Fische demon­strieren, genügend Sauerstoff zum atmen (8 g O2 pro m3 ). Ein schwimmender Hai verbraucht 0,2 g O2 pro h und kg Körpergewicht; ein moderat schwimmender Mensch benötigt 5-mal so viel. Um seinen Sau­er­stoff­bedarf zu decken muss demnach der Tauchschwimmer pro Stunde aus mindes­tens 10 m3 Wasser den Sauerstoff herauslösen. Die­ses Kunst­stück ist den Ingenieuren durch technische Nachbildung der Struk­tur der Kie­men­blättchen-Membran des Hais gelungen. Um die notwendige Was­ser­menge mit den künst­lichen Kiemenblättchen in Kontakt zu brin­gen besitzen die Kiementauchanzüge 2099 auswärts gestülpte Branchien wie beim Axolotl (Bild 31).

 
 

      Bild 31:  Taucher beim Wettschwimmen mit Axolotl-Kiemen

 
   

Um im Kiemenwettschwimmen zu gewin­nen muss ein diffiziles Optimierungsproblem gelöst werden. Wer schnell schwimmen möchte braucht viel Sauerstoff. Die Filtertentakel müssen verlängert werden und bremsen so den Schnellschwimmer. Verhalten zu schwimmen kann sich deshalb lohnen.

Seit eh bewundert der Mensch den dynamischen Segelflug des Alba­tros, der durch seine raffinierte Flugbahn aus einem Scher­wind Energie schöpft. Schon zu Beginn des 21. Jahrhunderts hatten Segel­flie­ger dieses trick­reiche Flugma­növer erfolgreich imitiert, und es werden seitdem Meis­ter­schaften im dyna­mi­schen Segelflug ausgetragen. 2055 gelang dann einem Europäer ein einma­liger Rekord. Er überquerte den Atlantik im dynami­schen Segelflug. Das genaue Ein­halten der an­triebs­losen Girlanden­bahn nach dem Vorbild des Albatros wurde dabei durch ein Computer-Programm gewährleistet.