gbs Köln

Rezension zum Buch „Homo Deus“

Schwarzmalerei auf niedrigem Niveau

Das gesamte Buch bewegt sich auf einem eher niedrigen Niveau, was aber sicher zu einer guten Lesbarkeit und damit auch zu seinem Erfolg beigetragen hat. Das Thema selbst ist in vielen anderen und besseren Büchern mehr als ausreichend diskutiert worden, aber wenn dieses Buch durch seinen großen Erfolg größere Teile der Bevölkerung mit dem Thema vertraut macht, ist das ja immerhin positiv zu bewerten. Allerdings sind dem Autor einige gravierende Fehler unterlaufen.

So ist für den Autor nahezu alles, was es an Weltanschauungen, Ideologien und technologischen Entwicklungen gibt, Religion. Den Humanismus als Religion einzuordnen, ist aber einfach nur dummes Zeug. Zwischen Weltanschauung und Religion gibt es eben doch gewisse Unterschiede und die sollten einem Geschichtsprofessor eigentlich geläufig sein. Hitler gar als Verfechter des evolutionären Humanismus darzustellen, ist völlig haarsträubend. Der Begründer des evolutionären Humanismus Julian Huxley war zwar, wie viele andere zu seiner Zeit, für eine negative Eugenik, das trifft aber nicht mehr für die heutigen Vertreter des evolutionären Humanismus (wie z.B. die Giordano-Bruno-Stiftung) zu. Wenn es ein Musterbeispiel für einen Antihumanisten gibt, dann ist es Hitler. Außer der Bezeichnung hat der Autor ganz offensichtlich keinen blassen Schimmer vom evolutionären Humanismus.

Auf Seite 166 steht: „Da Computer auf Siliziumbasis ganz anders strukturiert sind als die neuronalen Netze des Menschen, die auf Kohlenstoff beruhen, sind die menschlichen Signaturen für Bewusstsein in ihrem Fall möglicherweise nicht relevant.“ Das ist falsch! Informationsverarbeitung ist substratunabhängig und das gilt auch für das Bewusstsein. Auf Seite 431 kommt er dann immerhin selbst zu dieser Erkenntnis bzw. beschreibt sie als wissenschaftliche Antwort.

Auf Seite 258 schreibt der Autor: „Die Wissenschaft bedarf immer religiöser Unterstützung, wenn sie funktionierende Institutionen schaffen möchte …Insofern beruht jedes praktische Projekt, das Wissenschaftler in Angriff nehmen, auch auf religiösen Einsichten“ Das ist völliger Quatsch. Wir leben nicht mehr im Mittelalter, wo das vielleicht noch zutraf.

Seite 261: „Die Wissenschaft verfügt weder über die Macht noch über die Fähigkeit, die moralischen Urteile von Religionen zu widerlegen oder zu untermauern.“ Dazu kann man auch die gegenteilige Meinung haben.

Seite 270: „Religion liefert die moralische Rechtfertigung für wissenschaftliche Forschung…“. Das ist Blödsinn!

Generell macht der Autor eine klare Trennung zwischen Intelligenz und Bewusstsein. Diese Position ist aber nicht haltbar. Evolutionsbiologen gehen davon aus, dass Bewusstsein kein nebensächliches Produkt der Evolution war, sondern essentielles Element zur Entwicklung der höheren Intelligenz des Menschen. Eine Superintelligenz ohne Bewusstsein ist nicht wirklich superintelligent.

Insgesamt malt der Autor eine düstere Zukunft, in der die Maschinen über die Menschen herrschen und das, obwohl sie seiner Ansicht nach kein Bewusstsein haben. Positive Aspekte werden kaum erwähnt. So wäre z.B. bei manchen unserer Staatsoberhäupter etwas mehr Intelligenz durchaus von Vorteil.

Dass dieses Buch so erfolgreich ist, lieg unter anderem daran, dass es zumindest im deutschsprachigen Raum eine große Begeisterung für Weltuntergangsszenarien gibt. Dagegen ist eine Begeisterung für neue Ideen und den technologischen Fortschritt, wie sie im Silicon-Valley vorherrscht, hier bei uns grundsätzlich verdächtig. Leute wie z.B. Ray Kurzweil werden in den USA mit Auszeichnungen und Ehrungen überschüttet, während er bei uns (wie auch in diesem Buch) als hoffnungsloser Euphoriker verunglimpft wird. Spätestens dann, wenn keiner mehr unsere stinkenden Dieselfahrzeuge haben will, wird sich die negative Haltung zur KI in unserem Land auch in unserer Wirtschaftskraft niederschlagen.

 

Bernd Vowinkel

Advertisements

August 14, 2017 Posted by | Bücher | | Hinterlasse einen Kommentar

Kommt die technologische Singularität?

von Bernd Vowinkel

Mit dem Begriff der technologischen Singularität wird die in naher Zukunft zu erwartende explosionsartige Vermehrung der künstlichen Intelligenz bezeichnet. Im Zentrum steht dabei die Frage, ob sich die künstliche Intelligenz alle intellektuellen Fähigkeiten des Menschen aneignen kann. Wenn das wirklich eintreffen sollte, wäre es mit gewaltigen Auswirkungen auf unser Leben und unsere Gesellschaft verbunden. Manche befürchten gar eine Machtübernahme der Maschinen und damit dann womöglich das Ende der Menschheit.

 

 

Definition der technologischen Singularität

 

Der Begriff Singularität wird in den Naturwissenschaften für Größen verwendet, die gegen unendlich tendieren. Ein Beispiel ist die Massendichte in Schwarzen Löchern. 1965 beschrieb der Statistiker I. J. Good ein Konzept, das den Begriff auf die Entwicklung der künstlichen Intelligenz anwendet. Er definiert es folgendermaßen:

 

Eine ultraintelligente Maschine sei definiert als eine Maschine, die die intellektuellen Fähigkeiten jedes Menschen, und sei er noch so intelligent, bei weitem übertreffen kann. Da der Bau eben solcher Maschinen eine dieser intellektuellen Fähigkeiten ist, kann eine ultraintelligente Maschine noch bessere Maschinen bauen; zweifellos würde es dann zu einer explosionsartigen Entwicklung der Intelligenz kommen, und die menschliche Intelligenz würde weit dahinter zurückbleiben. Die erste ultraintelligente Maschine ist also die letzte Erfindung, die der Mensch zu machen hat.

 

Besonders populär wurde der Begriff aber erst durch das Buch „The Singularity is near“ von Raymond Kurzweil 1998 (deutsche Übersetzung: „Menschheit 2.0“). Kurzweil legt das Datum der Singularität auf das Jahr 2045 fest. Nach seiner Abschätzung wird zu diesem Zeitpunkt die Rechenleistung der künstlichen Intelligenz die der gesamten Menschheit um den Faktor eine Milliarde übersteigen.

 

Mit der künstlichen Intelligenz (KI) versucht man die intellektuellen Fähigkeiten des Menschen mit Hilfe von Computern nachzuahmen. Man unterscheidet zwischen schwacher und starker KI. Bei der schwachen KI geht es darum, konkrete Aufgaben zu bewältigen, die sich mit vorgegebenen Algorithmen bearbeiten lassen. Die starke KI geht darüber hinaus und sieht das menschliche Gehirn als eine Art Biocomputer an, dessen Fähigkeiten einschließlich des Bewusstseins und der Emotionen durch einen Computer vollständig nachvollzogen werden können. Die Position der starken KI findet heftigen Widerspruch vor allem aus dem Lager der Geisteswissenschaften. Durch die gewaltigen Fortschritte, sowohl im Bereich der Hardware als auch der Software, gewinnt aber mittlerweile die Einsicht an Boden, dass es keine geistige Fähigkeit des Menschen gibt, die längerfristig nicht mit der künstlichen Intelligenz nachvollzogen werden kann. Dies schließt auch Emotionen und die ästhetische Urteilskraft mit ein. In Anwendungsbereichen, bei denen es überwiegend um die Manipulation von Zahlen und großen Datenmengen geht, ist die KI schon heute dem Menschen weit überlegen. Ihr Einsatz in den Bereichen Verwaltung, Geldtransfer, Optimierung und Steuerung von Produktionsanlagen usw. trägt mittlerweile ganz erheblich zur Wirtschaftskraft der entsprechenden Volkswirtschaften bei. Im privaten Anwendungsbereich haben die Smartphones die Art unserer Kommunikation stark verändert.

 

Bewahrheitet sich die Machbarkeit der starken KI, so würde das auch eine endgültige Entmystifizierung des menschlichen Geistes nach sich ziehen. Bezüglich der Machbarkeit der starken KI wird sich vermutlich der Spruch bewahrheiten: „Alle sagten: das geht nicht! Dann kam einer, der wusste das nicht und hat es einfach gemacht“

Weiterlesen

September 2, 2016 Posted by | Eigene Artikel | | 1 Kommentar

Durchbruch bei Künstlicher Intelligenz: Der unheimlich menschliche Eugene Goostmann

Es ist ein Meilenstein der Computergeschichte: Eine russische Software hat erstmals den Turing-Test bestanden – sie wurde von Menschen in einem Chat für eine reale Person gehalten. Die Technik könnte allerdings auch von Cyber-Kriminellen genutzt werden.

 

 

weiterlesen:

http://www.spiegel.de/netzwelt/gadgets/eugene-goostman-computer-besteht-erstmals-turing-test-a-974131.html

 

Juni 9, 2014 Posted by | Presse | | Hinterlasse einen Kommentar

Das Geheimnis menschlichen Denkens ist enthüllt

In seinem Buch „How to Create a Mind“ zeigt der bekannte amerikanische Futurist und Pionier der künstlichen Intelligenz Ray Kurzweil, dass mittlerweile die Art und Weise, wie menschliches Denken funktioniert, weitgehend entschlüsselt ist. Nach seiner Meinung werden wir mit dieser Erkenntnis innerhalb der nächsten zwei Jahrzehnte in der Lage sein, Computer mit allen geistigen Fähigkeiten des Menschen auszustatten. Der Schritt, über diese Fähigkeiten hinauszugehen, ist dann nur noch ein eher kleiner.

 

Ray Kurzweil genießt im englischsprachigen Raum hohes Ansehen. So erhielt er 19 Ehrendoktortitel und eine ganze Reihe von Auszeichnungen, darunter die „National Medal of Technology“. Er gilt als eine der Leitfiguren des Trans- und des Posthumanismus. Er ist Pionier der optischen Texterkennung, der Sprachsynthese, der Spracherkennung, der Flachbettscannertechnologie und der elektronischen Musikinstrumente (insbesondere Keyboards) und hat in diesen Bereichen eine Reihe von Firmen gegründet. Seit 2012 arbeitet er als leitender Ingenieur bei Google. Sein 2005 veröffentlichtes Buch „The Singularity Is Near“ war ein Bestseller. Im Verlag lolabooks ist gerade eine deutsche Übersetzung unter dem Titel „Menschheit 2.0, die Singularität naht“ erschienen. Der Verlag plant, auch das hier besprochene Buch demnächst in deutscher Sprache herauszugeben.

Der Algorithmus des Denkens

In der ersten Hälfte des Buches gibt Kurzweil einen zusammenfassenden Überblick über den gegenwärtigen Stand der Hirnforschung. Die grundlegenden Funktionseinheiten des Gehirns sind die Nervenzellen (Neuronen). Sowohl ihre biochemische Funktion als auch die daraus resultierende Funktion der Informationsverarbeitung sind weitestgehend erforscht und es gibt gute Simulationsmodelle dafür. Da als Grundlage dieser Modelle die klassische Physik und die sich daraus ableitende Biochemie ausreichend ist und sich diese Teile der Naturwissenschaften vollständig algorithmisch beschreiben lassen, ist damit zwangsläufig auch die Funktion der Neuronen vollständig algorithmisch beschreibbar. Das häufig vorgebrachte Gegenargument, dass die Neuronen teilweise analog arbeiten und somit mit einem Digitalcomputer nicht ausreichend simuliert werden können, begegnet Kurzweil mit dem Hinweis dass z.B. die analoge Größe der Leitfähigkeit in den Synapsen der Neuronen völlig ausreichend mit 8 Bit verschlüsselt werden kann. Analoge Vorgänge können grundsätzlich mit jeder gewünschten Präzision in Digitalcomputern simuliert werden.

Der Teil des Gehirns, in dem bewusstes Denken stattfindet, ist der Neocortex. Es ist die äußere Schicht des Großhirns mit einer Stärke von 2 bis 5mm, die selbst wieder aus sechs einzelnen Schichten besteht. Durch die Faltung des Gehirns ist die Gesamtfläche vergleichsweise groß (1800 qcm). Man kann hier Einheiten, so genannte cortikale Säulen, identifizieren, die jeweils aus etwa 10 000 Neuronen bestehen. Der Teil des genetischen Codes, in dem der Bauplan des menschlichen Gehirns steckt, hat einen Umfang von ca. 25MB. Das ist eine erstaunlich geringe Datenmenge. Der Bauplan eines heutigen Verkehrsflugzeugs benötigt eine hundert bis tausendmal größere Datenmenge. Es ist nach Kurzweil wohl so, dass im genetischen Code im Wesentlichen die Baupläne für die Grundbausteine (Neuronen und z.B. ihre Organisation zu cortikalen Säulen) des Gehirns verschlüsselt sind und die Anweisung, wie oft diese zu vervielfältigen sind. Bei einem Embryo mit voll entwickeltem Gehirn sind sozusagen nur die Hardware und ein einfaches Betriebssystem vorhanden. Alles andere muss erlernt werden. Dieser Prozess beginnt in begrenztem Umfang durchaus schon vor der Geburt.

Unser Denken besteht im Wesentlichen aus der Erkennung und der Manipulation von Mustern. Insgesamt können wir bis zu 300 Millionen verschiedene Muster unterscheiden. Zur Speicherung und Verarbeitung werden jeweils um die 100 Neuronen verwendet. Obwohl die Verarbeitungsfrequenz in unserem Gehirn nur zwischen 100 und 1000Hz liegt und damit mehr als eine Million mal kleiner als in unseren Computern ist, schafft unser Gehirn eine Mustererkennung innerhalb von Sekundenbruchteilen. Der Grund dafür ist, dass hier die Datenverarbeitung extrem parallel erfolgt. Nach Kurzweil ist der Algorithmus nach dem dies geschieht, mathematisch am bestem mit dem so genannten Hierarchical hidden Markov model (HHMM) zu beschreiben. Es handelt sich dabei um ein künstliches neuronales Netz, das mit zum Teil statistischen Methoden aus einer Datenmenge bestimmte Muster erkennen kann.

Beim Lesen von Text muss man sich das z.B. so vorstellen, dass in der untersten Hierarchieebene zunächst einfache geometrische Muster aus den vom Sehnerv kommenden Signalen erkannt werden wie z.B: Linien, Bögen und Kreise, wobei bereits in der Netzhaut des Auges eine Datenkompression erfolgt. In der nächsten höheren Ebene werden daraus Buchstaben erkannt. Danach erfolgt die Erkennung von Wörtern, dann folgen Sätze. In der höchsten Stufe werden wir uns des Inhalts eines Satzes bewusst. Alle diese Denkprozesse laufen ausschließlich algorithmisch ab und obwohl sie damit deterministisch sind, können trotzdem Zufälle im Rahmen des so genannten deterministischen Chaos eine Rolle spielen. Das Denken des menschlichen Gehirns und die Abläufe in ähnlich aufgebauten künstlichen neuronalen Netzen lassen sich daher nicht vollständig vorhersagen.

Das Material unserer Nervenzellen wird im Zeitrahmen von einigen Monaten vollständig ausgetauscht. Dies hat aber keinen Einfluss auf die Fähigkeiten der Informationsverarbeitung der Zelle. Denken ist auf der untersten Hierarchieebene nichts anderes als Symbolverarbeitung, so wie sie auch in Computern stattfindet und sie ist unabhängig von einer bestimmten Materie. Nach der Church-Turing-These ist die Fähigkeit zur Lösung von algorithmischen Problemen unabhängig von dem konkreten Aufbau einer Hardware, solange es sich um eine universelle Rechenmaschine mit genügend Speicherplatz handelt. Daraus und aus der erwähnten Tatsache, dass die Abläufe innerhalb der Neuronen algorithmisch ablaufen, resultiert, dass das menschliche Gehirn grundsätzlich nicht mehr Probleme lösen kann als jede andere universelle Rechenmaschine und dieses wiederum heißt im Umkehrschluss, dass es prinzipiell möglich sein muss, einen Computer mit sämtlichen geistigen Fähigkeiten auszustatten, die der Mensch hat, einschließlich des Bewusstseins.

Maschinen lernen denken

Im zweiten Teil des Buches zeigt der Autor, wie nun die Erkenntnisse der Hirnforschung dazu genutzt werden können, Computerprogramme zu erstellen, die wie das menschliche Denken funktionieren. Die Hauptanwendungsgebiete liegen derzeit in der Mustererkennung. So basiert das Spracherkennungsprogramm Siri, das auf dem iPhone 4S und dem iPhone 5 installiert ist, auf einem künstlichen neuronalen Netz, das lernfähig ist und sich mit der Zeit auf seinen Nutzer einstellt. Microsoft stattet jetzt seine neuen Smartphones mit einem verbesserten Spracherkennungsprogramm aus, das doppelt so schnell arbeitet wie Siri und um 15% zuverlässiger sein soll. Eines der derzeit am weitesten fortgeschrittenen Programme in Bezug auf die Simulation menschlichen Denkens ist „Watson“ von der Firma IBM. Es ist in der Lage, ganze Sätze zu verstehen und darauf sinnvolle Antworten zu geben. Bei dem im amerikanischen Fernsehen beliebten Spiel „Jeopardie“ hat es im Jahr 2011 besser abgeschnitten als die besten menschlichen Kandidaten. Bei diesem Spiel muss auf einen Satz, der eine Antwort darstellt, die zugehörige richtige Frage gefunden werden. Das Programm kann durch einen Lernprozess für verschiedenste Fähigkeiten optimiert werden. Eine kleine Gruppe bei IBM hat dem Programm inzwischen beigebracht, neue Kochrezepte zu erstellen. Die menschlichen Geschmackseindrücke wurden dabei vorher einprogrammiert.

Ray Kurzweil selbst hat jahrzehntelange Erfahrung im Programmieren von lernfähigen Mustererkennungsprogrammen. Nach seiner Erfahrung arbeiten diese Programme dann am besten, wenn man sie in ihrem Aufbau als neuronalem Netz dem menschlichen Gehirn nachempfindet. Für die jeweilige Aufgabe kann man gewisse Grundregeln einprogrammieren. Die Feinheiten erlernt das Programm dann selbstständig durch seinen praktischen Gebrauch. Zusätzlich kann man noch einen evolutionären Optimierungsvorgang einbauen, der die Verschaltung des Netzes für die jeweilige Aufgabe optimiert, so wie das auch im menschlichen Gehirn geschieht. Auf die Frage, wann es gelingt, Computer mit allen menschlichen geistigen Fähigkeiten einschließlich des Ich-Bewusstseins auszustatten, gibt Kurzweil das Jahr 2029 an. Zu diesem Zeitpunkt wird nach seiner Meinung das erste Computerprogramm den so genannten Turing-Test bestehen. Was danach geschieht, hat er ausführlich in seinem Buch „The Singularity is Near“ beschrieben. Es wird nach seiner Meinung eine rasante Vervielfachung der Rechenleistung und der Fähigkeiten der künstlichen Intelligenz geben, die gewaltige Auswirkungen auf unsere Gesellschaft haben werden.

Die Kritiker

Wie nicht anders zu erwarten, gibt es auch heftige Kritik an den Positionen von Kurzweil, zumal für viele die mögliche Machbarkeit von künstlichem Bewusstsein eine Kränkung ihres Menschenbildes darstellt. Insbesondere im deutschsprachigen Raum gibt es eine tief greifende Aversion gegen die Ideen von Ray Kurzweil und generell gegen den Transhumanismus und den Posthumanismus. Wahrscheinlich ist einer der Gründe, dass die meisten immer noch einer christlichen Ethik und einem Menschenbild verbunden sind, die ihre Ursprünge in der Bronzezeit haben. Daneben gibt es ein tiefes und zum Teil irrationales Misstrauen gegenüber neuen Technologien. So glauben religiös oder metaphysisch inspirierte Intellektuelle nach wie vor an den Dualismus von Leib und Seele bzw. Geist und Körper. Sie können aber keine wirklich nachvollziehbaren rationalen Argumente für ihre Position anführen. Insofern ist das eine reine Glaubensfrage. Den Naturwissenschaften etwas mehr zugeneigte Geisteswissenschaftler vertreten häufig die Position, dass man zwar womöglich alle geistigen Fähigkeiten des Menschen mit einem Computer simulieren kann, aber die Simulation immer noch etwas anderes ist als die Wirklichkeit, ähnlich wie die Simulation des Wetters etwas anderes ist als das Wetter selbst. Prominenter Vertreter dieser Position ist der amerikanische Philosoph John Searle. In  seinem Buch „Die Wiederentdeckung des Geistes“ geht er zwar davon aus, dass das menschliche Gehirn im Rahmen des Naturalismus vollständig beschrieben werden kann als eine Art Bio-Computer, dass aber seine Fähigkeiten nicht mit der künstlichen Intelligenz gleichrangig nachvollzogen werden können. Der Denkfehler der dieser Position zugrunde liegt, ist die Ansicht, dass unsere geistigen Fähigkeiten an eine bestimmte Materie gebunden sind. Im Kern ist aber Denken nichts anderes als Informationsverarbeitung und dies geschieht auf der untersten Ebene als reine Symbolverarbeitung und dies ist bereits ein abstrakter Vorgang. Ray Kurzweil schreibt dazu: „Wenn das Verstehen von Sprache und anderer Phänomene über statistische Analysen (wie z.B. bei moderner Spracherkennungssoftware) nicht als wahres Verstehen zählt, dann haben Menschen auch kein wahres Verstehen.“

Fachleute der künstlichen Intelligenz an deutschen Hochschulen und Universitäten bezeichnen die Ansichten von Kurzweil häufig als überzogen optimistisch in Bezug auf die Machbarkeit der künstlichen Intelligenz und ihrer Auswirkungen auf die Menschheit. Allerdings geht Kurzweil bereits in seinem Buch „The Singularity is Near“ neben den großen Chancen auch auf die Gefahren der neuen Technologien ein. Insofern ist der Vorwurf nicht ganz zutreffend. Für seine Kritiker hat er eine Analyse seiner eigenen Vorhersagen aus seinem Buch „The Age of Spiritual Maschines“ gemacht. Das Buch erschien 1999. Von seinen 147 einzelnen dort gemachten Vorhersagen für das Jahr 2009 waren 78% voll zutreffend. Weitere 8% waren im Prinzip richtig, traten aber bis zu 2 Jahre später ein als vorhergesagt. 12% waren nur teilweise korrekt und 2% waren falsch. Zu den falschen Vorhersagen gehört, dass es bis 2009 Autos gibt, die ohne Fahrer betrieben werden können. Aber selbst in diesem Fall muss man zugestehen, dass das Problem technisch durchaus bereits gelöst ist. So hat Google im Oktober 2010 einen elektrisch angetriebenen Lieferwagen fahrerlos über 13000 km von Italien nach China fahren lassen. Im Moment liegt das Problem zur generellen Einführung dieser Technik eher bei den fehlenden gesetzlichen Regelungen. Man muss sich angesichts dieser Zahlen fragen, wer von den Kritikern eine bessere Statistik seiner eigenen Vorhersagen vorlegen kann. Bill Gates meint jedenfalls dazu: „Ray Kurzweil ist von denen Personen, die ich kenne, am besten geeignet die Zukunft der künstlichen Intelligenz vorauszusagen“.

Deutsche Bedenkenträger

Während Pioniere wie Ray Kurzweil den Weg in eine Zukunft weisen mit weniger Leid und mehr Lebensqualität, sehen selbsternannte Ethikexperten in unserem Land schon bei der PID die Menschenwürde in Gefahr. Einer der prominenten deutschen Vertreter der Bedenkenträger gegenüber neuen Technologien ist der Philosoph Jürgen Habermas. In seinem Buch „Die Zukunft der menschlichen Natur. Auf dem Weg zu einer liberalen Eugenik?“ bezeichnet die Anhänger des Trans- und des Posthumanismus als „ausgeflippte Intellektuelle“. Ihm selbst muss man allerdings bescheinigen, dass er hier über Dinge schreibt, von denen er nicht die geringste Ahnung hat.

Bei der Diskussion der ethischen Grundlagen neuer Technologien und ihrer gesetzlichen Regelung hat der Deutsche Ethikrat einen großen Einfluss. Er hat sich im letzten Jahr einen Namen gemacht mit der Empfehlung an den Bundestag, einem Gesetz zur Regelung der Genitalverstümmelung von Jungen zuzustimmen. Mit solchen Leuten, bei denen nicht die Verminderung sondern die Verherrlichung des Leids im Vordergrund steht und die einen Weg zurück ins Mittelalter beschreiten, werden wir die Zukunft nicht meistern können. Dennoch werden auch sie die Entwicklung nicht wirklich aufhalten können. Ray Kurzweil meint dazu, dass sich die neuen Technologien, wenn überhaupt, dann nur in totalitären Staaten aufhalten werden lassen. Wir werden diese zukünftigen Herausforderungen nur meistern, wenn wir ein wissenschaftsfundiertes Weltbild anerkennen und uns von einem metaphysischen bzw. religiösen Menschenbild endlich befreien.

Bernd Vowinkel

Juni 27, 2013 Posted by | Bücher, Eigene Artikel | , | Hinterlasse einen Kommentar

The Singularity (documentary) Trailer

Januar 25, 2013 Posted by | Videos | | Hinterlasse einen Kommentar

Jürgen Schmidhuber – When creative machines overtake man

März 21, 2012 Posted by | Videos | | 1 Kommentar

Mensch gegen Maschine: Watson schlägt die Spielshow-Meister

Die Menschen sind bezwungen: Eine IBM-Maschine hat erstmals in der US-Spielshow „Jeopardy“ seine Kontrahenten aus Fleisch und Blut geschlagen. Der Computer siegte noch dazu mit deutlichem Abstand.

weiterlesen im Originalartikel

Februar 17, 2011 Posted by | Presse | | Hinterlasse einen Kommentar

Watson gegen die Menschheit

In dieser Woche läuft im US-Fernsehen ein denkwürdiger Wettkampf: Ein Supercomputer von IBM tritt in einer Quizshow gegen die besten menschlichen Kandidaten an – beginnt, nach Jahrzehnten der Enttäuschungen, das Zeitalter der „Künstlichen Intelligenz“?

 

weiterlesen im Originalartikel

Februar 14, 2011 Posted by | Presse | | Hinterlasse einen Kommentar