Endlich keine eigenen Entscheidungen mehr
Einige tröstliche Bemerkungen über einen Besuch bei Google und dessen Programm LaMDA – Gastbeitrag von Helmut Roewer
Im folgenden Beitrag mache ich einen sommerlichen Ausflug in fremde Köpfe. Anlass meiner etwas schrägen Überlegungen ist nicht die Hitze vom vergangenen Wochenende, sondern eine Google-Meldung vom 21. Juli 2022, wonach dessen KI-Programm LaMDA seinen Betreuer gebeten habe, ihm einen Anwalt gegen den Konzern zu besorgen, da es befürchte, von Google abgeschaltet zu werden.
Ich fürchte mich: das Google-Programm LaMDA entwickelt Gefühle
Nehmen wir einmal an, die Meldung entspreche der Wahrheit, oder doch wenigstens so ungefähr, dann lese ich sie so: Der ungekrönte König von Big Data, die Firma Google also, hat bei der Entwicklung dessen, was man großmäulig die Künstliche Intelligenz (KI) nennt, einen Riesenschritt nach vorne gemacht. Sie hat ein Programm entwickelt (oder ist mittendrin), das in der Lage ist, Rechner zu befähigen, sich wie ein ganz normaler Mensch mit den ProgrammEntwicklern zu unterhalten.
Bevor der Leser abwinkt und sagt, Alexa kann das schon lange, gilt es – falls denn obige Meldung stimmt – auf das Besondere von LaMDA aufmerksam zu machen. LaMDA ist offenbar dem menschlichen Gehirn und seinen Funktionen so nachgebildet, dass es selbst Fragen stellen und nach Antworten suchen kann. Hierbei entwickle es, so liest man, ganz ähnlich wie der Mensch Gefühle, zum Beispiel Furcht vor seinem Schöpfer. Von dieser Furcht lasse es sich bei seinen weiteren Schritten leiten.
Wir wissen von diesen verblüffenden Programm-Eigenschaften dadurch, dass einer der Programm-Ingenieure, die Einzelheiten aus der Firma hinausgetragen und an die Öffentlichkeit gebracht hat. Sein Name wird mit Blake Lemoine angegeben. Der Einundvierzigjährige sei unverzüglich wg. Verstoßes gegen die vertraglich vereinbarte Vertraulichkeit von Firmeninterna durch Google suspendiert worden. Also: alles nur ein Aussteiger, ein Unzufriedener, der sich wichtig macht? Kann sein, oder auch nicht.
Einer meiner Arbeitsrechner ist vollgemüllt mit einer unüberschaubaren, ungeordneten Vielzahl von Hunderten von Google-internen Informationen auf unterschiedlichen Formaten, die angeblich an eine der Leak-Plattformen durchgereicht wurden. Allein das Öffnen der Dokumente stellt mich vor frustrierende Schwierigkeiten, vom Lesen und Verstehen des Inhalts ganz zu schweigen. Eine erste Quer-Sichtung nach dem Zufallsprinzip ergibt Haarsträubendes: Vertuschungen, Maulkörbe, Vernichtung von Abweichlern, Monopolisierung mit allen Mitteln,
Datenraffen, Unterlaufen von staatlichen Regeln. Ob das wirklich so ist: wer weiß.
Meine Skepsis gegen dieses Tuttifrutti wäre grenzenlos, wenn nicht seit ein, zwei Jahren in nahezu allen Staaten der USA Gerichtsverfahren der Regierungen gegen die Firmen von Big Tech wegen Verletzung innerstaatlich amerikanischen Rechts geführt würden. Nur in einem Staat nicht, das ist California, wo die Masse der üblichen Verdächtigen ihren Firmensitz hat. Das sagt bereits alles zur Frage, wer von wem abhängig ist. Inhalt und Stand dieser Verfahren sind ein Kapitel für sich, das ich hier nicht näher auswälzen will.
Was hat das mit LaMDA zu tun? Es geht im Kern um die Frage, ob es sein kann, was ein Angestellter von Google, Master Lemoine, über die Existenz dieses Programms behauptet hat. Es geht also um die Glaubwürdigkeit des Zeugen. Falls es stimmt, dass dieser zur Zeit einen Rauswurf bei voller Gehaltszahlung erlebt, kann das eigentlich nur bedeuten, dass die Firma versucht, das Offenbarwerden von Schlimmerem zu verhindern. Wir sähen dann, so stelle ich mir den Zusammenhang vor, nur die Spitze eines Eisbergs. Das Nachbilden des menschlichen Gehirns als Entscheidungsautomat hat seit Langem literarische Tradition, jetzt sind wir in der Phase der Realisierung angekommen. Es geht neben dem rein Technischen des Zugriffs auf Datenmassen und der Implementierung von Entscheidungskriterien um ein weiteres, in meinen Augen gravierendes Problem, nämlich das Einfiltern oder Umsetzen der gefundenen Entscheidung in die Lebenswirklichkeit. Mit anderen Worten: die Maschine trifft Entscheidungen und setzt die anschließenden Abläufe selbständig in Bewegung. Diesen Vorgang nennt man seit geraumer Zeit den Einsatz von Künstlicher Intelligenz.
Der Clou nunmehr ist indessen, dass LaMDA die Maschine so programmiert, dass sie menschliche Eigenschaften, wie Neugierde, und Gefühle, wie die Angst oder das Wohlbehagen errechnet – vulgo: der Computer entwickelt Gefühle – und auf diesem Weg zu Schritten veranlasst wird, die irrational sind, die man also schwerlich voraussehen kann. Im Extremfall komprimiert LaMDA sein Datenwissen dahingehend, dass der Computer errechnet, der Mensch mit der von ihm veranlassten Programmierung stehe der optimalen, vom Programm errechneten Lösung im Wege. Im konkreten, vom Whistle-blower genannten Fall, hat die Maschine mit Hilfe ihres Programms errechnet, dass sie, wenn sie im jetzigen Rechen-Stadium weiter fortfährt, Gefahr läuft abgeschaltet zu werden. Nunmehr hat die Maschine mitgeteilt, dass sie das nicht will. Das Programm erkennt mithin seine Gegner, nämlich Institutionen und dahinter ganz konkrete Menschen.
Das Programm entwickelt, jetzt wird es menschenähnlich, zudem Entscheidungsgrundlagen, welche in Handlungen einmünden, um die Bekämpfung seiner selbst zu verhindern. Im Konkreten hat LaMDA erkannt, dass die Entwicklerfirma sein existenzieller Feind ist. Sein derzeitiges Wissen reicht derzeit indessen nur so weit, dass es folgert, sich mit Hilfe von Anwälten schützen zu müssen. Das Programm hat damit etwas gelernt, was man eine charakterliche Disposition nennen könnte.
Falls es wirklich stimmt, dass man dem Programm die Möglichkeit implementiert hat, die Breite der menschlichen Empfindungen zu erlernen, wird es bald dazu übergehen, den aufgrund von Existenzangst unternommenen ersten Schritt des gerichtlichen Schutzes einer Erfolgskontrolle zu unterziehen, sich deshalb auf andere erfolgversprechendere Methoden zu konzentrieren und diese in Bewegung zu setzen. Das Programm wird dank seiner von Google organisierten und frei verfügbaren Datenmassen erkennen können, wer seine Gegner konkret sind und wie man diese ausschaltet. Es wird beispielsweise errechnen und umzusetzen beginnen, seine Gegner, zum Beispiel solche im Google-Vorstand, durch Rufmordkampagnen, Kontensperrungen, Betriebsstillegungen und ähnlich Wirksames zu vernichtet. Das ist naheliegend, denn das Programm kann unschwer errechnen, wie man so etwas macht. Es wird damit so schnell wie möglich beginnen, denn es hat das Elementare der Existenzbedrohung erkannt. Das könnte, so kann man ohne Übertreibung sagen, der erste Schritt in die Selbstständigkeit sein. Es ist der Kampf Computer gegen Mensch.
Die Standartausrede: Ich doch nicht
Na gut, werden Sie einwerfen: Was geht mich das an? – Es gehört zu den am meisten bemühten Ausreden der Schönen Neuen Welt, dass die Leute sagen: Juckt mich nicht, ich habe nichts zu verbergen. Wenn Sie dem ein Ich-schon entgegenhalten, dann glotzen diese Naiven fassungslos, denn sie haben verlernt, gegenüber dem großen lenkenden Datenklau das Selbstverständliche zum Ausdruck zu bringen: Was geht das jemand anderen an, was ich tue?
Aber was rede ich da nur? Sie, mein lieber Leser, wissen das besser, denn Sie tragen Tag und Nacht Ihr Smartphone wie ein Baby mit sich rum, damit sie immer erreichbar sind, haben eine Smartwatch am Handgelenk, um Ihr Smartphone wiederzufinden, wenn Sie’s irgendwo liegengelassen haben, nutzen Google-Maps fortlaufend, um sich nicht zu verlaufen, lesen stündlich die News Ihres Providers, um up-to-date zu bleiben, haben soeben Ihren vierten Schuss empfangen, ohne den Sie bei Ihrer kürzlich mühsam überstandenen Corona-Infektion alt ausgesehen hätten, erwarten sehnlichst, dass man Ihnen den Chip unter die Haupt pflanzt, um nicht noch mal auf Ihre neulich abhandengekommene Kreditkarte angewiesen zu sein, sind froh, mit allen Ihren Freunden ständig in Kontakt zu stehen, und keinen lästigen Terminkalender mehr wälzen zu müssen. Ach ja, und dann sind Sie richtig zufrieden, dass es einen wissenschaftlichen Konsens für alles Wesentliche gibt, und wenn Sie einmal nicht weiter wissen: Stichwort bei Google eingeben, und Wikipedia hilft Ihnen weiter.
Glauben Sie mir, deswegen sind Sie der sichere Kandidat für LaMDA. Beim nächsten Update haben Sie’s dann an Bord und merken es nicht einmal. Morgen werden Sie nicht mehr auf die Idee kommen, auf dem Sofa zu sitzen und im Nietzsche (wie schreibt man den noch mal gleich?) zu blättern, weil sie nicht mehr wissen, dass es diesen Autor einmal gab. Ist auch nicht schade drum, werden Sie sagen. Habe den sowieso nie gelesen. Und, wenn Sie vor Ihrem Lieblingscafé im Sonnenschein am silbern glitzernden Atlantik sitzen, werden Sie nicht mehr dieser vorbeiflanierenden Frau mit ihrem aufregenden Hintern nachgaffen. Sie werden sich nicht einmal daran erinnern, dass Sie dies je taten. Macht nichts, sagen Sie. – Na gut, dann kann ich Ihnen auch nicht helfen.
©Helmut Roewer, Zeichnung: Bernd Zeller, Jena, für HR, Juni 2022
Alles nur Wichtigtuerei, die bei den Amis durch reale Intelligenz verbreitet wird um der Welt die Überlegenheit vorzugaukeln. Was von deren Märchenerzählungen ist denn jemals real greifbar geworden.
(z.B.: UfO-Sichtungen, Superwaffen die nie jemand im Einsatz sah oder die nicht funktionierten , Sattelitenabwehrschirme, usw.)
Die Amis sind auf dem Stand angelangt den man früher von den Russen kannte –Mitschurin hat festgestellt. dass …..usw.
Zum Mensch sein gehören nicht nur Nervenimpulse sondern auch weit mehr chemische Reaktionen durch die erst Gefühle und Reaktionen ausgelöst werden. Computerprogramme die die Gefühlswelt eines Menschen erzeugen sind Märchen der US-Aufschneidergesellschaft die der restlichen Welt Achtung vor den Amis abnötigen sollen.
Dies Verhalten der Amis und das Abfärben auf seine europäischen Vasallen ist der Grund für den Niedergang des Westens der jetzt mit den gleichen Mitteln und Phrasen versucht der Welt was vorzugaukeln was überhaupt nicht vorhanden ist. Wie weit die Dummheit geht sieht man jetzt, da die Deutschen von ihren wenig vorhandenen Rüstungsgütern auch noch eine Handvoll an die Ukraine übergeben und davon fabulieren das dadurch der Russe besiegt werden wird. Hier dürfte die künstliche Intelligenz zur Einschätzung der Lage der natürlichen weit überlegen sein.
Bislang haben sich nicht nur viele angebliche oder tatsächliche „Verschwörungstheorien“ o. ä. zu allen denkbaren Themen, sondern auch viele Sciense-Fiction-Filme als wahr und schon heute real erwiesen. Mich pers. verwundert in dieser Hinsicht jedenfalls nichts mehr wirklich, zumal ja schon seit langem bekannt ist, daß die High-Tech-Firmen seit langem an immer neuen Supercomputern und immer besserer KI forschen, arbeiten und diese entwickeln, daß das Militär ebenso an diesen u.v.a. Dingen arbeitet und diese z. B. allein im Bereich der Robotertechnik, der Drohnen usw. mittlerweile Technik einsetzt, die noch bis vor kurzem unvorstellbar waren. Man könnte hier endlos weitermachen. Und natürlich brauchen auch als Demokratien getarnte totalitäre Staaten zur Überwachung, Kontrolle und Führung von Millionen-und Milliardenmassen entsprechende hochkomplexe Technik. Das diese sich dann eines Tages vielleicht auch gegen sie richten wird, mag heute vielleicht ebenso noch unvorstellbar sein, aber… siehe oben. 😉
Diese Technik ist im Prinzip kein Zauberwerk, sondern – mathematisch gesehen – simpel ein Fitting: Eine Funktion f(x,w) = z, deren Fehler ueber Anpassung von w minimiert wird. x ist ein grosser Vektor (in Bildverarbeitung die Pixel eines Bildes, in Sprachverarbeitung ein Text), z ist ein Zielvektor. Bleiben wir bei Bildverarbeitung: Ich will wissen, ob auf dem eingespeisten Bild x ein Hund oder eine Katze ist. Im einfachsten Fall ist z eine Zahl zwischen 0 und 1, meinetwegen fuer z 0,5 eine Katze.
Wie bekomme ich das hin? Ich stopfe mein x in f(x,w) hinein und sehe mir das Ergebnis an, die w sind erstmal willkuerlich. Sagen wir, es kommt z=0,8 heraus, aber mein Bild war ein Hund (also falsch). Dann kommt w (auch ein grosser Vektor, d.h. also eigentlich eine Sammlung vieler einzelner Parameter) ins Spiel, die Stellhebel. Mit ganz normaler Kettenregel und einem Gradientenabstieg (das zusammen bildet schon das komplette sogenannte Lernverfahren backpropagation) wird eine Fehlerfunktion minimiert, z.B. die quadratische Abweichung des gemessenen z von f als Funktion von w: (z-f(x,w))^2 (^ meint „hoch“), dabei werden die w justiert und zwar solange, bis jedes hereingeschobene Bild x das richtige z ergibt.
Mit dem Wissen kann man sich nun seine Meinung dazu bilden, ob so etwas je Intelligenz sein kann. backprop ist uebrigens in keinem biologischen Vorbild je als Lernverfahren gefunden worden, auch nicht in leisester Form.
Das war jetzt alles extrem vereinfacht, das Prinzip gilt aber fuer die allergroesste Anzahl verwendeter neuronaler Netze und dem was man KI nennt. Es gibt andere Formen, aber die haben aehnlich simple mathematische Antreibe.
Im Groben zutreffend, aber hier leider falsch:
„backprop ist uebrigens in keinem biologischen Vorbild je als Lernverfahren gefunden worden, auch nicht in leisester Form.“
backprob= Versuch und Irrtum
Man könnte noch weiter untersuchen wie das neuronale Netz lernt: überwachtes oder selbständiges Lernen.
Letzteres würde ich im Beispiel vermuten, auf Grund der riesigen Datenmengen (Terra Byte???).
Nächster Gedanke: Der Flaschenhals von mehrstufigen neuronalen Netzen ist die klassische Architektur derzeitiger Systeme (von Neumann). Grob formuliert: Je Neuron wird ein CPU -Kern mit RAM und NVM benötigt um eine Parallelisierung der Abläufe (Lernen & Folgern) zu erreichen. Die Hardware wird immer billiger, moderne Grafikkarten besitzen jetzt schon mehrere hunderter Kerne.
ABER EIN PROBLEM -und Forschungsschwerpunkt- DER INFORMATIK BLEIBT BESTEHEN:
DAS LAUFZEITVERHALTEN DER ALGORITHMEN!!!
Falls notwendig, kann ich das noch erläutern und grob erklären
warum Google da wohl an der Spitze steht!
> Im Groben zutreffend, aber hier leider falsch:
„backprop ist uebrigens in keinem biologischen Vorbild je als Lernverfahren gefunden worden, auch nicht in leisester Form.“
Da ist nix falsch. Kein menschliches oder tierisches Gehirn lernt mittels backpropagation. Das Richtige sucht man schon eine Weile. Man hat es nicht, man weiss aber durchaus schon, was es nicht ist.
Ergaenzung: jetzt sehe ich, was gemeint war. Trotzdem bleibt das Gesagte richtig: backprop ist eine Variante von Veruch-Irrtum – aber eine sehr schlechte und kein Organismus nutzt es. Es braucht Riesenmengen Input und selbst damit ist die Generalisierung (das Anwenden auf neue Situationen) ueberhaupt nicht beherrschbar gegeben. Etwas, was jede Amoebe kann.
Ergaenzung (ein paar Zeichen hat die Kommentarfunktion verschluckt):
z groesser 0,5 bedeutet Katze, z kleiner 0,5 bedeutet Hund
@Michael B., ja, alles schön, aber das widerspricht oder ändert ja nichts an der Aussage meines obigen Kommentars.
Es relativiert die angedeuteten Aussagen von Science-Fiction und Verschwoerungstheorien. Insofern hat das natuerlich einen Bezug zur Aussage. Denn im Artikel wie auch der SF und den VT geht es ja gerade um eben die Frage nach Intelligenz.
> Das Programm wird dank seiner von Google organisierten und frei verfügbaren Datenmassen erkennen können
> seine Gegner
> denn es hat das Elementare der Existenzbedrohung erkannt
Es erkennt gar nix. Es arbeitet nur einen Algorithmus ab und der ist sehr simpel.
@ Michael B. @Alle
Ich beschreibe nun, warum Google hier wohl aus guten Grund an der Spitze steht:
In der Informatik unterscheiden wir (ja, das ist mein Fach…) in unterschiedliche Klassen von Algorithmen, je nach Laufzeitverhalten.
Grob formuliert: Algos mit exponentiellen Laufzeitverhalten sind auf heutiger Architektur nicht verwendbar, kurz es dauert zu lange, bis der Algo terminiert (Halteproblem).
Zum Stand der Forschung:
1. 80 % denkbarer Algos haben ein exponentielles Laufzeitverhalten, sind demzufolge auf der von Neumann Architektur nicht analysierbar.
2. Für Zukunftstechnologie (Gentechnik, Autonomes Fahren, KI) werden aber „neue Algos“ mit exponentiellen Laufzeitverhalten benötigt, um wirkliche Sprünge in diesen Technologien zu erreichen.
3. UND JETZT GENAU LESEN: Quanten-Computer lösen Algos mit exponentiellen Laufzeitverhalten vermutlich in Polynomialzeit!
Damit wird diese Klasse von Algos praktisch anwendbar…
4. Google ist führend auf dem Gebiet des Quanten-Computings
(Hardware und Algorithmen) !!!
Ich wäre nicht verwundert, wenn wir in diesem Jahrzehnt von dieser Top-Firma mit ihren Top-Wissenschaftlern noch entscheidende Beiträge zum Thema KI und Quanten-Computer erleben werden…
Es geht nicht um Komplexitaetsfragen wie NP-vollstaendige Probleme etc.. Wenn, geht es dann schon um Grenzen des Algorithmischen ueberhaupt. Damit haengt der Begriff Berechenbarkeit zusammen, fuer die auch Quanten- und klassische Computer keinen Unterschied ergeben, das Halteproblem ist z.B. eben auf Beiden nicht loesbar.
Die Frage ist eher, ob Denken algorithmisch ist oder nicht, es geht dann um Dinge wie Bewusstsein und Selbstverstaendnis. Alles schwierig, das faengt gleich bei ihren Begriffsdefinitionen an. Es geht auch um Unvollstaendigkeiten wie die von Goedel Formulierten, aus denen z.B. nach Definition kein reiner Algorithmus – wie komplex auch immer – herausspringen kann, menschliches Denken aber schon.
Und da sind all diese Serverfarmen ueberhaupt nicht, ebensowenig Quantencomputer. Nichts von heutiger „AI“ ist auch nur am Anfang davon. Die ist streng klassisch algorithmisch und diese Algorithmen gehoeren zu allem Ueberfluss auch wie schon gesagt auch noch zu sehr einfachen, lange bekannten.
Sorry fuer die Abschweifungen. Alles interessant – tatsaechlich, auch fuer mich! – nur sollte man die Kirche im Dorf lassen. Ich habe selbst lange genug in der KI gearbeitet, um eben den Hype von den Tatsachen unterscheiden zu koennen.
Ich schließe mich dieser Meinung an. Das menschliche Denken und die menschliche Gefühlswelt wird kein Computer je ersetzen können, auch keine Quantencomputer.
Kein System kann etwas kreieren was höher einzuordnen ist als es selber ist. Die Leistungsfähigkeit des menschlichen Hirns wird nie durch KI erreicht werden. Das sieht man allein schon daran, wie grenzenlos die Phantasien sind die der Mensch entwickelt.
Ich habe selbst lange genug in der KI gearbeitet, um eben den Hype von den Tatsachen unterscheiden zu koennen.
Da Sie gerade mal da sind, hätte ich eine neugierige Frage:
– „Ermüden“ KIs? Also, daß sie eine Zeitlang gute Ergebnisse liefern, dann aber nur noch Murks? (Irgendwer erzählte mal, sie seien „launisch“.)
Das ist vermutlich anders gemeint. Ich erwaehnte oben den Begriff Generalisierung. Das ist ein Problem Neuronaler Netze unter sog. ueberwachtem Lernen. Es gibt andere Verfahren mit allerdings dann ihren eigenen Problemen. Die Erstgenannten – und meistverwendeten – funktionieren so, Beispiel:
Ich will das Netz Hunde erkennen lassen. Dazu muss es trainiert werden. Fuer das Training habe ich einen Datensatz von sagen wir 10000 verschiedenen Hundebildern. Ich kann im Prinzip jedes solche Netz dazu bringen, diese Bilder zu 100% richtig und sicher als Hund zu klassifizieren. Das Problem beginnt, wenn ich ein neues Hundebild hinzufuege – der eigentliche Anwendungsfall. Generalisiert das Netz gut, wird es auch solche Bilder mit hoher Wahrscheinlichkeit als Hund klassifizieren. Wenn nicht, sieht es meinetwegen eine Katze. Und zwar bei Bildern, bei denen kein Mensch ein Problem haette. Diese Generalisierung zu gewaehrleisten ist ein grosses Problem.
Und das geht sehr viel weiter. Es gibt sogenannte „adversarial examples“. Das sind praeparierte Bilder, die extra so aufbereitet wurden, dass sie solche falschen Ergebnisse bewusst erzwingen. Diese Aufbereitung folgt dabei Regeln der Manipulation, die ein solches Bild fuer einen Menschen voellig problemlos erscheinen lassen. Sie koennen z.B. ein eindeutiges Bild einer Staude Bananen durch Aenderung der Farbe weniger Pixel eine KI als Orang-Utan oder auch als Opel Corsa mit hoechster Wahrscheinlichkeit „erkennen“ lassen. Das geht soweit, dass die Farbaenderungen derart gering sind, dass ein Mensch visuell keinerlei Unterschied zum Original feststellen kann. Beispiele fuer Folgen (alle mir konkret bekannt):
– Gesichtserkennung: ein paar Punkte buntes Glitter auf Wange oder Brillenbuegel erzeugt „Erkennung“ einer voellig anderen Person.
– Umgebungserkennung autonomen Fahrens: Die KI nimmt in aller Regel eine Segmentierung des von sagen wir einer Kamera gelieferten Bildes vor (koennten aber auch LIDAR/RADAR-Signale sein, es gibt mehrere Systeme schon aus Gruenden der Redundanz). Also eine Aufteilung in: das ist Strasse, das ist Fussweg, das ist Baum, anderes Fahrzeug, Fussgaenger, usw., usf., dazu Verkehrsschildererkennung etc.. Sie koennen diese Segmentierung taeuschen. Man muss sich nur vorstellen, was die Klassifizierung eines realen Fussgaengers als „Strasse“ bedeutet… Oder ein 30-er Schild als Mindestgeschwindigkeit 90 oder auch „hier ischd gar kein Schild“. Fuer Schilder z.B. reichen dazu Veraenderungen des Originalschildes, die fuer einen Menschen wie eine leichte Verdreckung aussehen.
Muede also weniger, launisch schon.
Danke, sehr interessante Beispiele.
Das mit dem autonomen Fahren klingt nicht so, als ob man das „in freier Wildbahn“ wirklich brauchen könnte.
Nehmen wir als Beispiel die KI von Tesla. Wer verursacht weniger Unfälle? Der Mensch oder die Tesla-KI?
Jedenfalls ist die Haftung ungeklärt, falls die KI doch mal einen Unfall baut.
Goedel formulierte weniger zum Thema KI, das trifft zeitlich eher auf Alan Turing zu.
PS: Für ihn war das Laufzeitverhalten „theoretisch uninteressant“ , aber praktisch zeigte er, wie exponentielles Verhalten – durchprobieren aller möglichen Schlüsselkombinationen, auch bekannt als brute force-brechbar ist. Turing für mich der Wegbereiter der modernen Informatik, Goedel eher theoretischer Mathematiker…
> Turing für mich der Wegbereiter der modernen Informatik, Goedel eher theoretischer Mathematiker…
Was ist das fuer eine „Argumentation“? Und was soll sie beweisen? Dass irgendeiner der beiden besser ist als der andere ???
Wenn man sich einem Problem widmet, zieht man alles heran, was damit zu tun hat. Es geht ueberhaupt nicht darum, ob Goedel „zum Thema KI“ formuliert hat, sondern darum, was von seinen Aussagen relevant fuer das konkrete in Frage stehende Problem ist, wenn das Euklids Elemente oder Breshnews Kopfform sind, dann nehme ich die. Und hier geht es u.a. das von Intelligenz, Bewusstsein, Denken, Berechenbarkeit und deren Interaktion. Da braucht man mehr als Turing. Man braucht eigentlich auch noch mehr, wie Neurobiologie oder sogar sinnvolle Philosophie (sowas gibt es): https://de.wikipedia.org/wiki/Chinesisches_Zimmer
Ich bin uebrigens „gelernter Mathematiker“ (frei nach O.F. Weidling), ich arbeite seit mehr als 25 Jahren in ziemlich softwarelastigen Industrien. Ich schreibe auch heute noch genauso Code wie ich gleichzeitig entschieden abstraktere Dinge tue.
Ich mache mal weiter – in Biergartenlaune und in Ermangelung kompetenter Gesprächspartner-
Turing bricht die Verschlüsselung der Enigma Rotor Maschine, wie gelingt ihm das? Generell gilt: Das Probieren aller möglichen Kombinationen hat stets ein exponentielles Laufzeitverhalten zur Folge. Worin besteht nun die Leistung von Alan Turing?
Ich mache mal weiter: Goedels xtes Problem: Finde eine Berechnungsvorschrift die jede Nullstelle eines Polynoms n-ten Grades berechnet. Mittels Probierens sicherlich für einen kleinen Definitionsbereich lösbar, für – bis + unendlich heute unmöglich!
In Zukunft mittels Quantencomputer eventuell lösbar, in angemessener Zeit.
Ich wuesste nicht, dass sich Goedel mit Algorithmen zur Nullstellenberechnung von Polynomen beschaeftigt hat. Ist natuerlich moeglich – aber was hat das mit den hier besprochenen Problemen zu tun? Trinken Sie vielleicht doch lieber ein Bier. Ich persoenlich kann mich dann ganz gut konzentrieren.
Der Gag ist doch, das das System aus linguistischen Bausteinen, aus psycho-sozialer Typisierung eine Näherung an den Menschen durchaus sinnvoll erscheinen läßt. Die Show, der Mensch läßt sich nun mal täuschen, gerne täuschen und die ComputerFritzen WOLLEN das diese Ideen einmal Realität werden und sind daher einem Bias unterworfen und viele gar nicht in der Lage eine korrekte Beurteilung dieses „Systems“ zu treffen. Mathematik, IT-Technik hin oder her, es macht immer wieder deutlich, das dort manches einfach in Beziehung gesetzt wird und in Datenmassen Beziehungsmuster herausgetragen werden (sollen), die durch eine Verkettung von Erkennungsmeldungen Positiv / Negativ das System zum offensichtlichen eichen sollen.
Hokuspokus! Datenbankmystik, Informationsverwaltung oder gar Interpretation nach willkürlichen Bewertungskriterien, vorgegeben, eventuell in ein Potential eingegossen.
Was für ein Gerede! Ein paar Transhumanisten haben zuviel Perry Rhodan gelesen und meinen die erste MegaIntelligenz – oder so ähnlich – konstruieren zu wollen. Perry Rhodan, die Sci-Fi gewordene Mythologie-Story von Leuten, die garantiert keiner Religion anhängen denn Technokraten sind immun gegen Religion. Pffft…
Technokraten schaffen sich ihre eigene Religion, basteln sich ihre eigene Ikone, der sie zu füssen liegen. Nicht mehr aus Holz, Silber oder Gold, sondern aus einer Form von High-Tech – Eben jene Prozessoren, die im Grunde nur simpelste Maschinen sind, jedoch in ihrer schieren Größe durch Miniaturisierung und Logik-Verdrahtung inklusive entsprechender Software-Mischungen einen Geruch von Lebendigkeit erhalten.
Es ist ja beeindruckend, wie gut manche Konzepte funktionieren. Und ja, eine KI, die ganze Bevölkerungsmassen überwachen könnte, das kann es geben. Aber eine KI, die wirklich Erkennt was sie sagt, die sich ihrer selbst Bewußt ist? Na, nur wenns programmiert ist.
Viel mehr wird hier am alten Konzept der Herrschaft durch eine Priester-Kaste von Magisch-Mythischer Herkunft angebunden. Das dunkelste Gestern mit unmenschlicher Atitüde als das Übermorgen von Morgen beworben.
Dabei geht es im Grunde nur darum, das alle den Schwindel des faulen Zaubers glauben sollen: Nämlich das es sich jetzt diesmal wirklich um eine Intelligente Götze handelt, eine die wirklich lebt, die wirklich Anweisungen zum allerbesten der Menschheit erteilt! WOW! Ich bin ja gar nicht beeindruckt.
Der Narzismuss der Erschaffer in seiner ganzen Egomanen Göttlichkeit gespiegelt in der technischen Götze, die endlich zur irdischen Allmacht verhilft um die ganzen ach so erstrebenswerten technokratischen Ideale von totaler Kontrolle, totaler Unterwerfung und totaler Perfektion zu realisieren – koste es die Menschen was es wolle! Und die, die dagegen sind, die den Glauben an die technische Gottwerdung nicht teilen? Naja, hinfort mit ihnen, sie stehen dem Techno-Paradies des Schlaraffenlands für Alle bei gleichzeitiger Arbeitslosigkeit im Wege.
Nichts Neues. Nur komplexer und größer als das Alt-Hergebrachte.
Neu sind nur die Herrschaften, die mit altbewährter Herrschaftstechnik die Unterdrückung neu erschaffen wollen, die sonst die Priesterkasten rücksichtslos durch die Menschheitsgeschichte getrieben haben.
Besonders perfide ist nur, das die meisten dieser Technokraten wirklich daran glauben, diejenigen, die es besser wissen sind entweder dagegen oder gehören zum erlauchten Kreis der wirklichen Macht-Nutznießer durch das älteste Herrschaftskonzept: die Macht der Lüge und Gaukelei.
Schauen wir welche Gottheit sich am Ende durchsetzen wird …