Ich bin ja, was die Computertechnik angeht jemand, der noch die „Dinosaurier“ gesehen hat und während meines Studiums durfte ich sogar Programme auf Lochkarten stanzen. Jetzt, 45 Jahre später haben wir überall Künstliche Intelligenz und KI scheint nach „Blockchain“ das neueste Buzzword zu sein wenn man „mitreden“ will. Daher hier nun mal meine Sichtweise auf die Künstliche Intelligenz.
Spaltet KI unsere Gesellschaft?
Diese Frage kam mir in den Sinn, als ich eine Diskussion auf Mastodon verfolgt habe. Das Thema sind Bildbeschreibungen, wenn man Bilder postet. Meine Präferenz ist jedesmal eine Bildbeschreibung zu erstellen, denn ich habe einige Follower die blind sind und die ich somit ausschließen würde, wenn ich keine Bildbeschreibungen posten würde.
Es kommt ein Einwurf von einer Künstlerin, dass Bildbeschreibungen zu posten schlecht ist, denn damit würde man die KI-Bots trainieren, die Bildbeschreibungen erstellen. Und KI klaue sowieso das Material bei den Künstlern und damit würde man das nur noch weiter vorantreiben.
In der Runde diskutieren noch mehr, aber die Diskussion eskaliert dann so weit, dass die Künstlerin einen aus der Diskussionsrunde blockt.
Alles nur geklaut?
Der Vorwurf der Künstlerin hat durchaus eine Basis im Hinblick auf die KI-Crawler, die zum Einsatz kommen. Das Thema der KI-Crawler hat zwei unschöne Facetten:
- Auf der einen Seite grasen diese Web-Crawler alles ab, was nicht bei 3 auf dem Baum ist oder sich hinter Bezahlschranken verbirgt. Dabei ist es den betreibenden Firmen egal, ob sie das was sie da als Trainingsdaten nutzen lizensieren müssten oder nicht. Es wird einfach einverleibt, denn anders würde das Geschäftsmodell von Firmen wie OpenAI gar nicht funktionieren.
- Die Crawler verursachen eine gigantische Menge an Traffic, den am Ende ja auch irgendwer bezahlen muss und ich habe schon von Webmastern gelesen die sehr viel Aufwand damit haben, KI-Crawler von ihren Sites auszusperren um den Traffic und auch die Last auf dem Webserver gering zu halten.
Money makes the world go round
Nachdem wir oben auf das Geschäftsmodell geschaut haben wird es Zeit, sich mal die Kosten im ökonomischen aber auch ökologischen Blickwinkel anzuschauen
AI-Systeme haben einen massiven Carbon Foot Print, da diese ja nicht auf einem kleinen PC laufen, sondern auf teuren Rechenzentren mit viel Computing-Power und noch mehr Speicher.
So beläuft sich die jährliche Stromrechnung von ChatGPT auf 140 Millionen Dollar1. Auf die Frage wie viel Leistung eine Anfrage verheize antwortete Sam Altman mit 0,34 Wattstunden2 und erfand auch gleich den passenden Vergleichsmaßstab dafür, nämlich eine Sekunde Backofen-Laufzeit, da Saarlands und Fußballfelder hier als Umrechnungsfaktoren eher ungeeignet sind.
Wie sieht die Einnahmeseite aus
Die Idee bei den KI-Systemen ist ja, dass man Kunden findet die bereit sind für das alles zu bezahlen. Also wird man erst einmal mit kostenlosen Häppchen angefixt oder man hofft, dass sich die KI über Nebenkanäle finanziert, so war die Idee hinter Amazons „Alexa“ ja auch, dass Kunden einfach sagen „Alexa, bestell bitte XYZ“ und Amazon so Umsatz generieren kann. Tatsächlich sagen die Kunden aber “ Alexa, erzähl mir einen Witz“ und das machen sie auch nur, weil es sie nichts kostet.
Manche Firmen sind nun dazu übergegangen, ihre Produkte mit irgend einem AI-System zu bündeln, so dass man das gleich mitbekommt, wenn man das entsprechende Basisprodukt nutzt und dafür bezahlt. Der Preis wird also etwas mehr werden, und eine Variante ohne das KI-Gedöns bekommt man nicht.
Wo ein Trog ist da kommen Schweine
Eine weitere Schattenseite in der KI-Diskussion ist, dass jetzt auch schon zwielichtige Angebote in meiner Vereins-Mailbox auftauchen. Das liest sich dann so:
Die Google Suche wird bald abgelöst, denn Heute stellen Kunden ihre Fragen direkt an ChatGPT, Siri, Apple Maps, Alexa – und erwarten dort dieselbe Sichtbarkeit wie bei Google.
Problem: Derzeit tauchen Sie in diesen neuen Systemen gar nicht auf – oder mit veralteten Daten. Das kostet Sichtbarkeit, Vertrauen und Kunden.
Wir helfen Betrieben in Augsburg, jetzt sichtbar zu werden auf über 60 entscheidenden Plattformen – darunter die neuen KI-basierten Suchsysteme (ChatGPT-Suche, Sprachassistenten, Apple Maps etc.).
Sprich, man soll Geld bezahlen um angeblich dann eine bessere Auffindbarkeit in KI-Systemen zu haben.
Dabei werden auch Suchmaschinen immer mehr von KI infiltriert. „Herkömmliche“ Suchmaschinen verlinken immer mehr KI-generierte Seiten in den Top-Treffern, wohl weil die Seiten auch durch ihren aufgeblähten Inhalt Kompetenz suggerieren.
Und ja, die Inhalte im Web werden auch immer mehr durch KI-Systeme generiert. Und das muss nicht zwingend in guter Absicht passieren.mmer mehr Seiten werden zu großen Teilen von KI erstellt und wenn man tatsächlich fachlich relevante Informationen sucht stellt man schnell fest, dass diese Seiten nur „labern“ und bestenfalls an der Oberfläche des Themas kratzen.
Mittlerweile gibt es auch schon die ersten KI-generierten Reiseführer3 die allerdings nichts taugen, weil sie irgendwelche Sehenswürdigkeiten „erfinden“ die in der realen Welt gar nicht gibt.
Trau schau wem
Eines der ganz großen Probleme ist, dass wir nun die Technologie haben mit der jeder relativ einfach irgendwelche Fakes erstellen kann. Es gibt KI-Systeme die ein Bild von irgendwas erzeugen, es gibt sogar KI-Systeme die Videos erstellen und das große Problem ist, dass es auf den ersten Blick alles „echt“ aussieht.
Auf YouTube habe ich in den letzten Monaten einige Tendenzen festgestellt:
- Video-Titelbilder sind oft KI-generiert um als Click-Bait zu dienen. Sie zeigen irgendwas, was eigentlich unmöglich ist, also z.B. ein Flugzeug dessen intakter Rumpf sich an ein Hochhaus anschmiegt und ein paar Trümmer liegen rum, das ganze als „Unbelievable Aviaton Moments“ betitelt. Ja, spätestens nach dem Absturz das Flugzeuges in Indien wissen wir wie eine Crash-Site aussieht wenn ein Passagierjet eine Bruchlandung in ein Haus macht.
- Es gibt unzählige politische Video nach dem Muster „A zerlegt B“ und da man Sympathien für A hat und B für ein widerliches Subjekt hält guckt man sich das dann an. Was man serviert bekommt sind Fotos von A und B in Gegenüberstellung und eine KI generierte Stimme die einem eine Geschichte erzählt wie B böse zu A war und A ihm dann super eloquent darauf geantwortet hat. Ja, da wir ja A viel mehr mögen als B sind wir geneigt diese Erzählung zu glauben, auch wenn es keinerlei Beweise gibt, dass sich das tatsächlich so zugetragen hat. Flood the system with shit und wir sind nun an dem Punkt, wo zumindest ich mich frage, welchen dieser Kanäle ich noch trauen kann und welchen nicht.
- Gerade heute habe ich auch in einem Podcast gehört wie KI-Systeme von Scammern genutzt werden um ihre z.b. Phishing Mails zu formulieren.
Aber wir sind die Guten
Alle diese tollen Möglichkeiten haben auch noch einen anderen Haken: Menschen die im Rahmen ihres Studiums irgendwelche Textarbeiten verfassen müssen sind nun sozusagen genötigt zu beweisen, dass sie für die Erstellung ihrer Arbeit keine KI genutzt haben.
Auf der anderen Seite bewertet vielleicht sogar eine KI die Arbeit um dann zum Ergebnis zu kommen „wurde mit KI erstellt“ auch wenn das gar nicht stimmt. „In dubio pro reo“ ist dann nicht mehr gewährleistet und so habe ich schon von Studenten gelesen, die sogar ihre Tipperei am PC filmen um zu belegen, dass sie das geschrieben haben und nicht eine KI.
Und da war dann noch der Schüler, der sich wirklich außergewöhnlich viel Mühe gegeben hatte nur um dann zu hören, dass seine Leistung nicht gewürdigt wird, da sie zu gut ist und daher nur von einer KI kommen könne, er möge doch die Arbeit so „verbessern“ dass sie zwar deutlich schlechter, aber eben „glaubwürdiger“ sei.
Ich bin doch (nicht) blöd
Ich kann mich noch an die Erfindung des Taschenrechners erinnern die dann bei vielen Leuten dazu geführt hat, dass man solche elementaren Skills wie „Grundrechenarten“ nicht mehr für wichtig erachtet hat, weil man hat ja Taschenrechner. Damals warnten die Lehrer noch „ihr werdet nicht immer einen Taschenrechner bei euch haben“, aber dieses Argument ist seit der Verbreitung der Smartphones einfach nicht mehr wahr.
Und ähnliche Tendenzen sehe ich jetzt, wo alle Bereiche unseres Lebens mit irgend einer KI durchdrungen werden. „Warum soll ich X lernen, ich kann doch die allwissende KI fragen?“ wird wohl zur Standardfrage der nächsten Generation werden. Warum mein Gehirn mit Wissen belasten? Ich wage die Behauptung, dass uns eine KI nicht bei einem Thema X weiterhelfen kann von dem wir gar nicht wissen, dass es existiert.
Schon Sokrates soll gesagt haben „ich weiß dass ich nichts weiß“,. aber er dachte zumindest darüber nach was er alles nicht wusste und konnte sich so bemühen Antworten auf seine Fragen zu finden. Doch was wird mit uns, dem „homo sapiens“ passieren, wenn wir von der Last des Wissens entbunden sind? Werden wir degenerieren.
Wir müssen auch mal darüber nachdenken, dass wir jetzt in der verrückten Situation sind, dass wir zu Beginn des Computerzeitalters auf Haushaltsroboter gehofft haben, die unsere Wäsche bügeln und zusammenlegen damit wir die Zeit und Muße haben Bilder zu malen. Und wo sind wir gelandet? Die KI malt für uns die Bilder und das Bügeln und Wäsche zusammenlegen müssen wir immer noch selbst machen.
Bias ist alles
Oder auch ich mache mir die Welt, wie sie mir gefällt. Eine weitere Gefahr beim totalen Vertrauen auf KI-Systeme liegt in der Voreingenommenheit ´solcher Systeme. Oft sind es die Trainingsdaten, die einen Bias in eine bestimmte Richtung erzeugen, so generierten die ersten Bild-KIs bei der Aufforderung das Bild eines Menschen zu erstellen dann nur mit Bildern mit Menschen heller Hautfarbe.
Noch schlimmer kann es werden, wenn explizit irgendwelche Regeln und Moralvorstellungen programmiert werden, so gibt es einen Bug-Report, dass z.B. GitHub Copilot die Arbeit bei Dingen verweigert, die das Theme Gender oder Sex haben4.
Dem durchschnittlichen User von KI-Systemen wird das nicht auffallen, aber am Ende führt es zu einer Einengung des eigenen Horizonts weil man die „Normalität“ unterschwellig neu definiert.
Jobkiller KI?
Man sagt das KI demnächst immer mehr Jobs obsolet machen wird gerade bei den Berufseinsteigern. Natürlich kann KI keine Häuser bauen oder Autos reparieren. Das heißt Handwerk wird weiterhin nicht von KI betrieben werden, aber alles wo man quasi Bürotätigkeiten macht und Schreibarbeiten und so weiter wird wohl oder übel auf KI ausgelagert werden. Ich meine gerade hier bei diesem Absatz nutze ich auch KI, da ich meine Gedanken ins Handy diktiere und einfach die Spracherkennung machen lasse.
Das wirft dann wiederum die Frage auf ob wir Sozialabgaben auf KI-Systeme brauchen, weil wenn immer mehr Jobs obsolet werden immer mehr Leute arbeitslos werden oder nur noch Teilzeit arbeiten können und so weiter. Die Sozialausgaben werden steigen und die Einnahmen werden sinken, wenn wir immer weniger sozialversicherungspflichtige Jobs haben. Das heißt, man musste sich wirklich überlegen, ob wir die Produktivität die wird durch „Roboter“ bekommen werden oder durch KI-Systeme mit Sozialabgaben belegen müssen oder auch mit Steuern. Einfach um den Benefit, den die Systeme wohl für die Unternehmen bieten, nicht in Unternehmensgewinnen versanden zu lassen.
Natürlich kann ich einfache Jobs durch KI ersetzen und natürlich will keiner diese einfachen Jobs machen und sie sind trotzdem unter Umständen notwendig. Aber dann müssten wir eben dafür sorgen, dass diese KI-Systeme trotzdem irgendwie an den Sozialabgaben beteiligt werden. Ich erinnere mich noch gut an das letzte Jahrhundert, als es z.B. Gewerkschaften gelang durchzusetzen, dass auch auf einer elektrischen Lokomotive ein Heizer mitfährt, einfach weil sonst diese Heizer schlicht arbeitslos gewesen wären.
Mein ganz persönliches Fazit
Der Star-Trek Nerd in mir findet KI faszinieren, wie es Mr. Spock ausgedrückt hätte. Der Mensch in mir sieht aber eine Bubble, die sehr viele gesellschaftliche Gefahren mit sich bringt, so wie oben beschrieben. Insbesondere die Idee der „allwissenden KI-Müllhalde“ bereitet mir Sorgen, denn es könnte zur Stagnation und Degeneration der Spezies „homo sapiens“ führen.
Ich würde eher für spezialisierte KI-Systeme plädieren, z.B. ist die Spracherkennung eine sinnvolle Anwendung und wenn man dann auch noch simultan eine Übersetzung in andere Sprachen bekommt, dann hat das durchaus einen hohen Nutzwert.
Und auch mein Spamfilter hier ist im Prinzip ein KI-System, es ist ein einfacher Bayes-Filter der einfach auf Heuristiken basiert und entsprechend eine Bewertung macht.
Aber in einem „generativen System“ wie ChatGPT den neuen Heilsbringer zu sehen, da stellt es mir die Zehennägel hoch. Vielleicht bin ich zu „old school“ um auf diesen Zug aufzuspringen, aber mein Bauch sagt, dass der eh in die falsche Richtung fährt.