46 O N E t o O N E 0 4 / 2 0 2 3 gesagt hat, man könne in kurzen Hosen in den Biergarten gehen. Doch eben jene zuverlässigen und komplexen KI-Tools, die auf Modellen basieren, werden nicht gerade durch ChatGPT geför- dert. Schließlich ist der magische Bot, der uns alle überflüssig macht, so einfach zu bedienen, jeder glaubt ihn zu verstehen und mal im Ernst: Warum soll man denn viel Geld und Zeit in so eine modellbasierte KI stecken, im Web gibts das doch für einen Bruchteil des Geldes als datenbasiertes Add-On! Vor diesem Hintergrund ergeben sich einige Trends, die uns nun im Fahrwasser des ChatGPT-Hypes erreichen werden, die mittelfristigen Trends. Trend: Chatbots als Datenlecks In einigen Betrieben, darunter solche Giganten wie Amazon, schieben die Unternehmensrichtlinien der Bot-Verwendung einen Riegel vor. Grund: Es ist bereits vorgekommen, dass man geschützte Programme und sensible Daten mit dem Bot kombi- niert hat, der diese dann für sein Training weiterverwendet und zurückgespielt hat an seine Server. Und ehe man sich versieht, schmeißt man als Onlinekonzern einem Bot-Anbieter ebenso arg- los Daten in den Hals, wie ein Nutzer oder eine Nutzerin, der oder die ChatGPT nutzt, unwillkürlich Daten über sich selbst und seine oder ihre Interessen preisgibt, wenn er oder sie das Tool nutzt. Trend: Der Aufstieg der datenzentrierten Fast-Food-KI Systeme, die auf vortrainierten Daten aufbauen, werden die kommenden Jahre Vorfahrt gegenüber den aufwändigeren KIs erhalten, die sich der komplizierteren Modellierungen bedienen. Konkret werden das vor allem Anwendungen sein, die aus dem Machine Learning kommen, also Algorithmen benutzen, die in einem Datentopf Muster erkennen können, die man ihnen bei- gebracht hat; und im weiteren werden noch die Deep-Learning- Anwendungen von mehr Aufmerksamkeit profitieren, die Daten durchforsten und selbstständig Muster finden, nicht nur solche, die man ihnen beigebracht hat. Die Versprechen des Deep Learning reichen nahe an die Leistungen einer modellbasierten KI heran, sind aber nach wie vor nur datenzentriert. Trend: Die KI-Abmahn-Industrie Wer sich die Mühe gemacht hat, mal das Kleingedruckte von KI-Chatbots zu lesen, entdeckt, dass das Urheberrecht der gene- rierten Texte in der Regel bei der Herstellerfirma liegt. Wer also einen solchen Text auf seiner Homepage veröffentlicht, müsste Tantiemen an einen Hersteller wie beispielsweise OpenAI zahlen. „Hoho, das kann natürlich mir nicht passieren, denn ich schreibe den Text um!“ wird da die gängige Antwort lauten, doch ein Bot, der es schafft, sämtliche existierenden Texte nach Mustern zu durchforsten, wird es auch hinbekommen, ein Wasserzeichen in generierten Texten unterzubringen, das man selbst nach x Korrekturschleifen noch nicht beseitigt hat. Das können zum Beispiel mathematische Hinweise in verwendeten Worten und deren Länge, Häufigkeit oder Verteilung sein, die so komplex sind, dass man sie weder bemerken noch entfernen kann. „Will man wissen, was nach Chat GPT kommt, muss man sich fragen, womit sich Geld verdienen lässt“, sagt Professor Doktor Julius Schöning, Hochschule Osnabrück, Fakultät Ingenieurwissenschaf- ten und Informatik. „Vor diesem Hintergrund könnte die nächste relevante KI-Technologie eine sein, die Bot-Texte erkennt, selbst redigierte und dann identifiziert, ob ein Text auf einer Homepage von ChatGPT kommt. Und dann machen entweder die Abmahn- anwälte oder Firmen mit offener Hand die Runde und kassieren Abmahngebühren ab.“ Trend: Menschliche Korrektur statt Künstliche Intelligenz – Justiert wird hinten raus Was wäre Künstliche Intelligenz ohne ein wenig gutbekannten, alten Rassismus und Sexismus? Antwort: Es wäre wirkliche Künst- liche Intelligenz, doch da sie weder intelligent ist (sie erkennt und reproduziert Muster) und auch nicht künstlich (sie basiert auf Daten von Menschen), wiederholt KI stumpf übelste Klischees. Es gibt stichhaltige Hinweise darauf, dass ChatGPT in den hintersten Winkeln des Dark Webs trainiert wurde und Zugriff auf Daten hatte, die die wenigsten Menschen sehen wollen, die eine demokratische Gesinnung und straffrei ausübbare, sexuelle Vorlieben besitzen. Doch Algorithmen nehmen alles zum Training mit, was sie können. Deswegen besitzen sie in der Regel eine oder alle der drei Varianten von „Bias“, also virtueller Voreingenommenheit. Diese Bias gar nicht erst ins System zu lassen, würde eine kontrollierte Datenauswahl, eine genaue Überprüfung der Erhebungsprozesse und dann eine ebenso gründliche Analyse der Verarbeitung erfordern. De facto weiß man aber weder, was in den Daten steht (zu große Mengen) und wie sie vom Algorithmus verarbeitet werden (zu komplex und dynamisch in der Gewichtung der Faktoren, je nach Input). Also was tun? Protoypisch für den industriellen Umgang mit Rassismus in KI sei hier der Fall einer Bilderkennung genannt, die immer, wenn ein Weißer ein Thermometer in der Hand hatte, darin ein Thermometer erkannte, aber stets eine Pistole, wenn es ein Schwarzer hielt – denn wenn das Internet der Lehrmeister ist, dann kommt man eben zu der Erkenntnis, dass Schwarze grundsätzlich kriminell seien. Die Lösung in diesem Fall – und eben auch in sämtlichen vergleichbaren Fällen – ist aktuell, die ausgeworfenen Erkenntnisse umzulabeln. Befindet also eine KI, dass ein schwarzer Mensch eine Knarre hält, dann entfernt man das Daten-Schild „Knarre“ vom Ergebnis, händisch. Der Rassismus ist nach wie vor im System, irgendwo – keiner weiß wo. Dieses Problem wird uns als Trend begleiten und bringt einige neue Trends im Gefolge mit. Trend: Altersfreigaben und Ethik-Richtlinien für KI Auf Dauer sind Rassismus, Sexismus oder anti-demokratische Elemente nicht händisch korrigierbar, „neben KI brauchen wir modellbasierte Lösungen, die nicht nur erkennen, wenn etwas faktisch nicht korrekt sein kann, sondern auch erkennen, wenn etwas ethisch bedenklich ist“, sagt Julius Schöning. „Doch das ist noch ein weiter Weg, bis Maschinen da ankommen, was Men- schen instinktiv erkennen. Ein für Kinder ungeeigneter Witz fällt Menschen sofort auf, Agenten-Lösungen wie Googles Assistant, Alexa und Co werfen manchmal Humor aus, der nahe oder jenseits einer subjektiven Geschmacksgrenze liegt.“ Okay – aber was kommt wirklich an neuen Technologien nach ChatGPT? Dies sind einige der Phänomene, die man zugegebenermaßen nicht als neue Technologien bezeichnen kann, sondern eher als Nebenwirkungen und zu bewältigende Probleme. Doch was