
Das John Lewis-Kinderwagenzubehör für 20 £, das dabei helfen kann, „Leben“ zu vermeiden
Mar 06, 2023Der Puppenspieler aus der „Sesamstraße“ ist das perfekte Muppet-Accessoire für den roten Teppich
Mar 08, 2023Generalstaatsanwalt James verklagt Hersteller von Waffenzubehör wegen Beihilfe zum Buffalo-Schützen
Mar 10, 2023Holzkamera: neues Elite-Zubehörsystem für ARRI ALEXA 35 von Jose Antunes
Mar 12, 2023Charlotte Church enthüllt das Wohnaccessoire, das sie „nervt“
Mar 14, 20237 Bremsschwellen auf dem Weg zur KI
Von Peter Wayner
Mitwirkender Autor, InfoWorld |
Alle staunen, als die KI-Schmetterlinge aus ihren Kokons schlüpfen. Große Sprachmodelle sind bereit, gelernt und in der Lage, in einer Vielzahl von Sprachen und Stilen zu kommunizieren. Die Kunstmodelle können so ziemlich alles hervorbringen, wovon wir träumen und es in Worten erklären können – je verrückter, desto besser. Wissenschaftler bringen KIs bei, Musik zu komponieren, den Weltraum zu erkunden und (zu unserer großen Besorgnis) sich wiederholende Aufgaben auszuführen, die traditionell von bezahlten Arbeitern erledigt werden.
Trotz all dieser erstaunlichen Ergebnisse lauern ernsthafte Probleme direkt unter der Oberfläche. Vielleicht haben wir es noch nicht bemerkt, weil wir immer noch voller Ehrfurcht sind. Künftig werden wir keine andere Wahl haben, als uns mit den materiellen und ethischen Dilemmata auseinanderzusetzen, die die KI aufwirft. Hier sind sieben Probleme, die wir nicht ignorieren können, wenn das Wunder zu verblassen beginnt.
Die meisten großen KI-Modelle basieren auf massiv parallelen Berechnungen, die durch GPUs oder spezielle Chips, sogenannte TPUs, beschleunigt werden können. Diese werden auch häufig von Kryptowährungs-Minern, Teilnehmern von Videokonferenzen und Spielern verwendet. Jeder will die Hardware, und in den letzten Jahren sind die Kosten dafür in die Höhe geschossen, da die Nachfrage das Angebot überstieg. Erschwerend kommt hinzu, dass viele die Cloud nutzen und manchmal kann die Cloud einfach nicht schnell genug expandieren. Um das volle Potenzial von KI-Modellen auszuschöpfen, ist viel Hardware erforderlich, und es wird nicht billig sein.
Hardware ist nicht die einzige knappe Ressource, die für eine erfolgreiche KI-Einführung erforderlich ist. Große KI-Arbeitsplätze benötigen viel Strom, den nicht jede Region liefern kann. Angesichts geopolitischer Konflikte und unbeständiger erneuerbarer Energiequellen ist es eine Herausforderung, einfach genug Strom zu einem vorhersehbaren Preis zu bekommen. Einige Cloud-Anbieter erhöhen in bestimmten Regionen die Preise, um ihre höheren Rechnungen aufgrund der geopolitischen Turbulenzen auszugleichen.
Es gibt viele Themen und Debatten, die Menschen in bestimmten Kontexten, wie zum Beispiel bei Feiertagsessen oder am Arbeitsplatz, meiden sollten. Allerdings muss den KIs beigebracht werden, wie sie in jedem Kontext mit solchen Problemen umgehen können. Einige große Sprachmodelle sind so programmiert, dass sie überlastete Fragen abweisen oder sich einfach weigern, sie zu beantworten, aber manche Benutzer lassen einen schlafenden Hund einfach nicht lügen. Wenn ein solcher Benutzer bemerkt, dass die KI einer kniffligen Frage ausweicht, beispielsweise einer Frage, die rassistische oder geschlechtsspezifische Vorurteile hervorruft, wird er sofort nach Möglichkeiten suchen, diese Leitplanken zu umgehen.
Verzerrte Daten und unzureichende Daten sind Probleme, die im Laufe der Zeit korrigiert werden können, aber in der Zwischenzeit ist das Potenzial für Unfug und Missbrauch enorm. Und obwohl es schon schlimm genug ist, KI dazu zu bringen, Hassreden zu produzieren, verdichtet sich die Handlung erheblich, wenn wir beginnen, KI zu nutzen, um die moralischen Implikationen von Entscheidungen im wirklichen Leben zu untersuchen.
Viele KI-Projekte sind beim Lernen auf menschliches Feedback angewiesen. Bei einem Großprojekt ist häufig eine große Anzahl an Personen erforderlich, um den Trainingssatz zu erstellen und das Verhalten des Modells anzupassen, wenn es wächst. Bei vielen Projekten ist das benötigte Volumen nur dann wirtschaftlich realisierbar, wenn die Trainer in armen Ländern niedrige Löhne erhalten. Es gibt eine intensive Debatte darüber, was fair und gerecht ist, aber niemand hat eine wirtschaftlich machbare Lösung für größere Projekte gefunden. So wie die Edelsteinindustrie nicht gerne über die schwierige und gefährliche Arbeit des Bergbaus nachdenkt, hat die KI-Industrie keine einfache Lösung für die Arbeitskosten.
Desinformation in Form von Fake News und Rezensionen begleitet uns schon seit einiger Zeit und wird aus allen möglichen Gründen – sei es aus politischen Gründen oder aus Profitgründen – erstellt. Bei Bewertungen erstellen Anbieter gefälschte positive Bewertungen ihrer Produkte und gefälschte schlechte Bewertungen von Konkurrenzprodukten. Algorithmen zum Blockieren böswilliger Akteure sind überraschend komplex und erfordern einen erheblichen Wartungsaufwand. Anscheinend gibt es kein kostenloses Mittagessen.
Aber stellen Sie sich nun vor, was passiert, wenn KI zur Erzeugung von Desinformation eingesetzt wird. Zum einen wird die Menge gefälschter Informationen exponentiell zunehmen. Zum anderen besteht eine gute Chance, dass eine andere KI es aufnimmt und wieder in den Trainingskorpus einspeist. Virale Fehlinformationen verschmutzen bereits unsere sozialen Netzwerke. Wie verstärken und korrumpieren schlechte Feedbackschleifen das Wissen? Wird es Trainingssets geben, die sorgfältig aus alten Texten vor der Singularität zusammengestellt wurden?
KIs lernen alles, was sie wissen, indem sie eine riesige Menge an Texten und Bildern kopieren. In den meisten Fällen wurde den Menschen, die diese Daten erstellten, nie gesagt, dass ihre Arbeit in ein KI-Modell einfließen würde, das eines Tages Milliarden von Dollar wert sein könnte. Was passiert, wenn diese Menschen anfangen, ihre Jobs durch künstliche Intelligenz zu verlieren? Plötzlich haben sie alle jede Menge Zeit, sich über Lizenzen, Urheberrechte und Plagiate zu informieren. Wir können darüber scherzen, dass wir einer KI nur die relevante Rechtsprechung beibringen, aber ein KI-Richter, der in Millisekunden ein Urteil fällen kann, ist beängstigender als ein menschlicher Richter, der Jahre braucht, um die Fragen abzuwägen. Wenn wir auf die Menschlichkeit und das Rechtssystem zählen, könnte es Jahrzehnte dauern, bis wir ein Urteil fällen.
Hier ist ein weiteres Szenario in der gleichen Richtung. Wenn eine KI einen Fehler in Bezug auf historische Ereignisse oder die heutige Popkultur macht, kann das beleidigend sein, aber niemand wird direkt verletzt. Wenn dieselbe KI etwas Abfälliges über eine lebende Person sagt, kann es tatsächlich verleumderisch sein. Man kann sich leicht vorstellen, dass eine KI Satzfetzen zusammenklebt, um etwas völlig Falsches über eine lebende Person zu sagen. Nehmen wir dann an, dass diese Person über die Mittel verfügt, ein Team von Anwälten zu engagieren, um Rache zu üben. Ist die KI selbst schuld? Oder ist es das Unternehmen, dem es gehört? Wenn irgendwo ein Haufen Geld liegt, werden die Anwälte ihn finden.
Soweit ich weiß, gibt es keine offensichtlichen Beispiele für böse KIs, die sich wie Bösewichte in Science-Fiction-Filmen verhalten. Es ist bekannt, dass selbstfahrende Autos und Fabrikmaschinen Fehler machen, doch bisher scheint keine künstliche Böswilligkeit im Spiel zu sein. Ein dummer Mensch, der hinter dem Lenkrad frühstückt, während er SMS schreibt und fährt, ist irgendwie akzeptabler (aber nicht weniger potenziell tragisch) als ein selbstfahrendes Auto, das einen Unfall hat. Es scheint, dass wir noch nicht wissen, wie wir die Möglichkeit schwerer Verletzungen oder Todesfälle durch künstliche Intelligenz erklären können.
Was ist also damit? Clevere Benutzer haben bereits begonnen herauszufinden, wie KIs dazu neigen, Fehler zu machen. Eine KI ist vielleicht hervorragend darin, unklare Informationen richtig darzustellen, aber selbst einfache Aufgaben wie das Zählen bis fünf können sie zum Stolpern bringen. Was aber, wenn die Risse tiefer gehen als bloße Zählfehler? Zumindest könnten wir zu dem Schluss kommen, dass einige Jobs nicht für KI gedacht sind – egal wie sehr wir den Gewinn wollen.
Menschen neigen dazu, sich vorzustellen, dass Tiere und KI genauso denken wie wir. Das kann uns Angst machen, weil andere Menschen oft enttäuschend oder geradezu gefährlich sind. Das eigentliche Problem besteht darin, dass KIs über eine deutlich andere Form der Intelligenz verfügen, die wir noch nicht verstanden haben. Als Spezies müssen wir noch viel über die einzigartigen Stärken und Schwächen der KI lernen.
Mittlerweile wird der Bereich der künstlichen Intelligenz so stark gehypt und vom menschlichen Optimismus beflügelt, dass er unseren Träumen niemals gerecht werden könnte. Es ist nicht die Schuld der Wissenschaftler, dass sie unsere Erwartungen nicht erfüllen können; Selbst die Konzerne sind nicht dafür verantwortlich, dass sie daraus Kapital schlagen. Es ist unsere Schuld, dass unsere Herzen und Hoffnungen die Realität übertreffen. Das Feld ist zur Enttäuschung verurteilt, schon allein deshalb, weil wir so viel erwarten.
Lesen Sie als nächstes Folgendes:
Copyright © 2023 IDG Communications, Inc.
Lesen Sie als nächstes Folgendes:
