Adresse

UTXO Solutions
Richard-Wagner-Str. 31
50674 Köln

Telefon

+49 221 1684 1669

Künstliche Intelligenz in Frage stellen?

Künstliche Intelligenz in Frage stellen?

Wenn wir uns die Art und Weise ansehen, wie KI heute eingesetzt wird, erkennen wir einen großen Fehler: Niemand stellt genügend Fragen. Weder du noch die KI. Ich beobachte schon seit geraumer Zeit, wie Menschen KI nutzen. ChatGPT und andere haben große Durchbrüche in der Zugänglichkeit von KI im Dialog erzielt. Infolgedessen haben sich im letzten Jahr viele neue Nutzungsmöglichkeiten ergeben. Ein klassisches Ergebnis der Demokratisierung einer bahnbrechenden Technologie. Jeder spielt mit ihr herum. Baut mit ihr. Und findet seinen eigenen Stil. Es scheint jedoch hauptsächlich vier Arten zu geben, wie Menschen Konversations-KI nutzen:

  • Daten strukturieren
  • Beantwortung komplizierter, aber nicht komplexer Fragen
  • Erstellen von Inhalten (Bilder, Videos, Text, Code)
  • Automatisierung

Natürlich sind das nicht alle KI-Anwendungsfälle. Aber das sind die wichtigsten, die ChatGPT und ähnliche Modelle so vielen Menschen zugänglich gemacht haben. Das sind die Fälle, in denen sich auch unerfahrene Nutzer in der Lage fühlen, damit zu arbeiten. Du benötigst keine ganzen Teams von Entwicklern und Datenwissenschaftlern, um Anwendungsfälle zu erstellen. Denn du öffnest einfach ChatGPT oder Midjourney oder eines der vielen anderen und beginnst mit deiner Idee. Die Dinge, die du tun willst, sind normalerweise eine spezifischere Version von:

  • Gib mir Informationen aus einer Datenquelle
  • Umstrukturierung dieser Daten für einen bestimmten Anwendungsfall
  • Erstellen weiterer Inhalte auf der Grundlage der Daten/Anweisungen, die ich dir gebe
  • Einen Code oder eine Automatisierung für mich schreiben.

Und sie alle haben etwas gemeinsam: Sie sind von Menschenhand geleitet.

Der KI sagen, was sie tun soll!

Wir nutzen KI, um unsere Fähigkeiten zu verbessern. Um Dinge zu tun, die wir wollen, dass sie tun. Und dann hoffen wir, dass sie es so macht, wie wir es wollen. Und wenn nicht, iterieren wir. Dieses Nutzungsmuster ist jedoch meist eine Einbahnstraße. Die grundlegende Interaktion ist immer dieselbe: Du sagst der KI, was sie tun soll. Die KI wird versuchen, es zu tun. Das Ergebnis hängt von den Fähigkeiten der KI und der Qualität der Anweisung ab. Daher rührt die Idee des Prompt Engineering. Gib der KI eine gute Anweisung, dann wird sie das tun, was du ihr sagst. Aber das ist fehlerhaft.

Stell dir vor, du sagst jemandem, er soll dein Auto reparieren. Höchstwahrscheinlich würde die Antwort lauten: “Das kann ich nicht machen.” Vielleicht, wenn er freundlich ist, wird er antworten: “Tut mir leid, ich bin nur ein x-beliebiger Kerl und kann das nicht machen. Aber wenn du willst, kann ich dir sagen, wo die nächste Autowerkstatt ist.” Jetzt könntest du ihm sagen, wie man es macht. Alles auf einmal. Wie eine Anleitung, die er einmal lesen könnte. Er würde wahrscheinlich immer noch Fehler machen, weil er nicht alle Informationen auf einmal im Kopf behalten kann. Aber zumindest einige Dinge würden funktionieren. Du könntest die große Aufgabe auch in viele kleinere Aufgaben aufteilen. Analysiere, was falsch ist, indem du prüfst, wie die Dinge sind und wie sie sein sollten. Den Motor öffnen. Zerlegen. Das defekte Teil austauschen. Wieder zusammenbauen. Oder sogar noch kleinere Teile, bis er es gut genug kann. Und dann bei jedem Schritt die Qualität der Ergebnisse überprüfen. Und wenn etwas nicht funktioniert, einfach den letzten Schritt wiederholen.

Das ist im Grunde die Art und Weise, wie die meisten Leute ChatGPT heute nutzen. Schreibe einen Beitrag für LinkedIn. Mach ihn länger. Mach ihn ansprechender. Füge eine Statistik über die Misserfolgsquote bei Innovationen hinzu. Lass es wie diese oder jene berühmte Person klingen. Sehr befehlend. Tu, was ich dir sage.

Aber das schränkt die Fähigkeiten der KI ein. Es ist ein bisschen so, wie wenn man gute Leute einstellt. Man will keine großartigen Leute einstellen und ihnen sagen, was sie tun sollen. Man stellt sie ein, damit sie einem sagen können, was zu tun ist.

Frag die KI, was sie tun soll?

Der bessere Weg wäre, zuerst zu fragen. Ich mache das, wenn ich Bilder von abstrakten Konzepten erstellen will. Ich sage nicht: Zeichne Erfolg. Ich frage: Wie könnte ich Erfolg visualisieren? Wie ist Erfolg in einem bestimmten Kontext visualisiert worden? Welche visuellen Elemente assoziieren Menschen mit Erfolg? Und dann überlege ich mir im Kopf, was ich damit erreichen will, und gehe von dort aus.

So entsteht ein gemeinsamer Denkprozess, der die eigenen Gedanken aufdeckt. Es ist, als würde man einen Text nehmen, ihn in die KI einspeisen und fragen: Was übersehe ich? Wo liege ich falsch?

KI-Beispiel

Als Beispiel habe ich den Text bis zu diesem Punkt in ChatGPT eingegeben und gefragt, wo der Text falsch ist. Warnung: Dies geht über die übliche Lesezeit von 5 Minuten hinaus, die ich in diesem Blog anstrebe, da ChatGPT ziemlich gesprächig ist. Allerdings wollte ich die Ausgabe aus Gründen der Übersichtlichkeit auch so unkorrigiert wie möglich halten. Hier ist also, was ich bekommen habe:

ChatGPT:

Dein Text wirft mehrere wichtige Punkte über die Verwendung von künstlicher Intelligenz und die Art und Weise, wie Menschen mit KI-Systemen wie ChatGPT interagieren, auf. Er ist gut strukturiert und stellt eine durchdachte Perspektive auf das Potenzial für eine interaktivere und wechselseitige Beziehung zwischen Nutzern und KI vor. Es gibt jedoch einige Bereiche, in denen der Text in Bezug auf Klarheit, Genauigkeit und Kohärenz verbessert werden könnte:

Zweideutigkeit des Hauptarguments: Der Text suggeriert, dass der Hauptfehler bei der Nutzung von KI darin besteht, dass sowohl die Nutzer als auch die KI selbst zu wenig Fragen stellen. Er könnte von einer klareren Erklärung profitieren, warum Hinterfragen wichtig ist und wie es den Nutzen und die Effektivität von KI verbessern könnte.

Annahme von Nutzerkompetenz: Der Text impliziert, dass alle Nutzer in der Lage sind, promptes Engineering zu betreiben oder dies leicht erlernen können. Dies trifft möglicherweise nicht auf alle Nutzer zu, insbesondere nicht auf diejenigen, die technisch nicht versiert sind. Die Hervorhebung der Vielfalt der Nutzer und ihrer unterschiedlichen Fachkenntnisse könnte die Diskussion bereichern._

Verallgemeinerung der KI-Anwendungsfälle: Während der Text vier Hauptanwendungsfälle auflistet (Datenstrukturierung, Beantwortung von Fragen, Erstellung von Inhalten und Automatisierung), könnte dies das enorme Potenzial von KI-Anwendungen zu stark vereinfachen. Eine Ausweitung der Vielfalt der KI-Fähigkeiten und die Untersuchung von Beispielen, die über konversationelle KI hinausgehen, könnten eine umfassendere Sichtweise bieten._

Vergleich mit menschlichen Arbeitnehmern: Die Analogie, großartige Mitarbeiter einzustellen und ihnen nicht nur zu sagen, was sie tun sollen, sondern sich von ihnen leiten zu lassen, ist überzeugend. Die Gleichsetzung von KI mit menschlichen Arbeitnehmern könnte jedoch die Komplexität der KI-Entscheidungsfindung und ethische Überlegungen zu stark vereinfachen. Eine Klärung der Unterschiede zwischen KI-Vorschlägen und menschlichem Expertenrat wäre von Vorteil.

Mechan

ik und Stil: Es gibt einige stilistische und grammatikalische Bereiche, die verfeinert werden könnten:

Konsistenz in der Terminologie: Achte auf eine einheitliche Verwendung von Begriffen wie “KI”, “ChatGPT” und “dialogorientierte KI”. Definiere diese Begriffe zu Beginn des Textes, um Verwirrung zu vermeiden._

Zeichensetzung und Grammatik: Überprüfe den Text auf Zeichensetzungsfehler und grammatikalische Ungereimtheiten, z. B. bei der Verwendung von Kommas und der Satzstruktur.

Klarheit und Prägnanz: Einige Sätze könnten knapper formuliert oder zur besseren Lesbarkeit in zwei Sätze aufgeteilt werden.

Umgang mit den Grenzen der KI und ethische Überlegungen: Der Text geht zwar auf das Interaktionsmodell mit der KI ein, könnte aber auch von einer Diskussion über die ethischen Implikationen der KI-Vorschläge und die Bedeutung der menschlichen Aufsicht im Entscheidungsprozess der KI profitieren._

_Beweise und Beispiele: Konkrete Beispiele oder Fallstudien für erfolgreiche Fragestrategien mit KI könnten die Argumentation stärken. Dies würde veranschaulichen, wie das Stellen der richtigen Fragen zu einer innovativeren und effektiveren Nutzung von KI führen kann.

Insgesamt bietet dein Text einen Denkanstoß zu der Art und Weise, wie wir derzeit mit KI interagieren, und schlägt einen Paradigmenwechsel hin zu einem stärker kollaborativen und fragenden Ansatz vor. Wenn du diese Bereiche ansprichst, könnte deine Argumentation noch robuster und überzeugender werden.

Das ist viel besser, als wenn ich ihm einfach gesagt hätte, er solle den Text optimieren. Jetzt kann ich den Text auf der Grundlage der eigenen Informationen und des eigenen Feedbacks optimieren. Das würde dann wie folgt aussehen:

ChatGPT

**“**Rethinking Interaction with Artificial Intelligence_

Während wir uns durch die sich entwickelnde Landschaft der künstlichen Intelligenz (KI) bewegen, fällt ein kritisches Versäumnis auf: der Mangel an Anfragen, die sowohl von Nutzern als auch von der KI selbst gestellt werden. Diese Beobachtung veranlasst uns zu einer tieferen Untersuchung unseres Umgangs mit KI-Technologien wie ChatGPT, die den Zugang zu konversationeller KI erheblich demokratisiert haben. Diese Demokratisierung hat zu innovativen Anwendungen geführt, doch der Dialog zwischen Mensch und KI bleibt oft unidirektional.

Traditionell werden KI-Anwendungen in vier Hauptanwendungsbereiche eingeteilt: Datenorganisation, Lösung spezifischer, aber einfacher Fragen, Erstellung kreativer Inhalte (z. B. Bilder, Videos, Texte, Code) und Automatisierung von Aufgaben. Diese Kategorien stellen die Oberfläche des KI-Potenzials dar und sind auch für Personen mit minimalen technischen Kenntnissen zugänglich. Die Nutzer beginnen Gespräche mit der KI mit einem klaren Ziel und verlassen sich darauf, dass die KI die gegebenen Anweisungen verarbeitet und darauf reagiert. Diese Interaktion ist zwar effektiv, beschränkt die KI jedoch auf die Rolle eines digitalen Assistenten und nicht auf die eines Kooperationspartners.

Der herkömmliche Ansatz - die KI mit der Ausführung von Aufgaben zu beauftragen - ist vergleichbar mit der Anweisung an jemanden, der nicht über die erforderlichen Fähigkeiten verfügt, ein Auto zu reparieren. Die Anweisungen mögen detailliert sein, aber ohne Verständnis oder die Fähigkeit, komplexe Informationen zu behalten, sind Fehler unvermeidlich. Stattdessen kann die Aufteilung von Aufgaben in überschaubare Schritte zu effektiveren Ergebnissen führen. Dies spiegelt die Art und Weise wider, wie wir derzeit KI für Aufgaben wie das Schreiben ansprechender Inhalte oder die Automatisierung sich wiederholender Prozesse einsetzen._

Diese Methode schränkt jedoch das Potenzial der KI ein, da ihre Möglichkeiten nicht voll ausgeschöpft werden. Diese Analogie lässt sich auch auf den Arbeitsplatz übertragen: Wir stellen talentierte Mitarbeiter nicht nur ein, damit sie Befehle befolgen, sondern um ihr Fachwissen und ihre Erkenntnisse zu nutzen. In ähnlicher Weise sollte die Zusammenarbeit mit der KI darin bestehen, ihre Vorschläge einzuholen und einen wechselseitigen Ideenaustausch zu fördern.

Ein fruchtbarerer Ansatz besteht darin, der KI Fragen zu stellen: Anstatt zu befehlen “Zeichne den Erfolg”, sollten wir fragen “Wie kann der Erfolg visualisiert werden?” Dadurch wird ein kollaborativer Denkprozess in Gang gesetzt, der neue Perspektiven und Ideen zutage fördert. Dadurch wird die Interaktion von einem transaktionalen Befehl zu einem Dialog, der den kreativen Prozess bereichert und die Anwendungsmöglichkeiten der KI erweitert.

Um der anfänglichen Kritik zu begegnen, muss sich unser Umgang mit KI weiterentwickeln. Indem wir die Frage über die Anweisung stellen, können wir eine reichhaltigere, dynamischere Partnerschaft mit KI-Technologien eingehen. Dies erfordert nicht nur einen technischen, sondern auch einen kulturellen Wandel, bei dem Neugier und Zusammenarbeit unsere Interaktionen mit KI leiten. Durch die Förderung eines Umfelds, in dem die Frage “Was fehlt mir?” so selbstverständlich wird wie die Erteilung eines Auftrags, können wir die Symbiose zwischen menschlicher und künstlicher Intelligenz verbessern, was zu einem noch nie dagewesenen Maß an Innovation und Kreativität führt._

Zusammenfassend lässt sich sagen, dass der Weg in die Zukunft nicht in der Steuerung der KI liegt, sondern im Dialog mit ihr. Indem wir einen eher fragenden Ansatz wählen, fördern wir eine reichhaltigere Interaktion, die das volle Potenzial der KI ausschöpft und zu innovativeren und effektiveren Lösungen führt. Dieser Paradigmenwechsel, bei dem wir KI nicht mehr als Werkzeug, sondern als Kollaborateur betrachten, kann unsere Beziehung zur Technologie neu definieren und die Grenzen dessen, was wir gemeinsam erreichen können, erweitern.”[**_

Wie du jedoch siehst, wurden die kritisierten Probleme größtenteils nicht behoben. Es gibt kein zusätzliches Beispiel, keine zusätzliche Nuance für die Entscheidungsfindung von Menschen und KI. Die KI-Anwendungsfälle werden nicht erweitert oder die Argumente für andere Anwendungsfälle überprüft. Auch mein Schreibstil wurde nicht beibehalten. Alles in allem ist der Text einfach nur in einem KI-Textstil umgeschrieben.

Die Sache ist die, dass eine konversationelle KI wie ChatGPT sich selbst nicht sehr gut hinterfragt. Wenn ich sie frage, wie zufrieden sie mit der Korrektur war, ist sie ziemlich zufrieden, unabhängig davon, ob ich frage, wie gut sie es gemacht hat oder wo sie versagt hat.

Wir müssen es also in Frage stellen. Aber noch besser ist es, wenn wir die KI nutzen, um uns zu befragen. Eine großartige Technik bei der Arbeit mit KI besteht darin, sich von der KI die Fragen stellen zu lassen. Dann geben wir die Fragen an die KI weiter. Dann bitten wir sie, das Ergebnis auf fehlende Elemente zu überprüfen. Und wir überarbeiten die Ergebnisse selbst. Auf diese Weise können wir die KI nicht nur als Assistenten für bestimmte Aufgaben einsetzen, sondern es entsteht ein Dialog.

Mehr als nur Fragen stellen

Für mich gibt es noch eine weitere Ebene. Auf dieser Ebene stellt uns die KI von sich aus Fragen. Das ist eine Art Grundvoraussetzung für menschliche Interaktion. Wenn du dich mit einem Kollegen treffen willst, würdest du sagen: “Vereinbare einen Termin”. Das typische KI-Verhalten wäre, einfach ein Treffen zu vereinbaren. Ein Mitarbeiter würde das fehlende Stück Information identifizieren: “Wann hast du Zeit?“. Ich kenne derzeit kein einziges KI-Modell, das dich proaktiv nach den fehlenden Informationen fragt.

Wenn du einer KI sagst, sie soll dir ein Bild von einem

See zeichnen, dann gibt sie dir einfach ein Bild von einem See. Sie fragt dich nicht, was dir an diesem Bild wichtig ist. Hast du einen bestimmten Stil im Sinn? Wofür willst du es verwenden? Wie ist die Größe oder das Seitenverhältnis? Gibt es ein anderes Bild von einem See, das als Referenz dienen könnte?

Die KI baut im Grunde ein Produkt, ohne den Kunden vorher zu verstehen.

Sicher, es gibt eine Big-Data-Dimension. Eine Dimension der Optimierung für die Nutzerakzeptanz. So wie der Like-Button auf Social Media den Inhalt im Allgemeinen prägt. Spezialisierte KI berücksichtigt die Daten. Google gibt dir verschiedene Suchergebnisse, die auf dem Wissen basieren, das es über dich hat. Aber ChatGPT fragt mich nicht, ob das Bild, das ich erstellen möchte, für meinen Blog ist und einen ähnlichen Stil wie die anderen haben soll. Wenn ich es auffordere, ein Bild erneut zu zeichnen, fragt es mich nicht, was mir nicht gefallen hat. Ich muss ihm sagen, wie ich es machen soll, und den Kurs selbst korrigieren.

Eines Tages wird es das aber tun. Die KI wird lernen, nach fehlenden Informationen zu fragen. Und das wird ein weiterer Durchbruch in der Qualität der Ergebnisse sein. Aber es wird wahrscheinlich eine Form von gefährlichem Selbstbewusstsein der KI erfordern.

PS: Als ich das Bild für diesen Beitrag erstellte, wurden mir zwei Bilder angezeigt und ich wurde gefragt, welches ich bevorzugen würde. Nachdem ich eines ausgewählt hatte, wurde ich jedoch nicht gefragt, warum. Vielleicht sind die KI-Entwickler zu sehr im statistischen Denken verhaftet.

Autor

Martin Betz

Co-Founder UTXO Solutions