Wie funktioniert die OpenAI API und was sind eigentlich diese Token?

Wie funktioniert die OpenAI API und was sind eigentlich diese Token?

A person feeding token to a robot

Servus Maik hier.

Diesmal tauchen wir tief in die Welt der OpenAI API ein und klären, was da unter der Haube eigentlich passiert, wenn du mit ChatGPT schreibst und was es mit diesen mysteriösen Token auf sich hat.

Was ist die OpenAI API?

Stell dir die OpenAI und ChatGPT als eine Art Superhirn vor, das Texte generieren kann, die erstaunlich menschenähnlich sind. Ob du nun Chatbots bauen, Texte automatisch generieren oder Daten analysieren möchtest, vollkommen egal – für OpenAI ist das Einerlei. Die OpenAI API ist hierbei ein Programmier-Interface. Heißt, du hast kein schönes Frontend, wie bspw. bei ChatGPT, sondern musst deine Anwendungen selber bauen und mit der API sprechen lassen. (Wie ich es beispielsweise mit Albert Einstein und Gordon Ramsay gemacht habe)

Token – die Bausteine der Sprache

Token sind die Grundbausteine, mit denen eine künstliche Intelligenz, wie auch OpenAI arbeitet. Eingangsseitig wird der Text, den du der KI schickst zerstückelt – genau das sind diese Token. Ein Token kann so klein wie ein einzelner Buchstabe oder so groß wie ein ganzes Wort sein. Wenn du also einen Text eingibst, zerlegt die KI diesen in viele kleine Token, die dann verarbeitet werden. Ausgangsseitig funktioniert das genauso. Wenn dir bei ChatGPT mal aufgefallen ist, dass die Antwort sich Stück für Stück vor deinen Augen aufbaut, dann hast du in Echtzeit gesehen, wie Token generiert werden.

Wie funktionieren Token?

Die KI analysiert jeden Token und versucht, den Kontext zu verstehen. Angenommen, du gibst den Satz „OpenAI ist großartig“ ein, dann wird die KI diesen in Token zerlegen und versuchen, den Zusammenhang zwischen ihnen zu erkennen. Das hilft der KI, sinnvolle Antworten zu generieren.

Beispiel: Token im Detail

Nehmen wir den Satz: „OpenAI ist großartig“. Die Tokenisierung dieses Satzes könnte folgendermaßen aussehen:

  1. „Open“
  2. „AI“
  3. „ist“
  4. „groß“
  5. „artig“

Die API analysiert diese Token einzeln und im Zusammenhang. Sie erkennt, dass „Open“ und „AI“ zusammen „OpenAI“ ergeben und dass „großartig“ ein zusammengesetztes Wort ist. So kann die API den Satz verstehen und in einen sinnvollen Kontext setzen.

Wie die KI eine Antwort generiert

Nachdem dein Eingangssatz in Token zerlegt wurde, geht es darum, eine Antwort zu generieren. Hierzu wählt ChatGPT mögliche nächste Token basierend auf Wahrscheinlichkeiten aus, die aus ihrem Trainingsdatensatz gelernt wurden. Im Detail sieht das dann so aus:

  1. Tokenisierung des Eingabesatzes: „Wie wird das Wetter morgen?“ wird zu „Wie“, „wird“, „das“, „Wetter“, „morgen“.
  2. Kontextanalyse: Die KI versteht, dass die Frage eine Wettervorhersage verlangt.
  3. Token-Generierung: Die KI generiert Token für die Antwort basierend auf Wahrscheinlichkeiten.
  4. Token-Bewertung: Jeder Token wird basierend auf dem Kontext bewertet, und der wahrscheinlichste nächste Token wird ausgewählt. Zum Beispiel könnte die KI zwischen den Token „sonnig“ und „regnerisch“ wählen. Basierend auf dem Kontext und der Wahrscheinlichkeit entscheidet sich die API für „sonnig“. Hier geht es nur um die Trainingsdaten – Die KI kann hier ohne weitere Funktionalität nicht das tatsächliche Wetter vorhersagen.
  5. Unpassende Token verwerfen: Wenn „sonnig“ ausgewählt wird, wird der Token „regnerisch“ verworfen.
  6. Zusammenfügen der Token: Die ausgewählten Token werden zu einem Satz zusammengefügt: „Morgen wird es sonnig mit leichtem Wind.“

Warum sind Token wichtig?

Token sind das Herzstück der Generativen KI. Sie ermöglichen es der KI, Text in kleinen Häppchen zu verarbeiten, was wiederum die Genauigkeit und Relevanz der generierten Inhalte verbessert. Je besser die KI den Kontext der Token versteht, desto natürlicher und kohärenter wird der generierte Text.

Die OpenAI API nutzen

Um die API zu nutzen, musst du dich zunächst registrieren und einen API-Schlüssel anfordern. Mit diesem Schlüssel kannst du dann Anfragen an die API senden und die generierten Antworten in deine Anwendungen integrieren. Die API bietet verschiedene Endpunkte, je nachdem, was du erreichen möchtest – sei es Textgenerierung, Chatbots, Codeanalysen oder sonst was.

Kostenmodell der OpenAI API

Die Nutzung der OpenAI API ist kostenpflichtig und basiert auf einem Token-Modell. Sowohl für die Eingabe- als auch für die Ausgabe-Token fallen Kosten an. Die Preise variieren je nach verwendetem Modell. Beispielsweise kostet die Nutzung des GPT-4o-Modells derzeit $5.00 pro 1 Million Token für Eingaben und $15.00 pro 1 Million Token für Ausgaben. Das bedeutet, je mehr Text du generierst oder analysierst, desto mehr Token werden verbraucht und desto höher können die Kosten ausfallen. Es ist also sinnvoll, die Nutzung im Blick zu behalten und entsprechend zu planen. Hierfür bietet OpenAI die Möglichkeit, Budgets zu setzen. Sind diese ausgeschöpft, werden keine weiteren Anfragen mehr bedient.

Die aktuelle Preistabelle für OpenAI findest du am Ende dieses Beitrags.

Fazit

Die OpenAI API und die Tokenisierung sind faszinierende Werkzeuge, die dir helfen können, intelligente und natürliche Sprachapplikationen zu entwickeln. Egal ob du ein Anfänger oder ein erfahrener Entwickler bist, die Möglichkeiten sind nahezu unbegrenzt. Selbst mit kleinem finanziellen Einsatz lässt sich hier schon ausgiebig rumprobieren – Grundlegende Programmierkenntnisse vorausgesetzt. Also, schnapp dir deinen API-Schlüssel und leg doch einfach mal los!

Mit meiner Kollegin Claudia vom Coworking Space Work LnB habe ich über das Thema Chatbots und deren Nutzen in der ‚Echten Welt‘ für Unternehmen in einer Folge des Work LnB Podcast gesprochen – Hör gerne mal rein, den Link findest du Unten!

-Maik

Ressourcen

Aktuelle Preistabelle OpenAI: https://openai.com/api/pricing
Coworking Space Work-LnB: https://work-lnb.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.