Skip to main content
Juni 14, 2023

Lernen Sie den Einsatz von Prompt Engineering-Techniken

GPT-Modelle, die von OpenAI entwickelt wurden, haben sich als einer der Motoren der künstlichen Intelligenz und der Verarbeitung natürlicher Sprache (NPL) positioniert. Ihre Fähigkeiten, menschenähnlichen Code und Text zu erzeugen, haben sie zu einer der großen Revolutionen der Gegenwart gemacht.

Als Azure OpenAI-Spezialisten haben wir einige der wichtigsten fortschrittlichen Techniken im Prompt-Design und Prompt-Engineering für die APIs zusammengestellt, auf denen GPT-Modelle basieren. Lesen Sie weiter!

Einführung in die Prompt-Technik

Die Modelle GPT-3, GPT-3.5 und GPT-4 sind anweisungsbasiert. Der Benutzer interagiert mit dem Modell, indem er eine Textanweisung eingibt, auf die das Modell mit der Vervollständigung des Textes antwortet.

Wie alle anderen generativen Sprachmodelle versuchen auch die GPT-Modelle, den nächsten Satz von Wörtern zu reproduzieren, der am wahrscheinlichsten auf den vorherigen Text folgt, als ob ein Mensch ihn tippen würde. Bei der Entwicklung komplexerer Stichwörter muss ihr grundlegendes Verhalten berücksichtigt werden.

Obwohl diese Modelle sehr leistungsfähig sind, ist ihr Verhalten auch sehr empfindlich gegenüber Anweisungen. Daher ist die Erstellung von Anweisungen eine sehr wichtige Fähigkeit, die es zu entwickeln gilt.

In der Praxis werden Anweisungen verwendet, um das Verhalten eines Modells so anzupassen, dass es die beabsichtigte Aufgabe erfüllt, aber das ist keine einfache Aufgabe und erfordert Erfahrung und Intuition, um sie erfolgreich zu erstellen. In der Tat verhält sich jedes Modell anders, so dass man umso mehr darauf achten muss, wie man die folgenden Tipps anwendet.

Prompt Engineering-Techniken in OpenAI

Für Azure OpenAI GPT Modelle steht eine API im Mittelpunkt des Prompt Engineering: Chat Completion (kompatibel mit ChaGPT und GPT-4).

Für jede API müssen die Eingabedaten in einem anderen Format vorliegen, was sich auch auf das Gesamtdesign der Anfrage auswirkt. Die Modelle für die Chatvervollständigung sind so konzipiert, dass sie Eingaben aus einer Reihe von formatierten Wörterbüchern entgegennehmen und in ein spezifisches chatähnliches Transkript umwandeln.

Ein grundlegendes Beispiel wäre:

MODELL = „gpt-3. 5-turbo“

Antwort = openai.ChatCompletion. create(

model=MODEL,

messages=[

{„role“: „system“, „content“: „You are a helpful assistant.“},

{„role“: „user“, „content“: „Knock knock.“},

{„role“: „assistant“, „content“: „Who’s there?“},

{„role“: „user“, „content“: „Orange.“},

],

Temperatur=0,

)

 

Obwohl ChatGPT-Modelle technisch gesehen mit jeder der beiden APIs verwendet werden können, ist die Chat Completion API die am meisten empfohlene. Selbst wenn diese Art des Rapid Engineering effektiv eingesetzt wird, ist eine Validierung der von diesen LLM-Modellen erzeugten Antworten erforderlich.

Prompt Engineering Optionen

Wir fassen die wichtigsten Möglichkeiten zusammen, um Ihr Projekt auf den Weg zu bringen.

Systemmeldung

Dies ist die Nachricht, die am Anfang der Anfrage erscheint und dazu dient, das Modell mit Anweisungen oder Informationen für den jeweiligen Anwendungsfall vorzubereiten. Diese Nachricht kann verwendet werden, um die Persönlichkeit des Assistenten zu beschreiben, zu definieren, worauf das Modell reagieren soll oder nicht, und das Antwortformat festzulegen.

Eine gut gestaltete Systemnachricht erhöht die Wahrscheinlichkeit eines bestimmten Ergebnisses, aber es kann zu Fehlern in der Antwort kommen. Ein wichtiges Detail ist in der Tat, dass, wenn das Modell angewiesen wird, mit „Ich weiß nicht“ zu antworten, wenn es sich der Antwort nicht sicher ist, es keine Garantie dafür gibt, dass die Anfrage erfüllt wird.

Einfaches Lernen

Eine der besten Möglichkeiten, Sprachmodelle an neue Aufgaben anzupassen, ist das Trial-and-Error-Lernen. Diese Option bietet Trainingsbeispiele, um dem Modell zusätzlichen Kontext zu geben.

Bei Verwendung der Chat Completion API erscheinen solche Nachrichten zwischen dem Benutzer und dem Assistenten. Dadurch kann das Modell darauf vorbereitet werden, auf eine bestimmte Art und Weise zu reagieren, bestimmte Verhaltensweisen nachzuahmen und Antworten auf häufige Fragen zu generieren.

Nicht-Chat-Szenarien

Obwohl die Chat Completion API für die Arbeit mit Unterhaltungen optimiert ist, kann sie auch für andere Szenarien als Chats verwendet werden. Sie kann zum Beispiel verwendet werden, um das Feedback zu Bewertungen, Anfragen usw. zu analysieren und den Grad der Zufriedenheit oder Unzufriedenheit eines Benutzers zu ermitteln.

Diese Szenarien sind der perfekte Zeitpunkt, um Copilot (für Windows oder Office 365) zu verwenden, da Sie dann über einen viel leistungsfähigeren Chat als normal verfügen. Es wird häufig verwendet, um einen Chat als Assistenten zu verwenden, um Befehle zur Ausführung von Aktionen zu erteilen (einen Text zusammenfassen, eine PowerPoint-Präsentation aus einem E-Mail-Thread erstellen, usw.).

Tipps zur Verwendung von Prompt Engineering

Wenn Sie sich über alle oben genannten Punkte im Klaren sind, ist es an der Zeit, Ihr Projekt in Angriff zu nehmen. Wenn Sie dies erfolgreich tun wollen, empfehlen wir Folgendes:

  • Beginnen Sie mit klaren Anweisungen und einer klaren Syntax: Wenn Sie die Eingabeaufforderung damit beginnen, dem Modell mitzuteilen, was es tun soll, bevor Sie zusätzliche Kontextinformationen oder Beispiele weitergeben, kann dies entscheidend dazu beitragen, dass es qualitativ hochwertigere Ergebnisse liefert. Dazu gehören Interpunktion, Überschriften oder Markierungen, die dazu beitragen, die Absicht jeder Anfrage besser zu vermitteln.
  • Anweisungen am Ende wiederholen: um zu vermeiden, dass die Modelle anfällig für Aktualitätsverzerrungen sind, d. h. e., d. h., dass die letzte Information in der Anfrage einen größeren Einfluss hat als die anfängliche Information, ist es ratsam, die Anweisungen am Anfang und auch am Ende der Aufforderung zu wiederholen.
  • Vorbereitung der Ausgabe: Es sollte darauf geachtet werden, dass am Ende der Nachricht beschreibende Wörter oder Sätze stehen, um eine Antwort in der gewünschten Form zu erhalten.
  • Break the task down: LLMs funktionieren oft am besten, wenn jede Aufgabe in kleinere Schritte unterteilt wird. Zum Beispiel kann für eine Suchanfrage die Anweisung gegeben werden, zuerst relevante Daten zu extrahieren und dann Suchanfragen zu generieren, die zur Überprüfung von Fakten verwendet werden können.
  • Verwendung von Merkmalen: Manchmal möchten Sie, dass das Modell Merkmale anstelle seiner eigenen Parameter verwendet, um Informationen zu erhalten und Antworten zu liefern. Sie können die Generierung von Antworten beenden, sobald das Modell die Aufrufe generiert hat, und die Ergebnisse dann wieder in den Indikator einfügen.
  • Chaining of Thoughts (CoT): eng verwandt mit der Aufgabenteilung, verfolgt es einen Ansatz, bei dem das Modell angewiesen wird, Schritt für Schritt vorzugehen und alle Schritte darzustellen. Dadurch wird die Möglichkeit von Fehlern in den Ergebnissen verringert und die Bewertung der Antwort des Modells erleichtert.
  • Spezifizierung der Datenquelle: Dieser Schritt kann für die Qualität der Modellergebnisse entscheidend sein. Hinweise wie „tatsächliche Zitate und Aussagen einbeziehen“ helfen, falsche Antworten zu reduzieren, da es sich um gesicherte Informationen handelt. Möglicherweise werden Sie auch aufgefordert, empirische Aussagen aus einem Absatz zu extrahieren, was den Wahrheitsgehalt weiter erhöht.
  • Halluzination: In engem Zusammenhang mit dem vorangegangenen Punkt steht die Halluzination, d. h. die Erzeugung von Ergebnissen, die zwar plausibel klingen, aber falsch sind oder in keinem Zusammenhang mit dem gegebenen Kontext stehen. Sie ergeben sich aus den inhärenten Verzerrungen des KI-Modells, weshalb es sehr wichtig ist, Quellenangaben hinzuzufügen, damit der Nutzer die Informationen gegenprüfen und ihre Authentizität verifizieren kann.
  • Temperatur- und Top_p-Parameter: Eine Änderung des Temperaturparameters verändert die Ausgabe des Modells. Je höher der Wert ist, desto zufälliger ist das Ergebnis und desto ungleichmäßiger sind die Antworten, während ein Wert nahe Null zu einem deterministischeren (weniger zufälligen oder stochastischen) Ergebnis führt. Die Spitzenwahrscheinlichkeit ist ein ähnlicher Parameter wie die Temperatur und steuert die Zufälligkeit der Modellreaktion, allerdings auf etwas andere Weise. Daher ist es ratsam, nur einen dieser Parameter zu ändern, nicht beide gleichzeitig.
  • Provide a reference context: Dies ist einer der wichtigsten Punkte. Das Modell sollte mit Kontextdaten versehen werden, um effektivere Antworten zu erhalten, vor allem, wenn es dazu dient, zuverlässige Informationen zu geben und nicht ein kreatives Szenario. Je mehr Quellenmaterial Sie zur Verfügung stellen, desto näher wird die endgültige Antwort an der gewünschten Antwort sein, da das Modell weniger arbeiten muss und die Fehlerwahrscheinlichkeit geringer ist.

Sie können ein viel effizienteres Modell erhalten, wenn Sie die oben genannten Schritte befolgen. Hier ist ein einfaches Beispiel für eine einfache Eingabeaufforderung mit Kontext, Anweisungen und der auszuführenden Aufgabe.

Implementierung von ChatGPT und OpenAI in Ihrem Unternehmen

ChatGPT- und OpenAI-Dienste verändern die Art und Weise, wie Geschäfte gemacht werden. Wir haben Ihnen erklärt, wie Sie die Vorteile von Prompt-Engineering-Techniken nutzen können, aber Sie müssen der Sicherheit, der Governance und der Überwachung der von Ihnen eingegebenen Daten große Aufmerksamkeit schenken.

Eine gute Strategie bei der Einführung dieser Dienstleistung ist unerlässlich, um gute Ergebnisse und große Vorteile in Bezug auf Kreativität, Effizienz, Innovation und Entscheidungsfindung zu erzielen.

Wir von Plain Concepts bieten Ihnen ein einzigartiges OpenAI Framework, in dem wir die korrekte Implementierung sicherstellen, die Effizienz Ihrer Prozesse verbessern sowie die kritische Geschäftssicherheit erhöhen und gleichzeitig die Produktionsanforderungen erfüllen.

Wir begleiten Sie und helfen Ihnen, Ihre Reise durch die generative KI in all ihren Phasen zu beschleunigen und gemeinsam eine solide Grundlage zu schaffen, damit Sie das volle Potenzial in Ihrem Unternehmen ausschöpfen, die besten Anwendungsfälle finden und neue, auf Sie zugeschnittene Geschäftslösungen entwickeln können.

Wenn Sie herausfinden möchten, wie wir Ihnen helfen können, Ihr Geschäft zu verbessern, zögern Sie nicht, uns zu kontaktieren. Holen Sie das Beste aus der generativen KI!