Praxis-Leitfaden: KI mit größtmöglichem Mehrwert sicher einsetzen

Eine strategische Roadmap unterstützt dabei, KI-Use-Cases zu identifizieren und KI mit größtmöglichem Mehrwert sicher und profitabel einzusetzen. Prompt Engineering und Fine-Tuning heißen die wichtigsten Optimierungstechniken.

15. März 2024

Michael Kurzidim

5 Min. Lesezeit

Quelle: freepik/vectorjuice

In deutschen Unternehmenszentralen regiert die Vorsicht, wenn es um den Einsatz von generativer Künstlicher Intelligenz geht: 76 Prozent beschränken die Dateneingabe, 69 Prozent der Unternehmen in Deutschland regeln, welche GenAI-Tools Mitarbeitende in der täglichen Arbeit nutzen dürfen und 35 Prozent verbieten den Einsatz aus Datenschutzbedenken gleich vollständig. Zu diesen Ergebnissen kommt die aktuelle, vom Netzwerkausrüster Cisco durchgeführte Studie Data Privacy Benchmark 2024. 2.600 Datenschutzexpert*innen weltweit haben an der Umfrage teilgenommen, davon 200 aus Deutschland.

Praxistipps für den KI-Einsatz

Die Bedenken sind berechtigt: Jede Information, die Benutzer ChatGPT zur Verfügung stellen, dürfen als veröffentlicht gelten. Sie lassen sich aber leicht entschärfen. Unternehmen sollten ChatGPT oder andere Large Language Models unternehmensintern in einer nach außen abgesicherten IT-Umgebung einsetzen. Auf diese Weise gelangen sensible Daten, die ChatGPT für die Textproduktion benötigt, nicht nach außen. Die Digitalisierungsberatung valantic etwa hat eine abgesicherte ChatGPT-Version „Vally“ entwickelt, die seit Monaten hunderte Kolleginnen und Kollegen bei der Arbeit unterstützt. Auch bei Kundenunternehmen wurde Vally bereits erfolgreich implementiert.

Eine abgesicherte KI-Umgebung, die sensible Daten und Informationen nicht nach außen dringen lässt, diese Lösung dürfte auch KI-Skeptikern den Wind aus den Segeln nehmen. Denn die Sicherheit sensibler Unternehmensdaten ist dadurch jederzeit gewährleistet.

Der erste Schritt hin zu einem erfolgreichen KI-Einsatz in eigenen Unternehmen besteht jedoch darin, Use Cases und konkrete Einsatzszenarien zu identifizieren, die größtmöglichen Mehrwert schaffen. Wie zum Beispiel ein „Research Assistent“ für die Pharmaindustrie, einen Cover-Letter-Generator für ein Private-Equity-Unternehmen oder einen Kunden-Support-Assistenten für Call Centre. Schließlich soll sich die Investition in der Praxis rentieren und einen möglichst schnellen Return-on-Invest generieren.

Strategische Roadmap KI erstellen nach valantic
So identifizieren Unternehmen Use Cases, die große Mehrwerte schaffen und einen schnellen Return-on-Invest generieren. Sogenannte Killer-Use-Cases schaffen außerdem Akzeptanz aufseiten der Anwender. (Quelle: valantic)

Mit der Identifikation erfolgsversprechender Use Cases und der Implementierung eines geeigneten Large Language Models wie ChatGPT oder Bard ist es jedoch nicht getan. In der Praxis hat der smarte Einsatz von Prompts großen Einfluss darauf, ob LLMs wie ChatGPT qualitativ hochwertige Antworten geben oder eben nicht. Unternehmen sollten daher ihre Mitarbeitenden im Prompt Engineering schulen, um Ergebnisse zu erzielen, die in der Unternehmenspraxis funktionieren und die Produktivität erhöhen. Deutsche Unternehmen, so haben Umfragen ergeben, wollen 2024 besonders in das KI-Training ihrer Mitarbeitenden investieren.

Um Standard-Aufgaben bestmöglich bedienen zu können, kann es außerdem hilfreich sein, einen Prompt-Katalog mit Best-Practices Prompts von einer Expertin oder einem Experten aufstellen zu lassen. Mitarbeitende können sich dann je nach Bedarf daraus bedienen, sparen Zeit und erzielen bessere Resultate.

Best-Practices: Super-Prompts verfassen

Einige einfache Best-Practices des Prompt Engineering verbessern die durch GenAI generierten Texte, Bilder und Videos bereits deutlich. Generell gilt: Geben Sie LLMs wie ChatGPT so viele relevante Informationen wie möglich. Als roter Faden können die fünf „Ws“ dienen: Wer?, Wie, Was? Wieso? Warum? Hilfreich kann auch sein, der GenAI die Perspektive einer bestimmten Persona, Zielperson oder Zielgruppe vorzugeben, für die der generierte Content ausgespielt wird, inklusive konkreter Beispiele. Produziert die GenAI nicht auf Anhieb die besten Ergebnisse in der gewünschten Länge und Ausführlichkeit, kann es außerdem zielführend sein, den Original-Prompt in mehrere kleinere Einzelprompts aufzulösen.

Prompt engineering nach valantic
Smarte Super-Prompts kreieren: Daran sollten GenAI-Anwender*innen denken, um bessere Ergebnisse zu erzielen (Beispiel: HR-Spezialist*in) (Quelle: valantic).

Prompt Engineering ist eine relativ einfache Möglichkeit, die durch eine GenAI wie ChatGPT produzierten Ergebnisse zu verbessern. Führt Prompt Engineering nicht zu den gewünschten Antworten, bieten sich die ausgefeilteren Techniken des Fine-Tuning an. Dadurch werden LLMs mithilfe domänenspezifischer Daten an die Ziele des Unternehmens oder bestimmter Industrien und Märkte angepasst, also trainiert. Fine-Tuning ist aufwendiger, führt aber in der Regel zu weitaus besseren Ergebnissen und steigert die Qualität der Antworten enorm.

Auf Qualität der Trainingsdaten achten

Beim Fine-Tuning von LLMs wie GPT 3.5 oder GPT 4.0 ist die Qualität der dabei eingesetzten Trainingsdaten von entscheidender Bedeutung. In der Regel werden mindestens zehn Datensets hoher Qualität benötigt, um deutliche Verbesserungen zu erzielen. OpenAI, der Mutterkonzern hinter ChatGPT, empfiehlt als Daumenregel ein Training mit 50 bis 100 umfangreicheren Daten-Beispielen, schränkt aber ein, dass die optimale Anzahl an Trainingsdatensets stark vom jeweiligen Use Case abhängt.

KI-Spezialist*innen gefragt: Fine-Tuning von LLMs

Das Fine-Tuning von LLMs ist eine Aufgabe für KI-Spezialist*innen. Um etwa ChatGPT optimal auf die Ziele von Unternehmen einzuschwören beziehungsweise zu trainieren, werden die ausgewählten Datensets per Python-Skripte über das Files API (Application Programming Interface) hochgeladen und anschließend ausgeführt:

Hochladen des Trainingssets „mydata.json1“

from openai import OpenAI
Client = OpenAI()

client.files.create(
    file=open(„mydata.json1“, „rb“),
    purpose=“fine-tune“

)

Einen Fine-Tuning-Job kreieren, der das LLM „gpt-3.5-turbo“ trainiert

from openai import OpenAI
Client = OpenAI()

client.fine_tuning.jobs.create(
      training_files=“file-mydata123“,
      model=“gpt-3.5-turbo“

)

Danach ist das trainierte und verbesserte LLM einsatzbereit. Die Aufwände sind zwar höher, aber die Ergebnisse eines erfolgreichen Fine-Tunings sprechen für sich und sind durch ein einfaches Prompt Engineering nicht erreichbar. Zu den vielen Vorteilen zählen unter anderem: eine höhere Antwortqualität, höhere Produktivitäts- und Effizienzsteigerungen, geringere Latenzzeiten und last but not least insgesamt geringere Kosten für den Betrieb des Modells.

Verfasst von

Autorenporträt von Michael Kurzidim, Content Marketing Manager bei valantic

Michael Kurzidim

Online-Redakteur / Content Creation Manager / Projektmanager

Michael Kurzidim hat als Redakteur, Reporter und Freelance für renommierte Zeitschriften wie c't - Magazin für Computertechnik, Computerworld, den Spiegel, Die Zeit, und die Schweizer Handelszeitung gearbeitet. Seit 2022 schreibt er für das Digital Now Magazin über Digitalisierungsthemen, die für jeden Entscheider wichtig sind.