Tipps zum Prompt-Hacking

Der KI-Podcast gibt unter dem Titel «Wie knacke ich die KI?» Tipps zum Prompt-Hacking (via Simon Dückert auf Mastodon):

«Jeder, der schon mal mit KI-Sprachmodellen zu tun hatte, kennt es: man will eine bestimmte Antwort vom Chatbot – doch der weigert sich hartnäckig, diese zu geben. Es gibt aber Tricks, um LLMs und andere GenAI-Modelle gefügig zu machen: sogenannte Pompt Hacks, Jailbreaks oder Prompt Injections. Wir erklären, was hinter diesen Begriffen steckt, wie diese Methoden funktionieren und wir fragen: Ist es gut oder schlecht, wenn KI-Modelle nicht alle Fragen beantworten, die wir ihnen stellen?»

Dieser Beitrag wurde unter Künstliche Intelligenz, Social Media abgelegt und mit , , verschlagwortet. Setzen Sie ein Lesezeichen auf den Permalink.

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert