Der KI-Podcast gibt unter dem Titel “Wie knacke ich die KI?” Tipps zum Prompt-Hacking (via Simon Dückert auf Mastodon):
“Jeder, der schon mal mit KI-Sprachmodellen zu tun hatte, kennt es: man will eine bestimmte Antwort vom Chatbot – doch der weigert sich hartnäckig, diese zu geben. Es gibt aber Tricks, um LLMs und andere GenAI-Modelle gefügig zu machen: sogenannte Pompt Hacks, Jailbreaks oder Prompt Injections. Wir erklären, was hinter diesen Begriffen steckt, wie diese Methoden funktionieren und wir fragen: Ist es gut oder schlecht, wenn KI-Modelle nicht alle Fragen beantworten, die wir ihnen stellen?”