Tipps zum Prompt-Hacking

Der KI-Podcast gibt unter dem Titel “Wie knacke ich die KI?” Tipps zum Prompt-Hacking (via Simon Dückert auf Mastodon):

“Jeder, der schon mal mit KI-Sprachmodellen zu tun hatte, kennt es: man will eine bestimmte Antwort vom Chatbot – doch der weigert sich hartnäckig, diese zu geben. Es gibt aber Tricks, um LLMs und andere GenAI-Modelle gefügig zu machen: sogenannte Pompt Hacks, Jailbreaks oder Prompt Injections. Wir erklären, was hinter diesen Begriffen steckt, wie diese Methoden funktionieren und wir fragen: Ist es gut oder schlecht, wenn KI-Modelle nicht alle Fragen beantworten, die wir ihnen stellen?”

This entry was posted in Künstliche Intelligenz, Social Media and tagged , , . Bookmark the permalink.

Leave a Reply

Your email address will not be published. Required fields are marked *