Geschützte Daten
Der Einsatz von KI in der Bildung birgt Risiken für den Datenschutz und die Informationssicherheit . Beispielsweise können personenbezogene Daten, wie die von Lernenden, Studierenden und Lehrenden, sowie sensible Daten, darunter interne Geschäftsdaten, betroffen sein.
Beschreibung
KI-Modelle benötigen Trainingsdaten, und im Falle von ChatGPT stammen diese aus Texten im Internet sowie aus den Chatverläufen der Anwender. Dies ist insofern problematisch, als dass Large Language Models (LLMs) durch gezielte Angriffe dazu gebracht werden könnten, auf bestimmte Informationen in den Trainingsdaten zuzugreifen.
Es gilt prinzipiell zu vermeiden, dass persönliche Daten (z. B. Namen von Studierenden) oder andere sensible Daten wie interne Geschäftsgeheimnisse von Projektpartnern aus der Industrie (z. B. proprietärer Programmcode) als Trainingsdaten verwendet werden. Zudem besteht noch eine Unklarheit über die rechtlichen Konsequenzen, falls dies geschieht (1).
Risikominimierung
Die rasante Etablierung der Nutzung von KI in unserer Gesellschaft hat zur Folge, dass Gesetze und Sicherheitsstandards erst nach und nach entwickelt und umgesetzt werden. Sofern keine institutionellen Richtlinien oder freigegebenen Tools (z. B. eine Whitelist) zur Verfügung stehen, ist bei der Nutzung von KI-Tools Vorsicht geboten .
Es müssen die Gesetze und Richtlinien nicht nur im Hinblick auf den Datenschutz, sondern auch auf die Informationssicherheit eingehalten werden. Es ist sicherzustellen, dass keine sensiblen Daten, wie interne Geschäftsinformationen oder personenbezogene Daten, in KI-Dienste wie ChatGPT eingegeben werden, um Risiken für die Privatsphäre und die Sicherheit zu minimieren.
Grundsätzlich gilt:
- Teile der KI nur das mit, was du teilen möchtest. Fühle dich nicht verpflichtet, persönliche oder vertrauliche Informationen zu teilen.
- Vermeide die Eingabe sensibler Geschäftsdaten oder anderer interner Informationen.
- Halte dich an gesetzliche Bestimmungen oder an die Richtlinien deiner Institution sowie an Vertraulichkeitsvereinbarungen (z. B. NDA) mit Industriepartnern.
- Erkundige dich, ob es eine Whitelist von sicheren Tools in deiner Institution gibt, die du nutzen darfst.
- Nutze nur KI-Dienste, die es dir erlauben, die Verwendung deiner Eingaben für Trainingszwecke des Dienstanbieters zu untersagen, und aktiviere diese Funktion.
Quellen
- Mollick ER, Mollick L. Assigning AI: Seven Approaches for Students, with Prompts [Internet]. Rochester, NY; 2023 [zitiert 28. Juli 2023]. Verfügbar unter: https://papers.ssrn.com/abstract=4475995