// lieferbeginn readonly Skip to main content

Smart chatten: Wie Eltern ihre Kinder für KI sensibilisieren

Von Elena Hartmann, dpa

Künstliche Intelligenz wie ChatGPT ist allgegenwärtig und bereits in Schulen und Kinderzimmern angekommen. Tipps, wie Sie Ihr Kind für die Chancen und Risiken sensibilisieren, ohne ChatGPT zu fragen.

Hannes P Albert/dpa/dpa-tmn

Die Nutzung von künstlicher Intelligenz in Schulen und Universitäten ist ein umstrittenes Thema. Jedoch ist sie da und wird auch nicht wieder verschwinden.

Doch wie sieht es mit der Nutzung im Kinderzimmer aus? Was können Eltern tun, wenn die Kinder anfangen, ChatGPT für Hausaufgaben oder auch im Alltag als Chatpartner zu nutzen?

Vorab: ChatGPT ist ein Chatbot, also ein textbasiertes Dialogsystem, welches auf maschinellem Lernen beruht. Klingt erstmal nach Spaß, doch ChatGPT bringt auch einige Risiken mit sich.

Um die Kinder für die Risiken zu sensibilisieren, ist es laut Prof. Felicitas Macgilchrist, Professorin für Medienforschung und Leiterin der Abteilung Mediale Transformationen am Leibniz-Institut für Bildungsmedien, wichtig, sich zunächst selbst schlau über künstliche Intelligenz zu machen und darüber dann mit dem Kind zu kommunizieren: «Reden, reden, reden und mit dem Kind ins Gespräch kommen – mit einem Grundwissen, was die Eltern sich angeeignet haben.»

Und auch Sandra Schulz, an der Universität Hamburg Juniorprofessorin für Didaktik der Informatik, rät, nicht mit Scheu an die Sache ranzugehen. Man sollte akzeptieren, dass ChatGPT ein Teil der digitalen Transformation ist. Dementsprechend muss man sich mit dem Thema beschäftigen, um seinem Kind den Umgang mit der künstlichen Intelligenz etwas näher zu bringen. Denn:

Ein Verbot ist kontraproduktiv

Sowohl Schulz als auch Macgilchrist raten davon ab, dem eigenen Kind die Nutzung von ChatGPT und anderen Programmen komplett zu verbieten. Denn wenn das Kind dann trotzdem ChatGPT nutzt – was man nicht ausschließen kann – ist es noch schwieriger mit ihm darüber ins Gespräch zu kommen, sagt Macgilchrist.

Zudem kann es laut Schulz in der Schule zum Nachteil werden: «Wenn es als Hilfsmittel auch einfach zugelassen wird, haben die Kinder dann vielleicht sogar dadurch Nachteile, dass sie ChatGPT nicht nutzen können.»

Wie funktioniert ChatGPT eigentlich?

Laut Schulz sollte man sich zunächst darüber informieren, wie das System hinter ChatGPT eigentlich funktioniert. ChatGPT schreibt Texte basierend auf Wahrscheinlichkeiten. Das System berechnet, welches das nächst wahrscheinliche Wort oder die nächste wahrscheinliche Antwort ist – basierend auf der Datenbasis, mit der es «gefüttert» wurde.

Je nachdem, welche Daten man selbst dem System gibt, können die Antworten jedoch sehr unterschiedlich sein. «Das kann natürlich auch großen Einfluss auf die Meinungsbildung haben», so Schulz.

Chancen nutzen, Risiken minimieren

Was ebenfalls einen negativen Einfluss auf die Meinungsbildung der Kinder haben kann, ist, dass ChatGPT mit Daten trainiert wird, die den «Mainstream» der Positionen in der Gesellschaft abbilden. «Wir wissen von der Internetforschung, dass es vor allem junge weiße Männer aus dem Globalen Norden bzw. aus dem Westen sind, die viel – größtenteils auf Englisch – im Internet schreiben», so Macgilchrist.

Im Umkehrschluss bedeutet das, dass Erfahrungen, Perspektiven und Wissen von anderen Personengruppen, zum Beispiel von Frauen, Aktivisten und Aktivistinnen oder Menschen aus dem globalen Süden, unterrepräsentiert sind oder gar fehlen.

An der Stelle müssten Elternteile mit Ihrem Kind dann aktiv zusammenarbeiten: Man sollte versuchen, die Perspektiven in den Texten von ChatGPT kritisch zu betrachten und zu überlegen, welche Perspektiven nicht erwähnt werden. Laut Macgilchrist könnte man auch mit dem Kind darüber reden, was es für das Leben der Menschen auf der Welt bedeutet, wenn diese Perspektiven fehlen.

Ein weiteres Risiko ist, dass Texte von ChatGPT fiktive Inhalte oder gar Fehler enthalten können. «Das kann zu einer Gefahr werden, wenn diese Texte aber als richtiges Wissen von den Kindern und Jugendlichen angenommen werden», so Macgilchrist.

Um das Kind für die Fehler von ChatGPT zu sensibilisieren, empfiehlt Macgilchrist, auf das Expertenwissen des eigenen Kindes zurückzugreifen. Das Kind kann ChatGPT zum Beispiel Fragen zu der Lieblingsserie stellen. So kann es lernen, mit dem System umzugehen und sieht, dass es sich unter anderem um fiktive Inhalte handelt und da eventuell Fehler auftreten.

So erkennen Eltern einen Text von ChatGPT

Zu 100 Prozent kann man nie wissen, ob ein Text von einer Künstlichen Intelligenz stammt oder nicht. Aber es gibt ein paar Indizien: Laut Macgilchrist würden KI-basierte Texte oft langweilig wirken und standardisiert klingen.

Sie können auch überprüfen, ob der im Text genutzte Wortschatz mit dem des eigenen Kindes übereinstimmt. Eltern könnten sich fragen, ob verwendete Wörter wirklich jene sind, die das Kind auch verwenden würde. «Auch bei Rechtschreibung und Grammatik haben wahrscheinlich die meisten Eltern ein Gefühl dafür, ob das mit dem Niveau von den Kindern übereinstimmt», so Schulz.

Wenn Sie sich gar nicht sicher sind: Haken Sie beim Kind nach, warum es dieser Meinung ist oder woher diese Informationen stammen. Schulz rät dazu, aktiv beim Lernprozess der Kinder dabei zu sein und sich die Antworten erklären zu lassen.

Bei ChatGPT «abgeschrieben»? Perfekt, um darüber zu reden

Selbst wenn Eltern merken, dass ihr Kind eine Hausaufgabe komplett mit ChatGPT erledigt hat, muss das nicht gleich etwas Negatives sein. Spätestens dann können Sie laut Macgilchrist mit dem Kind ins Gespräch kommen.

Sie schlägt auch eine spielerische Methode vor: Lassen Sie das Kind eine Frage für ChatGPT formulieren und dann soll es selbst recherchieren, ob überhaupt richtig ist, was da geschrieben wurde. So erlernt das Kind nicht nur den Umgang mit ChatGPT, sondern setzt sich trotz Hilfe mit dem Thema der Hausaufgabe auseinander.

Außerdem können Eltern fragen, warum das Kind denn überhaupt zur Schule geht und erklären, dass der Sinn eigentlich ist, selbst etwas zu lernen. ChatGPT kann zwar als Hilfsmittel funktionieren, aber sollte und kann nicht die gesamte Arbeit erledigen, so Schulz.

© dpa-infocom, dpa:230502-99-529543/3