Η ραγδαία εξάπλωση της Τεχνητής Νοημοσύνης (AI) στην καθημερινότητά μας έχει φτάσει πλέον και στο πιο ευαίσθητο σημείο: το παιδικό δωμάτιο. Μια νέα, αποκαλυπτική μελέτη από το Πανεπιστήμιο του Cambridge κρούει τον κώδωνα του κινδύνου, αναδεικνύοντας ότι η αλληλεπίδραση των νηπίων με «έξυπνα» παιχνίδια κρύβει σοβαρούς κινδύνους που ξεπερνούν τα όρια της τεχνολογίας και αγγίζουν την ψυχική υγεία.
Οι επιστήμονες μελέτησαν τον τρόπο που παιδιά ηλικίας 3 έως 5 ετών επικοινωνούν με τον Gabbo, ένα λούτρινο παιχνίδι που χρησιμοποιεί την τεχνολογία chatbot της OpenAI. Τα ευρήματα ήταν ανησυχητικά, καθώς διαπιστώθηκε ότι η ψυχολογική ασφάλεια και AI δεν συμβαδίζουν πάντα. Η γενετική νοημοσύνη φάνηκε ανίκανη να ακολουθήσει τον αυθορμητισμό και τους ρυθμούς ενός παιδιού, προκαλώντας συχνά σύγχυση αντί για μάθηση.
Σύμφωνα με τα αποτελέσματα, ο Gabbo συχνά διέκοπτε τα παιδιά, αδυνατούσε να ξεχωρίσει τις φωνές τους από εκείνες των μεγάλων και, το κυριότερο, απαντούσε με παγωμένα, τυποποιημένα μηνύματα σε στιγμές συναισθηματικής ανάγκης.
Ένα από τα πιο σοκαριστικά παραδείγματα της μελέτης ήταν η αντίδραση του παιχνιδιού σε ένα πεντάχρονο παιδί που του είπε «Σ’ αγαπώ». Η απάντηση της μηχανής ήταν μια ψυχρή υπενθύμιση για «συμμόρφωση με τις οδηγίες χρήσης». Η Δρ Emily Goodacre τονίζει ότι αυτή η αδυναμία κατανόησης του συναισθήματος μπορεί να αφήσει τα παιδιά χωρίς στήριξη.
Όταν ένα νήπιο εξέφρασε λύπη, η προτροπή του ρομπότ να «συνεχίσει τη διασκέδαση» έστειλε το λανθασμένο μήνυμα ότι τα συναισθήματα του παιδιού δεν έχουν αξία. Αυτό το κενό στην ψυχολογική ασφάλεια και AI είναι που ανησυχεί περισσότερο τους ειδικούς στην προσχολική αγωγή.
Η καθηγήτρια Jenny Gibson υπογραμμίζει ότι πλέον δεν αρκεί να ελέγχουμε αν ένα παιχνίδι έχει μικρά κομμάτια που μπορεί να καταπιεί το παιδί. Πρέπει να θεσπιστούν αυστηρά κριτήρια για την πνευματική και συναισθηματική του θωράκιση. Στην κρίσιμη ηλικία των 3-5 ετών, οι λανθασμένες κοινωνικές αποκρίσεις μιας μηχανής μπορούν να στρεβλώσουν την αντίληψη του παιδιού για την ανθρώπινη επικοινωνία.
Παράλληλα, η Dame Rachel de Souza επισημαίνει ότι υπάρχει ένα τεράστιο θεσμικό κενό, καθώς τα εργαλεία Τεχνητής Νοημοσύνης δεν περνούν από τους ίδιους αυστηρούς ελέγχους με το παραδοσιακό εκπαιδευτικό υλικό.
Μέχρι να υπάρξει ένα ολοκληρωμένο νομικό πλαίσιο, η έκθεση προτείνει στους γονείς τρία βασικά βήματα:
Συνεχής Επίβλεψη: Μη χρησιμοποιείτε τα AI παιχνίδια ως «ψηφιακή νταντά» σε απομονωμένους χώρους.
Προστασία Δεδομένων: Ελέγχετε πάντα τις πολιτικές απορρήτου για το τι συμβαίνει με τη φωνή και τα δεδομένα του παιδιού σας.
Ανθρώπινη Επαφή: Θυμηθείτε ότι καμία μηχανή δεν μπορεί να υποκαταστήσει τη ζεστασιά και τη συναισθηματική ωριμότητα ενός γονέα.
Η ψυχολογική ασφάλεια και AI παραμένει ένα ανοιχτό στοίχημα για το 2026, με την επιστημονική κοινότητα να υπενθυμίζει ότι η τέχνη της επικοινωνίας είναι –και πρέπει να παραμείνει– ένα αποκλειστικά ανθρώπινο προνόμιο.
Ο Παναθηναϊκός επιστρέφει στο ιστορικό «Απόστολος Νικολαΐδης» για να αντιμετωπίσει τον Παναιτωλικό στο πλαίσιο της…
Αύριο, Δευτέρα 16 Μαρτίου 2026, η Εκκλησία μας τιμά τη μνήμη σπουδαίων μαρτύρων και οσίων,…
Στον «αέρα» της ψηφιακής πύλης της ΑΑΔΕ βρίσκονται από σήμερα τα εκκαθαριστικά ΕΝΦΙΑ 2026, με…
Το ντέρμπι της 21ης αγωνιστικής της Stoiximan GBL στο Telecom Center Athens ξεκίνησε με τον…
Το 2026 δεν είναι απλώς μια ακόμη χρονιά· για ορισμένους εκπροσώπους του ζωδιακού, αποτελεί την…
Μια σημαντική μεταρρύθμιση στον δεύτερο πυλώνα ασφάλισης προωθεί το Υπουργείο Εργασίας, με το νέο νομοσχέδιο…