

UNICEF: Αυξάνεται ραγδαία το σεξουαλικό περιεχόμενο με παιδιά που δημιουργείται με τεχνητή νοημοσύνη
Έντονη ανησυχία εκφράζει η UNICEF για τη ραγδαία αύξηση εικόνων και βίντεο σεξουαλικού περιεχομένου που δημιουργούνται ή παραποιούνται με τη χρήση εργαλείων τεχνητής νοημοσύνης και αφορούν παιδιά, επισημαίνοντας ότι πρόκειται για μια ταχέως αναπτυσσόμενη και εξαιρετικά επικίνδυνη απειλή.
Σε δήλωσή της, με ημερομηνία 5 Φεβρουαρίου 2026 (Νέα Υόρκη/Αθήνα), η UNICEF τονίζει ότι τα λεγόμενα deepfakes – εικόνες, βίντεο ή ηχητικά αρχεία που παράγονται ή αλλοιώνονται με τεχνητή νοημοσύνη ώστε να φαίνονται αληθινά – χρησιμοποιούνται ολοένα και περισσότερο για την παραγωγή υλικού σεξουαλικής κακοποίησης παιδιών. Ιδιαίτερη ανησυχία προκαλεί η πρακτική της «απογύμνωσης», κατά την οποία εργαλεία τεχνητής νοημοσύνης αφαιρούν ή τροποποιούν ρούχα σε πραγματικές φωτογραφίες παιδιών, δημιουργώντας ψεύτικες γυμνές ή σεξουαλικές εικόνες.
Σύμφωνα με νέα στοιχεία από κοινή μελέτη της UNICEF, της ECPAT και της INTERPOL σε 11 χώρες, τουλάχιστον 1,2 εκατομμύρια παιδιά δήλωσαν ότι κατά το προηγούμενο έτος οι εικόνες τους είχαν παραποιηθεί σε deepfakes σεξουαλικού περιεχομένου. Σε ορισμένες χώρες, το φαινόμενο αφορά έως και 1 στα 25 παιδιά, δηλαδή ένα παιδί σε κάθε τυπική σχολική τάξη.
Η μελέτη καταδεικνύει επίσης ότι τα ίδια τα παιδιά έχουν υψηλό επίπεδο επίγνωσης του κινδύνου. Σε ορισμένες χώρες, έως και τα δύο τρίτα των παιδιών δήλωσαν ότι ανησυχούν πως η τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί για τη δημιουργία ψεύτικων σεξουαλικών εικόνων ή βίντεο με τη δική τους εικόνα.
Η UNICEF υπογραμμίζει ότι το σεξουαλικό περιεχόμενο με παιδιά που δημιουργείται ή τροποποιείται με τεχνητή νοημοσύνη αποτελεί υλικό σεξουαλικής κακοποίησης παιδιών (CSAM). Όπως σημειώνεται, «η κακοποίηση μέσω deepfake είναι πραγματική κακοποίηση και δεν υπάρχει τίποτα ψεύτικο στον πόνο που προκαλεί».
Ο οργανισμός επισημαίνει ότι ακόμη και όταν δεν είναι αναγνωρίσιμο κάποιο συγκεκριμένο παιδί, το υλικό αυτό κανονικοποιεί τη σεξουαλική εκμετάλλευση, τροφοδοτεί τη ζήτηση για κακοποιητικό περιεχόμενο και δημιουργεί σοβαρά εμπόδια στο έργο των διωκτικών αρχών.
Παρότι η UNICEF αναγνωρίζει τις προσπάθειες ορισμένων προγραμματιστών τεχνητής νοημοσύνης να ενσωματώσουν μηχανισμούς ασφάλειας από τον σχεδιασμό, τονίζει ότι το συνολικό πλαίσιο παραμένει ανεπαρκές, ειδικά όταν τέτοια εργαλεία ενσωματώνονται απευθείας σε πλατφόρμες κοινωνικής δικτύωσης.
Η UNICEF καλεί επειγόντως τις κυβερνήσεις να επικαιροποιήσουν τη νομοθεσία τους ώστε να περιλαμβάνει το περιεχόμενο που παράγεται με τεχνητή νοημοσύνη, τους προγραμματιστές να ενσωματώνουν ισχυρές δικλείδες ασφαλείας και τις ψηφιακές πλατφόρμες να αποτρέπουν τη διάδοση τέτοιου υλικού πριν από τη δημοσίευσή του, επενδύοντας σε τεχνολογίες άμεσης ανίχνευσης.
Όπως τονίζεται χαρακτηριστικά στη δήλωση, «η βλάβη από την κακοποίηση μέσω deepfakes είναι πραγματική και επείγουσα – τα παιδιά δεν μπορούν να περιμένουν».

