Ανεξάρτητα από τις αυστηρές ρυθμίσεις ιδιωτικότητας που ενδέχεται να έχετε ορίσει, εικόνες παιδιών μπορούν να συλλεχθούν — μέσω web scraping — και να χρησιμοποιηθούν για την εκπαίδευση συστημάτων τεχνητής νοημοσύνης. Αυτό αποκαλύπτει έρευνα της Human Rights Watch, η οποία βρήκε εκατοντάδες φωτογραφίες παιδιών από τη Βραζιλία και την Αυστραλία στο dataset LAION‑5B, χωρίς ενημέρωση ή έγκριση των γονέων.
Το «AI δεν ξεχνά» — ακόμη κι αν διαγράψετε τη φωτογραφία σας
Ακόμη κι αν καταφέρετε να αφαιρέσετε τη φωτογραφία από το διαδίκτυο ή από κάποιο dataset, το AI συνεχίζει να έχει μάθει από αυτή. Αυτή η θεμελιώδης ιδιότητα των αλγορίθμων — το ότι «δεν ξεχνούν» — περιπλέκει το ζήτημα προστασίας δεδομένων και δημιουργεί κινδύνους που δεν αντιστρέφονται εύκολα.
Απειλές deepfake και άλλα exploit εναντίον παιδιών
Μόλις εκπαιδευτεί, ένα AI μπορεί να δημιουργήσει πειστικά deepfake—εικόνες ή βίντεο που δείχνουν ένα παιδί να μοιάζει να κάνει ή λέει πράγματα που δεν έχει ποτέ κάνει. Σε πολύ ανησυχητικές περιπτώσεις, έχουν αναφερθεί περιστατικά όπως:
- εξαναγκασμός παιδιών να στείλουν χρήματα με deepfake φωνές τους,
- κυκλοφορία πλαστών υλικών σεξουαλικής αξιοποίησης.
Άμεση έκκληση για νομοθετικές λύσεις
Λόγω της σοβαρότητας και της έκτασης του προβλήματος, προωθούνται πλέον πρωτοβουλίες σε επίπεδο νομοθεσίας για την προστασία των παιδιών από τέτοιες μορφές ψηφιακής εκμετάλλευσης.
Πηγή: New York Times