Επικαιρότητα

Μπορούν οι εφαρμογές δημιουργίας εικόνων τεχνητής νοημοσύνης να ελέγχονται με σκοπό την αποτροπή των deepfakes παιδιών;

Γράφει η Ελένη Παπανδρέου

Τη σύγχρονη εποχή χάρη στην τεχνολογία της τεχνητής νοημοσύνης το αποτέλεσμα των deepfakes είναι αληθοφανές, ενώ είναι δύσκολο να διερευνηθεί η αυθεντικότητα τους χωρίς τα κατάλληλα εργαλεία. Πολλά από τα deepfakes της τεχνητής νοημοσύνης δημιουργούνται με σκοπό την εκβίαση, η οποία ενδέχεται να διαρκέσει για χρόνια.

Σύμφωνα με το άρθρο του Alex Hern, η δημιουργία εικόνων προσομοίωσης παιδικής κακοποίησης είναι παράνομη στο Ηνωμένο Βασίλειο, ενώ παράλληλα μελετάται η επικείμενη απαγόρευση όλων των εικόνων πραγματικών ανθρώπων που δημιουργούνται από τεχνητή νοημοσύνη. Ωστόσο, σε παγκόσμιο επίπεδο δεν υπάρχει συμφωνία για τους τρόπους με τους οποίους θα πρέπει να προστατεύεται η συγκεκριμένη τεχνολογία. Συγκεκριμένα, ερευνητές στο Πανεπιστήμιο του Στάνφορντ ανακάλυψαν ότι ανάμεσα σε δισεκατομμύρια εικόνες τεχνητής νοημοσύνης υπήρχαν χιλιάδες περιπτώσεις υλικού σεξουαλικής κακοποίησης παιδιών (CSAM).

Το Laion (Ανοιχτό Δίκτυο AI μεγάλης κλίμακας) αποτελεί ένα σύνολο δεδομένων, το οποίο περιέχει περίπου 5 δισεκατομμύρια εικόνες. Το σύνολο αυτό δημιουργήθηκε ως προϊόν «ανοιχτού κώδικα» και κυκλοφόρησε στο διαδίκτυο για να ενισχύσει την ανεξάρτητη έρευνα τεχνητής νοημοσύνης (ΑΙ). Αυτό, με τη σειρά του, κατέστησε ευρέως γνωστή τη δημιουργία μοντέλων ανοιχτού κώδικα, συμπεριλαμβανομένου του Stable Diffusion, μίας γεννήτριας εικόνων που συντέλεσε στην έναρξη της επανάστασης της τεχνητής νοημοσύνης.

Παρόλα αυτά, ορισμένα προγράμματα AI ανακοίνωσαν ότι ήδη έχουν περιορίσει την πρόσβαση σε εικόνες deepfake. Η OpenAI, για παράδειγμα, δημιουργός του ChatGPT έχει ήδη αφαιρέσει το εργαλείο δημιουργίας εικόνων DALL-E, το οποίο βοηθά στη σύνθεση deepfakes. Παρομοίως έχει πράξει και η εταιρεία Stability AI, έπειτα από αναφορές ότι χρήστες της χρησιμοποιώντας την τεχνολογία της κατασκεύαζαν deepfake videos. Επιπλέον, το OpenAI και ανταγωνιστές του, όπως η Google, με παρόμοια προσέγγιση, έχουν επιπλέον εργαλεία για να διατηρούν σαφείς τις γεννήτριές τους, καθώς περιορίζουν τα αιτήματα που μπορούν να σταλούν και παράλληλα φιλτράρουν τις δημιουργούμενες εικόνες πριν αποσταλούν στον τελικό χρήστη.

Ορισμένες εταιρείες μέσων κοινωνικής δικτύωσης, όπως το TIK TOK και το Twitch, έχουν επίσης αυστηροποιήσει τους κανόνες τους για την βέλτιστη προστασία των πλατφορμών τους από επιβλαβές υλικό. Η Meta, καθώς και ιστοσελίδες ενηλίκων, όπως το OnlyFans και το Pornhub, χρησιμοποιούν το διαδικτυακό εργαλείο Take It Down, το οποίο επιτρέπει στους εφήβους να αναφέρουν deepfake εικόνες και βίντεο του εαυτού τους από το διαδίκτυο.

Κλείνοντας, έχουν δημιουργηθεί εργαλεία, τα οποία εξακολουθούν να αναπτύσσονται με σκοπό την ανίχνευση τέτοιου είδους εικόνων, παρόλο που σύμφωνα με δοκιμές που πραγματοποίησε το AFP, τα αποτελέσματά τους συνεχίζουν να είναι συγκεχυμένα και μάλιστα μερικές φορές είναι παραπλανητικά.

Πηγές

https://www.theguardian.com/technology/2024/apr/23/can-ai-image-generators-be-policed-to-prevent-explicit-deepfakes-of-children 

https://saferinternet4kids.gr/nea/ai_deepfakevideos/ 

https://factcheckgreek.afp.com/doc.afp.com.33C983X 

The post Μπορούν οι εφαρμογές δημιουργίας εικόνων τεχνητής νοημοσύνης να ελέγχονται με σκοπό την αποτροπή των deepfakes παιδιών; appeared first on CSIi – Cyber Security International Institute.

Πηγή : https://www.csii.gr/