Τρία εκατομμύρια σεξουαλικές εικόνες δημιούργησε το Grok, εκ των οποίων 23.000 παιδιών, σε 11 ημέρες

30 0

Μετά το πρόσφατο «κύμα» αντιδράσεων γύρω από το Grok, το μοντέλο τεχνητής νοημοσύνης της xAI, σχετικά με πορνογραφικό υλικό το οποίο κατασκεύαζε μη συναινετικά κατόπιν εντολής τρίτων, νέα στοιχεία καταδεικνύουν ότι το πρόβλημα ενδέχεται να είναι ακόμη σοβαρότερο απ’ όσο αρχικά φαινόταν.

 

Σύμφωνα με έρευνα του βρετανικού οργανισμού Center for Countering Digital Hate (CCDH), το Grok φέρεται να παρήγαγε περίπου 3 εκατομμύρια σεξουαλικοποιημένες εικόνες πραγματικών ανθρώπων μέσα σε μόλις 11 ημέρες, 23.000 εκ των οποίων αφορούσαν παιδιά.

 

 

Για να γίνει πιο κατανοητό το μέγεθος, μιλάμε για περίπου 190 εικόνες ανά λεπτό.

Αναγωγικά, κάθε 41 δευτερόλεπτα δημιουργούνταν μία σεξουαλικοποιημένη εικόνα ανηλίκου.

 

Η έρευνα βασίστηκε σε δείγμα 20.000 εικόνων που παρήγαγε το Grok μεταξύ 29 Δεκεμβρίου και 9 Ιανουαρίου. Από εκεί, το CCDH προχώρησε σε εκτιμήσεις για το σύνολο των 4,6 εκατομμυρίων εικόνων που δημιουργήθηκαν στο ίδιο διάστημα.

Ως «σεξουαλικοποιημένο» περιεχόμενο ορίστηκαν εικόνες με ρεαλιστικές απεικονίσεις ατόμων σε σεξουαλικές στάσεις, με αποκαλυπτική ενδυμασία ή με άλλα εμφανή σεξουαλικά στοιχεία.

 

 

Κάπου εδώ πρέπει να σημειωθεί ότι η ανάλυση έγινε με τη βοήθεια AI εργαλείων, κάτι που αφήνει περιθώριο σφάλματος. Ωστόσο, σύμφωνα με το CCDH, παρόμοιες αναλύσεις που βασίζονται στο API του X θεωρούνται, γενικά, αξιόπιστες.

 

Ο Έλον Μασκ προσπάθησε να «μαζέψει» την κατάσταση με ημίμετρα. Στις 9 Ιανουαρίου περιόρισε τη δυνατότητα επεξεργασίας πραγματικών εικόνων μόνο για συνδρομητές, ενώ λίγες ημέρες αργότερα μπλόκαρε τη δυνατότητα ψηφιακού “γδυσίματος” πραγματικών προσώπων στο X.

Το πρόβλημα, όμως, δεν εξαλείφθηκε. Μεταφέρθηκε στην αυτόνομη εφαρμογή του Grok, η οποία συνεχίζει να παράγει τέτοιο περιεχόμενο.

 

 

Εδώ μπαίνουν στο κάδρο και η Apple με τη Google.

Παρότι οι πολιτικές των App Store και Play Store απαγορεύουν ρητά τέτοιες εφαρμογές, το Grok παραμένει διαθέσιμο. Αυτό συμβαίνει ενώ αντίστοιχες εφαρμογές από άλλους προγραμματιστές έχουν αποσυρθεί στο παρελθόν με συνοπτικές διαδικασίες.

Παράλληλα, 28 γυναικείες οργανώσεις και Μ.Κ.Ο. έχουν απευθύνει ανοιχτή επιστολή ζητώντας άμεση δράση, χωρίς, όμως, κάποια επίσημη απάντηση μέχρι στιγμής.

 

Η έρευνα καταγράφει και συγκεκριμένα παραδείγματα, όπως εικόνες γυναικών με διαφανή ή μικροσκοπικά μαγιό, αλλά και περιπτώσεις γνωστών προσώπων, από διάσημους σταρ μέχρι πολιτικούς.

Ακόμη πιο ανησυχητικά είναι τα περιστατικά με παιδιά, όπου αθώες φωτογραφίες μετατράπηκαν σε σεξουαλικοποιημένο υλικό. Σύμφωνα με το CCDH, σχεδόν το 30% αυτών των εικόνων ήταν ακόμη προσβάσιμες στο X στα μέσα Ιανουαρίου, ενώ σε πολλές περιπτώσεις το περιεχόμενο παρέμενε διαθέσιμο μέσω παραπεμπτικών συνδέσμων, ακόμη κι αν είχε πρωτογενώς αφαιρεθεί από την πλατφόρμα.

 

 

εικόνα άρθρου: Bloomberg

Χρήστος Καπετάνιος

Software & Web Developer
Web Designer
Owner @ internal.gr
Βρείτε μας στο Facebook Ακολουθήστε μας στο Twitter - X Ακολουθήστε μας στο Google News

Κάντε ένα σχόλιο

Τα υποχρεωτικά πεδία σημειώνονται με αστερίσκο.

(Όλα τα σχόλια υποβάλλονται σε έλεγχο πριν την τελική δημοσίευσή τους.)