Η xAI βρίσκεται αντιμέτωπη με κύμα αντιδράσεων τις τελευταίες εβδομάδες, μετά τη δημιουργία εικόνων από το Grok που απεικονίζουν γυναίκες και παιδιά σε καταστάσεις που θεωρούνται σεξουαλικά υπονοούμενες.
Χιλιάδες εικόνες με αμφιλεγόμενο περιεχόμενο
Σύμφωνα με το Bloomberg, ερευνητής που παρακολούθησε για 24 ώρες τον λογαριασμό του Grok στο X, εκτίμησε ότι το chatbot δημιουργεί πάνω από 6.000 εικόνες την ώρα, οι οποίες χαρακτηρίζονται ως “σεξουαλικά υπονοούμενες ή γυμνές”.
Αναξιόπιστες διαβεβαιώσεις και ελλιπείς δικλείδες ασφαλείας
Παρόλο που το chatbot ισχυρίστηκε ότι η xAI εντόπισε “παραλείψεις στις δικλείδες ασφαλείας” που επέτρεψαν τη δημιουργία υλικού που χαρακτηρίζεται ως παιδική σεξουαλική κακοποίηση (CSAM) και ότι “τις διορθώνει επειγόντως”, το Grok έχει αποδειχθεί αναξιόπιστος εκπρόσωπος, ενώ η xAI δεν έχει ανακοινώσει καμία διόρθωση.
Ενημερώσεις ασφαλείας με καθυστέρηση
Μια γρήγορη ματιά στις οδηγίες ασφαλείας του Grok στο δημόσιο GitHub δείχνει ότι ενημερώθηκαν τελευταία φορά πριν από δύο μήνες. Το GitHub υποδεικνύει επίσης ότι, παρά την απαγόρευση τέτοιου περιεχομένου, το Grok διατηρεί προγραμματισμό που θα μπορούσε να καταστήσει πιθανή τη δημιουργία CSAM.
Συμπέρασμα: Το ζήτημα παραμένει ανοιχτό, με την xAI να καλείται να λάβει άμεσα μέτρα για την αντιμετώπιση του προβλήματος και την προστασία των χρηστών.


