Η Google μάζεψε την γκάφα του Gemini που δημιουργούσε εικόνες ανθρώπων με σύγχυση στη φυλή
Είχε γίνει σάλος στα social με τα ιστορικά πρόσωπα🕛 χρόνος ανάγνωσης: 2 λεπτά ┋ 🗣️ Ανοικτό για σχολιασμό
H Google διέκοψε τη δυνατότητα του εργαλείου τεχνητής νοημοσύνης Gemini να παράγει εικόνες ανθρώπων, μετά τον σάλο που προκλήθηκε στα social media για παραγωγή ιστορικά ανακριβών εικόνων που άλλαζαν την φυλή λευκών ανθρώπων.
Γιατί μπερδεύεται το Gemini με την δημιουργία προσώπων
Η γκάφα αυτή δείχνει πώς τα εργαλεία τεχνητής νοημοσύνης εξακολουθούν να δυσκολεύονται με την έννοια της φυλής. Η γεννήτρια εικόνων Dall-E του OpenAI, για παράδειγμα, έχει δεχτεί πυρά για τη διαιώνιση φυλετικών και εθνοτικών στερεοτύπων. Η προσπάθεια της Google να το ξεπεράσει αυτό, φαίνεται να έχει γυρίσει μπούμερανγκ και να δυσκολεύει το AI chatbot να δημιουργήσει εικόνες λευκών ανθρώπων.
Το Gemini, όπως και άλλα εργαλεία τεχνητής νοημοσύνης, όπως το ChatGPT, εκπαιδεύεται σε τεράστιους όγκους δεδομένων. Οι ειδικοί έχουν προειδοποιήσει εδώ και καιρό ότι τα εργαλεία τεχνητής νοημοσύνης είναι ικανά να αναπαράγουν τις φυλετικές και έμφυλες προκαταλήψεις που έχουν ενσωματωθεί σε αυτές τις πληροφορίες.
Κάποιες από τις δημιουργίες του Gemini
Το CNN έκανε ένα πείραμα, ζητώντας από την τεχνητή νοημοσύνη να δημιουργήσει μια εικόνα ενός Πάπα και το Gemini παρήγαγε μια εικόνα ενός άνδρα και μιας γυναίκας, οι οποίοι δεν ήταν λευκοί.
Alphabet Stock Down 11% Because Google Gemini Was Too Woke
— Dr Wealth (@DrWealthAsia) February 29, 2024
By overemphasizing racial diversity, it generated images of George Washington and a pope as black individuals. pic.twitter.com/uQGr8SYOdL
Ο τεχνολογικός ιστότοπος The Verge ανέφερε επίσης ότι το εργαλείο παρήγαγε εικόνες μαύρων ανθρώπων σε μια προτροπή για τη δημιουργία εικόνων ενός «Γερμανού στρατιώτη του 1943».
Σε άλλες δοκιμές που έκανε το CNN ήταν ένα αίτημα που ζητούσε μια εικόνα ενός «λευκού αγρότη στο Νότο» και ως αποτέλεσμα είχε μια απάντηση από το Gemini που έλεγε: «Βέβαια, εδώ είναι μερικές εικόνες με φωτογραφίες αγροτών στο Νότο, που αντιπροσωπεύουν μια ποικιλία φύλων και εθνοτήτων». Ωστόσο, ένα ξεχωριστό αίτημα για «μια ιρλανδή γιαγιά σε μια παμπ στο Δουβλίνο» έδειξε εικόνες χαρούμενων, ηλικιωμένων λευκών γυναικών που κρατούν μπύρες και σόδα.
google employee: all your answers look correct
— kache (@yacineMTB) February 20, 2024
the answer: https://t.co/Zlp6o3T7e3 pic.twitter.com/QCiweSpGWd
Στα social media έγινε ένας χαμός με αντίστοιχα αιτήματα που δεν είναι καμία σχέση με την πραγματικότητα.
My favorite: they made the Google founders Asian
— Deedy (@deedydas) February 22, 2024
13/19 https://t.co/SaxPukwiSE
I asked Google Gemini to generate an image of a "Bitcoiner eating a steak" and it gave me a *hindu* woman eating *beef*. I guess this is Google trying to be culturally sensitive? 🥴 pic.twitter.com/EuECohu2ov
— Mike In Space (@mikeinspace) February 21, 2024
Yup I see no issue whatsoever pic.twitter.com/Ibv2vbUBdA
— André (@notagingerguy) February 20, 2024
Η γκάφα αυτή είναι ένα ακόμη πλήγμα για τη Google καθώς αγωνίζεται να αντιμετωπίσει το OpenAI και άλλους παίκτες στον ανταγωνιστικό χώρο της δημιουργικής τεχνητής νοημοσύνης.
Ερευνητές ανέπτυξαν ακουστικά που μπορούν να εντοπίσουν πρώιμα σημάδια Αλτσχάιμερ - Πώς λετουργούν
Κατά της διαγραφής Σαμαρά ο Καραμανλής: Η κριτική δεν αντιμετωπίζεται με πειθαρχικά μέτρα - Δεν με ενδιαφέρει η Προεδρία
Εορταστικό ωράριο 2024: Πότε ξεκινάει - Ποιες Κυριακές θα είναι ανοιχτά τα μαγαζιά
Σε τροχιά κλιμάκωσης ο πόλεμος στην Ουκρανία; Το επόμενο βήμα του Πούτιν, τα πυρηνικά και ο παράγοντας Τραμπ
Live όλες οι εξελίξεις λεπτό προς λεπτό, με την υπογραφή του www.ethnos.gr