Σεξιστικά “βλέπουν” τις γυναίκες υπολογιστές που εκπαιδεύονται με μηχανική μάθηση

SHARE

Την προηγούμενη άνοιξη ο καθηγητής Vicente Ordóñez του πανεπιστημίου της Βιρτζίνια παρατήρησε ότι οι επιλογές του λογισμικού αναγνώρισης εικόνας που δημιούργησε χρησιμοποιώντας μηχανική μάθηση ήταν αρκετά περίεργες. Όπως και ο ίδιος ανέφερε:

Όταν το λογισμικό έβλεπε μια εικόνα  κουζίνας  την συνέδεε κατευθείαν με μια γυναίκα

Αυτό έκανε τον Ordóñez να αναρωτιέται εάν αυτός ή άλλοι ερευνητές τροφοδοτούσαν υποσυνείδητα προκαταλήψεις μέσα στο λογισμικό τους. Για αυτόν τον λόγο μαζί με τους συνεργάτες τους άρχισε να ελέγχει τις δύο μεγάλες συλλογές φωτογραφιών που χρησιμοποιήθηκαν για την εκπαίδευση του λογισμικού. ( Με τον όρο εκπαίδευση εννοούμε ότι το λογισμικό με βάση κάποιο πρότυπο μπορεί να αναγνωρίσει παρόμοιες οντότητες. Με όσες περισσότερες πληροφορίες έχει τροφοδοτηθεί για το πρότυπο του, στην περίπτωση μας μια εικόνα, τόσο καλύτερα μπορεί να το αναγνωρίσει.)

Τα αποτελέσματα αυτού του ελέγχου έδειξαν ότι αυτές οι συλλογές φωτογραφιών προβάλλουν μια μεγάλη προκατάληψη όσον αφορά το φύλο. Για παράδειγμα εικόνες σχετικές με την μαγειρική  και την καθαριότητα συνδέονται με τις γυναίκες.

Το λογισμικό που εκπαιδεύτηκε στα σύνολα δεδομένων μέσω της μηχανικής μάθησης  όχι μόνο δεν  αντικατόπτρισε αυτές τις προκαταλήψεις, αλλά τις ενίσχυσε. Εάν ένα σετ φωτογραφιών γενικά συνέδεε τις γυναίκες με το μαγείρεμα, το λογισμικό που εκπαιδεύτηκε με τη μελέτη αυτών των φωτογραφιών δημιουργούσε μια ακόμα μεγαλύτερη σχέση μεταξύ αυτών των δύο.

Τα προβλήματα της μηχανικής μάθησης.

Καθώς τα εξελιγμένα προγράμματα μηχανικής μάθησης πολλαπλασιάζονται, οι διαστρεβλώσεις αυτές έχουν σημασία. Στις δοκιμές των ερευνητών, οι άνθρωποι που απεικονίζονται στις κουζίνες ήταν ακόμα πιο πιθανό να χαρακτηριστούν ως γυναίκες. Για παράδειγμα σε μια δοκιμή υπάρχει μια φωτογραφία ενός άνδρα κοντά σε ένα ψυγείο με την ονομασία “γυναίκα” από δίπλα.

Αυτά τα προβλήματα θα μπορούσαν να επηρεάσουν τους έξυπνους βοηθούς όπως το Amazon Look ή εργαλεία που χρησιμοποιούν φωτογραφίες κοινωνικών μέσων για να διακρίνουν τις προτιμήσεις των καταναλωτών. Για παράδειγμα η Google μας έκανε μια επίδειξη τέτοιου λάθους το 2015. Όταν τακτοποιούσε κάποιος χρήστης τις φωτογραφίες του σε άλμπουμ αυτόματα, οι φωτογραφίες  με μαύρους ανθρώπους κατηγοριοποιούνται ως γορίλες.

Advertisement

Τελικά το πεδίο της μηχανής μάθησης και τοφ πώς αυτή χρησιμοποιείται για την επίλυση προβλημάτων είναι πιο περίπλοκο από ό, τι πολλοί άνθρωποι σκέφτονταν στο παρελθόν. Τέτοια παραδείγματα  διορθώνουν την ψευδαίσθηση μας ότι οι αλγόριθμοι που χρησιμοποιεί η μηχανική μάθηση μπορούν να εφαρμόζονται τυφλά για την επίλυση προβλημάτων.

Παρόμοια άρθρα που μπορεί να σ’ενδιαφέρουν:

Advertisement

SHARE:

Εβδομαδιαία ενημέρωση απο το maxmag στο email σου

Η ενημέρωση σου, για όλα τα θέματα, επί παντός επιστητού, είναι προτεραιότητα για μας στο MAXMAG. Αυτός είναι κ ο λόγος, για τον οποίο κάθε εβδομάδα οι συντάκτες μας θα επιλέγουν τα 15 σημαντικότερα άρθρα, από όλες τις στήλες του περιοδικού και θα φροντίζουμε να τα λαμβάνεις απευθείας στο email σου. Όλες οι σημαντικές ειδήσεις θα σε περιμένουν να τις ανοίξεις. Το μόνο που χρειάζεται να κάνεις είναι μια εγγραφή στο Newsletter μας. Τι περιμένεις λοιπόν;

Follow Newsweek

Κάνοντας εγγραφή στο newsletter μας θα λαμβάνετε όλα τα τελευταία νέα που ανεβαίνουν στην ιστοσελίδα του MAXMAG

Advertisement

Λίγα λόγια για τον συντάκτη

Ο Λεωνίδας, γεννημένος το 1996 στην Δράμα, είναι φοιτητής στο τμήμα Μηχανικών Η/Υ & Πληροφορικής του Πανεπιστημίου Ιωαννίνων. Ενθουσιώδης με την τεχνολογία, το gaming και την φιλοσοφία.

Το MAXMAG είναι ένα περιοδικό που μπήκε δυναμικά στο χώρο της διαδικτυακής ενημέρωσης. Κοινό όλων: η αγάπη για την αρθρογραφία, την οποία ο καθένας ξεχωριστά τη συνδέει με το αντικείμενο που γνωρίζει καλά και, συνήθως, έχει σπουδάσει.

Follow Newsweek

Κάνοντας εγγραφή στο newsletter μας θα λαμβάνετε όλα τα τελευταία νέα που ανεβαίνουν στην ιστοσελίδα του MAXMAG