Tuesday, September 08, 2020

«Κωδικοποίηση των ίδιων προκαταλήψεων»: Περιορισμοί της τεχνητής νοημοσύνης στην απόκριση του κοροναϊού

07 Σεπτεμβρίου 2020   HOROZION

Η τεχνητή νοημοσύνη χρησιμοποιείται για την κατανόηση και την αντιμετώπιση του κοροναϊού, αλλά τα αποτελέσματα θα είναι τόσο αμερόληπτα όσο οι πληροφορίες που τροφοδοτούνται στους αλγόριθμους. Πιστωτική εικόνα - Daniele Marzocchi / Flickr, με άδεια CC BY-NC 2.0
Καθώς η πανδημία του κορανοϊού αντέχει, οι κοινωνικοοικονομικές επιπτώσεις της φυλής και του φύλου στη σύμβαση Covid-19 και τον θάνατο από αυτήν έχουν τεθεί γυμνές. Η τεχνητή νοημοσύνη (AI) παίζει βασικό ρόλο στην απόκριση, αλλά θα μπορούσε επίσης να επιδεινώσει τις ανισότητες στα συστήματα υγείας μας - μια κρίσιμη ανησυχία που μεταφέρει τους περιορισμούς της τεχνολογίας πίσω στο προσκήνιο.
Η απάντηση στην κρίση με πολλούς τρόπους μεσολαβεί από δεδομένα - μια έκρηξη πληροφοριών που χρησιμοποιούνται από αλγόριθμους AI για καλύτερη κατανόηση και αντιμετώπιση του Covid-19 , συμπεριλαμβανομένης της παρακολούθησης της εξάπλωσης του ιού και της ανάπτυξης θεραπευτικών παρεμβάσεων .
Η τεχνητή νοημοσύνη, όπως και η ανθρώπινη εταιρεία παραγωγής της, δεν είναι απαλλαγμένη από προκατάληψη. Η τεχνολογία - γενικά σχεδιασμένη για να αφομοιώνει μεγάλους όγκους δεδομένων και να κάνει εκπτώσεις για την υποστήριξη της λήψης αποφάσεων - αντικατοπτρίζει τις προκαταλήψεις των ανθρώπων που τα αναπτύσσουν και της τροφοδοτούν πληροφορίες που χρησιμοποιεί για να εκτοξεύσει τα αποτελέσματα. Για παράδειγμα, πριν από χρόνια, όταν η Amazon ανέπτυξε ένα εργαλείο τεχνητής νοημοσύνης για να βοηθήσει στην κατάταξη των υποψηφίων για εργασία, μαθαίνοντας από τις προηγούμενες προσλήψεις του, το σύστημα μίμησε τη μεροληψία λόγω φύλου των κατασκευαστών του υποβαθμίζοντας τα βιογραφικά από τις γυναίκες .
«Είδαμε ότι η AI χρησιμοποιείται ευρέως πριν από το Covid-19 και κατά τη διάρκεια του Covid-19 παρατηρείται αύξηση στη χρήση ορισμένων τύπων εργαλείων», σημείωσε ο Meredith Whittaker, διακεκριμένος ερευνητής στο Πανεπιστήμιο της Νέας Υόρκης στις ΗΠΑ και συνιδρυτής του Ινστιτούτου AI Now , το οποίο διεξάγει έρευνα που εξετάζει τις κοινωνικές επιπτώσεις της AI.
Τα εργαλεία παρακολούθησης για να παρακολουθούν τους υπαλλήλους που εργάζονται από το σπίτι και τα εκπαιδευτικά εργαλεία που ισχυρίζονται ότι ανιχνεύουν εάν οι μαθητές εξαπατούν στις εξετάσεις γίνονται όλο και πιο συχνές. Ωστόσο, ο Whittaker λέει ότι το μεγαλύτερο μέρος αυτής της τεχνολογίας δεν έχει δοκιμαστεί - και ορισμένες έχουν αποδειχθεί ότι είναι ελαττωματικές. Ωστόσο, αυτό δεν εμπόδισε τις εταιρείες να εμπορεύονται τα προϊόντα τους ως θεραπεία για την παράπλευρη ζημιά που προκλήθηκε από την πανδημία, προσθέτει.
Στις ΗΠΑ για παράδειγμα, μια συμπαγής ιατρική συσκευή που ονομάζεται παλμικό οξύμετρο , σχεδιασμένη για να μετρήσει το επίπεδο οξυγόνου στο αίμα, είχε μερικούς ασθενείς με κοροναϊκό να κολλήσουν στις μικροσκοπικές οθόνες του για να αποφασίσουν πότε θα πάνε στο νοσοκομείο, εκτός από τη χρήση του από οι γιατροί να βοηθήσουν στη λήψη κλινικών αποφάσεων στα νοσοκομεία .
Ο τρόπος λειτουργίας της συσκευής, ωστόσο, είναι επιρρεπής σε φυλετικές προκαταλήψεις και πιθανότατα βαθμονομήθηκε σε χρήστες με ανοιχτόχρωμο δέρμα. Πίσω το 2005, μια μελέτη έδειξε οριστικά ότι η συσκευή «τείνει κυρίως να υπερεκτιμά τα επίπεδα κορεσμού (οξυγόνου) κατά αρκετά σημεία» για τους μη λευκούς ανθρώπους.
Το πρόβλημα με τη συσκευή παλμικού οξυμέτρου είναι γνωστό εδώ και δεκαετίες και δεν έχει επιλυθεί από τους κατασκευαστές, λέει ο Whittaker. «Όμως, παρόλα αυτά, αυτά τα εργαλεία χρησιμοποιούνται, παράγουν δεδομένα και ότι αυτά τα δεδομένα διαμορφώνουν διαγνωστικούς αλγόριθμους που χρησιμοποιούνται στην υγειονομική περίθαλψη. Έτσι, βλέπετε, ακόμη και στο επίπεδο του πώς κατασκευάζονται τα συστήματα AI μας, κωδικοποιούν τις ίδιες προκαταλήψεις και τις ίδιες ιστορίες ρατσισμού και διακρίσεων που παρουσιάζονται τόσο καθαρά στο πλαίσιο του Covid-19.
Απόδειξη
Εν τω μεταξύ, καθώς το σύνολο των αποδεικτικών στοιχείων συσσωρεύεται ότι οι έγχρωμοι άνθρωποι είναι πιο πιθανό να πεθάνουν από μολύνσεις Covid-19 , αυτή η ποικιλομορφία δεν αντικατοπτρίζεται απαραίτητα στη σειρά κλινικών δοκιμών που έχουν βαφτιστεί για την ανάπτυξη ναρκωτικών και εμβολίων - ένα ανησυχητικό μοτίβο που έχει προηγηθεί από καιρό η πανδημία. Όσον αφορά την ποικιλομορφία των φύλων, μια πρόσφατη ανασκόπηση διαπίστωσε ότι από 927 δοκιμές που σχετίζονται με το Covid-19, περισσότερες από τις μισές αποκλείουν ρητά την εγκυμοσύνη και οι έγκυες γυναίκες έχουν αποκλειστεί εντελώς από τις δοκιμές εμβολίων .
Τα αποτελέσματα των προϊόντων σε αυτές τις κλινικές δοκιμές δεν θα είναι απαραίτητα αντιπροσωπευτικά του πληθυσμού, σημειώνει η Catelijne Muller, μέλος μιας ομάδας εμπειρογνωμόνων υψηλού επιπέδου της ΕΕ για την τεχνητή νοημοσύνη και συνιδρυτής της ALLAI, ενός οργανισμού αφιερωμένου στην ανάπτυξη υπεύθυνης AI.
«Και αν στη συνέχεια χρησιμοποιήσεις αυτά τα αποτελέσματα για να τροφοδοτήσεις έναν αλγόριθμο AI για μελλοντικές προβλέψεις, αυτοί οι άνθρωποι θα έχουν επίσης μειονέκτημα σε αυτά τα μοντέλα πρόβλεψης», είπε.
Το πρόβλημα με τη χρήση της τεχνολογίας τεχνητής νοημοσύνης στο πλαίσιο του Covid-19 δεν διαφέρει από τα ζητήματα προκατάληψης που μαστίζουν την τεχνολογία πριν από την πανδημία: εάν τροφοδοτήσετε τα δεδομένα που προκαλούν την τεχνολογία, θα προκαλέσει προκατειλημμένα αποτελέσματα. Πράγματι, τα υπάρχοντα συστήματα τεχνητής νοημοσύνης μεγάλης κλίμακας αντικατοπτρίζουν επίσης την έλλειψη ποικιλομορφίας στα περιβάλλοντα στα οποία κατασκευάζονται και στα άτομα που τα έχουν δημιουργήσει. Αυτά είναι σχεδόν αποκλειστικά μια χούφτα εταιρειών τεχνολογίας και εργαστηρίων πανεπιστημίων ελίτ - «χώροι που στη Δύση τείνουν να είναι εξαιρετικά λευκοί, εύποροι, τεχνικά προσανατολισμένοι και αρσενικοί », σύμφωνα με μια έκθεση του Ινστιτούτου AI Now του 2019.
Αλλά η τεχνολογία δεν είναι απλώς μια αντανάκλαση των κατασκευαστών της - η AI ενισχύει επίσης τις προκαταλήψεις τους, λέει ο Whittaker.
«Ένα άτομο μπορεί να έχει προκαταλήψεις, αλλά δεν κλιμακώνει αυτές τις προκαταλήψεις σε εκατομμύρια και δισεκατομμύρια αποφάσεις», είπε. «Ενώ ένα σύστημα τεχνητής νοημοσύνης μπορεί να κωδικοποιήσει ανθρώπινες προκαταλήψεις και στη συνέχεια να διανείμει αυτές με τρόπους που έχουν πολύ μεγαλύτερο αντίκτυπο»
Περαιτέρω περιπλέκει τα πράγματα, υπάρχουν ανησυχίες μεροληψίας αυτοματισμού, προσθέτει. «Υπάρχει μια τάση για τους ανθρώπους να εμπιστεύονται περισσότερο μια απόφαση που λαμβάνεται από έναν υπολογιστή από ό, τι είναι της ίδιας απόφασης εάν ελήφθη από ένα άτομο. Επομένως, πρέπει να προσέξουμε τον τρόπο με τον οποίο τα συστήματα AI ξεπλένουν αυτές τις προκαταλήψεις και να τις κάνουν να φαίνονται αυστηρές και επιστημονικές και μπορεί να οδηγήσει σε άτομα που είναι λιγότερο πρόθυμα να αμφισβητήσουν τις αποφάσεις που λαμβάνονται από αυτά τα συστήματα ».
«Πρέπει να προσέξουμε τον τρόπο με τον οποίο τα συστήματα τεχνητής νοημοσύνης ξεπλένουν αυτές τις προκαταλήψεις και τις καθιστούν αυστηρές και επιστημονικές».
-Meredith Whittaker, Πανεπιστήμιο της Νέας Υόρκης, ΗΠΑ
Ασφαλής
Δεν υπάρχει σαφής συναίνεση σχετικά με το τι θα καταστήσει την τεχνολογία AI υπεύθυνη και ασφαλή μαζικά, λένε οι ειδικοί, αν και οι ερευνητές αρχίζουν να συμφωνούν σε χρήσιμα βήματα όπως η δικαιοσύνη, η ερμηνεία και η ευρωστία.  
Το πρώτο βήμα είναι να κάνω «ερώτηση μηδέν», σύμφωνα με τον Muller: ποιο είναι το πρόβλημά μου και πώς μπορώ να το λύσω; Το λύνω με τεχνητή νοημοσύνη ή με κάτι άλλο; Εάν με AI, είναι αρκετά καλή αυτή η εφαρμογή; Βλάπτει τα θεμελιώδη δικαιώματα;
«Αυτό που βλέπουμε είναι ότι πολλοί άνθρωποι πιστεύουν ότι μερικές φορές το AI είναι ένα μαγικό ραβδί… και θα λύσει τα πάντα. Αλλά μερικές φορές δεν λύνει τίποτα γιατί δεν είναι κατάλληλο για το πρόβλημα. Μερικές φορές είναι τόσο επεμβατικό που μπορεί να λύσει ένα πρόβλημα, αλλά να δημιουργήσει ένα μεγάλο, διαφορετικό πρόβλημα. "
Όταν πρόκειται για χρήση AI στο πλαίσιο του Covid-19 - υπάρχει έκρηξη δεδομένων, αλλά αυτά τα δεδομένα πρέπει να είναι αξιόπιστα και να βελτιστοποιηθούν, λέει ο Muller.
«Τα δεδομένα δεν μπορούν απλώς να ρίχνονται σε άλλο αλγόριθμο», είπε, εξηγώντας ότι οι αλγόριθμοι λειτουργούν βρίσκοντας συσχετίσεις. «Δεν καταλαβαίνουν τι είναι ένας ιός».
Τα ζητήματα δικαιοσύνης με την τεχνητή νοημοσύνη δείχνουν τις μεροληψίες στη λήψη αποφάσεων στον άνθρωπο, σύμφωνα με τον Δρ Adrian Weller, διευθυντή προγράμματος για το AI στο Ινστιτούτο Alan Turing στο Ηνωμένο Βασίλειο. Είναι λάθος να υποθέσουμε ότι η μη χρήση αλγορίθμων σημαίνει ότι όλα θα είναι καλά, λέει.
Υπάρχει αυτή η ελπίδα και ο ενθουσιασμός για αυτά τα συστήματα, επειδή λειτουργούν πιο σταθερά και αποτελεσματικά από τους ανθρώπους, αλλά δεν έχουν έννοιες κοινής λογικής, συλλογιστικής και πλαισίου, όπου οι άνθρωποι είναι πολύ καλύτεροι, λέει ο Weller.
Ευθύνη
Το να συμμετέχουν οι άνθρωποι περισσότερο στη διαδικασία λήψης αποφάσεων είναι ένας τρόπος για να φέρει την ευθύνη σε εφαρμογές AI. Αλλά το να καταλάβεις ποιος πρέπει να είναι αυτό το άτομο ή τα άτομα είναι ζωτικής σημασίας.
«Η απλή τοποθέτηση ενός ανθρώπου κάπου στη διαδικασία δεν εγγυάται μια καλή απόφαση», δήλωσε ο Whittaker. Υπάρχουν ζητήματα όπως για ποιον εργάζεται ο άνθρωπος και ποια κίνητρα εργάζονται κάτω από τα οποία πρέπει να αντιμετωπιστούν, λέει.
«Νομίζω ότι πρέπει πραγματικά να περιορίσουμε αυτήν την ευρεία κατηγορία« ανθρώπου »και να δούμε ποιος και σε ποιο σκοπό».
Η ανθρώπινη εποπτεία θα μπορούσε να ενσωματωθεί με πολλούς τρόπους φροντίδας για τη διασφάλιση της διαφάνειας και τον μετριασμό των προκαταλήψεων, σύμφωνα με τον Muller και τους συναδέλφους του ALLAI σε μια έκθεση που αναλύει μια πρόταση που οι ρυθμιστικοί φορείς της ΕΕ εργάζονται για τη ρύθμιση εφαρμογών AI «υψηλού κινδύνου» όπως για χρήση σε προσλήψεις, βιομετρική αναγνώριση ή στην ανάπτυξη της υγείας.
Αυτά περιλαμβάνουν τον έλεγχο κάθε κύκλου αποφάσεων του συστήματος AI, την παρακολούθηση της λειτουργίας του συστήματος, τη διακριτική ευχέρεια να αποφασίσει πότε και πώς να χρησιμοποιήσει το σύστημα σε οποιαδήποτε συγκεκριμένη κατάσταση και την ευκαιρία να παρακάμψει μια απόφαση που λαμβάνεται από ένα σύστημα.
Για την Whittaker, οι πρόσφατες εξελίξεις όπως η προθυμία των ρυθμιστικών αρχών της ΕΕ να ρυθμίζουν εφαρμογές «υψηλού κινδύνου» ή η οργάνωση κοινότητας στις ΗΠΑ που οδηγεί σε απαγορεύσεις στην τεχνολογία αναγνώρισης προσώπου είναι ενθαρρυντικές.
«Νομίζω ότι χρειαζόμαστε περισσότερο το ίδιο… για να διασφαλίσουμε ότι αυτά τα συστήματα είναι ελεγχόμενα, ότι μπορούμε να τα εξετάσουμε για να διασφαλίσουμε ότι ελέγχονται δημοκρατικά και ότι οι άνθρωποι έχουν το δικαίωμα να αρνηθούν τη χρήση αυτών των συστημάτων».
Οι Meredith Whittaker και Catelijne Muller θα μιλήσουν σε μια επιτροπή για να συζητήσουν την αντιμετώπιση των προκαταλήψεων φύλου και εθνότητας στην τεχνητή νοημοσύνη στο συνέδριο των Ευρωπαϊκών Ημέρων  Έρευνας και Καινοτομίας  που θα πραγματοποιηθεί στο διαδίκτυο από τις 22 έως τις 24 Σεπτεμβρίου.https://horizon-magazine.eu/article/encoding-same-biases-artificial-intelligence-s-limitations-coronavirus-response.html?fbclid=IwAR2IwCBVy1BIuFeya2_PINRn_S48-fKTD2ttlVq5EGVako2MlTW-TDJEsjc#utm_source=facebook&utm_medium=share&utm_campaign=AI_biases

No comments: