Δικαιοσύνη στην τεχνητή νοημοσύνη: Δεν είναι ένα μέγεθος για όλους

Δικαιοσύνη στην τεχνητή νοημοσύνη: Δεν είναι ένα μέγεθος για όλους

März 4, 2023 0 Von admin

Δικαιοσύνη στην τεχνητή νοημοσύνη: Δεν είναι ένα μέγεθος για όλους

Οι άνθρωποι είναι εγγενώς προκατειλημμένοι. Κάθε σκέψη, απόφαση και πράξη μας επηρεάζεται από την προηγούμενη εμπειρία. Και οι άνθρωποι δημιουργούν και εκπαιδεύουν μοντέλα τεχνητής νοημοσύνης, τα οποία με τη σειρά τους επανεκπαιδεύονται με βάση την προηγούμενη εμπειρία και τα δεδομένα που παρέχονται από τον άνθρωπο. Κάτω από αυτές τις συνθήκες, πώς μπορούμε να περιμένουμε τα μοντέλα μηχανικής μάθησης να είναι πιο δίκαια και δίκαια από εμάς;

Η σύντομη απάντηση είναι ότι δεν μπορούμε. Μπορεί να μην είναι δυνατό, δεδομένων των διαφορετικών τύπων μεροληψίας, της προέλευσης της μεροληψίας και των τρόπων μέτρησής της. Αλλά μέσω καλά σχεδιασμένων εργαλείων, στοχαστικής λήψης αποφάσεων και προσεκτικής παρακολούθησης, μπορούμε να κάνουμε ό,τι καλύτερο μπορούμε για να ελαχιστοποιήσουμε την προκατάληψη και να προχωρήσουμε προς τη δικαιοσύνη στην τεχνητή νοημοσύνη.

Τι είναι η δικαιοσύνη στην τεχνητή νοημοσύνη;

Δεν υπάρχει καθολικός, εφαρμόσιμος ορισμός της δικαιοσύνης στην τεχνητή νοημοσύνη. Η δικαιοσύνη έχει διαφορετικές σημασίες σε διαφορετικούς τομείς (π.χ. νόμος, κοινωνικές επιστήμες, φιλοσοφία και ποσοτικά πεδία), μπορεί να λάβει διάφορες μορφές και μετριέται με πολλούς τρόπους. Ως αποτέλεσμα, οι εφαρμογές δικαιοσύνης στον πραγματικό κόσμο είναι διαβόητες γεμάτες.

Σε γενικές γραμμές, η δικαιοσύνη στην τεχνητή νοημοσύνη αναφέρεται σε μοντέλα ML που οδηγούν σε αμερόληπτη μεταχείριση ή/και δίκαια αποτελέσματα σε όλες τις ομάδες, ιδιαίτερα ευαίσθητες ή προστατευόμενες τάξεις ανθρώπων – όπως γυναίκες και φυλετικές μειονότητες – που έχουν υποφέρει ιστορικά από διακρίσεις ή άνισες ευκαιρίες. Αλλά αυτός ο ορισμός δεν είναι σε καμία περίπτωση πλήρης.

Αντικρουόμενοι ορισμοί της δικαιοσύνης

Είναι δύσκολο να εφαρμοστεί αυτή η ευρεία ιδέα της δικαιοσύνης σε μεμονωμένα μοντέλα και καταστάσεις λόγω των πολλών, συχνά αντικρουόμενων, μεταβλητών. Οι δίκαιες αποφάσεις απαιτούν σημαντικό βαθμό ανθρώπινης κρίσης και μια σειρά από συμβιβασμούς:

  • Ατομική δικαιοσύνη έναντι ομαδικής δικαιοσύνης: Πρέπει το μοντέλο να βελτιστοποιηθεί για δικαιοσύνη και ακρίβεια σε ατομικό επίπεδο ή θα πρέπει να επιδιώκει τη δικαιοσύνη μεταξύ των ομάδων; Αυτά είναι συχνά σε αντίθεση μεταξύ τους.
  • Δικαιοσύνη στη μεταχείριση έναντι δικαιοσύνης στο αποτέλεσμα: Πρέπει να υπάρχει ισότητα στη λήψη ατομικών αποφάσεων ή πρέπει να επιτρέπεται στο μοντέλο να λαμβάνει «προκατειλημμένες» αποφάσεις προκειμένου να επιτυγχάνεται ισότητα αποτελεσμάτων μεταξύ των ομάδων;
  • Δικαιοσύνη στη συλλογή δεδομένων έναντι αλγοριθμικής ανάπτυξης έναντι εφαρμογής συστήματος: Πρέπει να δοθεί προτεραιότητα στη δικαιοσύνη στα δεδομένα, στους αλγόριθμους ή στην υλοποίηση ή σε όλα τα παραπάνω; Τι συμβαίνει όταν ένας τύπος δικαιοσύνης αναιρεί έναν άλλο, όπως συμβαίνει συχνά;
  • Ίσα αποτελέσματα έναντι ίσης ακρίβειας: Πρέπει ο τελικός στόχος να είναι ίσα αποτελέσματα μεταξύ των ομάδων ή ίσα ποσοστά σφαλμάτων και τύποι (ψευδώς θετικά και ψευδώς αρνητικά) μεταξύ των ομάδων; Και οι δύο αυτοί στόχοι είναι δύσκολο να επιτευχθούν και, επιπλέον, δεν μπορούν να επιτευχθούν ταυτόχρονα. Επιπλέον, η εφαρμογή περιορισμών δικαιοσύνης γενικά μπορεί να μειώσει τη συνολική ακρίβεια.

Τύποι και Αιτίες Προκατάληψης

Η βελτίωση της δικαιοσύνης στην τεχνητή νοημοσύνη απαιτεί εύρεση και εξάλειψη της μεροληψίας. Και εδώ, οι παράμετροι και οι βέλτιστες πρακτικές δεν είναι ούτε απλές ούτε καθολικές.

Στην τεχνητή νοημοσύνη, η προκατάληψη μπορεί να εισέλθει στα δεδομένα, στους αλγόριθμους και στη διαδικασία αναθεώρησης. Μερικοί από τους πιο συνηθισμένους τύπους και πηγές μεροληψίας περιλαμβάνουν:

  • Ιστορική προκατάληψη – μεροληψία που υπάρχει στον πραγματικό κόσμο και αναπαρίσταται στα δεδομένα ακόμα κι αν οι μέθοδοι δειγματοληψίας, οι αλγόριθμοι κ.λπ. είναι δίκαιες και δίκαιες.
  • Μεροληψία επιλογής – προκατάληψη που προκύπτει όταν ένα σύνολο δεδομένων δεν είναι αντιπροσωπευτικό ενός πληθυσμού, δηλαδή όταν ορισμένες ομάδες υποεκπροσωπούνται ή υπερεκπροσωπούνται στα δεδομένα.
  • Μεροληψία μέτρησης – προκατάληψη που προκύπτει από λανθασμένη επιλογή χαρακτηριστικών και επισήμανση των δεδομένων. Τα δεδομένα που είναι εύκολα διαθέσιμα μπορεί να τραβήξουν περισσότερη προσοχή από τις σχετικές λειτουργίες ή ετικέτες.
  • Προκατάληψη συγκέντρωσης – προκατάληψη που εμφανίζεται όταν ετερογενείς πληθυσμοί ομαδοποιούνται εσφαλμένα.
  • σιωπηρή προκατάληψη – υπάρχουσες ανθρώπινες προκαταλήψεις που επηρεάζουν ασυνείδητα τον τρόπο με τον οποίο οι προγραμματιστές δημιουργούν και εκπαιδεύουν μοντέλα.
  • Προκατάληψη απόδοσης ομάδας – προκατάληψη που προέρχεται από τη γενίκευση των ιδιοτήτων των ατόμων σε μια ομάδα στην οποία ανήκουν.

Εργαλεία και μέθοδοι για τη μείωση της προκατάληψης και την προώθηση της δικαιοσύνης

Δεδομένου ότι η δικαιοσύνη είναι πολύπλευρη και τείνει να είναι ένας κινούμενος στόχος, οι πρακτικές δικαιοσύνης (ακόμα και οι ορισμοί) πρέπει να προσαρμοστούν για διαφορετικά πλαίσια και σκοπούς. Υπάρχουν εργαλεία που μπορούν να βοηθήσουν σε αυτή τη διαδικασία. Γενικά, τέτοια εργαλεία πρέπει να θεωρούνται ως αφετηρία και όχι ως τελικά σημεία. Οι ομάδες μπορούν να χρησιμοποιήσουν αυτά τα εργαλεία για την πρόληψη, τον εντοπισμό, τον μετριασμό και την παρακολούθηση της μεροληψίας, αλλά πρέπει να προσέχουν να μην βασίζονται σε μεγάλο βαθμό σε κάποιο συγκεκριμένο εργαλείο. Κάθε μέθοδος έχει πλεονεκτήματα και περιορισμούς. Αυτό που φαίνεται να λειτουργεί καλύτερα είναι ένας συνδυασμός ποσοτικών και ποιοτικών εργαλείων, καθώς και συλλογικών προσπαθειών για τη μείωση της προκατάληψης σε κάθε στάδιο του κύκλου ζωής της τεχνητής νοημοσύνης.

Έχοντας υπόψη αυτές τις προειδοποιήσεις, παραδείγματα συνιστώμενων ποσοτικών εργαλείων (σύμφωνα με ένα ενημερωτικό και συνοπτικό επισκόπηση δικαιοσύνης από το Haas School of Business του UC Berkeley) περιλαμβάνουν:

Τα καλά ερευνημένα ποιοτικά εργαλεία περιλαμβάνουν το Συν-σχεδιασμένος κατάλογος ελέγχου AI Fairnessπου αναπτύχθηκε από την ομάδα της Microsoft FATE (Fairness, Accountability, Transparency, and Ethics in AI) και Fairness Analyticαπό Mulligan et al.

Επιπλέον, η διαφάνεια και επεξήγηση σε μοντέλα τεχνητής νοημοσύνης είναι κρίσιμα για τη δικαιοσύνη της τεχνητής νοημοσύνης. Για τον αποτελεσματικό εντοπισμό και τον μετριασμό της μεροληψίας στα μοντέλα, οι αποφάσεις τεχνητής νοημοσύνης πρέπει να είναι ορατές και κατανοητές.

Ακολουθούν ορισμένες γενικές αλλά χρήσιμες κατευθυντήριες γραμμές για το AI Fairness, που προέρχονται απευθείας από τη σύντομη περιγραφή του UC Berkeley που αναφέρθηκε παραπάνω:

  1. Προσδιορίστε εκ των προτέρων ζητήματα δικαιοσύνης και προσεγγίσεις και βεβαιωθείτε ότι οι κατάλληλες φωνές (π.χ. ειδικοί στον σχετικό τομέα και σε διάφορους κλάδους) περιλαμβάνονται και ενδυναμώνονται στη συζήτηση.
  2. Αντί να προσπαθήσουμε να κάνουμε ένα σύστημα ML εντελώς δίκαιο (ή να το «απορομελίσουμε»), ο στόχος μπορεί να είναι ο εντοπισμός και ο μετριασμός των βλαβών που σχετίζονται με τη δικαιοσύνη όσο το δυνατόν περισσότερο. Οι ερωτήσεις που πρέπει πάντα να τίθενται περιλαμβάνουν: Δίκαιο σε ποιον; Σε ποιο πλαίσιο;
  3. Δεν υπάρχουν πάντα σαφείς απαντήσεις, επομένως τεκμηριώστε τις διαδικασίες και τις εκτιμήσεις (συμπεριλαμβανομένων των προτεραιοτήτων και των ανταλλαγών).
  4. Χρησιμοποιήστε ποσοτικές και ποιοτικές προσεγγίσεις και εργαλεία για να διευκολύνετε αυτές τις διαδικασίες. Τα εργαλεία δεν εγγυώνται δικαιοσύνη! Αποτελούν καλή πρακτική στο πλαίσιο της ευρύτερης ολιστικής προσέγγισης για τον μετριασμό της προκατάληψης.
  5. Η δικαιοσύνη δεν σταματά μόλις αναπτυχθεί ένα σύστημα AI. Βεβαιωθείτε ότι οι χρήστες και τα ενδιαφερόμενα μέρη μπορούν να δουν, να κατανοήσουν και να προσελκύσουν επιλογές που γίνονται από συστήματα τεχνητής νοημοσύνης.

(Πηγή: https://haas.berkeley.edu/wp-content/uploads/What-is-fairness_-EGAL2.pdf)

Με λίγα λόγια, η δικαιοσύνη καταβάλλει προσπάθειες

Δικαιοσύνη στην τεχνητή νοημοσύνη μπορεί να είναι ένα τέλμα και μια ανηφορική μάχη. σιγιατί το είναι ένα σχετικά νέο πεδίο έρευναςουσυχνά δεν υπάρχουν οργανωτικές διαδικασίες ή υφιστάμενα πλαίσια για την προώθηση και την υποστήριξή του. Ως εκ τούτου, δικαιοσύνη η εφαρμογή μπορεί να μειωθεί λίγα παρακινημένος τα άτομα που πρέπει να πολεμήσει κατά σφιχτή ντεαdlines και άκαμπτες πολιτικές να κάνουμε δικαιοσύνη μια προτεραιότητα. Με σειρά στή η δικαιοσύνη στην τεχνητή νοημοσύνη να γίνει εφικτή και βιώσιμη, αυτό πρέπει να αλλάξει. Comοι εταιρείες πρέπει να εξετάσουν τις δικές τους πρακτικές και επιτρέπουν τη συνεργασία μεταξύ τμήματα, οργανωτικός επίπεδα και ομάδες να καθορίσει οι καλύτεροι τρόποι προώθησης του φαΐrness – για το δικό τους ειδικός βιομηχανίες, πελάτες, έργαδεδομένα και χρήστες. Δικαιοσύνη είναι υπερβολικά πολύπλοκο, εύπλαστο και υποκειμενικός γιαr ενιαίος διαλύτηςιόντων. Τεδώ όχι ένας τρόπος για να επιτευχθεί απόλυτη δικαιοσύνη στην τεχνητή νοημοσύνη. σιεκεί αείναι πολλά εφικτά τρόπους για να φτάσω κοντάe, και wιθ συντονισμένος προσπάθεια και την καινοτομίααυτές οι μέθοδοι θα βελτιωθούν μόνο.


Επιταχύνετε την τεχνητή νοημοσύνη με σχολιασμένα δεδομένα

Δείτε αυτό το άρθρο σχετικά με το γιατί τα προβλήματα απόδοσης του μοντέλου σας είναι πιθανά στα δεδομένα


ΔΙΑΒΑΣΕ ΤΩΡΑ

Τα κέρδη του μοντέλου ML προέρχονται από τα υψηλής ποιότητας Training Data_Innodata

Η δημοσίευση Δικαιοσύνη στην τεχνητή νοημοσύνη: Δεν είναι ένα μέγεθος για όλους εμφανίστηκε πρώτα στην Innodata Inc..