Τι είναι η ηθική τεχνητή νοημοσύνη και γιατί οι εταιρείες πρέπει να το εξετάσουν;

By | May 27, 2023

Η βιασύνη για την εφαρμογή ισχυρών νέων τεχνολογιών τεχνητής νοημοσύνης, όπως το ChatGPT, έχει σημάνει συναγερμούς για πιθανές ζημιές και κακή χρήση. Η παγετώδης απάντηση του νόμου σε τέτοιες απειλές έχει προκαλέσει απαιτήσεις από τις εταιρείες που αναπτύσσουν αυτές τις τεχνολογίες να εφαρμόζουν την τεχνητή νοημοσύνη «δεοντολογικά».

Αλλά τι ακριβώς σημαίνει αυτό;

Η άμεση απάντηση θα ήταν να ευθυγραμμιστούν οι λειτουργίες μιας εταιρείας με ένα ή περισσότερα από τα δεκάδες σύνολα ηθικών αρχών της τεχνητής νοημοσύνης που έχουν δημιουργηθεί από κυβερνήσεις, ομάδες πολλών ενδιαφερομένων και ακαδημαϊκούς. Αλλά αυτό είναι πιο εύκολο να το πεις παρά να το κάνεις.

Εμείς και οι συνάδελφοί μας περάσαμε δύο χρόνια παίρνοντας συνεντεύξεις και ερευνώντας τους ηθικολόγους της τεχνητής νοημοσύνης σε διάφορους κλάδους για να προσπαθήσουμε να καταλάβουμε πώς προσπαθούσαν να επιτύχουν ηθική τεχνητή νοημοσύνη και τι τους έλειπε. Μάθαμε ότι η επιτόπια επιδίωξη ηθικής τεχνητής νοημοσύνης αφορά λιγότερο τη χαρτογράφηση ηθικών αρχών σε εταιρικές ενέργειες παρά τη δημιουργία δομών και διαδικασιών διαχείρισης που επιτρέπουν σε έναν οργανισμό να ανιχνεύει και να μετριάζει τις απειλές.

Αυτά είναι πιθανό να είναι απογοητευτικά νέα για τους οργανισμούς που αναζητούν σαφείς οδηγίες που αποφεύγουν τις γκρίζες ζώνες και για τους καταναλωτές που αναμένουν σαφή και προστατευτικά πρότυπα. Ωστόσο, δείχνει μια καλύτερη κατανόηση του τρόπου με τον οποίο οι εταιρείες μπορούν να επιδιώξουν την ηθική τεχνητή νοημοσύνη.

Αντιμετώπιση ηθικών αβεβαιοτήτων

Η μελέτη μας, η οποία αποτελεί τη βάση ενός προσεχούς βιβλίου, επικεντρώθηκε σε εκείνους που είναι υπεύθυνοι για τη διαχείριση θεμάτων ηθικής τεχνητής νοημοσύνης σε μεγάλες εταιρείες που χρησιμοποιούν τεχνητή νοημοσύνη. Από τα τέλη του 2017 έως τις αρχές του 2019, πήραμε συνεντεύξεις με 23 από αυτούς τους διευθυντές. Οι τίτλοι τους κυμαίνονταν από υπεύθυνος προστασίας προσωπικών δεδομένων και σύμβουλος απορρήτου σε έναν που ήταν νέος εκείνη την εποχή αλλά όλο και πιο συνηθισμένος σήμερα: υπεύθυνος δεοντολογίας δεδομένων. Οι συνομιλίες μας με αυτούς τους διευθυντές ηθικής τεχνητής νοημοσύνης προκάλεσαν τέσσερα βασικά συμπεράσματα.

Πρώτον, εκτός από τα πολλά οφέλη της, η εμπορική χρήση της τεχνητής νοημοσύνης παρουσιάζει σημαντικούς κινδύνους και οι εταιρείες το γνωρίζουν. Οι διευθυντές ηθικής τεχνητής νοημοσύνης εξέφρασαν ανησυχίες σχετικά με το απόρρητο, τη χειραγώγηση, την προκατάληψη, την αδιαφάνεια, την ανισότητα και την εκτόπιση εργασίας. Σε ένα πολύ γνωστό παράδειγμα, η Amazon ανέπτυξε ένα εργαλείο τεχνητής νοημοσύνης για την ταξινόμηση των βιογραφικών και το εκπαίδευσε να βρίσκει υποψηφίους παρόμοιους με αυτούς που είχε προσλάβει στο παρελθόν. Η ανδρική κυριαρχία στον κλάδο της τεχνολογίας σήμαινε ότι η πλειοψηφία των εργαζομένων της Amazon ήταν άνδρες. Κατά συνέπεια, το εργαλείο έμαθε να απορρίπτει γυναίκες υποψήφιες. Αδυνατώντας να διορθώσει το πρόβλημα, η Amazon έπρεπε τελικά να καταργήσει το έργο.

Το Generative AI εγείρει πρόσθετες ανησυχίες σχετικά με την παραπληροφόρηση μεγάλης κλίμακας και τη ρητορική μίσους και την κατάχρηση της πνευματικής ιδιοκτησίας.

Δεύτερον, οι εταιρείες που επιδιώκουν ηθική τεχνητή νοημοσύνη το κάνουν σε μεγάλο βαθμό για στρατηγικούς λόγους. Θέλουν να διατηρήσουν την εμπιστοσύνη μεταξύ των πελατών, των επιχειρηματικών εταίρων και των εργαζομένων. Και θέλουν να προλάβουν ή να προετοιμαστούν για τους αναδυόμενους κανονισμούς. Το σκάνδαλο Facebook-Cambridge Analytica, στο οποίο η Cambridge Analytica χρησιμοποίησε δεδομένα χρηστών του Facebook, κοινοποιημένα χωρίς συναίνεση, για να συμπεράνει τους ψυχολογικούς τύπους των χρηστών και να τους στοχεύσει με χειραγωγικές πολιτικές διαφημίσεις, έδειξε ότι η ανήθικη χρήση προηγμένων αναλυτικών στοιχείων μπορεί να καταστρέψει τη φήμη μιας εταιρείας ή ακόμη και στην περίπτωση της ίδιας της Cambridge Analytica, κατεβάστε το. Οι εταιρείες με τις οποίες μιλήσαμε ήθελαν να θεωρούνται υπεύθυνοι διαχειριστές των δεδομένων των ανθρώπων.

Η πρόκληση που αντιμετωπίζουν οι διαχειριστές ηθικής τεχνητής νοημοσύνης ήταν να βρουν τον καλύτερο τρόπο για να επιτύχουν «ηθική τεχνητή νοημοσύνη». Αρχικά εξέτασαν τις ηθικές αρχές της τεχνητής νοημοσύνης, ιδιαίτερα εκείνες που έχουν τις ρίζες τους στη βιοηθική ή στις αρχές των ανθρωπίνων δικαιωμάτων, αλλά τις βρήκαν ανεπαρκείς. Δεν ήταν απλώς ότι υπήρχαν πολλά ανταγωνιστικά σύνολα αρχών. Ήταν ότι η δικαιοσύνη, η ισότητα, η ευεργεσία, η αυτονομία και άλλες παρόμοιες αρχές αμφισβητούνται και υπόκεινται σε ερμηνεία και μπορούν να συγκρούονται μεταξύ τους.

Αυτό οδήγησε στο τρίτο μας συμπέρασμα: οι διευθυντές χρειάζονταν κάτι περισσότερο από αρχές τεχνητής νοημοσύνης υψηλού επιπέδου για να αποφασίσουν τι να κάνουν σε συγκεκριμένες καταστάσεις. Ένας διευθυντής ηθικής τεχνητής νοημοσύνης περιέγραψε μια προσπάθεια να μεταφραστούν οι αρχές των ανθρωπίνων δικαιωμάτων σε ένα σύνολο ερωτήσεων που μπορεί να κάνουν οι προγραμματιστές στον εαυτό τους για να παράγουν πιο ηθικά συστήματα λογισμικού τεχνητής νοημοσύνης. «Σταματήσαμε μετά από 34 σελίδες ερωτήσεων», είπε ο διευθυντής.

Τέταρτον, οι επαγγελματίες που αντιμετώπιζαν ηθικές αβεβαιότητες στράφηκαν σε οργανωτικές δομές και διαδικασίες για να κάνουν κρίσεις σχετικά με το τι πρέπει να κάνουν. Ορισμένα από αυτά ήταν σαφώς ανεπαρκή. Αλλά άλλα, ενώ ήταν ακόμη σε μεγάλο βαθμό υπό ανάπτυξη, ήταν πιο χρήσιμα, όπως:

  • Πρόσληψη υπαλλήλου δεοντολογίας AI για τη δημιουργία και την επίβλεψη του προγράμματος
  • Σύσταση εσωτερικής επιτροπής δεοντολογίας της τεχνητής νοημοσύνης για να σταθμίσει και να αποφασίσει δύσκολα ζητήματα
  • Αναπτύξτε λίστες ελέγχου δεοντολογίας δεδομένων και ζητήστε από επιστήμονες δεδομένων πρώτης γραμμής να τις συμπληρώσουν
  • Προσεγγίζοντας ακαδημαϊκούς, πρώην ρυθμιστικούς φορείς και υποστηρικτές εναλλακτικών προοπτικών
  • Διενέργεια αλγοριθμικών αξιολογήσεων επιπτώσεων του τύπου που χρησιμοποιείται ήδη για την προστασία της ιδιωτικής ζωής και την περιβαλλοντική διακυβέρνηση.

Η ηθική ως υπεύθυνη λήψη αποφάσεων

Η βασική ιδέα που προέκυψε από τη μελέτη μας είναι η εξής: Οι εταιρείες που επιδιώκουν να χρησιμοποιήσουν την τεχνητή νοημοσύνη ηθικά δεν θα πρέπει να περιμένουν να ανακαλύψουν ένα απλό σύνολο αρχών που θα παρέχουν σωστές απαντήσεις από μια παντογνώστη, την οπτική γωνία του Θεού. Αντίθετα, θα πρέπει να επικεντρωθούν στο πολύ ανθρώπινο καθήκον της προσπάθειας λήψης υπεύθυνων αποφάσεων σε έναν κόσμο πεπερασμένης κατανόησης και μεταβαλλόμενων συνθηκών, ακόμα κι αν ορισμένες αποφάσεις καταλήγουν να είναι ατελείς.

Ελλείψει ρητών νομικών απαιτήσεων, οι εταιρείες, όπως και τα άτομα, μπορούν μόνο να κάνουν ό,τι μπορούν για να γνωρίζουν πώς η τεχνητή νοημοσύνη επηρεάζει τους ανθρώπους και το περιβάλλον και να ενημερώνονται για τις ανησυχίες του κοινού και τις τελευταίες έρευνες και ιδέες από ειδικούς. Μπορούν επίσης να αναζητήσουν πληροφορίες από ένα μεγάλο και ποικίλο σύνολο ενδιαφερομένων και να δεσμευτούν σοβαρά για τις ηθικές αρχές υψηλού επιπέδου.

Αυτή η απλή ιδέα αλλάζει τη συζήτηση σε μεγάλο βαθμό. Ενθαρρύνει τους τεχνίτες της τεχνητής νοημοσύνης να εστιάζουν τις ενέργειές τους λιγότερο στον εντοπισμό και την εφαρμογή των αρχών της τεχνητής νοημοσύνης, παρόλο που εξακολουθούν να αποτελούν μέρος της ιστορίας, και περισσότερο στην υιοθέτηση δομών και διαδικασιών λήψης αποφάσεων για να διασφαλίσουν ότι λαμβάνουν υπόψη τις επιπτώσεις , τις απόψεις και τις προσδοκίες του κοινού που θα πρέπει να ενημερώνουν την επιχείρησή σας αποφάσεις.

Σε τελική ανάλυση, πιστεύουμε ότι οι νόμοι και οι κανονισμοί θα πρέπει να παρέχουν ουσιαστικά σημεία αναφοράς για τους οργανισμούς που επιδιώκουν. Ωστόσο, οι υπεύθυνες δομές και διαδικασίες λήψης αποφάσεων αποτελούν ένα σημείο εκκίνησης και θα πρέπει, με την πάροδο του χρόνου, να συμβάλουν στην οικοδόμηση της απαραίτητης γνώσης για τη δημιουργία προστατευτικών και εφαρμόσιμων ουσιαστικών νομικών κανόνων.

Στην πραγματικότητα, ο νέος νόμος και πολιτική για την τεχνητή νοημοσύνη επικεντρώνεται στη διαδικασία. Η πόλη της Νέας Υόρκης ψήφισε νόμο που απαιτεί από τις εταιρείες να ελέγχουν τα συστήματα τεχνητής νοημοσύνης τους για επιβλαβή προκατάληψη πριν χρησιμοποιήσουν αυτά τα συστήματα για να λάβουν αποφάσεις πρόσληψης. Μέλη του Κογκρέσου έχουν εισαγάγει νομοσχέδια που θα απαιτούσαν από τις εταιρείες να διεξάγουν αλγοριθμικές αξιολογήσεις επιπτώσεων πριν χρησιμοποιήσουν την τεχνητή νοημοσύνη για δανεισμό, απασχόληση, ασφάλιση και άλλες επακόλουθες αποφάσεις. Αυτοί οι νόμοι δίνουν έμφαση σε διαδικασίες που αντιμετωπίζουν εκ των προτέρων τις πολλές απειλές της τεχνητής νοημοσύνης.

Μερικοί από τους παραγωγούς προγραμματιστές τεχνητής νοημοσύνης έχουν υιοθετήσει μια πολύ διαφορετική προσέγγιση. Ο Sam Altman, ο Διευθύνων Σύμβουλος του OpenAI, εξήγησε αρχικά ότι, με την κυκλοφορία του ChatGPT στο κοινό, η εταιρεία προσπάθησε να δώσει στο chatbot «αρκετή έκθεση στον πραγματικό κόσμο, ώστε να βρει μερικές από τις περιπτώσεις κατάχρησης που δεν θα είχα σκεφτεί. μπορείτε να το φτιάξετε.” καλύτερα εργαλεία.” Για εμάς, αυτό δεν είναι υπεύθυνο για την τεχνητή νοημοσύνη. Αντιμετωπίζει τους ανθρώπους σαν ινδικά χοιρίδια σε ένα επικίνδυνο πείραμα.

Η κλήση του Άλτμαν σε ακρόαση στη Γερουσία τον Μάιο του 2023 για κυβερνητική ρύθμιση της τεχνητής νοημοσύνης δείχνει αυξημένη επίγνωση του προβλήματος. Αλλά πιστεύουμε ότι πάει πολύ μακριά μεταβιβάζοντας στην κυβέρνηση τις ευθύνες που πρέπει επίσης να φέρουν οι παραγωγοί προγραμματιστές τεχνητής νοημοσύνης. Η διατήρηση της εμπιστοσύνης του κοινού και η αποφυγή βλάβης στην κοινωνία θα απαιτήσει από τις εταιρείες να αναλάβουν πληρέστερα τις ευθύνες τους.


Ο Dennis Hirsch είναι καθηγητής Νομικής και Επιστήμης Υπολογιστών και Διευθυντής του Προγράμματος Δεδομένων και Διακυβέρνησης στο Πολιτειακό Πανεπιστήμιο του Οχάιο. Ο Piers Norris Turner είναι Αναπληρωτής Καθηγητής Φιλοσοφίας και Διευθυντής του Κέντρου Ηθικής και Ανθρώπινων Αξιών στο Πολιτειακό Πανεπιστήμιο του Οχάιο..

Αυτό το άρθρο αναδημοσιεύεται από Η συζήτηση με άδεια Creative Commons. Διαβάστε το αρχικό άρθρο.

Leave a Reply

Your email address will not be published. Required fields are marked *