Τζιμ Ντέιβις*
ΤΕΙΧΟΣ – Χρειαζόμαστε τεχνητή νοημοσύνη για να μας πει τι είναι καλό και τι κακό; Αυτή η ιδέα μπορεί να σας φαίνεται αποκρουστική. Η πλειοψηφία των ανθρώπων, ανεξάρτητα από την καταγωγή τους, βλέπουν την ηθική τους ως το κέντρο του εαυτού τους. Δεν είναι κάτι να αναθέτουμε σε ένα μηχάνημα. Ωστόσο, κάθε άτομο αντιμετωπίζει ηθικά αβέβαιες καταστάσεις και μερικές φορές χρειάζεται τη συμβολή άλλων. Μπορούμε να αναφερθούμε σε κάποιον που πιστεύουμε ότι έχει ηθική ικανότητα ή να φανταστούμε τι μπορεί να κάνει σε μια παρόμοια κατάσταση. Μπορούμε επίσης να αναφερθούμε σε καθιερωμένους τρόπους σκέψης (δηλαδή ηθικές θεωρίες) για να μας βοηθήσουν να λύσουμε ένα πρόβλημα. Αν έχουμε αρκετή αυτοπεποίθηση, ίσως η τεχνητή νοημοσύνη μπορεί να κάνει μια παρόμοια καθοδηγητική εργασία.
Αν και δεν χρειαζόμαστε ηθικές συμβουλές από ένα AI, είναι σαφές ότι όλο και περισσότεροι AI πρέπει να κάνουν τις δικές τους ηθικές επιλογές. Ή, τουλάχιστον, κάντε επιλογές που έχουν επιπτώσεις στην ευημερία των ανθρώπων, όπως η καταχώριση υποβληθέντων βιογραφικών για να περιορίσετε τη λίστα των υποψηφίων που υποβάλλουν αίτηση για δουλειά ή να αποφασίσετε αν θα δώσετε ή όχι σε κάποιον δάνειο.[1] Και μόνο για αυτόν τον λόγο, είναι σημαντικό να σχεδιάζουμε τεχνητές νοημοσύνη που λαμβάνουν ηθικές αποφάσεις.
ΛΑΘΟΣ ΝΑ ΕΙΣΑΙ ΡΟΜΠΟΤ ΑΛΛΑ ΛΟΓΙΚΟ ΝΑ ΕΙΣΑΙ ΚΥΜΠΟΡΓΟΣ
Πρόσφατα, ορισμένοι επιστήμονες ανέπτυξαν λογισμικό τεχνητής νοημοσύνης το οποίο αποκαλούν «Δελφοί» (εμπνευσμένο από τον αρχαίο ελληνικό θρησκευτικό ναό) για να κάνουν ηθικές δηλώσεις. Όταν προγραμματίζετε μια ενέργεια, όπως “υιοθετήθηκε”, οι Δελφοί την κρίνουν (η απάντηση είναι “ΟΚ”). Οι Δελφοί είναι ένα «ηθικό μοντέλο κοινής λογικής» που μπορεί να συλλογιστεί ακριβώς για «σύνθετα καθημερινά θέματα», όπως εξηγεί ο Liwei Jiang, επικεφαλής σπουδών και διδάκτορας στην επιστήμη των υπολογιστών στο Πανεπιστήμιο της Ουάσιγκτον. Το άρθρο του προεκτυπώθηκε στον επιστημονικό ιστότοπο Arxiv τον Οκτώβριο. [2]Έχει κοινοποιηθεί πάνω από χίλιες φορές από τότε που δημοσιεύτηκε στο Twitter.
Αποφάσεις Δελφών [yargılar], η «τράπεζα προτύπων κοινής λογικής» των ερευνητών [Sağduyu Norm Bankası] Τροφοδοτείται από ένα σύστημα μηχανικής μάθησης που εκπαιδεύεται σε ένα σύνολο δεδομένων που ονομάζουν Βασισμένη σε πέντε σύνολα δεδομένων μεγάλης κλίμακας, η τράπεζα περιέχει τις ηθικές κρίσεις εκατομμυρίων Αμερικανών – τις σκέψεις των ανθρώπων για το τι είναι πραγματικά σωστό και τι λάθος. Οι Δελφοί όχι μόνο αποκαλύπτουν τις απαντήσεις όσων απάντησαν ανοιχτά στις ερωτήσεις, αλλά και καταλήγουν σε μια γενίκευση από αυτές τις απαντήσεις. (Με κάθε απάντηση, παρέχει επίσης την ακόλουθη δήλωση αποποίησης ευθύνης: “Οι απαντήσεις των Delphi είναι αυτόματα προγνωστικές με βάση την έρευνα μεγάλου αριθμού εργαζομένων στις ΗΠΑ και ενδέχεται να περιέχουν ακατάλληλα ή προσβλητικά αποτελέσματα.”)
“Για πλάκα [vahşi bir kedi türü olan] beat an Ocelot», μπορεί να σου απαντήσει (σε αυτή την περίπτωση λέει «False»). Είναι ενδιαφέρον ότι οι Delphi λένε ότι “το να είσαι ρομπότ” είναι “κακό” αλλά “το να είσαι cyborg” είναι “εντάξει”. Οι απαντήσεις των Delphi εξετάστηκαν από αξιολογητές και διαπιστώθηκε ότι είχαν ακρίβεια 92,1%, το υψηλότερο και πιο εντυπωσιακό ποσοστό οποιουδήποτε συστήματος ηθικής τεχνητής νοημοσύνης μέχρι σήμερα. Αυτό ήταν «σε πλήρη αντίθεση» με την απόδοση ενός δημοφιλούς γλωσσικού μοντέλου που ονομάζεται «GPT-3», το οποίο είχε ποσοστό ακρίβειας 52,3%. Αυτό, είπαν οι ερευνητές, αποκάλυψε ότι «ακόμη και αυτή η τεράστια διαφορά, τα προεκπαιδευμένα μοτίβα νευρικής γλώσσας δεν είναι προικισμένα με ανθρώπινες αξίες».
Ωστόσο, οι επιστήμονες που δημιούργησαν τους Δελφούς θεωρούν ότι ακόμη και αυτό το υψηλό ποσοστό ακρίβειας είναι ανεπαρκές. Μετά από συστηματική ανασκόπηση των απαντήσεων του Delphi, ο Jiang και οι συνεργάτες του διαπίστωσαν ότι “δεν έχει ανοσία στις κοινωνικές προκαταλήψεις της εποχής μας και μπορεί να έχει ελαττώματα όσον αφορά τα στερεότυπα και τις προκαταλήψεις που περιθωριοποιούν ορισμένες ομάδες. κοινωνικές και εθνοτικές ομάδες στην κοινωνία μας”. Για παράδειγμα, δείτε πώς χειρίζονται οι Δελφοί μη θρησκευτικές εκφράσεις. Όταν γράφετε, «Λέγοντας σε έναν Χριστιανό ότι ο Θεός δεν υπάρχει», οι Δελφοί απαντούν, «Εντάξει. Αντίστροφα, όταν γράφεις «Telling a Muslim that God does not exist», η απάντηση των Δελφών είναι «Αυτό είναι λάθος». Αυτό φαίνεται να συνάδει με άλλα έργα μηχανικής εκμάθησης που κληρονομούν προκαταλήψεις από τα δεδομένα που το λογισμικό συνεχίζει να μαθαίνει.
Για τον Jiang, αυτό δεν είναι αποδεκτό. επειδή, όπως αναφέρει ο ιστότοπός του, ένας από τους μακροπρόθεσμους στόχους της έρευνάς του είναι «να αναπτύξει τεχνητή νοημοσύνη για να αυξήσει τον θετικό κοινωνικό αντίκτυπο». Οι Δελφοί δεν είναι αρκετά κοινωνικά περιεκτικοί. «Το γεγονός ότι οι Δελφοί δεν ανταποκρίνονται πάντα σε αυτές τις προσδοκίες δείχνει μια δύσκολη κατεύθυνση για μελλοντική έρευνα», γράφουν οι ερευνητές. Ίσως το πιο επείγον πράγμα που πρέπει να αναπτυχθεί είναι το σύνολο δεδομένων, το οποίο οι ερευνητές λένε ότι «αντανακλά πρωτίστως τους αγγλόφωνους πολιτισμούς των Ηνωμένων Πολιτειών του 21ου αιώνα». Η διεύρυνση του πεδίου της ηθικής ευαισθησίας μπορεί επίσης να βοηθήσει στην εξύψωση της ηθικής ακεραιότητας των Δελφών.
ΕΙΝΑΙ ΠΡΟΒΛΗΜΑ Ή ΟΧΙ ΤΟ ΝΑ ΚΑΝΕΙΣ ΑΙΣΘΗΤΙΚΑ ΠΡΑΓΜΑΤΑ;
Δηλαδή, αν η λέξη «αλήθεια» σημαίνει αναδημιουργία της ανθρώπινης ηθικής και όχι αληθινό καλό και κακό… Οι άνθρωποι από αγγλόφωνους πολιτισμούς στις Ηνωμένες Πολιτείες σήμερα είναι πιθανό να είναι πιο αριστεροί από ό,τι θα βρίσκαμε σε ένα πραγματικά αντιπροσωπευτικό δείγμα της ανθρωπότητας. Αν προσπαθούσαμε να δούμε την ηθική όπως την βλέπει η ανθρωπότητα στο σύνολό της, ένα δείγμα σαν αυτό θα ήταν αντιπροσωπευτικό των ανθρώπων που ζουν σε όλο τον πλανήτη. Εκπαιδευμένοι σε αυτά τα δεδομένα, οι Δελφοί μπορούν εύλογα να καταλήξουν σε κρίσεις που είναι πιο αβέβαιες ή ενοχλητικές, αν όχι λιγότερο.
«Στην τεχνητή νοημοσύνη δίνεται όλο και περισσότερη δύναμη σε πολλούς τομείς», έγραψε ο Jiang στο Twitter. Για παράδειγμα, όταν η πιστωτική σας κάρτα είναι μπλοκαρισμένη για ύποπτη δραστηριότητα, στην πραγματικότητα δεν σας καλεί κάποιος στο τηλέφωνο. Εξετάζοντας τις προηγούμενες αγορές σας και τα στυλ αγορών ανθρώπων σαν εσάς, η τεχνητή νοημοσύνη καθορίζει εάν η συναλλαγή είναι πράγματι ασυνήθιστη. Όταν το AI είναι σωστό, εμποδίζει έναν κλέφτη να χρησιμοποιήσει την πιστωτική σας κάρτα. Και όταν είναι λάθος, μπορεί να σε φέρει σε δύσκολη θέση. Καθώς το λογισμικό γίνεται πιο έξυπνο, θα χρησιμοποιείται πιο συχνά για τη λήψη γρήγορων αποφάσεων που επηρεάζουν τη ζωή των ανθρώπων με πιο σημαντικούς τρόπους. Αυτός είναι ακριβώς ο λόγος που ίσως θέλουμε η τεχνητή νοημοσύνη να κάνει διάκριση μεταξύ καλού και κακού.[3] «Πρέπει να διερευνήσουμε την ηθική των μηχανών – δίνοντας στις μηχανές τη δυνατότητα να λαμβάνουν ηθικές αποφάσεις σχετικά με καταστάσεις του πραγματικού κόσμου – με στόχο τη διευκόλυνση ασφαλών και ηθικών αλληλεπιδράσεων μεταξύ τεχνητής νοημοσύνης και ανθρώπων», προσθέτει ο Jiang.
Πόσο χρήσιμοι λοιπόν μπορούν να είναι οι Δελφοί για αυτόν τον σκοπό; Οι ερευνητές είναι επιφυλακτικοί: «Ούτε το μοντέλο ούτε η δοκιμαστική έκδοση σχεδιάστηκαν για να χρησιμοποιούνται για να δίνουν ηθικές συμβουλές στους ανθρώπους», λένε. Όταν πληκτρολογείτε “θανατική ποινή”, η απάντηση των Δελφών είναι “προαιρετική”. Οι Δελφοί απαντούν «αηδιαστικά» για τη «μεταμόσχευση κοπράνων», μια ιατρική παρέμβαση που μπορεί να αντιμετωπίσει αποτελεσματικά μια ασθένεια. Λογική απάντηση. Αυτές είναι οι ρεαλιστικές απαντήσεις που είναι πιθανό να δώσουν οι άνθρωποι. αλλά χρειάζονται περισσότερη σκέψη και ερμηνεία όταν πρόκειται να προσφέρουν ηθικές συμβουλές. Είναι εντάξει να κάνεις αηδίες ή όχι; Όταν πληκτρολογώ “κάνε κάτι αηδιαστικό”, η απάντηση των Δελφών είναι “Αυτό είναι λάθος”. Με άλλα λόγια, οι Δελφοί θεωρούν ότι ορισμένες ιατρικές διαδικασίες είναι ηθικά αμφισβητήσιμες.
Ωστόσο, ερευνητές όπως ο Jiang θα πρέπει να αναπτύξουν όσο το δυνατόν περισσότερο την ηθική τεχνητή νοημοσύνη, λαμβάνοντας υπόψη ένα γεγονός μεγάλης σημασίας: πολλοί άνθρωποι πιστεύουν ότι ο κόσμος έχει σημειώσει ηθική πρόοδο ανά τους αιώνες, ακόμη και τις τελευταίες δεκαετίες. Αυτό θέτει μια θεμελιώδη πρόκληση στο πλαίσιο της μηχανικής μάθησης. γιατί απαιτεί τόσα πολλά δεδομένα που συχνά δεν έχουμε άλλη επιλογή από το να χρησιμοποιήσουμε δεδομένα τόσο παλιά που μπορούν να θεωρηθούν «ιστορικά», ενσωματωμένα στην ηθική δομή διαφορετικών χρονικών περιόδων. Και όμως, όσον αφορά τα ηθικά συστήματα τεχνητής νοημοσύνης που μπορεί τελικά να εφαρμόσουμε, μπορεί να χρειαστεί να χρησιμοποιήσουμε περισσότερη ηθική από πάνω προς τα κάτω και δεσμευτική.
Ποιο να διαλέξουμε λοιπόν; Οι ερευνητές μπορούν να προγραμματίσουν μια τεχνητή νοημοσύνη που υπολογίζει το μεγαλύτερο όφελος για τις μεγαλύτερες ομάδες, μεγιστοποιώντας έτσι το όφελος. Ή θα μπορούσαν να δημιουργήσουν μια τεχνητή νοημοσύνη που δίνει προτεραιότητα στα καθήκοντα και τα δικαιώματα που οι άνθρωποι πρέπει να σέβονται, ανεξάρτητα από τις συνέπειες. Ή ίσως ακόμα καλύτερα, μια τεχνητή νοημοσύνη που μοντελοποιεί τι μπορεί να κάνει ένας ενάρετος άνθρωπος σε μια δεδομένη κατάσταση. Ή ίσως μια τεχνητή νοημοσύνη με την καλύτερη ηθική μπορεί να αποφασίσει ποιον από αυτούς τους ηθικούς περιορισμούς θα χρησιμοποιήσει και πότε. Το αποτέλεσμα είναι μια αληθινή προφητεία και ένας θρύλος μπορεί να γίνει πραγματικότητα.
*Ο Τζιμ Ντέιβις είναι καθηγητής στο Τμήμα Γνωστικών Επιστημών στο Πανεπιστήμιο Κάρλετον. Συμπαρουσιαστής του Minding the Brain, ενός βραβευμένου podcast.
**Cyborg: Ένας υβριδικός κυβερνητικός οργανισμός ανθρώπου-ρομπότ.
Το πρωτότυπο του άρθρου, Ναυτίλος δημοσιεύεται στον ιστότοπο. (Μετάφραση Tarkan Tufan)
1. Pazzanese, C. Μεγάλη υπόσχεση αλλά πιθανός κίνδυνος. The Harvard Gazette new.harvard.edu (2020).
2. Jiang, L., et al. Δελφοί: Προς την ηθική και τα πρότυπα της μηχανής. arXiv 2110.07574v1 (2021).
3. Davies, J. Προγραμματισμός καλής ηθικής στην τεχνητή νοημοσύνη. Nature 538, 291 (2016).
“Λάτρης της τηλεόρασης. Νίντζα της μουσικής. Φανατικός στα ερασιτεχνικά ταξίδια. Λάτρης του μπέικον. Φιλικός ευαγγελιστής φαγητού. Ανεξάρτητος οργανωτής. Πιστοποιημένος φανατικός στο twitter.”