Η τρομακτική ηθική μας.

Το 2016 ερευνητές του MIT Media Lab ξεκίνησαν το “Moral Machine” – ένα παιχνίδι ηθικής που αναγκάζει τους παίκτες να κάνουν μία επιλογή καθώς τους παρουσιάζονται σημαντικά, “οδικά” διλήμματα, ακριβώς όπως θα χρειαστεί να επιλέξει ένα αυτόνομο όχημα. Τι γίνεται στο εξωφρενικό σενάριο που οι μοναδικές επιλογές ενός αυτόνομου οχήματος είναι να εκθέσει σε σοβαρό κίνδυνο θανάτου τους επιβάτες του ή έναν πεζό; Τι γίνεται αν οι μοναδικές επιλογές ενός αυτόνομου οχήματος είναι να χτυπήσει έναν ενήλικα ή να χτυπήσει ένα παιδί; Μπορεί αυτά τα ερωτήματα να φαντάζουν εξωπραγματικά και μη-ρεαλιστικά αλλά υπάρχει η στατιστική πιθανότητα να πάρουν μορφή στην πραγματικότητα και ένα μηχάνημα θα πρέπει να αποφασίσει. Στο κάτω-κάτω, αν πιστέψουμε τις αυτοκινητοβιομηχανίες, η εποχή της πραγματικής αυτόνομης οδήγησης πλησιάζει.

Ολόκληρο το 2017, περίπου 4 εκατομμύρια άνθρωποι “έπαιξαν” στο Moral Machine δίνοντας απαντήσεις σε πληθώρα σεναρίων που περιελάμβαναν διάφορους συνδυασμούς ηλικιών, φύλων ή ακόμα και ειδών να περνούν τον δρόμο. Την Κυριακή που μας πέρασε, μία μόλις ημέρα πριν τον πρώτο θάνατο πεζού που οφείλεται σε αυτόνομο αυτοκίνητο (αν και στην προκειμένη περίπτωση δεν υπήρξε καμία επιλογή από το όχημα, απλά αστοχία των αισθητήρων και του λογισμικού), ο καθηγητής του MIT Iyad Rahwan παρουσίασε τα πρώτα αποτελέσματα του Moral Machine – της μεγαλύτερης μελέτης ηθικής που έχει διεξαχθεί στον κόσμο. Και η ανάγνωση των αποτελεσμάτων αυτών, προκαλεί ένα περίεργο συναίσθημα…

Το Moral Machine έδειξε για παράδειγμα ότι όταν οι επιλογές είναι “απλές”, ο κόσμος είναι πιο αποφασιστικός. Αν το δίλημμα είναι το αυτοκίνητο να χτυπήσει ένα παιδί ή έναν ενήλικα, η συντριπτική πλειοψηφία του κόσμου επέλεξε να χτυπηθεί ο ενήλικας. Η προστασία των ανηλίκων είναι άλλωστε βασικό γνώριμα πάρα πολλών ειδών, συμπεριλαμβανομένου του ανθρώπου. Γενικά, ο κόσμος που έπαιξε το Moral Machine ευνοούσε με τις αποφάσεις του τις μικρότερες ηλικίες ή αν θέλεις να στο θέσω πιο “πιασάρικα”, όσο πιο ηλικιωμένος ήταν ο άνθρωπος στην εναλλακτική λύση, τόσο πιο αναλώσιμος ήταν.

Τα πράγματα άρχισαν να γίνονται λιγότερο σαφή όταν το δίλημμα ήταν η προστασία των επιβατών του αυτοκινήτου ή η προστασία των πεζών. Το 39% των παικτών προτιμά την προστασία των επιβατών ενώ όσο πιο πολύπλοκο ήταν το σενάριο, τόσο οι παίκτες φάνηκαν διχασμένοι. Αν οι επιλογές είναι να χτυπήσει το αυτοκίνητο έναν πεζό που διασχίζει την διάβαση νόμιμα ή δύο που την διασχίζουν παράνομα, ο κόσμος επέλεξε το πρώτο σε ποσοστό 56%, με το υπόλοιπο 44% να “ζυγίζει” διαφορετικά την κατάσταση. Η έρευνα έδειξε όμως και κάτι ακόμα ενδιαφέρον. Οι Γερμανοί ήταν ένας λαός με περισσότερο “κατασταλαγμένες” αντιλήψεις και ηθική. Πριν από αρκετό καιρό, ένα υψηλόβαθμο στέλεχος της Mercedes-Benz είχε δηλώσει ότι τα αυτόνομα αυτοκίνητα θα πρέπει να δίνουν προτεραιότητα στην προστασία των επιβατών τους. Αυτή η δήλωση, προκάλεσε μία δημόσια συζήτηση στην ευρωπαϊκή χώρα και αυτό φαίνεται στα αποτελέσματα των Γερμανών στο Moral Machine.

Μπορείς να ξεχάσεις λοιπόν μία “αγγελικά πλασμένη” τεχνολογία που θα υπακούει στους 3 νόμους της ρομποτικής όπως αυτοί ορίστηκαν από τον Issac Asimov:

  • Ένα ρομπότ δεν θα προκαλεί κακό σε άνθρωπο, ούτε με την μη-δράση του θα επιτρέπει να προκληθεί κακό σε άνθρωπο.
  • Ένα ρομπότ θα πρέπει να υπακούει στις διαταγές που του δίνουν οι άνθρωποι, εκτός αν αυτές οι διαταγές έρχονται σε αντίθεση με τον πρώτο νόμο.
  • Ένα ρομπότ οφείλει να προστατεύει την ύπαρξη του εφόσον αυτό δεν συγκρούεται με τον πρώτο και τον δεύτερο νόμο.

Ο πρώτος νόμος είναι που φαντάζει “επικίνδυνος” σε ένα ακραίο πείραμα ηθικής και αυτό είναι μόνο ένα πρόβλημα από το σύνολο των θεμάτων που παρουσιάζονται όταν συζητάμε την τεχνολογία αυτόνομης οδήγησης. Υπάρχουν πολλά ερωτήματα που πρέπει να απαντηθούν πριν τα πραγματικά αυτόνομα οχήματα λανσαριστούν στην αγορά. Κάποιος προγραμματιστής, σε κάποια εταιρία θα πρέπει να γράψει εκείνες τις γραμμές κώδικα που θα ορίζουν την συμπεριφορά του οχήματος σε ακραία σενάρια και κάποιος νομικός θα πρέπει να αποφασίσει ποιος είναι υπεύθυνος για τις πράξεις του οχήματος αυτού.

Έστω ότι ένα παιδάκι πετάγεται μπροστά στο αυτοκίνητο ενώ αυτό κινείται με κάποια ταχύτητα εντός του ορίου, αλλά αρκετά υψηλή για να μην μπορέσει να ακινητοποιηθεί πριν χτυπήσει τον μικρό άνθρωπο. Τι κάνει το αυτοκίνητο αν δεν έχει μπορέσει προηγουμένως να εντοπίσει το παιδάκι και την συμπεριφορά του που το έφερε στον δρόμο του οχήματος; Μπορεί να πέσει πάνω σε κάποιο παρκαρισμένο όχημα για να αποφύγει την σύγκρουση με το ανυποψίαστο παιδί; Αν μέσα στο όχημα βρίσκεται ένας άλλος άνθρωπος που κάθεται αμέριμνος περιμένοντας κάτι ή κάποιος και η σύγκρουση του προκαλέσει ανεπανόρθωτες ζημιές στην υγεία του; Όταν εμπλέκονται άνθρωποι, αυτοί οι άνθρωποι είναι υπεύθυνοι για τις πράξεις τους. Όταν οι αποφάσεις όμως είναι στα “χέρια” μίας μηχανής, η οποία έχει προγραμματιστεί από έναν υπάλληλο της εταιρίας που κατασκεύασε αυτή τη μηχανή, τις πταίει; Τα ερωτήματα είναι πάρα πολλά και απ’ ότι φαίνεται, θα τα αντιμετωπίσουμε όπως παρουσιάζονται. Δεν βλέπω να γίνεται κάποιου είδους συζήτηση ώστε να δημιουργηθεί ένα σχετικό θεσμικό πλαίσιο.

Σε καμία περίπτωση δεν καταδικάζω την τεχνολογία. Αλλά θα πρέπει αυτοί που επηρεάζουν τα πράγματα να προσέξουν πάρα πολύ ώστε η τεχνολογία να μην καταδικαστεί από τις πράξεις ή την απραξία τους. Ο πρόσφατος θάνατος της Elaine Herzberg είναι ένα σημείο-ορόσημο και οι αντιδράσεις της βιομηχανίας την ώρα που όλος ο κόσμος έχει το βλέμμα του στραμμένο σε αυτήν, έχουν σημασία.

Απάντηση

Αυτός ο ιστότοπος χρησιμοποιεί το Akismet για να μειώσει τα ανεπιθύμητα σχόλια. Μάθετε πώς υφίστανται επεξεργασία τα δεδομένα των σχολίων σας.