Στις 29 Οκτωβρίου του 2018, το διοικητικό προσωπικό της Boeing ζούσε μια κατάσταση εντόνων συναισθημάτων, που πάλλονταν ανάμεσα στην ανησυχία και τη λύπη. Λιγότερο από 6 μήνες αργότερα συνέβη ξανά το ίδιο, μόνο που, αυτή τη φορά, η ανησυχία είχε σαφώς τον πρωταγωνιστικό ρόλο. Σε αυτό το χρονικό διάστημα, δυο αεροσκάφη που είχε κατασκευάσει η εταιρεία, και τα δυο από τη νέα σειρά Boeing 737 MAX, έπεσαν, οδηγώντας στον θάνατο και τους 346 επιβάτες τους.

Οι φήμες ότι κάτι δεν πήγαινε καλά με το νέο σύστημα τεχνητής νοημοσύνης που είχε χρησιμοποιηθεί στα νέα αεροσκάφη, ακούγονταν από το πρώτο δυστύχημα. Ωστόσο, και χωρίς να έχει ολοκληρωθεί η τεχνική ανάλυση, όλοι άφηναν και περιθώρια για άλλο πρόβλημα ή λάθος του πιλότου. Όμως, μετά το δεύτερο δυστύχημα, οι φήμες άρχισαν να γίνονται βεβαιότητα. Σε δημοσίευμά του, ο Φαίδωνας Καραϊωσηφίδης, Αεροναυπηγός και εκδότης – διευθυντής του περιοδικού Πτήση & Διάστημα, γράφει σχετικά για το πρώτο δυστύχημα: «Οι πιλότοι της πτήσης Lion Air δεν αντιλήφθηκαν το πρόβλημα του αισθητήρα που προκαλούσε την αναίτια ενεργοποίηση του Maneuvering Control Augmentation System (MCAS), αλλά εξέλαβαν τη λειτουργία του τελευταίου ως βλάβη του ουραίου σταθεροποιητικού και προσπάθησαν να την αντιμετωπίσουν.

Για αρκετά λεπτά στη συνέχεια, το πλήρωμα αντιπάλευε το MCAS». Δηλαδή, μέχρι να πέσει το αεροπλάνο, με αποτέλεσμα το θάνατο 189 ατόμων, άνθρωπος και «αυτόματος πιλότος» βρίσκονταν σε μια σύγκρουση επιλογών. Μπορούμε, λοιπόν, να υποθέσουμε ότι αν η πρώτη κίνηση των πιλότων ήταν να απενεργοποιήσουν το αυτόματο σύστημα, είναι πιθανό το δυστύχημα να είχε αποφευχθεί. Το ίδιο συνέβη και με το δεύτερο δυστύχημα.

ΤΑ ΕΥΦΥΗ ΣΥΣΤΗΜΑΤΑ ΛΑΜΒΑΝΟΥΝ ΟΛΟΕΝΑ ΚΑΙ ΠΙΟ ΚΡΙΣΙΜΕΣ ΑΠΟΦΑΣΕΙΣ
Ίσως είναι ο πιο δραματικός τρόπος για να ξεκινήσει ένα άρθρο σχετικά με την ηθική χρήση της τεχνητής νοημοσύνης, αλλά, θεωρητικά τουλάχιστον, η αξία της ανθρώπινης ζωής θα πρέπει να βρίσκεται στην υψηλότερη κλίμακα των πολιτισμένων κοινωνιών. Η σύνδεση αυτοματισμών με συστήματα δράσης είναι κάτι συνηθισμένο στη βιομηχανία και γενικά λειτουργεί αποτελεσματικά. Ένα ψηφιακό μάτι, για παράδειγμα, βλέπει τα ελαττωματικά μπουκάλια και δίνει εντολή σε ένα ρομποτικό βραχίονα να τα αφαιρέσει από τον ταινιόδρομο. Όταν, όμως, η επιλογή των αυτοματισμών είναι πιθανό να προκαλέσει απώλεια ανθρώπινων ζωών, τα πράγματα αλλάζουν.

Με τη βοήθεια των κοινωνικών δικτύων, το δίλημμα του ευφυούς αυτοκινήτου είναι γνωστό στο ευρύ κοινό. Το δίλημμα είναι το εξής: Ένα ευφυές αυτοκίνητο βλέπει έναν πεζό να βγαίνει ξαφνικά στον δρόμο και έχει δύο επιλογές: ή να τον χτυπήσει ή να κάνει έναν ελιγμό που μπορεί να βάλει σε κίνδυνο τη ζωή του ιδιοκτήτη του. Πρακτικά, τις ίδιες δύο επιλογές θα είχε και ο άνθρωπος, αν βρίσκονταν σε μια τέτοια κατάσταση. Ωστόσο, υπάρχει μια σημαντική διαφορά. Αν ο άνθρωπος χτυπήσει τον πεζό, για να σώσει τον εαυτό του, υπάρχει το νομικό σύστημα της κάθε χώρας που θα κρίνει το «σωστό» και το «λάθος».

Προσωρινά, όμως, δεν υπάρχει κανένα νομικό σύστημα που μπορεί να κρίνει το «έξυπνο» αυτοκίνητο.
Θα μπορούσαμε να συντάξουμε μια μεγάλη λίστα κινδυνολογίας σχετικά με τη χρήση αλγόριθμων που ενσωματώνουν κάποια μορφή νοημοσύνης και συμμετέχουν στη λήψη αποφάσεων ή την αναλαμβάνουν πλήρως. Στην κορυφή αυτής της λίστας θα βρίσκονταν τα οπλικά συστήματα και στη συνέχεια τα μέσα μεταφοράς. Φανταστείτε, για παράδειγμα, ένα περιστατικό 9/11, όπου οι τρομοκράτες δε χρειάζεται να είναι μέσα στα αεροπλάνα.

Ο ΑΝΘΡΩΠΟΣ, Ο ΑΛΓΟΡΙΘΜΟΣ, Η ΑΠΟ ΚΟΙΝΟΥ ΑΠΟΦΑΣΗ
Στα παραπάνω παραδείγματα είδαμε τις επιπτώσεις από την πλευρά της εταιρείας. Όμως, ακόμα πίσω από τους αλγόριθμους βρίσκονται οι άνθρωποι που τους κατασκεύασαν, αλλά και οι άνθρωποι που λαμβάνουν αποφάσεις, βασιζόμενοι στις προβλέψεις τους. Για παράδειγμα, ένας developer που θα διαβάσει αυτό το άρθρο, ίσως πει «ε και, αυτά έχουν γραφτεί δεκάδες φορές» και θα συνεχίσει να γράφει γραμμές κώδικα, ενώ αργότερα το απόγευμα θα κλείσει τον υπολογιστή του και θα πάει σπίτι να χαλαρώσει ή θα συναντηθεί για ένα ποτό με φίλους. Ακριβώς το ίδιο έκαναν και κάποιοι μηχανικοί της Boeing πριν από μερικά χρόνια, όταν ετοίμαζαν το σύστημα ελέγχου πλοήγησης του 787 MAX.

Ο καθένας τους έγραφε μερικές από τα εκατομμύρια γραμμές κώδικα, χωρίς ίσως να γνωρίζει τη συνολική εικόνα του έργου και χωρίς πιθανόν να έχει περάσει από το μυαλό του ότι κάποια στιγμή το λογισμικό που δημιούργησε θα μπορούσε να κοστίσει τη ζωή σε 338 ανθρώπους. Μάλλον κανένας δεν είχε σκοπό να κάνει κάτι τέτοιο. Απλά έκανε τη δουλειά του. Οι μηχανικοί λογισμικού της Boeing δεν χρειάζεται τώρα να ανησυχούν για εξοντωτικές μηνύσεις, καθώς η εταιρεία θα αναλάβει να φέρει την ισορροπία, δαπανώντας εκατοντάδες εκατομμύρια ή και δισεκατομμύρια σε αποζημιώσεις και δικηγόρους.

Ίσως, όμως, κάποιοι από αυτούς ανησυχούν για άλλο λόγο. Ίσως, θυμούνται τις γραμμές κώδικα που είχαν γράψει και αναρωτιούνται αν ήταν στη δική τους «βάρδια» που έγινε το λάθος. Ίσως σκέφτονται τι θα συμβεί, αν κάποιοι άλλοι μηχανικοί κάνουν ένα παρόμοιο λάθος σε μια παρτίδα αυτόνομων οχημάτων ή αν κάποιοι γράφουν ήδη γραμμές κώδικα για ένα λογισμικό ελέγχου πυρηνικών όπλων. Τα ευχάριστο είναι ότι όσοι το σκέφτονται, θυσιάζοντας ένα ποσοστό της ηρεμίας τους, είναι και αυτοί που συνειδητά μπορούν να κάνουν κάτι, ώστε όλοι οι παραπάνω κίνδυνοι να μείνουν στο στάδιο του σεναρίου.

ΛΙΓΟΤΕΡΕΣ ή ΠΕΡΙΣΣΟΤΕΡΕΣ ΘΕΣΕΙΣ ΕΡΓΑΣΙΑΣ;
Η McKisney υποστηρίζει ότι η εφαρμογή πρακτικών τεχνητής νοημοσύνης, μόνο στον τομέα του marketing, των πωλήσεων και της εφοδιαστικής αλυσίδας, είναι εφικτό να οδηγήσει σε κέρδη και μείωση λειτουργικών εξόδων, συνολικού ποσού μέχρι και 2,7 τρισεκατομμύρια δολάρια μέσα στα ερχόμενα 20 χρόνια. Αν και γενικά καλό είναι να κρατάμε μικρό καλάθι για προβλέψεις βάθους 20ετίας, θεωρητικά μέσα στην ερχόμενη τριετία, αναμένεται η πρόβλεψη της McKisney να έχει δώσει τα πρώτα δείγματα εγκυρότητάς της.

Και ενώ, οι επιχειρήσεις, ακόμα και αν επιτευχθεί ένα ποσοστό των στόχων, θα είναι αρκετά ευχαριστημένες, οι εργαζόμενοι και τα κράτη βρίσκονται σε μια κατάσταση ανησυχίας. Οι μεν πρώτοι γιατί δεν είναι βέβαιο αν θα έχουν εργασία στο μέλλον, ενώ τα κράτη γιατί δεν έχουν βρει ακόμα το κοινωνικό σύστημα που θα απορροφήσει εκατομμύρια ανέργους και επιπλέον δεν έχουν ορίσει το πλαίσιο αυτονομίας των αποφάσεων της τεχνητής νοημοσύνης.

Η ιδέα ενός παγκόσμιου εγγυημένου εισοδήματος φλερτάρει το τελευταίο διάστημα με τη σκέψη αρκετών κυβερνήσεων, κάποιες εκ των οποίων την έχουν υλοποιήσει σε πιλοτική μορφή. Η Φιλανδία ανήκει σε αυτήν την κατηγορία, έχοντας ξεκινήσει τον Ιανουάριο του 2017 ένα πρόγραμμα με 2000 άτομα, τα οποία λαμβάνουν 560 δολάρια το μήνα. Ωστόσο, το πείραμα δεν έγινε με ευρύ δείγμα πολιτών, δεδομένου ότι το κράτος επέλεξε μόνο ανέργους. Ένα πείραμα ευρύτερου δείγματος λαμβάνει χώρα στην Κένυα, σε 300 διαφορετικά χωριά, αλλά ξεκίνησε πρόσφατα και είναι ακόμα νωρίς για να δώσει αποτελέσματα.

Σε κάθε περίπτωση, το εισόδημα δεν είναι η πανάκεια επίλυσης του προβλήματος. Στο μεγάλο κραχ του 1929, ένας στους δύο πολίτες σταμάτησε να φοράει ρολόι, γιατί η έννοια του χρόνου δεν είχε νόημα εκτός του πλαισίου της εργασίας. Απλά περιπλανιόνταν στους δρόμους της πόλης, μέχρι την ώρα του συσσιτίου ή την ώρα του ύπνου.
Οι αισιόδοξοι αναλυτές ισχυρίζονται ότι μετά από ένα σύντομο διάστημα εφαρμογής της τεχνητής νοημοσύνης, η ανεργία θα μειωθεί, όπως έγινε άλλωστε και με τη βιομηχανική επανάσταση. Μπορεί και να έχουν δίκιο. Ίσως οι κοινωνικές υπηρεσίες σε ένα κόσμο που γερνά, να απορροφήσουν ένα ποσοστό των ανέργων που θα δημιουργήσουν οι ευφυείς μηχανές. Ωστόσο, πριν φτάσουμε στο στάδιο αυτό, καλό θα ήταν να έχουμε εξετάσει με μεγάλη προσοχή, τι θα τους επιτρέψουμε να κάνουν και τι όχι.