Τα τελευταία δέκα χρόνια, τα σενάρια για την επικράτηση της τεχνητής νοημοσύνης είναι, από τη μία εντυπωσιακά και από την άλλη, σενάρια ταινιών θρίλερ. Ποιες είναι οι επιλογές μας, ως άνθρωποι, ώστε να καταφέρουμε να σχεδιάσουμε το μέλλον μας;
Όλο και περισσότερο βλέπουμε ταινίες όπως το Matrix, Terminator κλπ όπου τα ρομπότ καταλαμβάνουν τον κόσμο και κυριαρχούν στην «ανθρωπότητα». Από τη μία λοιπόν έχουμε την επανάσταση της τεχνητής νοημοσύνης με πραγματικά αδιανόητες εφαρμογές, αλλά, από την άλλη, εγείρεται επιτακτική η ανάγκη να συζητήσουμε (και ιδανικά να καταλήξουμε σε ξεκάθαρες θέσεις) για ηθικά και πρακτικά ζητήματα αλλά και τους κινδύνους που προκύπτουν από την επικράτηση των έξυπνων μηχανών. Χωρίς να θέλω να καταστροφολογήσω, η εισαγωγή των ρομπότ στη ζωή μας θα έχει ανυπολόγιστες συνέπειες με την κυριολεκτική έννοια του όρου (που δε μπορούν να υπολογιστούν!).
Εντάξει, το σκουπάκι που μπαίνει κάτω από τα έπιπλα και σκουπίζει μόνο του μαθαίνοντας παράλληλα και τη διαδρομή που πρέπει ν’ ακολουθήσει ανάμεσα στα τραπεζάκια και τους καναπέδες, είναι επανάσταση στη ζωή της νοικοκυράς (ή του νυκοκοίρη!), ενδεχομένως χωρίς παράπλευρες συνέπειες. Αντίστοιχα οι ηλεκτρονικοί γραμματείς όπως η Alexa, Siri και Google assistant μαθαίνουν εύκολα τη δουλειά τους χωρίς να μας αφήνουν φοβερά κενά και ερωτηματικά σε θέματα ηθικής και αποφάσεων, ειδικά όταν χρησιμοποιούνται μόνο σε προσωπικό επίπεδο. Τι γίνεται όμως όταν οι μηχανές καλούνται να παίξουν ουσαστικό ρόλο σε μια κοινωνία, λαμβάνουντας αποφάσεις και παίρνοντας πρωτοβουλίες;
Τα ρομπότ θα μας «φάνε τις δουλειές»
Ένας βασικός φόβος που κυριαρχεί ιδιαίτερα στις απερχόμενες γενιές, είναι ότι οι μηχανές θα μας «φάνε τις δουλειές». Είναι όμως έτσι;
Προφανώς και θα χαθούν δουλειές! Αυτές όμως οι δουλειές που θα χαθούν, σε πρώτη φάση θα είναι δουλειές στερεότυπες και «μηχανικές», που έτσι κι αλλιώς δε θα ήταν ευχάριστες και δημιουργικές για τον άνθρωπο. Αντίστοιχα η τεχνητή νοημοσύνη θα δημιουργήσει νέες, βασισμένες σε πιο προχωρημένες δεξιότητες, πολύπλοκη σκέψη, ανάλυση και σύνθεση. Εννοείται φυσικά ότι και αυτή καθ’ εαυτή η δημιουργία των ρομπότ, από την φάση της σύλληψης, σχεδίασης και κατασκευής, θα είναι δουλειά για εξειδικευμένους επιστήμονες με υψηλές αμοιβές!
Τα ρομπότ θα είναι αλάνθαστα; Ένας κλασσικός όρος της πληροφορικής είναι “Garbage In – Garbage Out”. Αυτό σημαίνει πως η τεχνητή νοημοσύνη προϋποθέτει ακριβή δεδομένα και σωστό προγραμματισμό! Είναι όμως πιο ασφαλές να λαμβάνει τις αποφάσεις ένα ρομπότ; Ή ένας άνθρωπος; Ποιος είναι πιθανόν να κάνει τα λιγότερα λάθη;
Έγινε πολύς θόρυβος για το θανατηφόρο ατύχημα με το Tesla αυτόνομο αυτοκίνητο. Τραγικό όντως. Έχουμε αναρωτηθεί όμως πόσα θανατηφόρα ατυχήματα έχουμε κάθε μέρα από ανθρώπους οδηγούς; Τουλάχιστον το αυτόνομο αυτοκίνητο δεν πίνει, ακολουθεί πιστά τον Κ.Ο.Κ., δεν μιλάει στο κινητό και δεν αποσπάται από συζητήσεις με το συνεπιβάτη!
Τα συστήματα ΤΝ, θα έχουν δικαίωμα να εκτελούν οποιαδήποτε πράξη;
Υποτίθεται ότι στην τεχνητή νοημοσύνη τα συστήματα ανανεώνονται και εξελίσσονται μόνα τους, γράφοντας τα ίδια τον κώδικα που τους υπαγορεύει τις πράξεις τους. Θα επιτρέπεται επομένως στα ρομπότ να σκοτώνουν; Να κακοποιούν;
Ποιος θα το αποφασίζει, αφού θα «μαθαίνουν» και θα εκπαιδεύονται με βάση αυτά που θα βλέπουν να γίνονται γύρω τους; Ίσως να έχετε διαβάσει για κάποια αμερικάνικα πολεμικά ρομπότ που είχαν χρησιμοποιηθεί παλιότερα στον πόλεμο του Ιράκ, τα οποία αποσύρθηκαν όταν άνοιξαν πυρ κατά των δικών τους (!), ευτυχώς χωρίς θύματα.
Επίσης πριν μερικούς μήνες κυκλοφόρησε ένα βίντεο (που όμως δεν έχει επιβεβαιωθεί πως είναι αληθινό) που δείχνει ένα ρομπότ της Boston Dynamics (αμερικανική εταιρεία κατασκευής ρομπότ) να κάνει επίδειξη σκοπευτικών και αμυντικών δυνατοτήτων σε μια περιοχή στην έρημο, με τρόπο πραγματικά εντυπωσιακό αλλά ταυτόχρονα και τρομακτικό. Όσοι το είδαν, σίγουρα σκέφτηκαν: και τι θα γίνει αν αστοχήσει; Αν στρέψει το όπλο σε λάθος στόχο; Από την άλλη βέβαια, κάποιος μπορεί να σκεφτεί πως το μέλλον των πολεμικών επιχειρήσεων είναι να πολεμάνε τα ρομπότ και οι άνθρωποι να μένουν αλώβητοι στα μετόπισθεν…
Τελικό συμπέρασμα είναι προφανώς ότι τα αυτόνομα όπλα, που θα λειτουργούν μέσω τεχνητής νοημοσύνης, δε θα έχουν κρίση ανάλογη της ανθρώπινης, που είναι απαραίτητη ώστε να μπορούν να αξιολογούν την αναγκαιότητα της επίθεσης (και των εγκληματικών πράξεων), να μπορούν να ξεχωρίζουν τους αμάχους από τους «πολεμιστές» και να ακολουθούν τους άγραφους νόμους του πολέμου. Άρα μπορούμε να φανταστούμε σκηνικά αντίστοιχα του «Εξολοθρευτή».
Η πρωτοπόρος ΤΝ
Στη συνέχεια έρχεται το ερώτημα: Τι θα γίνει αν η τεχνητή νοημοσύνη αναπτυχθεί τόσο, ώστε να ξεπεράσει τον άνθρωπο σε ευφυϊα και τελικά να αποκτήσει πλήρη έλεγχο επάνω του; Τότε θα φτάσουμε στον κλασσικό «φόβο», ότι τα ρομπότ και τα computers θα καταστήσουν τους ανθρώπους περιττούς; Μήπως αυτό σημάνει τελικά και το τέλος της ανθρωπότητας;
Μια άλλη ανησυχία είναι πως, αν τα ρομπότ αναπτυχθούν τόσο, ώστε να έχουν αισθήσεις και κυρίως συναισθήματα, δε θα ήταν λογική η σκέψη να τους αποδοθούν δικαιώματα; Οι τρεις νόμοι της ρομποτικής, του Ισαάκ Ασίμωφ, θα καταργηθούν τελικά; Ή θα αναθεωρηθούν ώστε να αντιμετωπίζουμε τα ρομπότ ως ισότιμα με τους ανθρώπους; Πάμε τώρα στο τελευταίο θέμα που προκύπτει από το γεγονός ότι τα ρομπότ και γενικότερα οι «μηχανές» που λειτουργούν με τεχνητή νοημοσύνη, έχουν ήδη βρεθεί σε θέσεις ενεργής λήψης αποφάσεων.
Πώς εξασφαλίζεται η ανεξαρτησία και η ουδετερότητά τους ώστε να μην ακολουθούν, επαναλαμβάνουν και κυρίως αναπαράγουν στερεότυπα στις αντιλήψεις, την ιδεολογία, την κουλτούρα και άρα τις συμπεριφορές;
Οι αλγόριθμοι της τεχνητής νοημοσύνης χρησιμοποιούνται ήδη σε εφαρμογές αναγνώρισης προσώπων, για προσλήψεις σε επιχειρήσεις, όπου εκεί μπορεί για παράδειγμα η λήψη της απόφασης για την πρόσληψη του Α ή του Β να επηρεάζεται από το φύλο, το χρώμα ή τα φυλετικά χαρακτηριστικά, με τον ίδιο τρόπο που λειτουργούν τα στερεότυπα όταν η αντίστοιχη διαδικασία εκτελείται από ανθρώπους.
Η εκπαίδευση των ρομπότ για τη συγκεκριμένη εργασία, γίνεται προφανώς μέσω επεξεργασίας δισεκατομμυρίων δεδομένων, τα οποία περιέχουν ήδη τις φυλετικές (και άλλες) διακρίσεις εξαιτίας της ηθικής των ανθρώπων που ως τώρα λάμβαναν αυτές τις αποφάσεις. Πώς εξασφαλίζουμε επομένως ότι το ρομπότ δε θα κάνει τις ίδιες διακρίσεις με τους ανθρώπους; Είναι πραγματικά πάρα πολύ δύσκολο να «διδάξουμε» την ηθική στις μηχανές.
Ο λόγος απλός: Ο άνθρωπος δε μπορεί να μεταφέρει με αντικειμενικό και ποσοτικά μετρήσιμο τρόπο τους κανόνες ηθικής. Ο άνθρωπος σε διλήμματα ηθικής αποφασίζει πιο πολύ με το ένστικτό του, τη διαίσθησή του και την ενσυναίσθηση και αυτά είναι σχεδόν αδύνατον να μεταφερθούν στις μηχανές. Για να μπορέσουμε όμως να «πλησιάσουμε» αρκετά στην ηθική ορθότητα των αποφάσεων των μηχανών, χρειάζονται τα εξής:
– Σαφείς απαντήσεις σε πληθώρα ηθικών διλημμάτων.
– Εκπαίδευση των μηχανών μέσω ανάλυσης δεδομένων εκατομμυρίων αντίστοιχων περιπτώσεων.
– Διαφάνεια στον προγραμματισμό των μηχανών, ώστε να υπάρχει δυνατότητα σαφούς αιτιολόγησης κάθε πράξης τους.
Προφανώς λοιπόν είναι τρομακτική η προοπτική της ολοένα μεγαλύτερης διείσδυσης των ρομπότ στην καθημερινή ζωή και τα ζητήματα που ανακύπτουν είναι ιδιαίτερα πολύπλοκα. Όμως η τεχνητή νοημοσύνη ήρθε για να μείνει και είναι μονόδρομος! Το κλειδί είναι να διευρυνθεί ο διάλογος και να συμμετέχουν σε αυτόν όλοι οι επιστημονικοί και κοινωνικοί φορείς ώστε οι παράπλευρες συνέπειες να έχουν προβλεφθεί, συζητηθεί επαρκώς και να μην είναι εκπλήξεις!
H Kατερίνα Ραπτάκη είναι Διευθύντρια τεχνολογιών πληροφορικής και επικοινωνιών του ομίλου εταιρειών Navios, η οποία αποτελεί μία από τις ηγέτιδες δυνάμεις στην ποντοπόρο ναυτιλία. Ο όμιλος, που διαθέτει 4 εισηγμένες στο Χρηματιστήριο της Νέας Υόρκης εταιρείες, με παραρτήματα σε όλο τον κόσμο, κατέχει και διαχειρίζεται περισσότερα από 200 πλοία (χύδην φορτίου, τάνκερ, κοντέινερ). Η Κατερίνα έχει διατελέσει επίσης πρόεδρος της AMMITEC, της Ένωσης Διευθυντών Πληροφορικής στη Ναυτιλία.
Σπούδασε Ναυπηγός Μηχανολόγος Μηχανικός στο Εθνικό Μετσόβιο Πολυτεχνείο (ΕΜΠ) και διαθέτει 33ετή εμπειρία στις τεχνολογίες πληροφορικής και επικοινωνιών. Με περισσότερα από 18 χρόνια στο χώρο της ναυτιλίας, και με βαθιά γνώση και εμπειρία σε θέματα δορυφορικών συστημάτων, λογισμικού για τη ναυτιλία, επιχειρηματικής ευφυϊας (BI), ασφάλειας στον κυβερνοχώρο, διαχείρισης κινδύνων και κανονιστικής συμμόρφωσης, η Κατερίνα Ραπτάκη έχει αναλάβει διευθυντικές θέσεις στους κλάδους κατασκευών και ναυτιλίας. Διαθέτει μεγάλη εμπειρία στη διαχείριση μεγάλων έργων, στο στρατηγικό σχεδιασμό και διοίκηση ομάδων.