Οι «Διάλογοι», η σειρά προβληματισμού του Ιδρύματος Σταύρος Νιάρχος, οι οποίοι έφτασαν αισίως στις 45 συναντήσεις, πρωτοτύπησαν αργά προχθές το βράδυ: δίπλα στους ομιλητές, στη συζήτηση συμμετείχαν και δυο συστήματα Τεχνητής Νοημοσύνης, που διαμορφώθηκαν ειδικά για την περίσταση από επιστήμονες του ΕΚΕΦΕ «Δημόκριτος» και κλήθηκαν να απαντήσουν «ζωντανά» (γραπτώς, αλλά και με συνθετική φωνή) σε ερωτήσεις στην αγγλική γλώσσα, μπροστά στο κοινό.
Συνομιλητές του Στέλιου Βιρβιδάκη, καθηγητή Γνωσιολογίας & Ηθικής Φιλοσοφίας, στο Τμήμα Ιστορίας & Φιλοσοφίας της Επιστήμης στο ΕΚΠΑ, της συντονίστριας – δημοσιογράφου, Άννας-Κύνθιας Μπουσδούκου και του Θανάση Τρομπούκη, project manager του iMEdD Lab, ήταν τα συστήματα GPT2 και GPT3. Όπως εξήγησε ο ερευνητής ΑΙ και συνιδρυτής της SciFY AMKE, Γιώργος Γιαννακόπουλος, το πρώτο δημιουργήθηκε με τη βοήθεια του Γιώργου Πετάσση και του Εργαστηρίου SKEL The AI Lab, στο Ινστιτούτο Πληροφορικής και Τηλεπικοινωνιών του «Δημόκριτου», ενώ το δεύτερο βασίστηκε στην εφαρμογή Philosopher AI.
Δεδομένα και κανόνες
Στην ερώτηση ποιος δίνει τελικά την απάντηση μέσα από ένα σύστημα Τεχνητής Νοημοσύνης, ο κ. Γιαννακόπουλος απάντησε πως «όταν συμπεριλάβουμε αυτά τα γλωσσικά μοντέλα σε έναν διάλογο, αυτό που ουσιαστικά βλέπουμε είναι ένας αντικατοπτρισμός της ανθρώπινης έκφρασης μέσα από έναν “σπασμένο καθρέφτη”, ο οποίος δημιουργήθηκε από την επιστήμη χρησιμοποιώντας δεδομένα για να εκπαιδευτεί το σύστημα». Από την πλευρά του, ο καθηγητής Βιρβιδάκης αναρωτήθηκε «αν οι μηχανές μπορούν άραγε να αναπτύξουν τη φρόνηση, η οποία περιλαμβάνει συναισθήματα, ενσυναίσθηση, και ανάγεται στη συναισθηματική νοημοσύνη. Η ηθική δεν είναι μόνο θέμα υπακοής και αυστηρών, απαρέγκλιτων κανόνων. Αυτό που με ανησυχεί, είναι ποιο ηθικό σύστημα θα χρησιμοποιήσουμε για να τροφοδοτήσουμε μια μηχανή».
Κίνδυνοι και απαιτήσεις
Στη δική του εξ αποστάσεως παρέμβαση, στο πλαίσιο της συνεργασίας με το SNF Agora Institute στο πανεπιστήμιο Johns Hopkins, ο Ethan Zuckerman, αναπληρωτής καθηγητής Δημόσιας Πολιτικής, Επικοινωνίας & Πληροφοριών στο University of Massachusetts, Amherst, τόνισε πως «ο κίνδυνος που ελλοχεύει στην Τεχνητή Νοημοσύνη είναι να έχουμε έναν υπολογιστικό κώδικα ο οποίος φαίνεται πολύ ευφυής, σε μερικές περιπτώσεις γνωρίζει τα πάντα και μας δίνει οδηγίες. Το πρόβλημα είναι ότι καταλήγουμε να κωδικοποιούμε μεροληψίες, με κίνδυνο να μην μπορούμε πια να τις αμφισβητήσουμε. Ποιος είναι ο καλύτερος τρόπος να αντιδράσουμε σ’ αυτά τα συστήματα Τεχνητής Νοημοσύνης; Να απαιτήσουμε διαφάνεια, αμφισβητώντας τις κοινωνικές ανισότητες οι οποίες βρίσκονται στη βάση της τεχνολογίας».