«Το ρομπότ δε θα κάνει κακό σε άνθρωπο, ούτε με την αδράνειά του θα επιτρέψει να βλαφτεί ανθρώπινο ον»

Γιατί οι μηχανές τεχνητής νοημοσύνης πρέπει να ελέγχονται από τον άνθρωπο

Γιατί οι μηχανές τεχνητής νοημοσύνης πρέπει να ελέγχονται από τον άνθρωπο
To ρομπότ "Goldorak" από την ιαπωνική σειρά κινουμένων σχεδίων του 1975.  
Ο πρόεδρος της διεθνούς ομοσπονδίας των επαγγελματιών πληροφορικής και επικοινωνιών περιγράφει ένα σενάριο στο οποίο η τεχνητή νοημοσύνη δεν επαρκεί για να σώσει τον άνθρωπο, για να αποδείξει ότι πρέπει να συνυπογράψουν τους αποδεκτούς κανόνες συμπεριφοράς των μηχανών και να αποκλείσουν εκείνους που η κοινωνία δεν εγκρίνει.

Ο Μάικ Χίντσεϊ, πρόεδρος του IFIP, φέρνει ως παράδειγμα τα αυτόνομα οχήματα. Η λειτουργία τους βασίζεται αφενός στην ικανότητά τους να οδηγούν μόνα τους αλλά και στη δυνατότητά τους να συγκεντρώνουν και να επεξεργάζονται τα δεδομένα από το περιβάλλον τους για να οδηγούν με ασφάλεια.

Το ρομπότ δε θα κάνει κακό σε άνθρωπο, ούτε με την αδράνειά του θα επιτρέψει να βλαφτεί ανθρώπινο ον


Από τη μια, έχουν λειτουργίες όπως η επιτάχυνση, η επιβράδυνση, η στροφή και τα φρένα  και από την άλλη έχουν ένα πληροφοριακό σύστημα ικανό να συνεκτιμά παράγοντες όπως η συμπεριφορά του προπορευόμενου οχήματος και τυχόν οχήματος που ακολουθεί, το όριο ταχύτητας, οι συνθήκες οδήγησης κ.ά.

Σήμερα, τα περισσότερα συστήματα αυτόνομης οδήγησης αντιδρούν σε διαφορετικές συνθήκες με προκαθορισμένο τρόπο. Για παράδειγμα, γράφει ο Χίντσεϊ, εάν το προπορευόμενο αυτοκίνητο επιβραδύνει, επιβραδύνει και το επόμενο. Εάν όμως εκείνο που έπεται επιταχύνει αντί να φρενάρει, τότε το όχημα θα επιχειρήσει να αλλάξει λωρίδα, λαμβάνοντας πληροφορία για την κατάσταση στη διπλανή λωρίδα κυκλοφορίας. Τι θα κάνει όμως ένα αυτόνομο όχημα εάν η αλλαγή λωρίδας την επίμαχη στιγμή σημαίνει αναπόφευκτα σύγκρουση με άλλο όχημα, εμπόδιο ή, στη χειρότερη περίπτωση, με πεζό; Σε τέτοιες περιπτώσεις, ένας άνθρωπος θα μπορούσε να επιλέξει οποιοδήποτε σενάριο, πολλά από τα οποία θα οδηγούσαν αναπόφευκτα σε ατύχημα, με λιγότερες ή με περισσότερες απώλειες ζωής.

Η αλήθεια είναι ότι για να γίνει πρακτική η αξιοποίηση της τεχνολογίας αυτόνομης οδήγησης θα πρέπει να πάψει να υπάρχει ο απρόβλεπτος ανθρώπινος παράγοντας, δηλαδή όλα τα οχήματα να είναι αυτόνομα, σημειώνει ο επιστήμονας.

Η τεχνητή νοημοσύνη, σημειώνει ο Χίντσεϊ, πραγματικά δοκιμάζεται σε περιπτώσεις όπου λαμβάνει αποφάσεις που δεν είναι προκαθορισμένες, αντλώντας γνώση από το ιστορικό των συνθηκών που έχει αντιμετωπίσει. Πόσο απρόβλεπτη όμως μπορεί τελικά να είναι αυτή η απόφαση και ποια είναι τα όρια που θα θέσουμε στην τεχνητή νοημοσύνη; Πότε ένα έξυπνο σύστημα θα πρέπει να σταματά και η αντίδρασή του να επαφίεται στην ανθρώπινη εκτίμηση;

Στο προαναφερόμενο παράδειγμα, ένα όχημα με σαφή εντολή τη «διάσωση της ανθρώπινης ζωής», μπορεί να απενεργοποιηθεί για να αποφύγει την πρόκληση ατυχήματος. Ακόμα και τότε όμως, η εντολή που του επέβαλλε να μην δοκιμάσει πιθανές οδηγικές κινήσεις, μπορεί να οδηγήσει στην απώλεια της ανθρώπινης ζωής, εάν για παράδειγμα το σενάριο εκτυλίσσεται σε έναν αυτοκινητόδρομο σε ώρα αιχμής.

Οι μηχανές, καταλήγει ο Χίντσεϊ, πρέπει να προσαρμόζονται, και για να γίνει αυτό θα πρέπει να ορίσουμε ξεκάθαρα ποιες πράξεις επιτρέπονται χωρίς αυτές καθεαυτές να προσδιορίζονται σαφώς, ενώ παράλληλα να απαγορεύονται άλλες.

Διαβάστε επίσης στο tech.in.gr:
Ανθή Παναγιωτάκη, @anthi

tech.in.gr

Ειδήσεις:  Περισσότερες ειδήσεις

Θέματα: