του Γιάννη Τερζή
Η Τεχνητή Νοημοσύνη (ΤΝ) χρησιμοποιείται, πλέον, σε πολλούς τομείς, όπως η ιατρική, οι τηλεπικοινωνίες και το εμπόριο. Παρ’ όλα αυτά, η ΤΝ δεν είναι αλάνθαστη. Όταν έρχεται αντιμέτωπη με ένα νέο φαινόμενο, χρειάζεται να «μάθει» πρώτα πώς να το αντιμετωπίσει. Στη διαδικασία αυτή, είναι σχεδόν βέβαιο ότι θα κάνει λανθασμένες προβλέψεις. Αν, όμως, κάποιο από αυτά τα λάθη έχει αρνητικές συνέπειες για έναν άνθρωπο, ποιος φέρει την ευθύνη;
Αν θεωρήσουμε την ΤΝ απλώς ως εργαλείο, τότε — βάσει της υπάρχουσας νομοθεσίας — υπεύθυνος για τη χρήση της είναι εκείνος που τη χρησιμοποιεί. Όπως σε κάθε εργαλείο, αν προκληθεί ζημιά από κακή χρήση, φταίει ο χρήστης. Ακόμα και αν υπάρχει δυσλειτουργία, και πάλι θεωρείται πως ο χρήστης έχει την ευθύνη, όχι ο κατασκευαστής.
Άρα, αν και η ΤΝ προγραμματίστηκε με ελλιπή ή ακατάλληλο τρόπο, ο χρήστης παραμένει υπεύθυνος. Αυτή η προσέγγιση μπορεί να προκαλέσει φόβο και αβεβαιότητα σε τομείς όπου η ΤΝ είναι κρίσιμη, καθυστερώντας την τεχνολογική πρόοδο. Επίσης, οι εταιρείες ενδέχεται να μην επενδύουν αρκετά στον έλεγχο ποιότητας, αφού δεν θεωρούνται υπαίτιες για τα λάθη των συστημάτων τους.
Μια εναλλακτική θα ήταν να θεωρείται η ίδια η ΤΝ υπεύθυνη για τις πράξεις της. Αυτό, όμως, δημιουργεί τεράστια νομικά ζητήματα. Για να είναι υπεύθυνη η ΤΝ, θα πρέπει να έχει νομική προσωπικότητα, δηλαδή να αντιμετωπίζεται όπως ένας άνθρωπος ή μια εταιρεία. Σύμφωνα με το άρθρο 14 παρ. 1 του Ποινικού Κώδικα, «έγκλημα είναι πράξη άδικη και καταλογιστή σε εκείνον που την τέλεσε». Η λέξη «εκείνον» αναφέρεται σε κάποιον με νομική υπευθυνότητα. Άρα, αν η ΤΝ θεωρηθεί υπεύθυνη για ένα έγκλημα, πρέπει και να έχει δικαιώματα και υποχρεώσεις — κάτι εξαιρετικά περίπλοκο και αμφιλεγόμενο.
Αν, όμως, ούτε ο χρήστης ούτε η ΤΝ μπορούν να θεωρηθούν υπεύθυνοι, τότε μήπως ευθύνεται ο προγραμματιστής; Αν κάθε λάθος του συστήματος αποδοθεί στον δημιουργό του, είτε αυτό οφείλεται σε ανεπαρκή δεδομένα είτε σε απρόβλεπτα φαινόμενα, θα επικρατήσει φόβος στους ίδιους τους δημιουργούς. Αυτό μπορεί να οδηγήσει σε αναστολή ή καθυστέρηση καινοτομιών στον τομέα της ΤΝ.
Η πιο λογική λύση, με βάση τα σημερινά δεδομένα, είναι ο διαμοιρασμός της ευθύνης ανάλογα με την περίσταση. Η χρήση της ΤΝ πρέπει να συνοδεύεται από ένα ευέλικτο και προσεκτικά διαμορφωμένο νομικό πλαίσιο, που να λαμβάνει υπόψη τη φύση της κάθε εφαρμογής και το ρόλο των εμπλεκομένων. Επειδή η Τεχνητή Νοημοσύνη είναι ακόμα ένα καινούργιο και ραγδαία εξελισσόμενο πεδίο, η νομοθεσία γύρω από αυτήν οφείλει να είναι σαφής, αλλά και ικανή να προσαρμόζεται στις προκλήσεις του μέλλοντος.
Πηγές
Farhud, D.D., Zokaei, S. (2021). Ethical Issues of Artificial Intelligence in Medicine and Healthcare. Iran J Public Health, 50(11):i-v.
Victor, G., Bélisle-Pipon, J. C., & Ravitsky, V. (2023). Generative AI, Specific Moral Values: A Closer Look at ChatGPT’s New Ethical Implications for Medical AI. The American Journal of Bioethics, 23(10), 65–68.
