Συνέντευξη σχετικά με την τεχνητή νοημοσύνη

Συνέντευξη σχετικά με την Τεχνητή Νοημοσύνη

Ιάσων Οφείδης, Υποψήφιος Διδάκτωρ Πανεπιστημίου YaleElectrical Engineering

~Ποιοι είναι οι κίνδυνοι που απορρέουν από την εφαρμογή της τεχνητής νοημοσύνης; Μπορεί να μας οδηγήσει σε εσφαλμένα συμπεράσματα;

  • Κίνδυνοι

Μιας και η τεχνητή νοημοσύνη γίνεται αναπόσπαστο κομμάτι της καθημερινότητας μας, συνοδεύεται και από πιθανούς κινδύνους σε πολλές εκφάνσεις της.

Στόχοι / Ηθικά διλήμματα:

Η τεχνητή νοημοσύνη αποτελεί ένα εργαλείο, επομένως, μπορεί να χρησιμοποιηθεί εξίσου για καλό και για κακό σκοπό. Εξαρτάται από το ποιος την χειρίζεται και τις βλέψεις του. Για παράδειγμα, η τεχνητή νοημοσύνη έχει πολλές εφαρμογές στην Ιατρική, βελτιώνοντας σημαντικά τις ζωές εκατομμυρίων ανθρώπων, μέσα από την παρακολούθηση συμπτωμάτων, την διάγνωση ασθενειών και την ενημέρωση σχετικά με κατάλληλες θεραπείες. Σε αντίθεση, ένας σχετικά νέος τομέας της ΤΝ, to Generative AI, χρησιμοποιείται ως μέσο παραπληροφόρησης στα λεγόμενα DeepFake videos, όπου άνθρωποι παρουσιάζονται να λένε και να κάνουν πράγματα που δεν έχουν πει ή κάνει ποτέ. Ωστόσο, δεν είναι όλες οι περιπτώσεις εύκολα διαχωρίσιμες και καμία τεχνολογική εξέλιξη δεν παρουσιάζει μόνο οφέλη ή μόνο κινδύνους. Γι΄αυτόν τον λόγο, είναι απαραίτητη η θέσπιση νόμων και κανονισμών που θα ρυθμίσουν τη σωστή χρήση της τεχνητής νοημοσύνης, κάτι που αυτή την στιγμή αποτελεί αντικείμενο σκέψης και συζήτησης σε νομοθετικά όργανα των περισσότερων κρατών.

Απώλεια κριτικής σκέψης:

Ένας λιγότερο ευδιάκριτος κίνδυνος της τεχνητής νοημοσύνης αφορά την ολοένα αυξανόμενη εξάρτηση του ανθρώπου σε αυτήν. Όσο εξοικειώνεται στην χρήση της, ο άνθρωπος μαθαίνει να στηρίζεται και να την εμπιστεύεται ολοένα και περισσότερο στην καθημερινότητα του, λόγω της ευκολίας που παρέχει. Σε αντάλλαγμα για αυτήν την ευκολία, ο άνθρωπος επαναπαύεται και σταματάει να εξετάζει κατά πόσο αυτές οι λύσεις που του δίνει είναι λογικές ή ανταποκρίνονται στην πραγματικότητα. Η τεχνητή νοημοσύνη θα πρέπει να χρησιμοποιείται ενημερωτικά, για εγκυκλοπαιδικές γνώσεις.

  • Εσφαλμένα συμπεράσματα

Η τεχνητή νοημοσύνη μπορεί ασφαλώς να οδηγήσει σε εσφαλμένα συμπεράσματα. Ας κάνουμε ένα βήμα πίσω για να κοιτάξουμε το πώς ορίζεται η ίδια η τεχνητή νοημοσύνη:
“Η τεχνητή νοημοσύνη χρησιμοποιεί αλγορίθμους και στατιστικά μοντέλα προκειμένου να επιτρέψει τις μηχανές να “μάθουν” από δεδομένα, να αναγνωρίσουν πρότυπα/μοτίβα και να πάρουν αποφάσεις ή να προβλέψουν μελλοντικές καταστάσεις.”

Συνεπώς, βασίζεται κατά κόρον σε δεδομένα, δηλαδή σε προηγούμενες καταστάσεις και συνθήκες για να πάρει αποφάσεις για το μέλλον. Ωστόσο, τα δεδομένα που θα χρησιμοποιήσει ο εκάστοτε αλγόριθμος ή μοντέλο, παρέχονται από τον άνθρωπο στην μηχανή. Αν τα δεδομένα που χρησιμοποιούνται είναι μη αντιπροσωπευτικά του προβλήματος ή χαρακτηρίζονται από προκαταλήψεις, με ή χωρίς την γνώση του ανθρώπου πίσω από το μοντέλο, οδηγούμαστε σχεδόν σίγουρα σε λάθος αποφάσεις.

Για παράδειγμα, ας υποθέσουμε ότι βρισκόμαστε σε μια εταιρεία ως εργοδότες όπου δημιουργήθηκαν καινούργιες θέσεις εργασίας και βρισκόμαστε στη διαδικασία πρόσληψης εργαζομένων. Γι’ αυτό το λόγο καταφεύγουμε στην τεχνητή νοημοσύνη, προκειμένου να δημιουργήσουμε ένα μοντέλο το οποίο θα αξιολογεί και θα διαλέγει τους υποψηφίους με βάσει τα χαρακτηριστικά τους και τις δεξιότητές τους. Για την εκπαίδευση αυτού του μοντέλου θα χρησιμοποιήσουμε ιστορικά δεδομένα από παλιότερες επιτυχείς προσλήψεις. Εάν τα ιστορικά δεδομένα που χρησιμοποιούνται για την εκπαίδευση παρουσιάζουν προκαταλήψεις, όπως το φύλο ή τις φυλετικές ανισότητες στις πρακτικές πρόσληψης, το μοντέλο τεχνητής νοημοσύνης μπορεί ακούσια να “μάθει” και να διαιωνίσει αυτές τις προκαταλήψεις. Κατά συνέπεια, το μοντέλο μπορεί να ευνοεί άδικα ορισμένες δημογραφικές ομάδες έναντι άλλων (πχ. εθνικότητα), οδηγώντας σε μεροληπτικά αποτελέσματα στις συστάσεις εργασίας, ενισχύοντας τις υπάρχουσες προκαταλήψεις και ενδεχομένως συμβάλλοντας σε κοινωνικές ανισότητες.

Από αυτό το παράδειγμα, γίνεται αντιληπτό πως η αξιοπιστία της τεχνητής νοημοσύνης εξαρτάται κυρίως από τα δεδομένα που χρησιμοποιούνται για την εκπαίδευσή της, και πως κάλλιστα μπορούμε να οδηγηθούμε σε επισφαλή συμπεράσματα, ειδικά αν δεν έχει προηγηθεί συστηματική μελέτη και προσεκτικός σχεδιασμός.

 

~Είμαστε σε μια περίοδο ανησυχίας για την επικράτηση της τεχνητής νοημοσύνης και της τεχνολογίας σε βάρους του ανθρώπου. Πιστεύετε ότι θα χρειάζεται πάντα ο ανθρώπινος παράγοντας δίπλα από τις τεχνολογικές εξελίξεις;

 

Είναι φυσικό να δημιουργούνται ανησυχίες και επιφυλάξεις, δεδομένου ότι η πλειονότητα του πληθυσμού δεν γνωρίζει πώς λειτουργεί η τεχνητή νοημοσύνη.

Πιστεύω πως ναι, η παρουσία του ανθρώπου δίπλα, ή καλύτερα, πίσω από τις τεχνολογικές εξελίξεις είναι αναγκαία, τουλάχιστον στο άμεσο μέλλον. Ο ρόλος του ανθρώπου, για αρχή, είναι να σχεδιάζει μοντέλα τεχνητής νοημοσύνης που θα μπορούν να επιλύσουν συγκεκριμένα προβλήματα. Συνεπώς, η τεχνητή νοημοσύνη μπορεί να απαντήσει σε ερωτήματα, αλλά δυσκολεύεται να τα θέσει και να αντιληφθεί την ύπαρξή τους.

Επίσης, το συγκεκριμένο ερώτημα περί παρουσίας του ανθρώπου στις τεχνολογικές εξελίξεις πραγματεύεται ένας σχετικά νέος χώρος στην έρευνα της τεχνητής νοημοσύνης που καλείται AI explainability (Εξηγησιμότητα της τεχνητής νοημοσύνης). Ο σκοπός της είναι να βοηθήσει στην εξήγηση και κατανόηση των ευφυών συστημάτων που αποτελούν την τεχνητή νοημοσύνη και στο πώς λαμβάνουν αποφάσεις. Ένα μεγάλο μέρος της, είναι τα λεγόμενα μοντέλα μαύρου κουτιού (black box models), τα οποία επιλύουν προβλήματα με αυξημένη ακρίβεια, χωρίς ωστόσο να είναι εύκολα κατανοητό το πώς οδηγούνται σε αυτές τις λύσεις. Αυτό, αν και είναι αρκετό για πολλές εφαρμογές, ενέχει κινδύνους που αποτρέπουν την χρήση τους σε προβλήματα υψίστης σημασίας, όπως το σύστημα υγείας. Ένα παράδειγμα δυνητικά επικίνδυνου μοντέλου τεχνητής νοημοσύνης “μαύρου κουτιού” είναι η υγειονομική περίθαλψη, όπου ένας αλγόριθμος λαμβάνει κρίσιμες αποφάσεις σχετικά με τις διαγνώσεις ασθενών ή τα σχέδια θεραπείας χωρίς να παρέχει σαφείς εξηγήσεις για τις συστάσεις του. Εάν το μοντέλο λειτουργεί ως “μαύρο κουτί”, οι επαγγελματίες υγείας μπορεί να μην κατανοούν πλήρως τους παράγοντες που επηρεάζουν τις αποφάσεις του εργαλείου, οδηγώντας σε πιθανές λανθασμένες διαγνώσεις, ακατάλληλες θεραπείες και σε κίνδυνο την ασφάλεια των ασθενών.

Εν ολίγοις, πιστεύω, πως θα πρέπει να φανταζόμαστε την τεχνητή νοημοσύνη πιο πολύ σε ρόλο βοηθού (ή συγκυβερνήτη όπως την χαρακτηρίζει η “Microsoft”) παρά ως κάτι που δύναται να σταθεί αυτόνομα, τουλάχιστον για την επόμενη δεκαετία.

Κάντε το πρώτο σχόλιο

Υποβολή απάντησης