*Του Νίκου Καραμεσίνη
Η τεχνολογία της τεχνητής νοημοσύνης (ΑΙ) αναπτύσσεται ραγδαία δημιουργώντας ένα ευρύ φάσμα ευκαιριών μετασχηματισμού για τις επιχειρήσεις και την κοινωνία. Συστήματα τεχνητής νοημοσύνης, χρησιμοποιώντας πολυδιάστατα σύνολα δεδομένων, αξιοποιούνται σήμερα για την αξιολόγηση της πιστοληπτικής ικανότητας, για επενδυτικές αποφάσεις, διάγνωση ασθενειών, ακόμη και για την αποφυγή οδικών ατυχημάτων. Σύμφωνα με την παγκόσμια μελέτη της PwC «Exploiting the AI Revolution», η τεχνητή νοημοσύνη, έως το 2030, εκτιμάται ότι μπορεί να συνεισφέρει έως και 15 τρισ. δολάρια στην παγκόσμια οικονομία.
Οσο όμως η εφαρμογή της τεχνητής νοημοσύνης θα διευρύνεται παρέχοντας τη δυνατότητα να υποστηρίζει ολοένα και περισσότερο κρίσιμες αποφάσεις για την οικονομία και την κοινωνία, είναι αναμενόμενο να δημιουργείται προβληματισμός σχετικά με το πόσο έγκυρες, αμερόληπτες και κοινωνικά αποδεκτές είναι οι προβλέψεις τέτοιων συστημάτων.
«Κλειδί» ως προς αυτό αποτελεί η δημιουργία εμπιστοσύνης ότι ένα σύστημα τεχνητής νοημοσύνης διαθέτει τα ακόλουθα τρία χαρακτηριστικά. Είναι σύννομο, ώστε να συμμορφώνεται με νομοθετικές και κανονιστικές διατάξεις, δεοντολογικό, ώστε να συμμορφώνεται με ηθικές αξίες, και αξιόπιστο, καθώς τεχνικά σφάλματα ή κενά ασφαλείας μπορεί να οδηγήσουν σε ανεπιθύμητες συνέπειες, ανεξαρτήτως της πρόθεσης.
Η πρόκληση για τη διασφάλιση των τριών αυτών χαρακτηριστικών οφείλεται στο ότι η λειτουργία και κατ’ επέκταση τα αποτελέσματα τέτοιων συστημάτων δεν είναι πάντα προβλέψιμα, καθώς χαρακτηριστικό τους είναι ότι μπορούν να «αυτοεκπαιδεύονται» βάσει των δεδομένων που συλλέγουν.
Ενα σύστημα τεχνητής νοημοσύνης αναζητεί συσχετίσεις στα δεδομένα που αναλύει, τις οποίες χρησιμοποιεί για να καταλήξει στη ζητούμενη πρόβλεψη (π.χ. αφερέγγυος δανειολήπτης). Κατόπιν, αυτορρυθμίζεται ανάλογα με το αν η πρόβλεψη αποδείχθηκε ορθή ή λανθασμένη. Επομένως, αντίθετα με τα παραδοσιακά συστήματα, κατά τον σχεδιασμό ενός συστήματος τεχνητής νοημοσύνης δεν γνωρίζεις πάντα εκ των προτέρων τους κανόνες αποφάσεων που θα προκύψουν. Για τον λόγο αυτό, μεταξύ άλλων, είναι σημαντικό να εφαρμόζονται:
• Αξιόπιστα δεδομένα για την εκπαίδευση του συστήματος ώστε να προκύπτουν αντικειμενικά και αμερόληπτα συμπεράσματα. Προαπαιτείται η εφαρμογή καλών πρακτικών διακυβέρνησης δεδομένων, ώστε ο οργανισμός να μπορεί να διατηρεί καλής ποιότητας δεδομένα, ενώ συμμορφώνεται με το σχετικό κανονιστικό πλαίσιο (π.χ. GDPR).
• Επαρκείς μηχανισμοί ασφάλειας ώστε, ακόμη και σε περιπτώσεις αναξιόπιστων δεδομένων ή όταν η «αλήθεια» των δεδομένων ορίζει παράνομες ή κοινωνικά μη αποδεκτές αποφάσεις, οι μηχανισμοί να εξασφαλίζουν τη σύννομη και δεοντολογική συμπεριφορά του συστήματος.
• Επαρκή ανθρώπινη εποπτεία, αξιολογώντας συνεχώς την εξέλιξη του συστήματος και εντοπίζοντας εγκαίρως παρεκκλίσεις από την κοινωνικά αποδεκτή συμπεριφορά.
Ενδεικτικά, το 2014 η Amazon επιχείρησε να εφαρμόσει τεχνητή νοημοσύνη με στόχο την επιλογή από τα βιογραφικά που λάμβανε εκείνων που ξεχωρίζουν βάσει χαρακτηριστικών των επιτυχημένων εργαζομένων της.
Σύντομα όμως διαπιστώθηκε ότι το σύστημα απέρριπτε βιογραφικά γυναικείου φύλου, με αποτέλεσμα, σύμφωνα με την ίδια την εταιρεία, να εγκαταλειφθεί το εγχείρημα προτού ακόμη χρησιμοποιηθεί. Αιτία αυτής της διάκρισης ήταν ότι ο κλάδος και η εταιρεία την τελευταία δεκαετία ήταν ανδροκρατούμενα και αναπόφευκτα το σύστημα εκπαιδεύτηκε βάσει αυτού του δεδομένου.
Τα παραπάνω αναδεικνύουν την ανάγκη για μεγαλύτερη διαφάνεια στη χρήση συστημάτων τεχνητής νοημοσύνης, κάτι το οποίο δεν πρέπει να αντιμετωπίζεται ως εμπόδιο αλλά ως καταλύτης για την περαιτέρω εφαρμογή της τεχνολογίας. Με αυτό τον τρόπο οι οργανισμοί μπορούν να χτίσουν ισχυρές σχέσεις εμπιστοσύνης με πελάτες, συνεργάτες, εποπτικές αρχές και άλλα εμπλεκόμενα μέρη, ενώ παράλληλα μπορούν με μεγαλύτερη αυτοπεποίθηση να κατανοήσουν και να αξιοποιήσουν την προηγμένη αυτή τεχνολογία, δίνοντας ώθηση στον μετασχηματισμό τους και επιτυγχάνοντας βιώσιμη ανάπτυξη.
* Ο κ. Νίκος Καραμεσίνης είναι Senior Manager του τμήματος Governance, Risk and Compliance της PwC Ελλάδας.