Τεχνολογία

Τεχνητή νοημοσύνη: Πώς χρησιμοποιείται – Ποια τα ηθικά διλήμματα

Τεχνητή νοημοσύνη: Τι έδειξε έρευνα για τη χρήση της στον δημόσιο και τον ιδιωτικό τομέα.

Η τεχνητή νοημοσύνη έχει μπει για τα καλά στη ζωή μας, όσο και αν δεν θέλουμε να το παραδεχτούμε. Αρκετά είναι τα χαρακτηριστικά παραδείγματα που το αποδεικνύουν αυτό, όπως η χρήση της για τη συγγραφή ενός θεατρικού έργου χωρίς την παραμικρή ανθρώπινη ανάμειξη αλλά και η συνεισφορά της στη μουσική

Τεχνητή νοημοσύνη: Ωστόσο, πολλά είναι τα ζητήματα ηθικής, διακυβέρνησης, ιδιωτικότητας και ρυθμιστικού πλαισίου που προκύπτουν, όπως διαπιστώνει παγκόσμια έρευνα της EY.

Η έρευνα Bridging AI’s trust gaps,που εκπονήθηκε σε συνεργασία με τον οργανισμό TheFuture Society τον Ιούλιο του 2020, διαπιστώνει διαφοροποιήσεις ως προς τη χρήση της τεχνητής νοημοσύνης, σε τέσσερις βασικούς τομείς: αμεροληψία και αποφυγή προκαταλήψεων, καινοτομία, πρόσβαση σε δεδομένα και, τέλος, προστασία της ιδιωτικότητας και των δεδομένων.

Στην έρευνα που διεξήχθη μεταξύ 71 υπεύθυνων χάραξης πολιτικής και περισσότερων από 280 επιχειρήσεων παγκοσμίως, οι συμμετέχοντες κλήθηκαν να ιεραρχήσουν, κατά σειρά σημασίας, ηθικές αρχές που σχετίζονται με την τεχνητή νοημοσύνη, στο πλαίσιο 12 διαφορετικών περιπτώσεων χρήσης (use cases), ενώ, παράλληλα, καταγράφηκε η άποψή τους σχετικά με τους κινδύνους, αλλά και τη ρύθμιση της χρήσης τεχνητής νοημοσύνης.

Σε αυτήν, καταδεικνύεται μία ευρεία συναίνεση μεταξύ των υπευθύνων χάραξης πολιτικής, γύρω από τις ηθικές αρχές που σχετίζονται με διαφορετικές εφαρμογές της τεχνητής νοημοσύνης. Για παράδειγμα, ως προς τη χρήση της τεχνητής νοημοσύνης για την αναγνώριση προσώπων, οι υπεύθυνοι χάραξης πολιτικής συμφωνούν ότι «η αμεροληψία και η αποφυγή των προκαταλήψεων» και «η προστασία της ιδιωτικότητας και των δεδομένων», αποτελούν τις δύο κορυφαίες αρχές.

Αντιθέτως, οι απαντήσεις του ιδιωτικού τομέα είναι πιο ομοιόμορφα κατανεμημένες ανάμεσα στις έντεκα διαθέσιμες επιλογές, με τις κορυφαίες εξ αυτών να συνδέονται με το υφιστάμενο κανονιστικό πλαίσιο (π.χ. General Data ProtectionRegulation).

Τεχνητή νοημοσύνη: Τι γίνεται με την ηθική

Ενώ οι υπεύθυνοι χάραξης πολιτικής και οι επιχειρήσεις συμφωνούν ότι απαιτείται μια προσέγγιση που θα εμπλέκει όλα τα ενδιαφερόμενα μέρη, προκειμένου να ορισθούν οι κατευθυντήριες γραμμές της διακυβέρνησης της τεχνητής νοημοσύνης, η έρευνα αναδεικνύει διαφωνίες ως προς τη μορφή που θα λάβει αυτή: το 38% των ιδιωτικών επιχειρήσεων αναμένουν ότι επικεφαλής της πρωτοβουλίας αυτής θα τεθεί ο ιδιωτικός τομέας, άποψη με την οποία συμφωνεί μόνο το 6% των υπευθύνων χάραξης πολιτικής.

Επίσης, όσον αφορά την εφαρμογή της ηθικής τεχνητής νοημοσύνης, το 69% των επιχειρήσεων του ιδιωτικού τομέα εκτιμούν ότι οι ρυθμιστικές αρχές κατανοούν την πολυπλοκότητα των τεχνολογιών τεχνητής νοημοσύνης και των σχετιζόμενων επιχειρηματικών προκλήσεων, ενώ το 66% των υπευθύνων χάραξης πολιτικής διαφωνούν με αυτή την άποψη. Τα ευρήματα αυτά αναδεικνύουν την ανάγκη για αυξημένη συνεργασία μεταξύ των δύο πλευρών, για να καλυφθούν τα όποια κενά γνώσης.