Mε αφορμή την 8η Μαρτίου, ημέρα της γυναίκας, είναι γεγονός ότι η θέση της γυναίκας παρουσιάζει σημαντικές νομικές προκλήσεις, καθώ οι αλγόριθμοι συχνά αναπαράγουν και/ή ενισχόυν προϋπάρχουσες κοινωνικές προκαταλήψεις και έμφυλες διακρίσεις. Από νομική άποψη η τεχνητή νοημοσύνη μπορεί να λειτουργήσει ως εργαλείο ενδυνάμωσης, ενώ ταυτόχρονα θέτει αποδεδειγμένα σε κίνδυνο θεμελιώδη δικαιώματα όπως η ισότητα των φύλων και η μη διάκριση αυτών, απαιτώντας έτσι αυστηρά κανονιστικά πλαίσια.
Ανάμεσα στις επιβλαβείς προκαταλήψεις που διαιωνίζει η Τεχνητή Νοημοσύνη, η έμφυλη προκατάληψη (gender bias) αγγίζει την κορυφή, και τούτο διότι, συστήματα Τεχνητής Νοημοσύνης, είναι εκπαιδευμένα σε δεδομένα τα οποία αντικατοπτρίζουν ιστορικές ανισότητες, εισάγοντας ως αποτέλεσμα διακρίσεις εις βάρος των γυναικών σε κρίσιμους τομείς. Για παράδειγμα, η Amazon υιοθέτησε και ανάπτυξε έναν αυτοματοποιημένο αλγόριθμο προσλήψεων, όπου διαπυστώθηκε ότι το μοντέλο έχει εκπαιδευτεί σε μεγάλο βαθμό ώστε να ελέχγει τους υποψήφιους, παρατηρώντας προσωπικά δεδομένα τα οποία ευνοούσαν υποψηφίους οι οποίοι ήταν άνδρες έναντι υποψηφίων που ήταν γυναίκες. Αυτή η μεροληπτική λήψη αποφάσεων αντικατοπτρίζει περαιτέρω τις ιστορικές ανισορροπίες μεταξύ των φύλων στις αποφάσεις πρόσληψης. Η μεροληψία στις προσλήψεις στην Τεχνητή Νοημοσύνη μπορεί να επεκταθεί πέρα από την Amazon και μπορεί να είναι ιδιαίτερα εμφανής εάν οι αλγόριθμοι πρόσληψης χρησιμοποιούνται και εκπαιδεύονται σε δεδομένα από παρόμοια ιστορικά ανδροκρατούμενες βιομηχανίες.
Πέραν όμως τούτου, είναι γεγονός ότι πλέον η επιρροή των μεροληπτικών δεδομένων εκπαίδευσης εκτείνεται πέρα από τους αλγόριθμους πρόσληψης και στα γενετικά μοντέλα τεχνητής νοημοσύνης, όπου μπορεί να ενισχύσει διακριτικά τα στερεότυπα των φύλων μέσω των αλληλεπιδράσεων των χρηστών. Γι’ αυτό, από τις 28 Δεκεμβρίου τέθηκε σε ισχύ η Οδηγία για την Ισορροπία των Φύλων, σηματοδοτώντας έτσι ένα σημαντικό ορόσημο στη δέσμευση της Ευρωπαϊκής Ένωσης για την επίτευξη της ισότητας. Η εφαρμογή της οδηγίας στοχεύει στην άσρη μακροχρόνιων εμποδίων στην ισότητα των φύλων, ειδικότερα στον εταιρικό κόσμο. Επιπλέον, από την 1η Αυγούστου 2024, και ταξινομεί μεταξύ άλλων συστήματα υψηλού κινδύνου, επιβάλλοντας κανόνες διαφάνειας και λογοδοσίας για αποφυγή διακρίσεων, την ίδια ώρα που το Συμβούλιο της Ευρώπης προωθεί συστάσεις για την ενσωμάτωση έμφυλων προοπτικών στην ανάπτυξη της Τεχνητής Νοημοσύνης, ώστε να μην παραβιάζονται ανθρώπινα δικαιώματα αλλά και ελευθερίες.
Από τα κράτη μέλη, η Ελλάδα βρίσκεται ήδη στην πρώτη γραμμή της εφαρμογής και της υιοθέτησης της οδηγίας αυτής, λαμβάνοντας σημαντικά βήματα για την ευθυγράμμιση της εθνικής νομοθεσίας με την Οδηγία, την ίδια ώρα που το AI ACT 2024, απαγορεύει σε συστήματα τεχνητής νοημοσύνης να ενέχουν ‘’απαράδεκτο ρίσκο’’, θέτωντας έτσι σε εφαρμογή αυστηρούς κανόνες για συστήματα υψηλού κινδύνου, συμπεριλαμβανομένων εκείνων που αφορούν την εκπαίδευση, την απασχόληση και την πρόσβαση σε βασικές υπηρεσίες. Άλλωστε, αποτελεί αναδιαμφισβήτητο γεγονός ότι τα συστήμτα τεχνητής νοημοσύνης πρέπει να συμμορφώνονται με τις αρχές της ισότητας, της διαφάνειας και των μη διακρίσεων. Η εκπαίδευση τέτοιων συστημάτων πρέπει να γίνεται με δεδομένα τα οποία δεν διαιωνίζουν έμφυλα στερεότυπα, ενώ οι νομικές προσεγγίσεις πρέπει να λαμβάνουν υπόψη πως το ΑΙ επηρεάζει δυσανάλογα γυναίκες, οι οποίες προέρχονται από περιθωριοποιημένες ομάδες (π.χ. γυναίκες με κάποιας μορφή αναπηρία και/ή έγχρωμες γυναίκες).
Κατάδηλα, η χρήση αλλά και η ανάπτυξη της τεχνητής νοημοσύνης αποτελεί ένα δυναμικό πεδίο, το οποίο εξελίσσεται ραγδαία, γι’ αυτό τον λόγο και μόνο είναι απαραίτητη η υιοθέτηση μιας ‘’φεμινιστικής ερμηνείας’’, όπου η διαφάνεια και η μη μεροληψία θα διασφαλίζουν ότι τα ψηφιακά εργαλεία δεν θα οπισθοδρομήσουν με κανένα τρόπο τα δικαίωματα των γυναίκων. Αντιθέτως, η υιοθέτηση μιας τέτοιας ‘’φεμινιστικής ερμηνείας’’ , η οποία στόχο θα έχει την προστασία από τις διακρίσεις, την εφαρμογή αλλά και επίκληση της ισότητας, και την θωράκιση των θεμελιωδών δικαιωμάτων απέναντι σε αλγοριθμικές μεροληψίες.
Τώνια Γ. Χριστοφίδη
Ορφανίδης, Χριστοφίδης & Συνεργάτες Δ.Ε.Π.Ε.