Γράφει ο Λευτέρης Χελιουδάκης

Στο μυαλό πολλών συνανθρώπων μας, ο όρος «τεχνητή νοημοσύνη» είναι συνώνυμο της τεχνολογικής ανάπτυξης, ενώ συχνά παρουσιάζεται ως η ελπίδα για την επίλυση σημαντικών ζητημάτων που ταλαιπωρούν τις κοινωνίες μας.

Με την αρθρογραφία της, η ομάδα μας έχει προσπαθήσει να εξηγήσει στους αναγνώστες μας τον όρο τεχνητή νοημοσύνη,  καθώς και τον λόγο για τον οποίο θα πρέπει να είμαστε επιφυλακτικοί αναφορικά με τις εξελίξεις στον τομέα αυτό.

Με αυτό το άρθρο θα εστιάσουμε την προσοχή μας στην φρενίτιδα που κυριαρχεί αναφορικά με την τεχνητή νοημοσύνη, θα δούμε εάν η ιδέα της χρήσης της στον τομέα της δικαιοσύνης αποτελεί πράγματι μια νέα και πρωτοποριακή προσέγγιση, και τέλος θα προχωρήσουμε σε μία καταγραφή των ζητημάτων που χρήζουν ιδιαίτερης προσοχής. Ωστόσο, δεν είναι η πρώτη φορά που η Homo Digitalis εστιάζει τη προσοχή της στην χρήση της τεχνητής νοημοσύνης στην δικαιοσύνη, καθώς στο παρελθόν έχουμε φιλοξενήσει αρθρογραφία σχετικά με τα φιλοσοφικά ζητήματα που αφορούν την απονομή της δικαστικής εξουσίας από μηχανές μέσω Μηχανικής Μάθησης.

Η σύγχρονη εποχή της κοινωνίας της πληροφορίας, και η αυξανόμενη χρήση του διαδικτύου, και των ηλεκτρονικών υπολογιστών έχει ως αποτέλεσμα την γιγάντωση του ψηφιακού αποτυπώματος του σύγχρονου ανθρώπου. Έξυπνες συσκευές, όπως κινητά τηλέφωνα, ένδυτα συστήματα που καταγράφουν τις αθλητικές μας δραστηριότητες και την κατάσταση της υγείας μας, ή ακόμα και καφετιέρες, ψυγεία και οδοντόβουρτσες, απλές οικιακές συσκευές δηλαδή, συγκεντρώνουν και επεξεργάζονται πληθώρα πληροφοριών για τους χρήστες τους και φανερώνουν πτυχές της καθημερινής τους ζωής και της προσωπικότητάς τους.

Ο όγκος των πληροφοριών που παράγεται είναι τόσο μεγάλος, που ξαφνικά προσδίδει αξία στις πληροφορίες που συγκεντρώνονται. Μεγάλες εταιρίες βασίζουν το επιχειρηματικό μοντέλο τους στην εκμετάλλευση αυτών των πληροφοριών. Οι υπηρεσίες και τα προϊόντα αυτών των εταιριών παρέχονται «δωρεάν» και οι χρήστες «πληρώνουν» με τα προσωπικά τους δεδομένα τα οποία αναλύονται και μοιράζονται με τρίτους με σκοπό την δημιουργία στοχευόμενων διαφημίσεων που θα αποφέρουν κέρδη.

Ως κοινωνίες οδηγούμαστε στην πεποίθηση ότι η συγκέντρωση πληροφοριών θα μας φέρει ένα βήμα πιο κοντά στην απόκτηση της γνώσης. Και αφού ως άνθρωποι δεν έχουμε την νοητική δυνατότητα να επεξεργαστούμε τον τεράστιο όγκο πληροφοριών που προκύπτει, εναποθέτουμε τις ελπίδες μας στην υπολογιστική δύναμη των μηχανών. Το κλειδί που ανοίγει την πόρτα για την επίλυση ασθενειών, για την καταπολέμηση του εγκλήματος, για την καλύτερη διοίκηση των πόλεών μας, και για την προσωπική μας ευημερία είναι η ανάλυση των δεδομένων, η διαπίστωση συσχετισμών μεταξύ αυτών και η παραγωγή προβλέψεων και συγκρίσεων. Η τουλάχιστον, αυτή είναι η ιδέα που μας καλούν να ασπαστούμε.

Έτσι κλάδοι της τεχνητής νοημοσύνης η οποίοι πριν δύο δεκαετίες θεωρούνταν ξεπερασμένοι και ατελέσφοροι, όπως ο κλάδος της μηχανικής εκμάθησης, ξαφνικά βρέθηκαν στο προσκήνιο και τράβηξαν όλα τα βλέμματα της προσοχής πάνω τους. Το σύγχρονο έξυπνο κινητό τηλέφωνο, η χρήση του διαδικτύου και των ηλεκτρονικών υπολογιστών, η βελτίωση των επεξεργαστών, και η αύξηση της χωρητικότητας των μέσων αποθήκευσης δεδομένων έδωσαν στους αλγόριθμους μηχανικής εκμάθησης το καύσιμο που χρειάζονταν, τον μεγάλο όγκο δεδομένων.

Σημαντικά προβλήματα σε διάφορους κλάδους, όπως η υγεία, η τοπική αυτοδιοίκηση, η προσωπική αυτοβελτίωση, οι μεταφορές, και η αστυνόμευση μπορούν να λυθούν ως δια μαγείας μέσω της ανάλυσης του όγκου των πληροφοριών που συγκεντρώνονται. Και φυσικά από τους κλάδους αυτούς, δεν θα μπορούσε να απουσιάζει και ο τομέας της απονομής της δικαιοσύνης.

Σε αυτό το σημείο, θα πρέπει να διακρίνουμε μεταξύ της χρήσης μηχανισμών και εργαλείων τεχνητής νοημοσύνης για την υποστήριξη της διοίκησης των δικαστηρίων (όπως η χρήση μηχανισμών Επεξεργασίας Φυσικής Γλώσσας που αποσκοπεί στην αυτοματοποίηση γραφειοκρατικών διαδικασιών και στην ταχύτερη συγγραφή, καταχώρηση και ανάλυση δικαστικών αποφάσεων και  άλλων εγγράφων), και της χρήσης των εν λόγω μηχανισμών και εργαλείων για την απονομή της δικαιοσύνης και την επιρροή της διαδικασίας λήψεως αποφάσεων των δικαστικών αρχών. Το άρθρο αυτό δεν απευθύνεται στην πρώτη κατηγορία, καθώς οι προκλήσεις και οι περιορισμοί που ανακύπτουν εκεί είναι ίδιοι και για άλλους τομείς εφαρμογής της τεχνολογίας Επεξεργασίας Φυσικής Γλώσσας. Αντίθετα, το άρθρο εστιάζει μόνο στην δεύτερη κατηγορία, και στη ιδέα ότι μηχανισμοί τεχνητής νοημοσύνης θα μπορούν να υποβοηθούν τις δικαστικές αρχές στην διαδικασία λήψεως αποφάσεων.

Η αλήθεια είναι ότι η ιδέα της χρήσης της τεχνολογίας στην διαδικασία λήψεως αποφάσεων στον τομέα της δικαιοσύνης δεν είναι καθόλου πρωτοποριακή και καινοτόμος. Αντίθετα είναι μια ιδέα του παρελθόντος που έχει κάνει την εμφάνιση της και έχει μάλιστα χρησιμοποιηθεί κατά κόρον σε ξένα δικαστικά συστήματα όπως αυτά του Καναδά, της Αυστραλίας και των Η.Π.Α. ήδη από τα τέλη του προηγούμενου αιώνα ενώ είναι ευρέως γνωστή και στον παραπλήσιο τομέα της δικαστικής ψυχολογίας και ψυχιατρικής. Συστήματα όπως  το «Level of Service Inventory – Revised (LSI-R)» και το «Correctional Offender Management Profiling for Alternative Sanctions (COMPAS)» χρησιμοποιήθηκαν ως εργαλεία αξιολόγησης κινδύνων για να βοηθήσουν τον δικαστή σε διάφορα στάδια της ποινικής διαδικασίας, όπως την προφυλάκιση κατηγορουμένων, την καταδίκη και υποβολή ποινής, και την απόφαση απόλυσης καταδίκων λόγω καλής διαγωγής πριν την έκτιση της ποινής τους. Συχνά τεχνολογίες που απλά εφαρμόζουν μαθηματικές και στατιστικές μεθόδους για την εκτίμηση των κινδύνων βαφτίζονται από τους δημιουργούς τους ή από τα μέσα ενημέρωσης ως τεχνητή νοημοσύνη. Αναλύσεις επί αναλύσεων έχουν γραφτεί τις τελευταίες δεκαετίες για τα συστήματα αυτά και η κριτική αναφορικά με την φερεγγυότητά τους και την αποτελεσματικότητά τους διαφέρει ανάλογα με το ποιος οργανισμός χρηματοδοτεί τις σχετικές έρευνες.

Ενώ η αβεβαιότητα σχετικά με την χρησιμότητα των διαφόρων τεχνολογιών στον τομέα της δικαιοσύνης έχει εκφραστεί εντόνως,  το Συμβούλιο της Ευρώπης ( 1. Parliamentary Assembly (PACE), Recommendation 2102 (2017) 1, Technological convergence, artificial intelligence and human rights, 2. Parliamentary Assembly: Motion for a recommendation about Justice by algorithm – the role of artificial intelligence in policing and criminal justice systems, και 3. European Commission for the Efficiency of Justice (CEPEJ): European Ethical Charter on the use of artificial intelligence in judicial systems) και η Ευρωπαϊκή Ένωση (1. European Commission: Communication on Artificial Intelligence in Europe, και 2. European Commission’s High-Level Expert Group on Artificial Intelligence (AI HLEG): Draft Ethics guidelines for trustworthy AI) με ενέργειές τους τα τελευταία δύο χρόνια μελετούν το ενδεχόμενο της χρήσης μηχανισμών τεχνητής νοημοσύνης στον τομέα της δικαιοσύνης από τα κράτη μέλη τους.

Αν και είμαστε αντίθετοι προς της εισαγωγή μηχανισμών τεχνητής νοημοσύνης στην διαδικασία λήψεως αποφάσεων και πιστεύουμε ότι η συγκεκριμένη προσέγγιση δεν αποτελεί λύση σε κανένα πρόβλημα από αυτά που ταλανίζουν τον τομέα της δικαιοσύνης, εξαιτίας της φρενίτιδας που επικρατεί το τελευταίο διάστημα, κρίνουμε σημαντικό να αναφέρουμε συνοπτικά τα κύρια ζητήματα που ανακύπτουν από τυχόν υποτιθέμενη  χρήση της τεχνητής νοημοσύνης στον τομέα της δικαιοσύνης και ειδικά στην ποινική δίκη. Η απαρίθμηση που ακολουθεί, είναι φυσικά ενδεικτική.

  1. Λήψη απόφασης που βασίζεται αποκλειστικά σε αυτοματοποιημένη επεξεργασία: Όπως ορίζει το Άρθρο 11 της Οδηγίας 2016/680 απαγορεύεται η λήψη απόφασης που βασίζεται αποκλειστικά σε αυτοματοποιημένη επεξεργασία, η οποία παράγει δυσμενή έννομα αποτελέσματα για το υποκείμενο των δεδομένων ή θίγει αυτό σε μεγάλο βαθμό. Εξαιρούνται οι περιπτώσεις κατά τις οποίες νόμος επιτρέπει την εν λόγω απόφαση προβλέποντας παράλληλα τις κατάλληλες διασφαλίσεις υπέρ των δικαιωμάτων και των ελευθεριών του υποκειμένου των δεδομένων, όπως τουλάχιστον το δικαίωμα εξασφάλισης ανθρώπινης παρέμβασης. Επομένως, γίνεται αντιληπτό ότι ο ανθρώπινος παράγοντας είναι απαραίτητο συστατικό της διαδικασίας λήψεως αποφάσεων.
  2. Κίνδυνος διακρίσεων και ποιότητα των δεδομένων που χρησιμοποιούνται: Οι μηχανισμοί τεχνητής νοημοσύνης που εκπαιδεύονται με βάση τα δεδομένα που επεξεργάζονται είναι εξαρτημένοι από την ποιότητα των δεδομένων αυτών. Με απλά λόγια, οι τυχόν προβλέψεις για την δική μου μελλοντική συμπεριφορά θα βασιστούν σε δεδομένα άλλων ανθρώπων με βάση τα οποία ο αλγόριθμος έχει εκπαιδευτεί. Εάν η ποιότητα των δεδομένων που χρησιμοποιήθηκαν κατά την εκπαίδευση είναι χαμηλή ή εάν τυχόν προκαταλήψεις υποβόσκουν στα δεδομένα αυτά, οι προβλέψεις είναι καταδικασμένες να είναι αφερέγγυές. Επίσης ενδέχεται να είναι και παράνομες στην περίπτωση που στηρίζονται σε δεδομένα προσωπικού χαρακτήρα, τα οποία είναι εκ φύσεως ιδιαίτερα ευαίσθητα όπως ορίζεται στα Άρθρα 10 και 11 της Οδηγίας 2016/680.
  3. Απόκτηση τεχνικής κατάρτισης από δικαστές και δικηγόρους: Πριν την χρήση οποιουδήποτε μηχανισμού τεχνητής νοημοσύνης στα δικαστικά έδρανα και στην διαδικασία λήψεως αποφάσεων, είναι λογικό προαπαιτούμενο οι επαγγελματίες που χρησιμοποιούν τον μηχανισμό αυτό και που έρχονται σε καθημερινή βάση σε επαφή μαζί του, να είναι εξοικειωμένοι με την επιστήμη της πληροφορικής. Δυστυχώς η πλειοψηφία των δικαστών και των δικηγόρων έχουν ελάχιστες τεχνικές γνώσεις και δεν διαθέτουν ικανότητες προγραμματισμού ή βασικές γνώσεις σχετικά με τις δυνατότητες και την λειτουργικότητα των διαφόρων μηχανισμών τεχνητής νοημοσύνης. Επομένως, κρίνεται αναγκαία η βασική εκπαίδευση των νομικών ήδη κατά την φοίτησή τους στις νομικές σχολές, και η επανεκπαίδευση των δικαστών κατά την φοίτησή τους στις δικαστικές σχολές.
  4. Ξεκάθαροι κανόνες αναφορικά με την ιδιοκτησία των δεδομένων που χρησιμοποιούνται από τους μηχανισμούς τεχνητής νοημοσύνης: Σε καμία περίπτωση η εταιρίες που θα έχουν αναπτύξει τον μηχανισμό τεχνητής νοημοσύνης που χρησιμοποιείται από τις εκάστοτε δικαστικές αρχές δεν θα πρέπει να έχουν πρόσβαση στα προσωπικά δεδομένα των υπόδικων και κατάδικων που επεξεργάζονται, ούτε να τα εκμεταλλεύονται εμπορικά ή για λόγους έρευνας και βελτίωσης των μηχανισμών τους. Η δικαιοσύνη δεν μπορεί να αποτελεί τομέα κέρδους.
  5. Κατανοητός και εξηγήσιμος τρόπος λειτουργίας του μηχανισμού τεχνητής νοημοσύνης: Ο χώρος της δικαιοσύνης είναι συνυφασμένος με τις αρχές της διαύγειας και της αμεροληψίας. Επομένως εάν ένας δικαστής βασίζει, έστω εν μέρει, την απόφασή του σε κάποια πρόβλεψη ενός μηχανισμού τεχνητής νοημοσύνης, θα πρέπει να είναι δυνατή η επεξήγηση της αιτίας για την οποία ο μηχανισμός οδηγήθηκε στην πρόβλεψη αυτή. Εάν δεν είναι δυνατή αυτή η αιτιολόγηση τότε συμπερασματικά και η απόφαση του δικαστή που στηρίχθηκε σε αυτήν δεν θα σέβεται τις αρχές της διαύγειας και δεν θα θεωρείται αμερόληπτη. Στο σημείο αυτό πρέπει να τονιστεί ότι οι δημοφιλείς και περίπλοκοι μηχανισμοί, όπως τα κυκλώματα νευρονικών δικτύων, καταστούν ιδιαίτερα δύσκολο το εν λόγω απαιτούμενο.
  6. Έλεγχος της αποτελεσματικότητας των μηχανισμών τεχνητής νοημοσύνης από ανεξάρτητες ελεγκτικές αρχές: Θα πρέπει να γίνεται τακτική και επαναλαμβανόμενη αξιολόγηση της εγκυρότητας των προβλέψεων στις οποίες προβαίνουν οι μηχανισμοί τεχνητής νοημοσύνης. Μια εποπτική αρχή με ανεξάρτητο χαρακτήρα, επαρκείς οικονομικούς πόρους και προσωπικό υψηλού επιπέδου γνώσης και εμπειρίας είναι το ιδανικό όργανο για την εκπλήρωση αυτού του εποπτικού καθήκοντος. Η αρχή αυτή θα πρέπει να βασίζει τις αξιολογήσεις της τόσο σε ποσοτικά δεδομένα, όπως στατιστικά στοιχεία, τα οποία θα προκύπτουν από την αποτελεσματικότητα των προβλέψεων των μηχανισμών τεχνητής νοημοσύνης, όσο και σε ποιοτικά δεδομένα, όπως τα συμπεράσματα που λαμβάνονται υπόψη κατά περίπτωση.

Αδιαμφισβήτητα οι εφαρμογή μηχανισμών τεχνητής νοημοσύνης σε οποιοδήποτε τομέα της σύγχρονης ζωής, αποτελεί ένα περίπλοκο ζήτημα το οποίο επιζητά μια διεπιστημονική προσέγγιση. Σε καμία περίπτωση δεν αποτελεί μονάχα νομικό ζήτημα. Αντίθετα έχει έντονες ηθικές και κοινωνικές πτυχές που χρήζουν σημαντικής περισυλλογής. Οι τεχνολογικές εξελίξεις είναι άκρως σημαντικές για την βελτίωση της ποιότητας της ζωής μας και σίγουρα θα πρέπει να τις εντάσσουμε στις κοινωνίες μας .Η ένταξή τους ωστόσο θα πρέπει να γίνεται κατόπιν ενδελεχούς προετοιμασίας και προσχεδιασμού. Μονάχα έτσι θα βιώσουμε πραγματικά τα οφέλη των νέων τεχνολογιών και θα περιορίσουμε δραστικά τις προκλήσεις και τους κινδύνους για τη προστασία των Δικαιωμάτων του Ανθρώπου.