Τεχνητή νοημοσύνη: Προκλήσεις και πορεία προς την ευρωπαϊκή ρύθμιση

Scroll down to content

της Μαρίας Λυδακάκη, ερευνήτρια της ομάδας «Επιστήμη & Τεχνολογία»

Χάριν ευθύνης τεχνητής

Η γηραιά ήπειρος παρά την προχωρημένη ηλικία της, επιδεικνύει νεανική ευελιξία απέναντι στις τεχνολογικές καινοτομίες. Οι ρυθμιστικές της επεμβάσεις ανέκαθεν απέβλεπαν στην επίτευξη της ισορροπίας, τη γεφύρωση του χάσματος μεταξύ φιλελεύθερης οικονομικής ανάπτυξης και σεβασμού στα θεμελιώδη ατομικά δικαιώματα του Ευρωπαίου πολίτη. Ήρθε λοιπόν ο καιρός, να υποδεχτεί και να ρυθμίσει κατάλληλα ένα ακόμη ανθρώπινο δημιούργημα, έναν τεχνολογικό ελιγμό ικανό να οδηγήσει την επιστημονική και βιομηχανική κοινότητα σε παγκόσμιο αναβαθμό. Σήμερα, η Ευρωπαϊκή Ένωση καλείται να αποδείξει αν δύναται να εξασφαλίσει το νομικά ομαλό και κοινωνικά ηθικό πέρασμα της τεχνητής νοημοσύνης από τα ερευνητικά της ιδρύματα, στην ευρωπαϊκή καθημερινότητα.

Ιστορική αναδρομή

Τεχνητή Νοημοσύνη (ΤN) και Ευρωπαϊκή Ένωση (ΕΕ): δυο έννοιες ανεπίδεκτες συγκρίσεως μοιράζονται ένα κοινό χαρακτηριστικό γνώρισμα, τον απώτερο σκοπό τους. Αποτελούν αμφότερες ανθρώπινα τεχνάσματα, προορισμένα να υπηρετήσουν τον δημιουργό τους, τον άνθρωπο. Ξεκινώντας από μία ιστορική αναδρομή, διαπιστώνουμε πως η Ευρώπη γνώρισε την τεχνητή νοημοσύνη στο τέλος μιας εξελικτικής πορείας. Επι βιομηχανικής επανάστασης, η χειρωνακτική εργασία ως ευρωπαϊκός παραγωγικός συντελεστής έπαψε να ανταποκρίνεται στις επιταγές της αγοράς. Στη μεταβιομηχανική Ευρώπη του δευτέρου παγκοσμίου πολέμου, έπαψε να επαρκεί και η επεξεργαστική δύναμη της φυσικής ανθρώπινης νοημοσύνης και έτσι γεννήθηκε ένα νέο οικονομικό αίτημα. Το αίτημα αυτό ήρθε σταδιακά να πληρώσει η επιστήμη της πληροφορικής, μέσω της λογικής σχεδίασης και του προγραμματισμού.

Ορισμός τεχνητής νοημοσύνης

Ο Alan Turing, το 1950 οραματίστηκε μια μηχανή ικανή να επιδεικνύει ευφυή συμπεριφορά ανάλογη ή όμοια με την ανθρώπινη (1) . Η ιδέα του Alan Turing ενέπνευσε τον John McCarthy, τον πατέρα της τεχνητής νοημοσύνης. Σύμφωνα με τον δημιουργό λοιπόν του υπό κρίσιν όρου καθώς και το Stanford University, η τεχνητή νοημοσύνη είναι η επιστήμη και η μεθοδολογία της δημιουργίας νοούντων μηχανών (2). Προαπαιτείται δε η σχεδίαση και η υλοποίηση υπολογιστικών συστημάτων και αλγορίθμων με στόχο να επιλύουν προβλήματα χωρίς απαραιτήτως να προσιδιάζουν και να μιμούνται επακριβώς την λειτουργία του ανθρωπίνου εγκεφάλου, αν και ο μακροπρόθεσμος στόχος της είναι αυτός. Οι Russell και Norvig (1995, 2002, 2009) στο κείμενο τους AIMA διακρίνουν τέσσερις διαστάσεις της τεχνητής νοημοσύνης: την «ανθρωποκεντρική» (human based), την «ιδανικά λογική» (ideal rationality), την «υπολογιστική» (reasoning-based) και την «συμπεριφορική» (behavior-based) (3). Όλες αναπτύσσονται ραγδαίως και μαζί τους αναπτύσσεται το πεδίο επιρροής τους. Συγκεφαλαιώνουν τις εξελίξεις των νευροεπιστημών, της ψυχολογίας, της βιοϊατρικής και οι εφαρμογές τους εκτείνονται από τον χώρο των τηλεπικοινωνιών και της αυτοκινητοβιομηχανίας μέχρι την εκπαίδευση και την αγροτική παραγωγή (4). Με λίγα λόγια είναι κοινώς παραδεκτό, ότι σε όποιον τομέα κυριαρχεί σήμερα η φυσική νοημοσύνη, πρόκειται αύριο να εμφιλοχωρήσει η τεχνητή (5).

Χρηματοδότηση από την Ευρωπαϊκή Ένωση

Η Ευρωπαϊκή Ένωση στέκεται, με μια μικρή δόση επιφυλακτικότητας απέναντι στις προαναφερθείσες εφαρμογές για λόγους αμυντικούς, κυρίως για λόγους ομοιόστασης. Γνωρίζει, ότι οι μεγάλες ιδέες επιφυλάσσουν ανατροπές με άγνωστο πρόσημο. Ιδέες που όμως υπόσχεται να χρηματοδοτήσει αδρά, καθώς σκοπεύει να επενδύσει το ποσό των 1,5 δισεκατομμυρίων ευρώ για την ανάπτυξη της τεχνητής νοημοσύνης υπό τη σκέπη της ένωσης μέχρι το 2020 (6), για επιθετικούς αυτή τη φορά λόγους, για λόγους κυρίως ανταγωνισμού με τις υπόλοιπες υπερδυνάμεις που πορεύονται σταθερά προς την ίδια κατεύθυνση (7). Ωστόσο αυτές οι εξαγγελίες μένουν έκθετες, δίχως ευρωπαϊκό νομοθετικό ένδυμα να τις περιβάλλει, δίχως νομοθετική πρόβλεψη από την εθνική έννομη τάξη των κρατών μελών της, με ανυπολόγιστες ακόμα συνέπειες στο δικαιικό άρα και στον κοινωνικό χώρο.

Η γνώμη των Ευρωπαίων

Παρόλα αυτά η Ευρωπαϊκή κοινωνία σύμφωνα με την έρευνα της Ευρωπαϊκής Επιτροπής «Special Barometer 427» δεν φαίνεται να διαπνέεται από τον δισταγμό του ευρωκοινοβουλίου όσον αφορά τα αυτοματοποιημένα συστήματα (8). Ένας στους επτά Ευρωπαίους πολίτες έχει χρησιμοποιήσει ήδη μια αυτοματοποιημένη μηχανή στο εργασιακό του περιβάλλον ή στο νοικοκυριό του και το 72% των Ευρωπαίων δηλώνει πως τάσσεται υπερ των εφαρμογών της τεχνητής νοημοσύνης. Την συνολική επιδοκιμασία των πολιτών βέβαια συνοδεύει ένας σκεπτικισμός ως προς την υπεσχημένη από την τεχνολογία αναδιαμόρφωση της παγκόσμιας αγοράς εργασίας. Την ίδια στιγμή λοιπόν που οι Ευρωπαίοι σε ποσοστό 85% πιστεύουν στην ανάγκη αυτοματοποίησης των επικίνδυνων και βαρέων χειρωνακτικών εργασιών, φοβούνται για το εργασιακό μέλλον ακόμα και των περισσότερο πνευματικών εργασιών γραφείου, φοβούνται μήπως αντικατασταθούν από κάποια νοητικά προηγμένη αυτόματη μηχανή, φοβούνται ακόμα και για τα προσωπικά τους δεδομένα.

Ανεπάρκεια του ευρωπαϊκού νομικού πλαισίου

Οι φόβοι κρίνονται βάσιμοι, αφού δεν έχει τεθεί ακόμα ένα ολοκληρωμένο ευρωπαϊκό κανονιστικό πλαίσιο αναφορικά με τις εφαρμογές της ΤΝ. Κοινή τελική και δεσμευτική ευρωπαϊκή ρύθμιση δεν υπάρχει, οι φιλοσοφικές και νομικές συζητήσεις μένουν εντός των θυρών της Ευρωπαϊκής Επιτροπής, του Συμβουλίου της Ευρώπης και του Ευρωκοινοβουλίου. Οι πιέσεις της αγοράς αυξάνονται και προοικονομούν την τέταρτη βιομηχανική επανάσταση, όσο η Ευρώπη ακόμα συσκέπτεται. Τόσο οι αγορές, όσο και οι ευρωπαϊκοί θεσμοί αρχίζουν να αντιλαμβάνονται την καίρια σημασία και την μεγάλη οικονομική προοπτική των επιτευγμάτων της τεχνητής νοημοσύνης και να δραστηριοποιούνται ανάλογα, με μόνη διαφορά την ταχύτητα των αντανακλαστικών τους.

Νομικά προβλήματα- Ευρωπαϊκή αντιμετώπιση

Πενήντα σχεδόν έτη μετά την εμφάνιση της έννοιας της τεχνητής νοημοσύνης πλησιάζει η θέσπιση ενός νομοθετικού πλαισίου, που θα εξασφαλισεί τα δικαιώματα και τις ελευθερίες του ευρωπαικού πληθυσμού. Ωστόσο, η έκδοση ενός κατευθυντήριου κειμένου (draft recommendation) δεν αρκεί, διότι απαιτείται και η νομοθετική ενεργοποίηση των κρατών μελών. Το παράγωγο ενωσιακό δίκαιο περιλαμβάνει τους κανόνες που θεσπίζονται από τα ευρωπαϊκά όργανα. Δεν έχει όμως το σύνολο των κανόνων αυτών τυπικά άμεση εφαρμογή στην εθνική έννομη τάξη. Άμεση εφαρμογή και αποτέλεσμα έχουν οι κανονισμοί, ενώ οι οδηγίες δεσμεύουν τα κράτη μέλη ως προς το επιδιωκόμενο αποτέλεσμα, όχι ως προς τον τρόπο και τη μορφή της ρύθμισης. Μέχρι και σήμερα δεν έχει εκδοθεί κάποια οδηγία ή κανονισμός, παρά μόνο κατευθυντήρια κείμενα που ουτε δεσμευτικά είναι ουτε άμεση εφαρμογή έχουν. Την ίδια στιγμή η εθνική έννομη τάξη δεν έχει προβεί σε κάποια ρύθμιση σχετικά με τις εφαρμογές της τεχνητής νοημοσύνης. Πώς θα δημιουργηθεί ταχέως ένα κοινό πλαίσιο για τις εφαρμογές της τεχνητής νοημοσύνης την στιγμή που το εθνικό δικαιικό μας σύστημα προβληματίζεται εδώ και μια δεκαετία για ζητήματα όπως η ηλεκτρονική υπογραφή και η κυριότητα επί λογιστικού χρήματος; Αυτή είναι η σημερινή μας νομοθετική ευελιξία;

Σε αυτούς τους ενδοιασμούς απάντησε αρνητικά το ευρωπαϊκό κοινοβούλιο στις 21 Απριλίου του 2016 καθώς, τότε έγινε η πρώτη επίσημη συζήτηση για τη νομική μεταχείριση των επιτευγμάτων της ρομποτικής. Σε εκείνη τη συζήτηση, άρχισαν να διαφαίνονται οι νομικοί κίνδυνοι που ελλοχεύουν από την ανισομερή ανάπτυξη της τεχνητής νοημοσύνης, αφενός την ταχύτατη γενίκευση της χρήσης της και αφετέρου την βραδεία νομική μας αντίδραση (9).

Αστικά Προβλήματα

Σε αυτό το πλαίσιο, ο Pawel Kwiatkowski από τη νομική εταιρεία Gessel, της Βαρσοβίας παριστάμενος στην συζήτηση, τόνισε τα πρώτα αστικά ερωτήματα που γεννώνται, αναφέροντας «Τα ρομπότ δεν αναγνωρίζονται στο αστικό δίκαιο. Μπορεί ένα ρομπότ να εκφράσει την πρόθεσή του; Νομίζω ότι η απάντησή είναι πολύ απλή, όταν πρόκειται για απλούς αλγόριθμους, όταν όμως γίνονται πιο περίπλοκοι, πιστεύω ότι έχουμε πρόβλημα» (9). Αναφύονται για την ακρίβεια δυο προβλήματα. Πρώτον, ο καθορισμός της έννοιας και των χαρακτηριστικών του πράγματος όπως και η αναγνώριση φυσικής ή νομικής προσωπικότητας, είναι ζητήματα που ρυθμίζονται από την εθνική έννομη τάξη των κρατών μελών. Ενδεχομένως να προκύψουν λοιπόν διαφορετικές ακόμα κι ετερόκλητες ρυθμίσεις ως προς την αστική αντιμετώπιση ενός φαινομένου με παγκόσμια διάσταση και επιρροή, ειδικά από την στιγμή που δεν ακολουθούν όλα τα κράτη με τον ίδιο ρυθμό τις εξελίξεις της ρομποτικής, ούτε έχουν όλα την ίδια προδιάθεση για τα επιτεύγματα της. Δεύτερον, έστω ότι η Ευρώπη του δημοκρατικού ελλείμματος δια του παραγώγου ενωσιακού δικαίου επεμβαίνει και εξασφαλίζει την υιοθέτηση κοινής ρύθμισης για τα κράτη μέλη της. Ποια ακριβώς θα είναι αυτή; Θα δεχθούμε ότι τα αυτόνομα ρομπότ έχουν βούληση, ικανότητα δικαίου, δικαίωμα στην  προσωπικότητα; Μοιάζει με σενάριο επιστημονικής φαντασίας η απόδοση νομικής ή ηλεκτρονικής προσωπικότητας σε έξυπνους αλγόριθμους δίχως περιουσία, αν και υπάρχουν φωνές που υποστηρίζουν μια παρηλλαγμένη εκδοχή της ιδέας αυτής στην ΕΕ (10). Τι γίνεται όμως με τις αυτόματες μηχανές προγραμματισμένες να λαμβάνουν αυτόνομα αποφάσεις στο όνομα και για λογαριασμό του κυρίου τους, να διαχειρίζονται την περιουσία των κυρίων τους και να προβαίνουν σε πράξεις και παραλείψεις εξωτερικεύοντας την αντικειμενικά συναγόμενη από τον προγραμματιστή βούληση –ποιων άλλων φυσικά;- των κυρίων τους; Η ΕΕ λοιπόν όπως υπαγορεύει η κοινή λογική, διαφωνεί με την απόδοση ανθρωπόμορφων χαρακτηριστικών και φυσικών δικαιωμάτων στην τεχνητή νοημοσύνη αλλά δεν προτείνει κάποιο διαφορετικό καθεστώς μέχρι σήμερα, αφού απορρίφθηκε από την ευρωπαϊκή επιτροπή η ιδέα του ευρωκοινοβουλίου περί «ηλεκτρονικής προσωπικότητας» (11). Η αλήθεια είναι ότι τα δημιουργήματα αυτά δεν παρουσιάζουν πραγματική αξιολογική ομοιότητα με κάτι ήδη ρυθμισμένο, η αναλογία δικαίου για την πλήρωση του ρομποτικού κενού δεν πείθει, πλάσμα δικαίου για τα τεχνητά αυτά πλάσματα δεν μοιάζει να επαρκεί και η εθνική έννομη τάξη δεν έχει λάβει ακόμα κατεύθυνση ως προς την ρύθμιση αυτού του ζητήματος. Η τεχνητή νοημοσύνη αντιδιαστέλλεται και από το ρωμαϊκό res και προφανώς από τον δημιουργό της, τον άνθρωπο.

Αστική και ποινική ευθύνη

Έπειτα, η εισηγήτρια της ομάδας εργασίας για τη ρομποτική και την τεχνητή νοημοσύνη, Μάντι Ντελβό επίσης παριστάμενη στη συζήτηση, παρατηρεί πως «υπάρχουν μερικές επείγουσες ερωτήσεις στις οποίες πρέπει να απαντήσουμε» όσον αφορά τα αυτοκινούμενα οχήματα, που όπως χαρακτηριστικά μας λέει «πολύ σύντομα θα βρίσκονται στους δρόμους μας». Ποιος θα φέρει την αδικοπρακτική ευθύνη για τη ζημία που ενδεχομένως προκαλέσει το αυτοκινούμενο όχημα του Χ πολίτη σε κάποιον άλλο; Ο ιδιοκτήτης Χ, ο κατασκευαστής Κ, ο προγραμματιστής Π; Συντρέχει στο πρόσωπο του ιδιοκτήτη η προϋπόθεση της υπαιτιότητας; Τι ψυχικός σύνδεσμος να υπήρξε μεταξύ του ζημιογόνου αποτελέσματος και της συμπεριφοράς του οδηγού; Δεχόμαστε ότι ο οδηγός έπραξε πλημμελώς, ότι παρέλειψε να συμμορφωθεί με κάποια νομική του υποχρέωση-καθήκον επιμελείας; Πώς είχε αντικειμενική δυνατότητα αποτροπής, χωρίς τη γενική δυνατότητα να επενεργήσει στο όχημα του, σε ένα αυτοκινούμενο όχημα, στο οποίο δικαιολογημένα έδειξε εμπιστοσύνη; Γεννάται ευθύνη αποζημίωσης στο πρόσωπο του κυρίου του αυτοκινούμενου οχήματος, από την στιγμή που την απόφαση που οδήγησε στο ζημιογόνο γεγονός δεν την έλαβε ο ίδιος ο κύριος, αλλά το αυτοκινούμενο; Αν τέλος αποδειχθεί η παράβαση των κανόνων της επιστήμης και τέχνης από πλευράς του αμελώς πράττοντος προγραμματιστή ποια θα είναι η ποινική και αστική του ευθύνη και ποια η ευθύνη της κατασκευάστριας εταιρίας; Δεχόμαστε ότι ο κύριος του προϊόντος της ΤΝ είχε αμέλεια περί την ανάληψη του εγχειρήματος θέτοντας σε λειτουργία ένα δημιούργημα, η γενίκευση του οποίου υπόσχεται κατακόρυφη μείωση των τροχαίων ατυχημάτων σε παγκόσμιο επίπεδο; Αποτελεί άραγε ένα προϊόν που εισάγεται για την μείωση του κινδύνου των τροχαίων ατυχημάτων, πηγή κινδύνου; Αιτιώδης σύνδεσμος παρατηρείται μόνο στην περίπτωση του machine learning (deep learning σε μηχανές αυξημένης προσαρμοστικότητας) και δη όταν το ζημιογόνο γεγονός μπορεί να αποδοθεί στην πλημμελή συμπεριφορά του χρήστη (η οποία πρέπει να αποτέλεσε δεδομένο εισόδου για επεξεργασία από την μηχανή). Σε κάθε περίπτωση ισχύει πως πίσω από τα αυτόνομα συστήματα ενεργούν αυτόνομοι άνθρωποι, με βούληση, με περιουσία, με μέτρο επιμέλειας και επομένως με ευθύνη για τις πράξεις τους! Επομένως, πολλά από τα παραπάνω ερωτήματα μπορούν να απαντηθούν και σήμερα, εκείνα που εκκρεμούν είναι συνοπτικά η αστική αναγνώριση των μηχανών και η ανεύρεση βάσης για την θεμελίωση της ευθύνης του κυρίου του προϊόντος της ΤΝ.

Η αρχή της ρύθμισης

Τα καινοφανή προαναφερθέντα ερωτήματα έχουν αρχίσει να απαντώνται και σε ευρωπαϊκό επίπεδο. Η Ευρωπαϊκή Επιτροπή τον Φεβρουάριο του 2017, ενέκρινε ψήφισμα για την επικαιροποίηση του νομικού πλαισίου της Ένωσης για την ρομποτική με ειδική μνεία στην πνευματική ιδιοκτησία, την αρχή της διαφάνειας και αιτιολόγησης των αποφάσεων που λαμβάνονται αυτόνομα από τις αυτοματοποιημένες μηχανές (12). Ακολούθησε η σύσταση της ειδικής επιτροπής MSI-AUT η οποία όντας βασισμένη στην νομολογία του Ευρωπαϊκού Δικαστηρίου για τα ανθρώπινα δικαιώματα (European Court of Human Rights) ξεκίνησε τον Μάρτιο του 2018 να μελετά τις διαστάσεις της επεξεργασίας των δεδομένων σε σχέση με τα ατομικά δικαιώματα, καθώς και τα ζήτηματα ευθύνης (και punitive damages). Μέχρι την δεύτερη συνάντηση των μελών της ειδικής επιτροπής, στο Στρασβούργο τον Σεπτέμβριο του 2018 είχαν εκδοθεί 4 σχετικά draft recommendations (μη δεσμευτικά) προς υιοθέτηση από τα κράτη μέλη.(13) (14) (15) (16) Τέλος, προς την ίδια κατεύθυνση εκδόθηκε ένα επίσημο ενημερωτικό φυλλάδιο από τo Συμβούλιο της Ευρώπης, στο οποίο περιγράφονται ενδελεχώς οι προσεχείς στόχοι της ένωσης μέχρι το 2025. Μεταξύ αυτών είναι και η δημιουργία ενός πλάνου δράσης όσον αφορά τις εφαρμογές της ρομποτικής στην βιοιατρική, και η θεσμοποίηση ενός οργάνου υπό την εποπτεία του CDPD (European Committee on Crime Problems) που θα απαντήσει σε αντίστοιχα ερωτήματα ποινικού δικαίου. (17)

Προστασία των προσωπικών δεδομένων

Στον τομέα της προστασίας των προσωπικών δεδομένων από τις εφαρμογές της τεχνητής νοημοσύνης έχει ήδη σημειωθεί μεγάλη πρόοδος. Τον Απρίλιο του 2016 ενεκρίθη κανονισμός για την προστασία των φυσικών προσώπων έναντι της επεξεργασίας των δεδομένων προσωπικού χαρακτήρα και τον Οκτώβριο του 2017 εκδόθησαν οι πρώτες κατευθυντήριες γραμμές που προέβλεπαν υποχρέωση ενημέρωσης από τον προγραμματιστή κατόπιν αιτήματος του χρήστη. Αυτή τη φορά πρόκειται για ένα σαφές και ολοκληρωμένο ευρωπαϊκό πλαίσιο που λαμβάνει υπόψιν του την αυξημένη ευθύνη του προγραμματιστή και την ευάλωτη θέση του καταναλωτή-χρήστη. Ο εκάστοτε υπεύθυνος της επεξεργασίας δεδομένων θα καλείται να λογοδοτεί σε μια προσπάθεια διασφάλισης των ατομικών δικαιωμάτων του εκάστοτε χρήστη αλλά και σε μια προσπάθεια ελέγχου των δεδομένων εισόδου ώστε να περιοριστούν οι στερεοτυπικές ανισότητες και οι ηθικοί κίνδυνοι της ΤΝ. Αν δεν λάβει τα κατάλληλα μέτρα ο διαχειριστής των προσωπικών δεδομένων υπέχει ευθύνης. Ελευθερία δημιουργίας και δημιουργία ευθύνης είναι εξάλλου δυο όψεις του ίδιου νομίσματος. Σαφέστατο, πλήρως εναρμονισμένο με το ευρωπαϊκό πνεύμα της αυξημένης ευθύνης του παραγωγού έναντι του καταναλωτή και με τον ευρωπαϊκό γενικό κανονισμό για την προστασία των προσωπικών δεδομένων (GDPR). Οι μόνοι δυσαρεστημένοι ή έστω προβληματισμένοι σε αυτό τον τομέα είναι οι εταιρίες που ασχολούνται με την τεχνητή νοημοσύνη, καθώς θεωρούν ότι δεσμεύονται υπερβολικά από αυτή την πολιτική προστασίας. (18)

Πρόταση για ‘Ευρωπαϊκό Οργανισμό Ρομποτικής’

Η λύση όμως όλων των νομικών προβλημάτων προϋποθέτει την υλοποίηση μιας πάγιας τακτικής. Η δημιουργία ενός υπερεθνικού οργανισμού με εξειδικευμένο προσωπικό ικανό να μελετήσει τα ανακύπτοντα ζητήματα σε βάθος, να τα αναλύσει κι βαθμιαία να τα επιλύσει, συνόδευε πάντα κάθε ρηξικέλευθο επιστημονικό επίτευγμα με επαναστατική διάθεση. Όπως πολύ εύστοχα παρατήρησε ο Dr. Andrea Bertolini από το Πανεπιστήμιο της Πίζας «πρέπει να δημιουργηθεί ένας Ευρωπαϊκός Οργανισμός Ρομποτικής, για την ανάπτυξη τεχνολογικών προτύπων που θα ρυθμίζουν το πώς θα πρέπει να κατασκευάζονται τα προϊόντα, προκειμένου να στραφούμε από την έρευνα της ρομποτικής στην κατασκευή τους στην Ευρώπη». Απαιτείται δε και η δημιουργία ενός κώδικα ηθικής δεοντολογίας. Η ιδέα αυτή ευλόγως έχει απήχηση σε Ευρωπαϊκό επίπεδο και πλέον αναμένουμε τη δημιουργία του οργανισμού καθώς και την εξέταση της σύνταξης του κώδικα. To πρώτο βήμα προς αυτή την κατεύθυνση έγινε στις 4/12/2018 στο Στρασβούργο, καθώς εκδόθηκε το επίσημο κείμενο που έκτοτε ορίζει τις ηθικές αρχές που διέπουν την ανάπτυξη της τεχνητής νοημοσύνης. Το κείμενο αυτό αποτελεί κατευθυντήρια γραμμή για τα κράτη μέλη τα οποία έχουν την διακριτική ευχέρεια να εφαρμόσουν τις αρχές κατά την εκδίκαση σχετικών υποθέσεων στα εθνικά τους δικαστήρια. Ενδεικτικά αναφέρονται: η αρχή της μη-διάκρισης (αφορά τα δεδομένα εισόδου), η αρχή «under user’s control», που διασφαλίζει ότι ο χρήστης είναι ενημερωμένος και ότι οι επιλογές του υπόκεινται σε δικό του έλεγχο, η αρχή διαφάνειας, που επιτρέπει την πρόσβαση του χρήστης στην διαδικασία επεξεργασίας των δεδομένων του και τέλος η αρχή του σεβασμού στα θεμελιώδη δικαιώματα του χρήστη. (19) (20)

Αν η Ευρώπη επιθυμεί να εξακολουθήσει να εντυπωσιάζει την παγκόσμια κοινότητα με την ευελιξία της, οφείλει να προχωρήσει στις ενέργειες που έχει εξαγγείλει για να ρυθμίσει το ζήτημα της τεχνητής νοημοσύνης χάριν της τεχνητής ευθύνης προστασίας απέναντι στους Ευρωπαίους πολίτες. Προτάσεις έχουν κατατεθεί, εξειδικευμένο προσωπικό έχει βρεθεί, οι στόχοι της έχουν ανακοινωθεί, αναμένουμε την υλοποίηση τους. (20) (21)


Βιβλιογραφία

  1. 1.Copeland, J. (2000). AlanTuring.net What is AI? [online] Alanturing.net. Available here.
  2.  [Accessed 18 Feb. 2019], and  Puget, J. (2017). What Is Artificial Intelligence? (IT Best Kept Secret Is Optimization). [online] Ibm.com. Available here. [Accessed 18 Feb. 2019].
  3. McCarthy, J. (2007). Basic Questions. [online] Www-formal.stanford.edu. Available here. [Accessed 18 Feb. 2019].
  4. Bringsjord, Selmer and Govindarajulu, Naveen Sundar, «Artificial Intelligence», The Stanford Encyclopedia of Philosophy (Fall 2018 Edition), Edward N. Zalta (ed.), Available here.
  5. Jagland, T. (2019). Council of Europe and Artificial Intelligence. [online] Artificial Intelligence. Available here.
  6. [Accessed 18 Feb. 2019] and El.wikipedia.org. (2019). Τεχνητή νοημοσύνη. [online] Available here. [Accessed 18 Feb. 2019].
  7. Grey, C. (2014). Humans Need Not Apply. [online] YouTube. Available here. [Accessed 18 Feb. 2019].
  8. Stupp, C. (2018). Commission vows to spend €1.5 billion on artificial intelligence by 2020. [online] euractiv.com. Available here.
  9.  [Accessed 18 Feb. 2019] and Rankin, J. (2018). Artificial intelligence: €20bn investment call from EU commission. [online] the Guardian. Available here. [Accessed 19 Feb. 2019].
  10. Stupp, C. (2018). Twenty-four EU countries sign artificial intelligence pact in bid to compete with US and China. [online] euractiv.com. Available here. [Accessed 19 Feb. 2019]
  11. Du Preez, D. (2018). EU to debate artificial intelligence regulation and legal issues. [online] diginomica. Available here.[Accessed 19 Feb. 2019].
  12. European Commission. (2014). [online] Ec.europa.eu. Available here. [Accessed 19 Feb. 2019]. And here.
  13. Europarl.europa.eu. (2016). Ρομποτική και τεχνητή νοημοσύνη: ηθικά και νομικά διλλήματα | Επικαιρότητα | Ευρωπαϊκό Κοινοβούλιο. [online] Available here. [Accessed 19 Feb. 2019].
  14. Delcker, J. (2018). Europe divided over robot ‘personhood’. [online] POLITICO. Available here.[Accessed 19 Feb. 2019].
  15. Burri, T. (2018). The EU is right to refuse legal personality for Artificial Intelligence. [online] euractiv.com. Available here. [Accessed 19 Feb. 2019].
  16. Μαστρογεωργίου, Γ. (2019). Μεταρρύθμιση. [online] Metarithmisi.liberal.gr. Available here. [Accessed 20 Feb. 2019].
  17. Rm.coe.int. (2018). [online] Available here. [Accessed 18 Mar. 2019].
  18. Rm.coe.int. (2018). [online] Available here. [Accessed 20 Mar. 2019].
  19. Rm.coe.int. (2018). [online] Available here.  [Accessed 20 Mar. 2019].
  20. Rm.coe.int. (2018). [online] Available here. [Accessed 20 Mar. 2019].
  21. Rm.coe.int. (2019). [online] Available here. [Accessed 8 Mar. 2019].
  22. AI-Hub Europe. (2019). Roboticsbuisness: Will New European Privacy Rule Hinder AI Development?. [online] Available here. [Accessed 8 Mar. 2019].
  23. Human Rights and Rule of Law. (2019). Council of Europe adopts first European Ethical Charter on the use of artificial intelligence in judicial systems. [online] Available here. [Accessed 8 Mar. 2019].
  24. Rm.coe.int. (2018). [online] Available here. [Accessed 8 Feb. 2019].
  25. Rm.coe.int. (2019). [online] Available here. [Accessed 8 Jul. 2019].

Σχολιάστε

Εισάγετε τα παρακάτω στοιχεία ή επιλέξτε ένα εικονίδιο για να συνδεθείτε:

Λογότυπο WordPress.com

Σχολιάζετε χρησιμοποιώντας τον λογαριασμό WordPress.com. Αποσύνδεση /  Αλλαγή )

Φωτογραφία Google

Σχολιάζετε χρησιμοποιώντας τον λογαριασμό Google. Αποσύνδεση /  Αλλαγή )

Φωτογραφία Twitter

Σχολιάζετε χρησιμοποιώντας τον λογαριασμό Twitter. Αποσύνδεση /  Αλλαγή )

Φωτογραφία Facebook

Σχολιάζετε χρησιμοποιώντας τον λογαριασμό Facebook. Αποσύνδεση /  Αλλαγή )

Σύνδεση με %s

Αρέσει σε %d bloggers: