Digesta OnLine 2023

Τεχνητή νοημοσύνη και ανθρώπινα δικαιώματα

Αντώνιος Μανιάτης

Επίκουρος Καθηγητής Νομικός στην Ακαδημία Εμπορικού Ναυτικού Ασπροπύργου, HDR Πανεπιστημίου Rouen Normandie

L’intelligenza artificiale e i diritti umani

Antonio Maniatis

Professore assistente dell’Accademia della Marina Mercantile di Aspropyrgos, titolare del diploma HDR

 

 Για να διαβάσετε το άρθρο σε μορφή pdf πατήστε εδώ

 

Riassunto

Il manichino inizialmente non era persona ma una costruzione da legno. Molto dopo, è stato trasformato in una professione femminile, sottovalutata in termini sociali, la quale anche oggi è priva dei diritti connessi. In modo comparabile, i robot intelligenti sono quasi persone ed eventualmente saranno dotati dello status di persone elettroniche nell’ordinamento giuridico dell’UE. La questione principale nel campo del diritto artificialmente intelligente consiste nella sostituzione dei giudici con l’intelligenza artificiale, mentre il corpo di questi professionisti è stato gradualmente aggiornato attraverso cambiamenti istituzionali di natura biologica, come il diritto delle donne a diventare giudici ed il tentativo di aumentare il limite di età per la pensione obbligatoria, particolarmente nel diritto comparato europeo.

Parole chiave

bioetica, diritti umani, giustizia, intelligenza artificiale, sistemi d’arma autonomi

Abstract

The mannequin was not a person initially but a wooden construction. Much later, it was transformed into a female profession, being underestimated in social terms, which even today has no related rights. In a comparable way, intelligent robots are quasi persons and eventually will be endowed with the status of electronic persons in the EU legal order. The mainstreaming question in the field of artificially intelligent law consists in the substitution of judges by artificial intelligence, whilst the body of these professionals has been gradually upgraded through institutional changes of biological nature, such as the women’s right to become judges and the attempt to raise the age limit for the obligatory retirement, particularly in European comparative law.

Keywords

artificial intelligence, autonomous weapon systems, bioethics, human rights, justice

1.       Introduzione: L’intelligenza artificiale dal punto di vista dei diritti umani

La cameriera di Philon è considerata come il primo robot dell’epoca dell’Antichità greca[1]. Tuttavia, il mondo antico non era abbastanza amichevole alle nuove tecnologie, soprattutto a causa della schiavitù.

L’intelligenza artificiale costituisce una tendenza relativamente nuova nel campo delle tecnologie dell’informazione e della comunicazione. Non si tratta semplicemente di una tendenza moderna però anche di un fenomeno che pone varie questioni, di ordine sia morale che giuridico.

 Il presente studio costituisce un’introduzione a vari aspetti dell’intelligenza artificiale, dal punto di vista dei diritti fondamentali, nel marco del diritto costituzionale. La selezione del termine ‘’diritti umani’’, invece di quello tipico ‘’diritti fondamentali’’, non è casuale; se il vocabolo ‘’diritti umani’’ è associato piuttosto alla dottrina del diritto internazionale, è in uso anche nel campo del diritto interno.

Infatti, i diritti dell’uomo sono principalmente i diritti classici, della prima generazione della consacrazione dei diritti del diritto pubblico, classificati nel gruppo dei diritti civili; si tratta di diritti ‘’dell’uomo’’, cioè di garanzie di tutti gli uomini. Alcuni di questi diritti si riferiscono all’esistenza umana già in termini biologici e materiali, come i diritti alla vita e alla libertà, in combinazione con la proibizione della schiavitù. Inoltre, l’espressione in merito è più adeguata a dichiarare lo statuto giuridico delle persone naturali, in contrapposizione con altre entità, come le cose.

2.       Dalla bioetica al diritto dell’intelligenza artificiale

Se esiste una ragione obiettiva per riconoscere i diritti degli animali, essa consiste nell’ allineamento del diritto alle posizioni delle scienze positive, particolarmente delle biologiche[2]. È probabile che questa somiglianza sia associata all’amplificazione delle conoscenze degli scientifici sul tema dell’organismo umano, particolarmente per lo che riferisce ai primi stadi dello svolgimento, dopo la concezione. Dunque, la riluttanza attuale a riconoscere un pieno statuto di persona all’embrione umano (particolarmente all’extracorporeo) indica che già nel quadro del diritto positivo è ammesso un accoppiamento dell’evoluzione biologica a dei regimi legali distinti, addirittura relativi alla specie umana. È indicativo di questa problematica il fatto che la Convenzione del Consiglio d’Europa, di Oviedo[3], nella sua parte generale si riferisce alla dignità umana, come definita dagli organi della Convenzione Europea dei Diritti dell’Uomo, del 1950, ed all’essere umano[4]. L’ultimo vocabolo ha un significato più amplio che il termine ‘’persona’’, dato che la Convenzione è orientata ai diritti dell’embrione. Forse, il passaggio ad ammissioni simili per alcuni tipi di animali non è troppo lontano.

Dai casi dell’ingegneria genetica e, soprattutto, della biologia sintetica, è provato che il carattere fisico o artificiale della natura delle entità che manifestano operazioni di vita non costituisce un elemento importante[5]. Il biodiritto focalizza sulle manifestazioni della vita in vista di loro incidenze sulla convivenza sociale. È dunque adatto alla dimensione dinamica delle operazioni degli organismi viventi, indipendentemente di loro natura statica. Ad esempio, la causa della differenza del regime legale degli animali vertebrati in paragone con quello degli animali invertebrati è relativa alle proprietà che essi manifestano nella loro vita. Si tratta di proprietà di ordine sensoriale (dolore, angoscia, euforia…) o mentale (memoria etc.), le quali si ritengono di maggior importanza. L’intelligenza artificiale e le sue applicazioni in macchine intelligenti (computer e robot) non possono essere eliminate dall’oggetto del biodiritto. Si tratta di sostituti dell’uomo, addirittura di operazioni mentali separate, tipiche della neurofisiologia della specie umana. In ogni caso, è notabile che a partire dall’epoca dell’emersione dei primi strumenti esiste un tipo di sostituzione dell’uomo. Tuttavia, la questione importante in merito è relativa alle alternative artificiali delle operazioni mentali, rese possibili soprattutto attraverso l’uso dell’informatica e della tecnologia robotica.

3.       L’emersione dei manichini

Nel secolo XVIII una modista, Rose Bertin, fece uso di donne, chiamate ‘’essayeuses’’, per la promozione dei suoi prodotti. Esse donne si ritengono come i primi manichini viventi in contrapposizione con i manichini artificiali. I ‘’manichini di moda’’ sono apparsi nel secolo XIV, in forma di bambole fatte da legno e con taglio umano mentre la parola del francese ‘’poupée’’ (bambola) non appare fino al 1750 per la prima volta[6].

Nel secolo XIX, il padre dell’arte di haute couture Charles Frédéric Worth decide di fare uso di donne giovane per far conoscere le sue creazioni. Esse, vestite con le creazioni in merito, fanno una dimostrazione silenziosa davanti alla cliente; si tratta dell’inizio della pratica del “défilé’’. Le donne che fanno il défilé nel quadro delle case del cucito sono chiamate ‘’sosia’’ perché devono assomigliare ai clienti. La loro attività è considerata disonorevole ed è riservata alle classi popolari. Infatti, è assimilata alla prostituzione dato che consiste nel vivere dal corpo per un salario. All’inizio del secolo XX, Jeanne Paquin inventa il défilé di moda mentre la parola ‘’mannequin’’, di provenienza della parola olandese ‘’mannekjin’’ che indica un piccolo uomo, è allora, nel 1907, utilizzata per dichiarare una donna giovane che indossa in pubblico le creazioni di uno stilista.

La professione del manichino è stata generalizzata, praticata anche da uomini. Tuttavia, la promozione della posizione giuridica di questi professionisti non è basata su una nuova normatività di diritti. Infatti, il loro statuto odierno è imperfetto dato che il legislatore non gli concede alcuni diritti moderni, emersi dalle nuove tecnologie, tali che i diritti connessi accanto alla categoria dei diritti classici d’autore. I diritti connessi includono il diritto morale del rispetto del nome e della proprietà dell’artista interprete ed anche dei diritti di fortuna.

La dimostrazione di prodotti del settore del vestito o della decorazione non è ritenuta come esecuzione di opera ‘’artistica’’, nei termini del diritto della proprietà intellettuale. Soltanto le prestazioni di natura artistica sono coperte da questa branca di diritto e dunque sono escluse le prestazioni del manichino, della persona che partecipa in una emissione televisiva della categoria di ‘’reality’’ ed anche quelle sportive. Secondo la sentenza del 27 gennaio 1995, della Corte d’Appello di Parigi, il manichino è limitato a fare una ‘’presentazione’’ (articolo L. 7123-2 del Codice del Lavoro) laddove l’interprete recita un ruolo[7].

4.       Lo statuto dell’intelligenza artificiale: Il robot come quasi persona

La nascita di una macchina costituisce affare dell’uomo e non dipende di alcuno processo fisico[8]. Ne risulta che la macchina ha dei limiti obbiettivi in qualsiasi tipo di autonomia che essa potrebbe sviluppare laddove la casualità fa parte della sua autonomia. La costruzione non programmata dell’essere umano costituisce una condizione obbiettiva per basare il valore dell’uomo ed il godimento dei suoi diritti. Se le macchine sono prive della casualità, non vuol dire che una forma di rispetto a esse sarebbe paradossale. Questo approccio potrebbe risultare come forma di riflessione dovuta al loro produttore.

È notabile che gli esperti non hanno semplicemente innovato però anche hanno fatto uso della terminologia biologica ad alcuni fenomeni dell’informatica. Questo è il caso del vocabolo “virus elettronico’’, introdotto nel 1983, in paragone col virus biologico[9].

Tuttavia, l’approccio precitato forse potrebbe risultare anche dal margine che permette alle macchine stesse di svolgere in modo libero le loro abilità, di fissare obbiettivi e di cercare di raggiungergli. Se la dimensione morale delle macchine fosse ammessa, sarebbe necessario delimitare le relazioni esterne fra gli uomini e loro.

 Per quanto riguarda lo statuto dell’intelligenza artificiale, non si tratta di persone in termini giuridici, anche nel caso comparabile dei robot. Il 26 ottobre 2017 l’Arabia Saudita ha concesso la cittadinanza onoraria a Sophia, un robot umanoide creato dalla compagnia di Hong Kong Hanson Robotics, dotato di intelligenza artificiale e in grado di dialogare, riconoscere le emozioni umane e rispondere in tempo reale, sorridendo e cambiando la propria espressione facciale[10]. Ormai, dunque, l’era dei robot intelligenti non sembra più essere così lontana e degna di essere relegata a dei film di fantascienza di seconda categoria. È notabile che il video dell’intervista di cui Sophia è stata oggetto, fa sorgere il dubbio che una simile macchina, perché di questo si tratta, possa pensare, superando il test di Turing. In base a questo test, così definito dal nome dal logico A. M. Turing che lo ha elaborato negli anni ’50 del Novecento, potrebbe sostenersi che una macchina pensa solo qualora un osservatore umano che interagisca con essa non sia in grado di capire se le risposte che riceve provengono da un’altra persona umana o da un computer. Alla domanda, postale dal giornalista a Sophia, se i robot sono consapevoli di essere tali, lei ha risposto domandando a sua volta all’intervistatore come facesse lui ad essere consapevole di essere un umano. Si tratta di parole considerate come una risposta caratterizzata da un livello di autonomia e imprevedibilità che conferma l’opportunità di fare seguito alle raccomandazioni del Parlamento Europeo.

 Il progetto di risoluzione dell’assemblea europea di riconoscere i robot come ‘’persone elettroniche’’ ha affrontato molte controversie, soprattutto da parte del settore industriale, dato che causerebbe un aumento del costo delle macchine[11]. In ogni caso, il Parlamento ha infine approvato la risoluzione in merito, il 16 febbraio 2017[12]. Nel testo, la prima questione trattata consiste in un approccio concettuale alla robotica. Secondo la dottrina, è necessario in primis creare una definizione pacifica e unitaria di robot e di intelligenza artificiale, e in seguito focalizzarsi sulla responsabilità civile, per i possibili danni causati dai robot, ad esempio nel caso di auto senza conducente[13]. Il Parlamento invita la Commissione Europea a proporre definizioni europee comuni di sistemi ciberfisici, di sistemi autonomi, di robot autonomi intelligenti e delle loro sottocategorie, prendendo in considerazione le seguenti caratteristiche di un robot intelligente:

  • l’ottenimento di autonomia grazie a sensori e/o mediante lo scambio di dati con il suo ambiente (interconnettività) e lo scambio e l’analisi di tali dati;
  • l’autoapprendimento dall’esperienza e attraverso l’interazione (criterio facoltativo);
  • almeno un supporto fisico minore;
  • l’adattamento del proprio comportamento e delle proprie azioni all’ambiente;
  • l’assenza di vita in termini biologici[14];

La dottrina ha segnalato l’impossibilità di attribuire ad un preciso soggetto tra il fabbricante, l’operatore, il proprietario o l’utilizzatore, la responsabilità per le azioni compiute in totale autonomia dal robot stesso[15]. Piuttosto, la capacità di apprendere dall’esperienza e prendere decisioni indipendenti avvicina i robot alla nozione di agente, rendendo labile il confine, cardine del mondo giuridico, tra cose e persone.

Inoltre, il Parlamento dà spazio a differenti approcci alla questione della complessa attribuzione della responsabilità per danno causato da un robot: dall’applicazione degli istituti della responsabilità oggettiva, alla gestione dei rischi, all’istituzione di un regime di assicurazione obbligatorio e, infine, l’istituzione di uno status giuridico ad hoc[16]. Infatti, l’alternativa prevista consiste nell’istituzione di uno status giuridico specifico per i robot nel lungo termine, di modo che almeno i robot autonomi più sofisticati possano essere considerati come persone elettroniche responsabili di risarcire qualsiasi danno da loro causato, nonché eventualmente il riconoscimento della personalità elettronica dei robot che prendono decisioni autonome o che interagiscono in modo indipendente con terzi[17].

Secondo alcuni studiosi, un regime di ‘’cose’’ sui generis, comparabile con quello che è in vigore sul tema degli animali, sembra più probabile, almeno mentre il produttore mantiene il controllo sulla macchina[18]. Il fatto della pianificazione iniziale e dell’assenza della casualità (come nota nel caso della procreazione degli organismi viventi) sembra essere un ostacolo prevalente ma non insuperabile del riconoscimento della personalità della macchina. Se una macchina raggiunge abilità di determinarsi da sé stessa, comparabili con quelle degli animali spondili, il problema sarà risolto di fatto.

Inoltre, il Parlamento Europeo nella sua risoluzione del 2018 sul fenomeno di ‘’Lethal Autonomous Weapons’’ (in forma di drone etc.), sottolinea l’importanza fondamentale di impedire lo sviluppo e la produzione di qualsiasi sistema d’arma autonomo letale privo di controllo umano su funzioni critiche quali la selezione e l’ingaggio degli obiettivi[19]. Ricorda la sua posizione del 13 marzo 2018 sul regolamento relativo al programma europeo di sviluppo del settore industriale della difesa, in particolare l’articolo 6, paragrafo 4 (azioni ammissibili), e sottolinea la sua intenzione di adottare una posizione analoga nel contesto del prossimo programma di ricerca nel settore della difesa, del programma di sviluppo industriale della difesa e di altri aspetti pertinenti del Fondo europeo per la difesa post-2020. Sottolinea che nessuna delle armi e nessuno dei sistemi d’arma attualmente utilizzati dalle forze dell’Unione europea è un sistema d’arma autonomo letale. Ricorda che le armi e i sistemi specificamente progettati per difendere le proprie piattaforme, le proprie forze e la popolazione contro minacce estremamente dinamiche come missili, munizioni e aeromobili nemici non sono considerati sistemi d’arma autonomi letali. Infine, pone l’accento sul fatto che le decisioni di ingaggio contro aerei che hanno a bordo esseri umani dovrebbero essere prese da un operatore umano.

5.       L’intelligenza artificiale come potenziale minaccia per i diritti umani

I diritti costituiscono oggetto di riferimento e di studio della giurisprudenza, la quale è stata contestata per quanto riguarda su natura scientifica. Julius von Kirchmann, giurista tedesco del secolo XIX, credeva che la giurisprudenza non fosse scienza perché non ha un permanente oggetto, dato che le leggi sono variabili[20]. In ogni caso, il ruolo del giudice è associato alle applicazioni dell’intelligenza artificiale. Due esperti greci hanno focalizzato su una grande quantità di dati legali, pubblicati dalla Corte europea dei diritti dell’uomo[21]. Il materiale, scritto in inglese, consisteva in 584 casi, relativi alla trasgressione della privacy, alle torture etc. Sul tema del diritto alla privacy, il quale costituisce il nucleo fondamentale della protezione giuridica della vita privata, primi parlarono gli americani Warren e Brandels, nel 1890[22]. Gli esperti greci hanno creato un algoritmo, il quale può localizzare dei motivi comuni nei testi e dunque realizzare previsioni su una sentenza dell’avvenire. Come noto, l’intelligenza artificiale è basata sull’imitazione, sulla ripetizione di elementi simili o quasi simili e sulla loro correlazione. Secondo un’opinione, a dei assunti simili spetta una soluzione simile. Tuttavia, esiste anche una differenza, consistente nel dettaglio di ogni relazione legale, portata al giudizio dei tribunali. Se un computer fosse alimentato da molti dati somiglianti di vari casi e dalle sentenze in merito, potrebbe fornire al giudice dell’avvenire una proposta di soluzione su una questione relativa a dei fatti somiglianti. Ne deriva un risultato definito in anticipo, il quale potrebbe essere principalmente corretto.

 Questo fenomeno di correttezza è criticato dalla dottrina, secondo la quale la giustizia non è un’operazione ‘’tailor made’’ pero ogni caso ha le sue particolarità, le quali possono trattarsi soltanto con l’operazione mentale. A nostro parere, non è pienamente precisa la costatazione che ogni caso fa mostra di particolarità; forse ha una particolarità che meriterebbe un approccio individualizzato però esistono casi che potrebbero essere trattati secondo il modello comune, fornito dall’intelligenza artificiale.

 Inoltre, la Dichiarazione di Toronto, del 2018, è un documento preparato da Amnesty International e Access Now e approvato da Human Rights Watch e Wikimedia Foundation[23]. Lo scopo di questo testo è di tutelare i diritti all’uguaglianza e alla non discriminazione nei sistemi di apprendimento automatico. L’apprendimento automatico, noto anche come machine learning, rappresenta un insieme di metodi sviluppati a partire dagli ultimi decenni del secolo XX con diversi nomi (riconoscimenti di pattern etc.). È strettamente collegato (e spesso si sovrappone) con la statistica computazionale, destinata all’elaborazione di predizioni tramite l’uso dei computer.

 Secondo il testo in merito, dalla polizia, ai sistemi di welfare, al discorso online e all’assistenza sanitaria – per citare alcuni esempi – i sistemi che impiegano tecnologie di apprendimento automatico possono cambiare o rafforzare in modo ampio e rapido le strutture di potere o le disuguaglianze su scala senza precedenti, con danni significativi ai diritti umani[24]. Vi è un corpus sostanziale e crescente di prove per dimostrare che i sistemi di apprendimento automatico, che possono essere opachi e includere processi inspiegabili, possono facilmente contribuire a pratiche discriminatorie o altrimenti repressive, se adottati senza le necessarie salvaguardie.

 In ogni caso, la dichiarazione riconosce che gli Stati e gli attori privati dovrebbero promuovere lo sviluppo e l’uso di queste tecnologie per aiutare le persone a esercitare più facilmente i loro diritti umani[25]. Ad esempio, nel settore sanitario, i sistemi di apprendimento automatico potrebbero portare progressi nella diagnostica e nei trattamenti, rendendo potenzialmente disponibili e accessibili i servizi sanitari.

 La dichiarazione enfatizza al diritto ad un rimedio efficace, caratterizzato come un elemento vitale del diritto internazionale dei diritti umani[26].
In base al diritto internazionale, le vittime di violazioni o abusi dei loro diritti devono avere accesso a immediati ed efficaci rimedi, e i responsabili delle violazioni devono essere in attesa di rendere conto[27].

 In seguito delle previsioni sul diritto in merito, sono enumerati alcuni obblighi speciali degli Stati, che dovrebbero agire con cautela sull’uso dei sistemi di apprendimento automatico nel settore della giustizia, considerati i rischi per un processo equo e per i diritti dei litiganti[28]. Come già sottinteso, il testo evita di adottare una posizione assoluta sul tema dell’uso delle nuove tecnologie, rispettando il diritto positivo al godimento dei benefici del progresso scientifico e delle sue applicazioni come affermazione dei diritti economici, sociali e culturali. In altre parole, riconosce la tradizione del diritto fondamentale alla scienza, il quale fa parte della seconda generazione dei diritti umani[29]. Inoltre, per quanto riguarda la scienza stessa, Galileo Galilei ha il diritto, forse più che ogni altro intellettuale, di rivendicare la paternità della scienza dell’epoca nuova[30].

 La dichiarazione garantisce esplicitamente la versione del diritto alla protezione giudiziaria, consistente nel diritto a un processo equo. Fa riferimento alla ricerca di ProPublica, un’indipendente organizzazione degli Stati Uniti che produce giornalismo investigativo, dotato di forza morale. Alcuni dei suoi giornalisti hanno trattato la questione dell’uso di software nell’intero paese per predire futuri criminali[31]. Un programma per computer sputa un punteggio che predice la probabilità di una persona, già condannata, di commettere un reato nell’avvenire. Punteggi di questo tipo, in genere noti come ‘’valutazione di rischio’’, sono sempre più frequenti nei tribunali americani. Sono utilizzati per informare le decisioni su chi può essere liberato in ogni fase del sistema di giustizia, dall’assegnazione di importi della garanzia - come nel caso di Fort Lauderdale - a decisioni ancora più fondamentali sulla libertà degli imputati. In alcuni Stati della federazione americana i risultati della valutazione di questo tipo sono forniti ai giudici nella fase di formazione della sentenza del processo penale. La ricerca effettuata dall’organizzazione ProPublica ha rivelato significative disparità razziali, proprio come temeva il procuratore generale degli Stati Uniti, nel 2014. Nella previsione di chi avrebbe recriminato, l’algoritmo ha commesso errori con gli imputati bianchi e quelli neri a circa gli stessi tassi, ma in modo molto diverso. In base della formula, era particolarmente probabile di dichiarare falsamente gli imputati neri come futuri criminali, etichettandoli erroneamente in questo modo quasi al doppio in paragone con i bianchi. Inoltre, i bianchi erano etichettati come a basso rischio più spesso degli imputati neri.

 Secondo la conclusione finale della dichiarazione, i progressi tecnologici non devono minare i diritti umani[32].

6.       Conclusione: Da un mondo dominato dagli uomini verso un mondo ibrido

 Come già segnalato, dalle costruzioni in legno per mostrare i nuovi vestiti gradualmente risultò l’attività (inizialmente soltanto femminina) del manichino. Questa figura, ritenuta come umiliante, ha perso su concetto negativo e è stata evoluta in una professione stimabile e generalizzata, dalla prospetiva di genere.

 L’intelligenza artificiale implica indirettamente un’altra questione molto seria, consistente nel riconoscimento di diritti umani sulla base del principio personalista delle Costituzioni ad alcuni gruppi sociali, ancora più o meno marginalizzati; l’artificiale dovrebbe promuovere l’umano…

 Tuttavia, i professionisti potrebbero sostituirsi dall’intelligenza artificiale, particolarmente da robot intelligenti. Questa cosa è valida anche per il personale del potere giudiziario, soprattutto per i giudici. Apparentemente, una professione diacronica e addirittura tipica per il fenomeno dello Stato ha subito cambiamenti significativi, in termini biologici; il cambiamento più rilevante nel corpo dei giudici e procuratori consiste nell’entrata delle donne, dopo la Seconda Guerra Mondiale. Le donne hanno potuto acquistare il diritto non soltanto di studiare la giurisprudenza però anche di incarnare la giustizia. Se esse hanno guadagnato la loro equità in paragone con il sesso maschile, il secolo XXI è marcato da una nuova rivendicazione, ad esempio in Italia ed in Grecia; il diritto dei giudici di tutti e due i sessi di rimanere in carica nella terza età è stato recentemente consacrato in un grado limitato, nell’ordinamento italiano. Ne risulta un doppio progresso della professione dei membri del potere giudiziario, in termini biologici. Forse sono stati minacciati dai robot intelligenti?

***

 L’emancipazione delle professioni particolarmente a favore delle donne è stata la grande conquista del secolo XX, l’istituzionalizzazione di un mondo ibrido, costituito da persone di tipo tradizionale (fisiche e giuridiche) e da persone elettroniche, è una sfida per l’avvenire[33]

 

[1] Il presente studio costituisce principalmente l’intervento dell’autore nel ‘’I Seminario su Il Costituzionalismo e le sfide del futuro, Intelligenza artificiale e diritto Come regolare un mondo nuovo’’, Aula Filosofi, Palazzo Centrale via Università 12, Parma. L’intervento è stato oggetto di una preselezione attraverso un riassunto, è stato premiato informalmente premiato e presentato oralmente nell’Ateneo “Università di Parma”, il 12 ottobre 2018. Per sviluppi più recenti cfr. inter alia il seguente articolo: A. MANIATIS, L’IA en droit européen, Evrigenis Yearbook, Vol. 3, 2021, pp. 247-254.

[2] T. VIDALIS, Biodiritto Secondo Volume: dalla biodiversità alle machine intelligenti, Edizioni Sakkoula Atene – Salonicco, 2017 (in greco), p. 204.

[3] Convenzione per la protezione dei Diritti dell’Uomo e della dignità dell’essere umano nei confronti dell’applicazioni della biologia e della medicina: Convenzione sui Diritti dell'Uomo e la biomedicina.

[4] EM. ROUKOUNAS, Discorso introduttivo, in I. PAPADIMITRIOU, M. DRAKOPOULOU (cur.), Bioetica e Diritti umani I 10 anni della Convenzione di Oviedo, Edizioni Ant. N. Sakkoula Atene – Komotini 2010 (in greco), p. 19.

[5] T. VIDALIS, op. cit., pp. 205-206.

[6] M. ROLLE-BOUMLIC, Fiche de lecture : Le Vêtement dans la littérature, Casden Banque Populaire, Mars -avril 2016, pp. 14-15.

[7] P. TAFFOREAU, C. MONNERIE, Droit de la propriété intellectuelle, Gualino lextenso éditions 2015, pp. 258-259.

[8] T. VIDALIS, op. cit., pp. 212-215.

[9] A. ARGYROPOULOS, Criminalità elettronica, Edizioni Ant. N. Sakkoula Atene - Komotini 2001 (in greco), pp. 43-44.

[10] L. BERTO, La responsabilità civile dei robot: dalla Risoluzione del Parlamento Europeo all’articolo 2043 c.c., 4 dicembre 2017, Iusinitinere.it http://www.iusinitinere.it/responsabilita-civile-dei-robot-risoluzione-parlamento-europeo-art-2043-cc-6626.

[11] T. VIDALIS, op. cit., p. 215.

[12] Parlamento europeo, Risoluzione del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL)), disponibile qui http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//IT.

[13] L. BERTO, op. cit.

[14] 1 della Risoluzione.

[15] L. BERTO, op. cit.

[16] Ibid.

[17] 59 f) della Risoluzione.

[18] T. VIDALIS, op. cit., pp. 215-216.

[19] Risoluzione del Parlamento europeo del 12 settembre 2018 sui sistemi d’arma autonomi (2018/2752(RSP)).

[20] A. GEORGIADIS, Ragione e Giustizia, in Società dei Giuristi di Grecia Nord, Volume di anniversario 30 anni (1987-2017), Edizioni Sakkoula Atene – Salonicco 2017 (in greco), p. 122.

[21] Ibid., pp. 135-136.

[22] I. IGGLEZAKIS, Diritto di Informatica, Edizioni Sakkoula Atene – Salonicco 2018 (in greco), p. 278.

[23] The Toronto Declaration: Protecting the right to equality and non-discrimination in machine learning systems.

[24] Articolo 4 del Preambolo della Dichiarazione di Toronto, HURO, Diritti umani ed intelligenza artificiale: arriva la Dichiarazione di Toronto, 2018, https://www.hurolife.it/dichiarazione-di-toronto/.

[25] Articolo 5 del Preambolo della Dichiarazione di Toronto, HURO, Diritti umani ed intelligenza artificiale: arriva la Dichiarazione di Toronto, 2018, https://www.hurolife.it/dichiarazione-di-toronto/.

[26] Articoli 52 - 56 (Il diritto ad un rimedio efficace).

[27] Articolo 52.

[28] Articolo 56 b).

[29] Articolo 5 del Preambolo.

[30] S. HAWKING, La cronaca del Tempo - Illustrato, Katoptro (traduzione in greco), p. 236.

[31] Il riferimento è il seguente: Julia ANGWIN, Jeff LARSON, Surya MATTU and Lauren KIRCHNER for ProPublica, Machine Bias, 2016, https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing.

[32] Articolo 59 (Conclusione).

[33] Vedere D. BATSOULAS, Riconoscimento di personalità di diritto a delle entità di intelligenza artificiale: un passaggio necessario o un movimento disperato?, Dimosio Dikaio, Anno 2019 (4), Numero 3-4 (Luglio – Dicembre), (in greco), pp. 294-295.