Tecnologie assistive “AI based” e tutela delle persone con disabilità: privacy e responsabilità nel diritto privato europeo, britannico e comparato

Social
image_pdfimage_print

Introduzione

Dalla nascita simbolica dell’intelligenza artificiale alla Conferenza di Dartmouth del 1956, il rapporto tra cognizione e automazione ha posto profonde sfide giuridiche ed etiche (McCarthy et al., 1955). In quella che Schwab (2016) ha definito la “Quarta rivoluzione industriale”, l’IA sta trasformando l’interazione umana con la tecnologia, in particolare nei contesti di vulnerabilità strutturale (NYC, 2025). Tra gli sviluppi più promettenti vi sono le tecnologie assistive basate sull’IA, che migliorano la comunicazione, la percezione e la mobilità delle persone con disabilità. Dagli strumenti attivati dalla voce alle interfacce cervello-computer (BCI), questi sistemi favoriscono autonomia e inclusione. Tuttavia, la loro dipendenza dall’elaborazione di grandi quantità di dati e da algoritmi adattivi genera rilevanti criticità in materia di protezione dei dati, consenso e responsabilità civile (Murray, 2020).

Questo saggio esamina tali questioni alla luce del diritto privato europeo, britannico e comparato. Analizza come il GDPR dell’UE e l’AI Act interagiscano con l’UK GDPR e con il Data Protection Act 2018, nonché il modo in cui i regimi di responsabilità nei sistemi di civil law e common law affrontano i danni causati dall’IA assistiva. L’obiettivo è valutare se i quadri normativi esistenti proteggano adeguatamente le persone la cui disabilità le rende dipendenti da queste tecnologie.

 

  1. Protezione dei dati e consenso nei contesti assistivi

I sistemi di IA assistiva trattano abitualmente categorie particolari di dati, tra cui informazioni biometriche, neurali e comportamentali. Ai sensi dell’articolo 9 del GDPR, tale trattamento è lecito solo in presenza di specifiche eccezioni, la più comune delle quali è il consenso ai sensi dell’articolo 6, paragrafo 1, lettera a). Tuttavia, quando gli utenti non possono esprimere o revocare liberamente il consenso a causa di disabilità cognitive o comunicative, questa base giuridica diventa fragile. Come sostiene Pizzetti (2018), il consenso non può fungere da reale garanzia quando l’autonomia è strutturalmente limitata.

Nei contesti assistivi, il consenso può essere mediato da caregiver o da interfacce tecnologiche, con il rischio di forme di eterodeterminazione e di opacità procedurale (Hervey & Lavy, 2024). Tali rischi aumentano quando il sistema di IA è qualificato come ad alto rischio ai sensi dell’articolo 6 dell’AI Act, che impone obblighi di gestione del rischio e di supervisione umana. Tuttavia, questi obblighi potrebbero non garantire un controllo effettivo da parte dell’utente quando le persone non hanno la capacità di comprendere il funzionamento degli algoritmi o le sue implicazioni per i loro diritti.

L’interazione tra l’AI Act e il GDPR rimane oggetto di dibattito. Il Garante italiano ha osservato che l’AI Act «opera come una normativa aggiuntiva sull’uso e la condivisione dei dati», sovrapponendosi ai principi del GDPR relativi alla limitazione delle finalità e alla responsabilizzazione (accountability). Analogamente, la Conferenza tedesca delle autorità per la protezione dei dati (DSK, 2024) ha evidenziato l’incertezza che tale sovrapposizione genera per i titolari del trattamento. Al centro della questione vi è la classificazione dei dati: mentre il GDPR distingue tra dati personali e dati non personali (articolo 4, paragrafo 1), questo confine è messo in discussione dalla capacità dell’IA di correlare dataset eterogenei e di re-identificare individui a partire da dati apparentemente anonimi. Le banche dati ibride, che combinano entrambe le tipologie, sono soggette al GDPR quando i dataset sono «inestricabilmente collegati» (Wachter et al., 2017).

Il problema diventa ancora più complesso nel caso delle neurotecnologie, che elaborano dati neurali e mentali in grado di rivelare emozioni, ricordi o intenzioni. D’Acunto e Mollo (2022) osservano che, mentre i dati neurali possono qualificarsi come dati personali, i dati mentali sono più difficili da classificare al di fuori dei contesti clinici. Di conseguenza, alcuni degli aspetti più sensibili della cognizione umana rischiano di rimanere al di fuori della protezione prevista dall’articolo 9 del GDPR, salvo nei casi in cui rivelino caratteristiche come convinzioni politiche o religiose.

 

  1. Il quadro britannico: dall’UK GDPR al Data Protection Act 2018

Dopo la Brexit, il Regno Unito ha mantenuto l’UK GDPR, affiancato dal Data Protection Act 2018 (DPA 2018). Il quadro normativo britannico ricalca in larga misura il modello europeo, ma prevede ulteriori meccanismi volti a garantire un trattamento leale e lecito dei dati e maggiori tutele per le persone vulnerabili. L’Information Commissioner’s Office (ICO, 2023) sottolinea in particolare il principio di fair processing, che impone ai titolari del trattamento di assicurare che gli individui comprendano come i loro dati vengano utilizzati, soprattutto quando i processi decisionali coinvolgono sistemi di IA o forme di profilazione automatizzata.

Il sistema britannico riconosce inoltre la difficoltà di ottenere un consenso valido da parte di utenti con capacità limitata. Ai sensi della sezione 9 del DPA 2018, il trattamento di categorie particolari di dati è consentito se ricorre una delle condizioni previste nello Schedule 1. Tra queste, lo Schedule 1, Part 2, Paragraph 6 permette il trattamento per motivi di rilevante interesse pubblico, purché siano previste adeguate garanzie. Le linee guida dell’ICO su IA e protezione dei dati (2023) sottolineano inoltre che il principio di equità implica la possibilità di “contestare in modo significativo” decisioni automatizzate, un aspetto particolarmente rilevante per i sistemi assistivi che mediano la voce o le intenzioni di un utente (ICO, 2023).

Anche la giurisprudenza britannica si è confrontata direttamente con questioni di privacy legate all’IA. Nel caso R (Bridges) v Chief Constable of South Wales Police [2020] EWCA Civ 1058, la Court of Appeal ha stabilito che l’uso del riconoscimento facciale in tempo reale da parte della polizia violava il diritto alla vita privata ai sensi dell’articolo 8 della Convenzione europea dei diritti dell’uomo e mancava di una chiara base giuridica nel DPA 2018. La decisione ha evidenziato la necessità di trasparenza, proporzionalità e controllo, principi che richiamano il quadro di responsabilizzazione (accountability) previsto dal GDPR. Tuttavia, come osservato dallo stesso ICO, il diritto britannico attuale non prevede garanzie specifiche per l’IA assistiva che elabora neurodati o flussi continui di dati comportamentali, lasciando gli utenti esposti a possibili abusi o discriminazioni (CJEU, C-621/15, 2017).

 

III. Responsabilità civile e prospettive comparate

La responsabilità per i danni causati dalle tecnologie assistive basate sull’IA rimane una delle questioni più controverse nei diversi ordinamenti. Nei sistemi di civil law, la responsabilità si fonda tradizionalmente sulla colpa o sul difetto del prodotto, ma queste categorie risultano messe alla prova da sistemi auto-apprendenti i cui processi causali sono opachi. Il ritiro, nel 2025, della proposta di AI Liability Directive dell’UE (COM(2022) 496 final) ha lasciato un vuoto normativo. La Product Liability Directive (UE) 2024/2853 colma solo in parte questa lacuna, estendendo la nozione di difetto anche al software e agli output dell’IA. Tuttavia, come osservano Procida Mirabelli Di Lauro e Feola (2020), questo modello resta essenzialmente reattivo e tecnologicamente statico.

La giurisprudenza comparata mostra tentativi di adattare i principi esistenti. La Corte di giustizia dell’Unione europea (CJEU, C-621/15, 2017) ha riconosciuto che i ricorrenti possono fare affidamento su presunzioni di difetto, alleggerendo l’onere probatorio. Anche la Corte di cassazione italiana (Cass. civ., Sez. III, 22571/2018) si è sostanzialmente allineata a questo orientamento, riconoscendo il carattere “presunto” della responsabilità per prodotto difettoso e ammettendo il ricorso a presunzioni probatorie per evitare che il danneggiato sia gravato da un onere della prova impossibile. Analogamente, la Corte federale tedesca (BGH, VI ZR 107/08, 2009) ha riconosciuto una convergenza tra colpa e difetto, rafforzando la finalità protettiva del diritto della responsabilità civile.

Nel common law britannico, la responsabilità per i sistemi di IA resta ancorata al paradigma della negligence. In base al caso Caparo Industries plc v Dickman [1990] 2 AC 605, la responsabilità richiede la prevedibilità del danno (foreseeability), la prossimità (proximity) e l’esistenza di un dovere di diligenza (duty of care). Questi elementi diventano problematici quando il danno deriva da sistemi autonomi o auto-apprendenti che evolvono oltre la loro programmazione iniziale. Nel caso Robinson v Chief Constable of West Yorkshire Police [2018] UKSC 4, la Supreme Court ha ribadito che i doveri giuridici devono fondarsi su principi consolidati piuttosto che su valutazioni discrezionali di politica del diritto, ma ha lasciato aperta la questione di come tali doveri si applichino ai danni causati da algoritmi. Inoltre, nell’ambito della responsabilità da prodotto disciplinata dal Consumer Protection Act 1987, il software non è esplicitamente elencato tra i “prodotti”, creando ulteriore incertezza nel caso di strumenti di IA difettosi.

In prospettiva comparata, modelli di responsabilità basati sul rischio o schemi di assicurazione obbligatoria – come proposto da parte della dottrina europea – potrebbero offrire una soluzione più flessibile (Procida Mirabelli Di Lauro & Feola, 2020). Tali meccanismi garantirebbero il risarcimento degli utenti, in particolare delle persone con disabilità, anche quando colpa o nesso causale non possano essere pienamente dimostrati. Essi sarebbero inoltre coerenti con la logica preventiva sia dell’AI Act sia dei principi britannici di gestione proporzionata del rischio.

 

  1. Privacy e responsabilità civile: verso un quadro coerente

La regolazione della protezione dei dati e della responsabilità civile presenta una significativa frammentazione tra i diversi sistemi giuridici. Il GDPR e l’AI Act dell’Unione europea pongono l’accento sulla prevenzione e sulla trasparenza, mentre il Data Protection Act 2018 (DPA 2018) del Regno Unito e le linee guida dell’ICO si concentrano maggiormente sull’equità del trattamento e sui rimedi individuali. Tuttavia, nessuno di questi strumenti offre una soluzione completa, né per gli utenti danneggiati da malfunzionamenti o da un uso improprio delle tecnologie assistive basate sull’IA, né per coloro che subiscono violazioni dei dati personali causate da malfunzionamenti o da un uso improprio del sistema di IA.

Per quanto riguarda la responsabilità per le violazioni dei dati personali, l’articolo 82 del GDPR e la sezione 168 del DPA 2018 riconoscono agli interessati il diritto al risarcimento. In pratica, tuttavia, dimostrare il nesso causale e quantificare il danno resta complesso quando il funzionamento del sistema di IA è opaco o mediato da piattaforme di terze parti. I tribunali potrebbero affrontare questa difficoltà interpretando le norme sul risarcimento alla luce dell’articolo 47 della Carta dei diritti fondamentali dell’Unione europea – che sancisce il diritto a un ricorso effettivo – e dell’articolo 6 della Convenzione europea dei diritti dell’uomo – relativo al diritto a un equo processo – assicurando così che le persone vulnerabili non siano private di tutela anche quando il danno presenti una complessità tecnologica.

Per quanto riguarda invece la responsabilità civile generale per i danni derivanti da malfunzionamenti o dal comportamento dei sistemi di IA assistiva, dottrina e giurisprudenza stanno esplorando modelli di imputazione sistemica, riconoscendo il ruolo attivo delle architetture algoritmiche. Sul piano concettuale, la teoria degli “agenti elettronici” elaborata da Teubner mette in discussione le premesse antropocentriche del diritto, suggerendo che le architetture digitali possano agire come soggetti semi-autonomi nella produzione di effetti giuridici. Sebbene i tribunali nelle giurisdizioni di common law, come nel caso Thaler v Commissioner of Patents [2021] FCA 879, abbiano resistito all’idea di riconoscere personalità giuridica all’IA (Teubner, 2006), Wagner (2019) sostiene che il diritto privato dovrà evolversi in questa direzione.

 

Conclusione

Le tecnologie assistive basate sull’IA rappresentano al tempo stesso il potenziale emancipatorio e i rischi dell’innovazione digitale. Da un lato, offrono opportunità straordinarie per rafforzare l’autonomia e l’inclusione delle persone con disabilità; dall’altro, le espongono a nuove forme di vulnerabilità. L’analisi comparata del diritto europeo, britannico e tedesco-italiano mostra progressi significativi nella regolazione della protezione dei dati e della gestione del rischio, ma anche persistenti lacune in materia di responsabilità e rimedi.

Il GDPR, l’AI Act, l’UK GDPR e il DPA 2018 forniscono nel loro insieme una base fondata su equità, responsabilizzazione e trasparenza. Tuttavia, il consenso resta fragile nei contesti di dipendenza, e le dottrine della responsabilità civile – siano esse fondate sulla colpa o sul difetto del prodotto – faticano ad adattarsi a sistemi autonomi. Un quadro normativo più coerente dovrebbe combinare garanzie preventive con meccanismi di risarcimento basati sul rischio, in modo da evitare che l’innovazione tecnologica accentui le disuguaglianze.

In definitiva, la sfida per il diritto privato consiste nel conciliare la vulnerabilità umana con l’autonomia tecnologica, integrando l’IA in un ordine giuridico capace di tutelare la dignità e l’autodeterminazione di ogni individuo, compresi coloro la cui voce è mediata da macchine intelligenti.

 

Bibliography

Libri e capitoli di libro

  • D’Acunto, L. & Mollo, A.A., “Profili di un’analisi etica e giuridica delle neurotecnologie in funzione di tutela delle persone con disabilità”, in Dell’Aversana, F., Fattori, L., Mollo, A.A. & Napolitano, D. (eds.), Note sulla disabilità (Naples: Editoriale Scientifica, 2022).
  • Hervey, M. & Lavy, M. (eds.), The Law of Artificial Intelligence (London: Sweet & Maxwell, 2024).
  • Murray, S., Disability and the Posthuman: Bodies, Technology and Cultural Futures (Liverpool: Liverpool University Press, 2020).
  • Pizzetti, F. (ed.), Intelligenza artificiale, protezione dei dati personali e regolazione (Turin: Giappichelli, 2018).
  • Procida Mirabelli Di Lauro, A. & Feola, M., “Intelligenze Artificiali e responsabilità civile”, in Diritto delle obbligazioni (Naples: Edizioni Scientifiche Italiane, 2020), 507–558.
  • Schwab, K., La quarta rivoluzione industriale (Milan: FrancoAngeli, 2016).

Articoli su rivista

  • Teubner, G., “Rights of Non-humans? Electronic Agents and Animals as New Actors in Politics and Law”, Journal of Law and Society, 33(4), 497–521 (2006).
  • Wagner, G., “Robot, Inc.: Personhood for Autonomous Systems?”, Fordham Law Review, 88, 591–612 (2019).
  • Wachter, S., Mittelstadt, B. & Floridi, L., “Why a Right to Explanation of Automated Decision-Making Does Not Exist in the GDPR”, International Data Privacy Law, 7(2), 76–99 (2017).

Report

  • Garante per la protezione dei dati personali, Intelligenza artificiale e protezione dei dati: tra innovazione e tutela dei diritti fondamentali (2023).
  • German Data Protection Conference (DSK), Orientation Guide on AI and Data Protection (2024).
  • Information Commissioner’s Office, AI and Data Protection Guidance (London, 2023).
  • McCarthy, J., Minsky, M. L., Rochester, N., & Shannon, C. E., A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence (Dartmouth, 1955).
  • New York City Bar Association, The Impact of the Use of AI on People with Disabilities (2025).

Giurisprudenza

  • BGH, VI ZR 107/08 (2009).
  • Caparo Industries plc v Dickman [1990] 2 AC 605.
  • civ., Sez. III, n. 22571 (2018).
  • CJEU, C-621/15 (2017).
  • R (Bridges) v Chief Constable of South Wales Police [2020] EWCA Civ 1058.
  • Robinson v Chief Constable of West Yorkshire Police [2018] UKSC 4.
  • Thaler v Commissioner of Patents [2021] FCA 879.

Hegel ancora o di nuovo, un confronto sul futuro della filosofia tra politica e modernità

Social
image_pdfimage_print

Martedì 3 marzo, alle ore 17.30, presso lo Spazio Guida di via Bisigliano, si terrà la presentazione del volume Hegel ancora o di nuovo, curato da Berardo Impegno e pubblicato da Guida Editori. L’incontro si propone come un momento di riflessione pubblica e di confronto critico su uno dei pensatori più influenti della modernità, Georg Wilhelm Friedrich Hegel, e sull’attualità della sua eredità teorica continua la lettura….

10 Febbraio, Giornata del Ricordo delle foibe e dell’esodo giuliano-dalmata. L’esperienza della testimone Rosita Marchese

Social
image_pdfimage_print

di Alessandra Macci e Domenico Cirella

 

“La cultura è, per me, costruzione di ponti e distruzione di muri e barriere: sono profuga istriana, nata nel 1944 ad Umago; ho vissuto per un periodo nelle baracche del Bosco di Capodimonte, dove era stato allestito un campo profughi. Malgrado una vita e un’infanzia difficile, non ho risentimenti e non ho mai coltivato l’odio. Dopo l’esodo, i miei genitori non sono mai più tornati; io, invece, sono tornata e sempre volentieri. In Croazia, ad Umago, non ho mai immaginato nemici, ma cittadini come me che la guerra aveva portato nel luogo che mi apparteneva” (Rosita Marchese, in occasione della Giornata del Ricordo 2026).

Nata il 30 luglio 1944 a Cipiani, piccola frazione di Umago che, all’epoca, era provincia di Pola, una città abitata prevalentemente da contadini e pescatori, e battezzata nella locale chiesa di Matterada, Rosaria Marchese detta Rosita, è diretta testimone di quell’esodo giuliano-dalmata che avrebbe portato, tra le altre cose, alla frammentazione dell’intera famiglia materna; se, infatti, i nonni rimasero nella loro casa ad Umago in Istria, gli zii materni si divisero, tra Trieste, Pordenone e Canada. Uno dei fratelli della madre rimase nella Jugoslavia di Tito, interrompendo i rapporti familiari.

Nell’ambito di quell’esodo la sua famiglia scelse Napoli, luogo originario di suo padre Adriano.

Chi è Rosita Marchese.

Entrata ad appena 19 anni, nel luglio del 1963 e quindi subito dopo il liceo, nel settore amministrativo della RAI Radiotelevisione italiana, azienda che dieci anni prima aveva avviato le trasmissioni televisive e che aveva da poco inaugurato il secondo programma, Rosita Marchese vive appieno, pur dai settori amministrativi, il periodo in cui la tv, diretta da Ettore Bernabei, produce e trasmette programmi culturali quali TV7, e sceneggiati tratti da romanzi di Tolstoj, Alessandro Manzoni, A.J. Cronin, o quali l’Odissea;  un clima stimolante, che contribuisce ad orientare la giovane Rosita, in quegli anni iscritta alla Facoltà di Lettere all’Università di Napoli, verso l’indirizzo dello Spettacolo, in cui si laurea col massimo dei voti.

Da quel momento la Marchese colleziona dunque, come manager culturale e spesso nel segno pioneristico dell’innovazione, esperienze significative sia nel settore pubblico che nel privato. Prima nel pubblico, e quindi alla Rai, dove ricopre, fino ad aprile del 2000, ruoli amministrativi e produttivi presso il Centro di produzione di Napoli, poi alla Direzione di Rai Tre di Roma, infine nell’ambito della Presidenza, con cui collabora, essenzialmente da esterna, alla realizzazione di programmi culturali e fiction. Successivamente nel settore privato, presso i canali satellitari del gruppo Stream – Sky Italia, presso i quali ricopre il ruolo di direttore responsabile del Centro di produzione e Centro di distribuzione; dirige, dal 2000, il nuovo centro di via Salaria a Roma; riceve l’Oscar delle tv satellitari per la prima edizione del “Grande fratello” in diretta h. 24.

Dopo la realizzazione nel periodo 2003-04, con la Società Gioco Calcio Spa, della nuova piattaforma satellitare per le riprese e la distribuzione delle partite del campionato di Serie B, recupera, con la nomina a consigliere di amministrazione del Teatro San Carlo di Napoli (luglio 2006 – agosto 2007), la sua iniziale vocazione per la cultura tout-court; Teatro San Carlo per il quale, nel 2008, è anche consulente del commissario straordinario al teatro stesso.

Consigliere di amministrazione, negli anni 2010-11, della Fondazione Lirica del Teatro Verdi della “sua” Trieste, ultima città istriana d’Italia, e dello STOÀ – Istituto di Studi per la Direzione e Gestione di Impresa, e attiva, dal 2006 al 2021, nella Commissione per la Cinematografia – Sezione interesse Culturale/Lungometraggi del Ministero per i Beni e le Attività Culturali, dal 2004 al 2021 collabora con la Camera dei Deputati alla realizzazione di infrastrutture per la gestione del palinsesto e la messa in onda di trasmissioni su canale TV satellitare; e in supervisione, all’installazione di apparati per la migrazione analogico/digitale dei servizi radiotelevisivi.

Grazie alla notevole esperienza accumulata in ambito culturale sia nel pubblico che nel privato, nel giugno 2021 è nominata presidente (prima donna) del CdA dell’Accademia di Belle Arti di Napoli, accademia che, fondata da Carlo di Borbone nel 1752 e sita nell’ex complesso di San Giovanni Battista delle Monache di Napoli, è una delle più prestigiose e antiche d’Italia; un incarico confermatole per un ulteriore triennio nel giugno del 2024 che lei, profuga istriana, indirizza soprattutto verso progetti che prevedano la costruzione ideale di ponti tra culture. Non a caso, nel corso di una sua recente intervista a “Io Donna” – nella quale dichiara, peraltro, la volontà di valorizzare nell’Accademia i talenti femminili, policy che ha consentito di conseguire il primo posto nella classifica Italy’s Best Employer for Women, edizione 2026 – insiste sull’importanza del “lavoro d’équipe per […] costruire reti di collaborazioni con università e istituti di ricerca, senza frontiere”; e soprattutto sulla necessità di “creare un ponte culturale e creativo tra Napoli, i Balcani, il Medio Oriente e il Nord Africa, con il coinvolgimento di dieci istituzioni internazionali”, il cui chiaro esempio è rappresentato dal progetto dell’Accademia, Crossing, Art Without Limits (Micaela Zucconi, Al lavoro con… Rosita Marchese Presidente dell’Accademia di Belle Arti di Napoli, Io Donna, 1 dicembre 2025, https://www.iodonna.it/attualita/famiglia-e-lavoro/2025/12/01/al-lavoro-con-rosita-marchese/).

Oltre alle molteplici attività svolte nell’ambito dell’Accademia, oggi la Marchese continua a coltivare le sue grandi e antiche passioni che, a Napoli, sono cinema e teatro, e, nella sua casa di Anacapri, dove si reca periodicamente per rilassarsi, le rose del suo giardino. E tra i principali interessi, ovviamente la lettura, di saggi e romanzi, di cui ancora oggi continua a fare “intenso scambio” con il figlio Alfredo, ingegnere. Ma soprattutto, convinta della necessità di “testimoniare il dolore di un popolo, un esodo lungo, con atrocità, delazioni, perdita di tutto” e di combattere ogni “lettura distorta degli avvenimenti”, continua a dare il suo contributo in occasione del 10 Febbraio, Giornata del Ricordo, una solennità civile nazionale italiana che, istituita con la legge n. 92 del 30 marzo 2004 in occasione dell’anniversario del Trattato di Parigi del 10 febbraio 1947 – trattato con il quale l’Italia dovette cedere alla Jugoslavia Fiume, gran parte dell’Istria e della Venezia Giulia, Zara e la sua provincia – commemora, partendo dalla sua esperienza personale, la triste stagione delle foibe e dei profughi istriani (si veda l’articolo “Bosco di Capodimonte: la magnolia insaponata della mia infanzia. Il ricordo di Rosita Marchese, presidente dell’Accademia di Belle Arti di Napoli”, https://www.premiogreencare.org/bosco-di-capodimonte-la-magnolia-insaponata-delle-mia-infanzia-il-ricordo-di-rosita-marchese-presidente-dellaccademia-di-belle-arti-di-napoli/). In quegli anni la popolazione italiana in Istria, che era stata spesso identificata, durante il Ventennio, con il fascismo stesso, e dunque accusata di aver duramente gestito i territori dalmati e istriani e imposto alle popolazioni slave una italianizzazione forzata, viene infatti vista, dal movimento di liberazione jugoslavo guidato dai partigiani del maresciallo Tito, come ostacolo alla nascita, e poi al consolidamento, di quello stato jugoslavo progettato dallo stesso Tito; e quindi fin dal 1943, e ancor più, dopo il Trattato di Parigi del 1947, sottoposta a processi sommari, atti di violenza, rappresaglie, confische di case, terre e ricchezze, infoibamenti.

La mente di Rosita Marchese torna spesso, quindi, a quegli anni, quando, fuggita dall’Istria con la famiglia e giunta al centro di smistamento di Trieste, arriva poi a Napoli – di cui, si è detto, era originario il padre Adriano – avendo subito modo di apprezzare la solidarietà napoletana: il parroco della Speranzella, ai Quartieri Spagnoli, trova infatti loro una stanza in famiglia, in Vico Canale ai Cristallini nel Rione Sanità, sistemazione provvisoria che avrebbe loro consentito di ambientarsi alla nuova città, prima di approdare al campo allestito per i profughi giuliani nel Bosco di Capodimonte.

Rosita trascorre dunque gran parte della sua infanzia (dal 1947 al 1954) in una minuscola baracca del campo profughi del Bosco; un unico ambiente, diviso in due da una parete in cartongesso realizzata dal padre, con un armadio, fatto di cartone e assi di legno, pure quello costruito dal padre; infine, una sorta di angolo cottura, costituito da un piccolo cucinino alimentato, ovviamente, con quella legna che nel Bosco di Capodimonte di certo non mancava.

Così come le due sorelle, Rosita è quindi mandata in “collegio”. E a lei tocca l’orfanotrofio dell’Arco Mirelli del quartiere Chiaia, tenuto dalle suore di San Vincenzo, struttura in cui trascorre i primi quattro anni delle scuole elementari. Sola, e lontana anche dalle sorelle, nel frattempo affidate ad altre strutture, ha però la fortuna di poter vedere spesso la mamma, che va lì a cucire abiti e grembiuli; e, durante le recite di beneficenza, per le quali viene scelta per la sua buona dizione italiana, anche altri membri della famiglia. Durante i giorni di festa e le pause estive ritorna poi al Bosco, dove,  grazie ai giochi e la vita all’aria aperta, può condurre una vita tutto sommato serena. Con altri bambini, raccoglie infatti sacchi di ghiande, destinate ai maiali dei contadini della vicina località di San Rocco, guadagnando così qualche soldo; e funghi, erbe e ortaggi selvatici, che vanno ad integrare la dieta, povera, delle famiglie profughe, pure aiutate, dalle istituzioni, con forniture di derrate alimentari, tra cui grosse scatole di formaggio giallo e latte in polvere.

Nonostante la dura vita da “baraccati”, per gli adulti non mancano, nel Bosco, momenti di serenità; ciò grazie ad una vita condotta in modo comunitario, con qualche serata di canti e balli organizzata in una baracca più grande destinata a balera; e feste religiose, in particolare quella del 3 novembre dedicata a San Giusto – santo venerato dalla comunità giuliana, e patrono di Trieste – che si svolge in un secondo, piccolo campo del Bosco, feste durante le quali i giovani si sfidano alla corsa dei sacchi, al tiro alla fune e alla scalata di una magnolia per l’occasione insaponata, pianta tuttora presente nei pressi della Fagianeria del Bosco.

Rispetto a quegli eventi, negli adulti prevarrà comunque, per il resto della vita, un sentimento di dolore e tristezza. “Per i miei genitori – dichiarerà la Marchese in un’intervista – sono stati anni durissimi, sui quali ha pesato un dolore mai, mai sopito. Avevano una nostalgia struggente, ma non sono mai più tornati in Istria, mia madre fermava il suo sguardo sulle punte di Pirano e Salvore sempre da Trieste. Hanno mantenuto un dignitoso silenzio impegnati a costruire per noi un futuro senza odi e rancori” (“Bosco di Capodimonte: la magnolia insaponata della mia infanzia. Il ricordo di Rosita Marchese, presidente dell’Accademia di Belle Arti di Napoli”, cit.).

Immigrata ante litteram, seppure di fatto italiana, la Marchese ha preso parte al documentario di Prospero Bencivenga, World Napoli (2007), film sull’immigrazione e sulle varie etnie che coesistono nel XXI secolo in Napoli e dintorni; documentario che, presentato in anteprima in una sua prima versione, alla 62a Mostra del Cinema di Venezia (2005), fissa lo sguardo sui minori immigrati, sul loro rapporto con il territorio che li ospita, sul viaggio d’arrivo, sullo sradicamento e, soprattutto, sulla condizione di doppia identità – vissuta sessant’anni prima dalla stessa Rosita – in una Napoli, ora multicromatica e polifonica, che si conferma città di cultura anche nella sua capacità di costruire, per dirla con Rosita, ponti e non muri.

La legittima difesa. Difendersi non è giustificarsi: l’ultima parola è sempre umana

Social
image_pdfimage_print

di Luca Orlando

Con questo trentesimo e ultimo articolo della rubrica QdN sulla legittima difesa, è tempo di tirare le somme e guardare a quanto è emerso lungo il percorso.

Chi si difende non pensa al codice. Non valuta la proporzione, non misura il rischio, non consulta una norma. Si difende e basta. E quando tutto è finito, quando il rumore si spegne e resta solo il silenzio – quello di chi è stato colpito, e quello interiore di chi ha colpito – è lì che inizia il processo. Non solo quello penale. Quello morale. Quello pubblico. Quello personale. continua la lettura….

Smart working, i dati smentiscono i pregiudizi sulla presenza in ufficio

Social
image_pdfimage_print

di Roberta Baiano

 

Il dibattito sul lavoro agile continua a essere affrontato come se fosse una deroga temporanea, quando i numeri raccontano tutt’altro. La produttività, per esempio. Chi lavora in smart working tende a rendere di più, non per magia, ma perché può organizzare il proprio tempo in modo più razionale e operare in contesti che favoriscono concentrazione ed efficacia. L’idea che l’ufficio, di per sé, garantisca migliori risultati è sempre meno sostenuta dai fatti continua la lettura….

Sondaggi politici 2027: centrodestra avanti, ma la partita resta apertissima

Social
image_pdfimage_print

Se si votasse oggi per le elezioni politiche del 2027, il centrodestra risulterebbe ancora in vantaggio, ma con margini estremamente ridotti rispetto al trionfo del 2022. A fotografare uno scenario molto più equilibrato è il nuovo sondaggio dell’agenzia Piave, pubblicato da Fanpage.it, che simula la distribuzione dei seggi con l’attuale legge elettorale continua la lettura….

La legittima difesa. Il ruolo dei sindaci: ordinanze e sicurezza dal basso

Social
image_pdfimage_print

di Luca Orlando

 

La legittima difesa, per molti, è una questione di codice penale. Per altri, un tema politico da campagna elettorale. Ma per chi amministra le città, i paesi, i territori reali — quei luoghi fatti di strade poco illuminate, parchi abbandonati, case isolate — la sicurezza è prima di tutto una responsabilità quotidiana. E oggi più che mai, i sindaci si trovano al centro di una tensione crescente: da un lato i cittadini che chiedono protezione, dall’altro strumenti limitati, risorse scarse e una burocrazia spesso soffocante.

Nonostante ciò, sono proprio i sindaci a rappresentare, in molti casi, il primo volto dello Stato che le persone incontrano. Sono quelli a cui si scrive su Facebook, che ricevono le segnalazioni per i furti nelle case, i vandalismi, gli episodi sospetti. Sono loro che raccolgono la paura diffusa. E spesso, pur non avendo competenze dirette in materia di ordine pubblico, provano comunque a intervenire.

Come? Con le ordinanze, le collaborazioni con le forze dell’ordine, l’installazione di telecamere, il potenziamento dell’illuminazione pubblica, il sostegno ai gruppi di controllo di vicinato. In alcune città, sono nate vere e proprie unità di sicurezza urbana, con vigili formati per presidiare le zone più sensibili e stabilire un contatto diretto con i residenti. Sono tentativi, spesso creativi, di ricucire la fiducia tra cittadino e istituzione partendo dal basso.

Eppure, il margine d’azione è ristretto. Le ordinanze sindacali, per esempio, possono regolamentare l’orario di apertura dei locali, limitare la vendita di alcolici in certe zone, intervenire su situazioni di degrado, ma non possono sostituirsi alla repressione penale e non possono risolvere problemi strutturali come la criminalità organizzata, la mancanza di presidio statale o la giustizia lenta.

Ci sono però sindaci che si sono fatti portavoce delle istanze legate alla legittima difesa. Alcuni hanno chiesto leggi più incisive, altri hanno messo a disposizione fondi comunali per le spese legali di cittadini accusati dopo essersi difesi da un’aggressione. Misure simboliche, certo, ma che rivelano un profondo senso di vicinanza al territorio.

Questa attenzione è fondamentale, perché quando si parla di legittima difesa, non si parla solo di leggi: si parla di percezione di abbandono. E ogni sindaco che risponde, che ascolta, che si mostra presente, aiuta a ridurre quella distanza tra il cittadino e le istituzioni. Aiuta a far sì che le persone non si sentano costrette a difendersi da sole.

Serve però un passo in più. Serve che lo Stato riconosca il ruolo chiave delle amministrazioni locali nella costruzione della sicurezza, che affidi più strumenti, più fondi, più competenze ai comuni, perché nessuna riforma della legittima difesa sarà mai efficace se non parte dal territorio, se non considerano le differenze tra un centro storico e una frazione isolata, tra un quartiere vivo e uno dimenticato.

1 2 3 42