Comunicato Stampa: Presentazione libro ‘Attrazione digitale.Lato oscuro del transumano e dell’Intelligenza Artificiale'

(Arv) Venezia, 14 maggio 2026
Oggi, nella sala Stampa ‘Oriana Fallaci’ di palazzo Ferro Fini, il Presidente della Sesta commissione consiliare, Enoch Soranzo (FdI), ha presentato ‘Attrazione digitale. Il lato oscuro del transumano e dell’Intelligenza Artificiale’, il saggio della bioeticista Giulia Bovassi, pubblicato dall’Editore ‘Il Timone’ nel 2025, 280 pagine.
Ha moderato la presentazione David Mazzerelli.
Il consigliere regionale Enoch Soranzo, nell’introdurre la presentazione del volume, ha innanzitutto ringraziato l’autrice, Giulia Bovassi, per poi evidenziare come, “in tema di Intelligenza Artificiale, il Consiglio regionale del Veneto sta percorrendo un importante percorso di approfondimento. A partire dal cercare di rispondere a una domanda ormai centrale: fino a che punto la tecnologia resta uno strumento e quando, invece, inizia a ridefinire i confini stessi della dimensione umana? È questo il grande lavoro che siamo chiamati a fare, non soltanto sotto l’aspetto normativo, anche se oggi sono emersi molti spunti preziosi per l’attività legislativa che ci attende nelle prossime settimane, ma soprattutto sotto l’aspetto culturale e sociale. Serviranno, infatti, provvedimenti capaci di accompagnare la società, di creare gli strumenti e i meccanismi necessari per comprendere e decifrare gli algoritmi, costruendo consapevolezza e formando le competenze indispensabili per interpretare un linguaggio rispetto al quale non siamo ancora preparati. La nostra società ha un bisogno estremo di questo approfondimento: il tempo corre e noi dobbiamo correre ancora più velocemente. Non a caso, il tema è già stato al centro dei lavori dell’Aula nelle scorse settimane, attraverso una commissione congiunta tra la Sesta (cultura), la Quinta (politiche sociosanitarie) e la Quarta (legalità) commissione; nell’occasione, sono stati ascoltati gli Atenei, le Consulte provinciali studentesche, l’Ufficio scolastico regionale, esperti e dirigenti regionali. Da lì, è iniziato un percorso importante, che proseguirà nei prossimi mesi e che ha già fornito indicazioni concrete alle strutture regionali, sia sul piano delle politiche territoriali, sia sul fronte degli interventi legislativi.”
“Oggi – ha concluso Soranzo - segniamo dunque un’altra tappa significativa di questo percorso che il Consiglio regionale ha scelto di intraprendere.”
L’autrice, Giulia Bovassi, nella sua opera, ha cercato di analizzare soprattutto il lato oscuro dell’Intelligenza Artificiale.
“L’IA presenta diversi lati oscuri – ha spiegato Bovassi - che vanno dalle applicazioni più quotidiane e apparentemente banali, quelle di cui ormai tutti usufruiamo ogni giorno, fino agli aspetti più insidiosi, oggi fortunatamente al centro, sia del dibattito sociale, sia di quello istituzionale, a livello locale e nazionale. Tra questi, vi è l’utilizzo dei chat bot e dell’Intelligenza Artificiale Generativa. Quella a cui assistiamo oggi è una vera rivoluzione: questi sistemi sono diventati più complessi, ma anche più umani, più empatici, con la capacità di entrare in relazione con le persone e, soprattutto, con le loro fragilità.
Per questo, i minori non devono essere educati soltanto all’alfabetizzazione digitale, ma hanno particolarmente bisogno di sviluppare un autentico pensiero critico nei confronti di questi strumenti. A mio avviso, sia a livello regionale che nazionale, sarebbe molto importante costruire una sinergia che possa partire dalla definizione di una vera e propria Carta Etica; un documento che non si limiti a raccogliere principi generali, ma che rappresenti una fotografia chiara e concreta delle problematiche poste dall’Intelligenza Artificiale, offrendo anche indirizzi utili al legislatore per affrontarle attraverso misure normative adeguate. Una Carta Etica dovrebbe avere anche una funzione propositiva: individuare i punti più fragili di queste tecnologie e, allo stesso tempo, definire i principi etici necessari affinché esse possano essere utilizzate a beneficio dell’uomo, e non a suo danno.”
“Credo, infatti, che oggi non esista ancora un approccio pienamente corretto verso uno strumento che stiamo ancora cercando di comprendere e decifrare, e rispetto al quale tutto il mondo sta tentando di orientarsi, non solo sul piano normativo, ma prima ancora su quello etico e antropologico – ha aggiunto Giulia Bovassi - Per questo, ritengo che l’atteggiamento più prudente sia quello di non considerare l’Intelligenza Artificiale come un facile sostituto dell’essere umano, nonostante i vantaggi che essa può offrire, e soprattutto di non percepirla come un nostro simile. È necessario mantenere sempre al centro la responsabilità dell’uomo, la sua capacità di giudizio, la sua specificità e unicità rispetto a qualsiasi prodotto della realtà sintetica.”
David Mazzerelli ha intervistato l’autrice, riflettendo sul fatto che “oggi, rispetto all’Intelligenza Artificiale, c’è molta ignoranza, dato che l’IA viene praticamente utilizzata solo per cercare di rispondere ai nostri dubbi, molto spesso perfino banali. In realtà, dietro questa tecnologia, c’è molto di più: pensiamo al settore sanitario, che verrà rivoluzionato dall’avvento dell’Intelligenza Artificiale. Giulia Bovassi, nel suo libro, affronta in particolare il tema legato al lato oscuro dell’IA, uno strumento nato per far risparmiare tempo all’uomo ma che, se utilizzato non nel modo corretto, può creare dipendenza e influire sulla personalità stessa degli individui. Giulia Bovassi analizza soprattutto i rischi a cui i minori vanno incontro nell’utilizzo dell’Intelligenza Artificiale, cercando di individuare possibili soluzioni.”
Il libro si pone in modo critico nei confronti del transumanesimo, ovvero verso l’idea di potenziare l’uomo tramite la tecnologia. Per l’autrice, infatti, la tecnologia non è più solo uno strumento, ma qualcosa che sta modificando identità, relazioni, libertà e persino la concezione dell’essere umano, con il rischio di sviluppare una dipendenza crescente dal digitale, e delegare alle macchine funzioni cognitive e relazionali. Il rischio più grande non è l’Intelligenza Artificiale in sé stessa, ma l’accettazione acritica di una cultura tecnologica che tende a ridurre fragilità e limiti.
La responsabilità editoriale e i contenuti di cui al presente comunicato stampa sono a cura di CONSIGLIO REGIONALE VENETO

