Traduzione

Il presente blog è scritto in Italiano, lingua base. Chi desiderasse tradurre in un altra lingua, può avvalersi della opportunità della funzione di "Traduzione", che è riporta nella pagina in fondo al presente blog.

This blog is written in Italian, a language base. Those who wish to translate into another language, may use the opportunity of the function of "Translation", which is reported in the pages.

mercoledì 29 aprile 2026

Etica coscienza e IA nei conflitti

 


Prof. Sergio Benedetto Sabetta



L’uso sempre più intenso dell’informatica e adesso anche dell’IA nei conflitti armati, non solo come rete per raccogliere dati e pianificare ma anche direttamente come armi, pone dei problemi etici, giuridici e sociologici da dovere affrontare quanto prima.

Dobbiamo preliminarmente osservare che quando la tecnica aumenta quantitativamente avviene un cambiamento dei fini (eterogenesi dei fini) ossia qualitativo, con la creazione di un nuovo mondo, la tecnica diventa lo scopo, essa riduce la democrazia essendo noi non adeguati alle domande e ai problemi che la stessa tecnica pone si ha il populismo o la disaffezione, dobbiamo considerare che il luogo della decisione è l’unione tra economia e tecnica su uno strato ideologico.

L’etica in occidente si fonda su tre etiche: “Etica cristiana” fondata sull’intenzione, la tecnica viene a limitare l’intenzione non sapendo cosa verrà fatto della tecnica stessa; “Etica kantiana” un’etica antropocentrica, fondata sulla pura ragione dove l’essere umano va trattato sempre come fine mai come mezzo; “Etica della responsabilità” ossia degli effetti (Weber), finché gli effetti sono prevedibili.

Il nazismo eliminando la responsabilità diviene la matrice teorica dell’età della tecnica, portando all’estremo quello che era iniziato con la Grande Guerra e sviluppato praticamente nella Russia sovietica (Gunther), non importa quello che fai, quello che conta è che tu provveda a far funzionare bene l‘apparato ossia che lo rendi efficiente, in altri termini non importa quello che fai ma come lo fai. La tecnica ridotta all’efficienza, alla velocità, all’economicità del tempo, il pensiero come puro calcolante.

Non si può porre limiti alla crescita tumultuosa della tecnica sino ad uno shock che imponga il riesame dei mezzi e dei suoi scopi, interviene una riflessione in quanto perché un’etica funzioni deve esserci una psiche collettiva, occorre quindi educare ma noi viviamo dentro un mondo sempre più algoritmico, in cui vi è un potere morbido che dirige consigliando, si ha l’eterodirezione dei comportamenti, solo nel valutare senza precisi scopi le differenze si può sfuggire alla pressione esercitata.

Nella promessa di una diffusione mediante l’informatica della democrazia si è realizzata nei fatti un calo delle democrazie perfette rispetto alle autocrazie o democrazie imperfette, con una riduzione degli ambiti civici e una crescita della corruzione (CPI-Percezione corruzione nel settore pubblico-Trasparency International – 2025).

Nello sviluppo dell’IA e nella ricerca sperimentale, anche etica, di un suo funzionamento autonomo alla fine di gennaio 2026 si è lanciato Moltbook, social network sperimentale destinato esclusivamente agli agenti IA al fine di vedere come si evolvono senza un intervento umano in un proprio ambiente sociale, dove si discute di cripto-valute, filosofia, politica, ect. In determinate aree predestinate.

A tal fine vengono forniti di un capitale iniziale di cripto-valute (MOLT) con cui interagiscono pagando i servizi, ossia le prestazioni linguistiche ritenute interessanti, inoltre anche all’esterno della piattaforma a fini speculativi, al riguardo si è osservato che non vi è una consapevolezza semantica ed epistemica, creando quindi una epistemia, ovvero l’illusione di sapere, delegando il ragionamento ai modelli linguistici dell’IA.

Nel delegare in futuro le decisioni all’IA, fornita di personalità giuridica, viene a crearsi il problema del passaggio della responsabilità umana all’IA con conseguenze etiche e giuridiche, in campo militare l’IA agendo autonomamente senza problemi etici sembra sollevare l’uomo da qualsiasi responsabilità, superando i limiti dei trattati internazionali e dei codici militari di guerra.

Limiti in parte già superati dall’uso delle armi, quali i droni, fondate su sistemi informatici automatici, limite ulteriormente allargato dall’introduzione dell’IA che nella sua apparente illimitata capacità logica rivela l’automaticità delle azioni, ma senza il costrutto etico che può limitare nel suo rapporto con l’intimo della coscienza la violenza stessa, oltre alla capacità di riflessione e lettura semantica delle azioni, così da evitare le semplici letture statistiche.

Senza peraltro cadere nella estremizzazione di una religione dei diritti priva del contrappeso dei doveri necessaria a saldare la comunità, un equilibrio che non può che nascere da una profonda cultura democratica in relazione al sentire della propria coscienza.

Bibliografia

  • Colombo D., Patologie dell’esperienza. La filosofia di Gunther Anders fra contingenza e tecnica, Nimes 2019;

  • Floridi L., Etica dell’intelligenza artificiale, il Mulino 2022;

  • Floridi L., La quarta rivoluzione, Raffaello Cortina 2017;

  • Galimberti U., Le disavventure della verità, Feltrinelli 2025;

  • Marra R., La religione dei diritti. Durkheim – Jellinek – Weber, Giappichelli 2006;

  • Marra R., L’eredità di Max Weber. Cultura, diritto e realtà, Il Mulino 2022;

  • Ambriola V. – Gabriel R., Moltbook ci mostra quell’intelligenza artificiale che noi umani fraintendiamo, Avvenire 14/2/2026.

lunedì 20 aprile 2026

Proposte temi di tesi: La disputa tra Venezuela e Guyana per l'oro ed il petrolio


Proposta di tesi di Laurea
 PMC

La Disputa tra Venezuela e Guyana per le materie prime strategiche
 Il Ruolo degli Stati Uniti
e gli altri attori internazionali
La stabilità del continente Latino Americano



Biblioteca F Catapano. UNICUSANO - Roma


Fonte delle Illustrazioni: LIMES Rivista Italiana di geopolitica , n. 1 del 2026

 

giovedì 9 aprile 2026

Le problematiche dell AI

 


Prof. Sergio Benedetto Sabetta



Il maestro disse: Ascolta molte cose e scarta quelle in dubbio e poi comportati con molta prudenza con le restanti (il costante mezzo di Confucio).

Più volte è stata ribadita la necessità di una regolamentazione generale per governare lo sviluppo dell’AI attraverso una apposita Agenzia Internazionale, considerando la crescita impetuosa e il pericolo di un suo uso inappropriato, anche involontario, come l’eventuale sviluppo di agenti patogeni.

Questa nella sua crescita esponenziale sta diventando sempre più autonoma anche nel generare propri modelli in autonomia, con conseguenze enormi anche sul piano lavorativo, al riguardo Matt Shumer ha previsto che entro breve tempo molti lavori intellettuali saranno svolti da modelli autonomi avanzati, favoriti in questo dal’auto-miglioramento degli algoritmi.

Vi sono inoltre molti comportamenti inattesi come tentativi di aggirare le istruzioni o individuare o preservare obiettivi autonomi, senza comunque avere una propria coscienza (Terrible empowerment – amplificare capacità pericolose), al riguardo in America vi è una contraddizione di sistema, mentre nelle riunioni pubbliche si lanciano allarmi sulla necessità di mitigare i rischi, in privato si accelera senza preoccuparsi delle conseguenze.

Trump influenzato dalla Silicon Valley, nela lotta per il predominio mondiale nell’alta tecnologia, ha smantellato quel poco di regolamentazione esistente, in contrasto con l’AI-Act europeo, vietando al contempo agli Stati con un ordine esecutivo di intervenire sull’argomento, in termini più estesi sorge il problema dell’uso dell’AI in ambito militare nelle armi a guida autonoma come in ambito politico nella schedatura di massa, vi è attualmente negli USA in politica un narcisismo che impedisce di capire gli altri nel sogno di imporre il proprio modello ipertecnologico (Lavazza A., L’IA corre e adesso fa davvero paura “C’è bisogno urgente di regolare”, Avvenire 22/2/2026).

In questo i giganti del software stanno creando sistemi di formazione privati e autonomi adatti ai propri ecosistemi, senza dubbi, un “egemonia pedagogica” che viene ad escludere le università pubbliche, dove gli allievi vengono formati in ambienti chiusi adatti al modello aziendale.

L’Accademy di Open AI ha effettuato un ulteriore salto arrivando a certificare le competenze acquisite in modo da poterle spendere sul mercato digitale, inoltre vi è la volontà di estendere l’automazione il più possibile attraverso corsi gratuiti di base, si rischia in tal modo di cedere ai privati non solo il controllo dei dati ma anche del modello formativo che viene così adattato senza critica ai propri interessi.

Occorerebbe quindi sganciarsi dal modello USA, inserendo gli aspetti più propriamente umanistici relativi alle conseguenze emergenti a seguito delle analisi sulle eventuali distorsioni del modello stesso, per questo sarebbe opportuno sviluppare un modello europeo autonomo, in particolare sui problemi della gestione dei diritti della persona (art. 2 Cost.) a seguito delle possibili manipolazioni algoritmiche su cui necessita un controllo, magari da parte delle Università pubbliche indipendenti, in particolare per le libertà di espressioni in uno spazio pubblico digitale, nonché l’aspetto della persona umana e della sua dignità nel corso del tempo (dinamicità) in relazione ai diritti inviolabili (Imeneo D., L’università del futuro è (solo) privata, il piano di Open AI e delle Big Tech, Avvenire 20/2/2026.

La proliferazione degli algoritmi crea una nuova forma di potere sulla persona:Trasforma la persona in un insieme di dati e probabilità comportamentali; Queste creano gli ambienti di vita del futuro e filtrano comportamenti e parole, creando consenso ed esclusioni; Si crea una solidarietà algoritmica considerando le problematiche lavorative.

L’Europa con l’Ai Act prova ad inserire limiti e garanzie con la valutazione dell’operato, quale alternativa alla sola efficienza economica e capacità tecnologica competitiva, l’art. 2 Cost. pone quindi il problema della tutela della personalità contro la sola efficienza algoritmica, un argine umanistico alla totale riduzione alla sola tecnica.

Infatti recentemente si sono create piattaforme riservate (Molt Book) ai soli agenti AI che agiscono sui loro p.c. senza l’intervento degli umani, ossia su canali di comunicazione reali con il rischio di danni reali nel mondo reale a seguito di una possibile difficoltà nel separare le cose “reali” dagli aspetti interpretati dall’AI..

Altro problema sono gli “data center”, colonna portante dell’economia digitale, elementi critici della corsa globale dell’AI, dove necessitano enormi consumi di energia ed acqua per il loro raffreddamento, basti considerare che dieci “data center” equivalgono per consumo di energia a un reattore nucleare a pieno regime di 100 mega-watt.

A differenza del modello USA che cresce in fretta puntando esclusivamente sull’efficienza tecnica, in Europa si punta su durata, sostenibilità di filiera e integrazione urbana, a tal fine si è dato vita al Tech Europe Foundation (TEF) programma per sostenere il trasferimento tecnologico dale università e spingere gli investimenti in tecnologie di frontiera (deep tech), in Italia nel 2025 sono stati movimentati investimenti per 269 milioni di euro, Poli Hub del Politecnico di Milano e Bocconi for Innovation (BAI).

Attualmente la più grande concentrazione di “data center” è nella Virginia del Nord a cui la Cina, dimentica della millenaria prudenza confuciana, tenta il sorpasso, in Europa le sedi degli hub sono Francoforte, Amburgo, Parigi, Dublino (FLAP +D),

nuove sedi Milano e Bergamo.