La redazione non esercita un filtro sui commenti dei lettori, a meno di segnalazioni riguardo contenuti che violino le regole.

Precisa che gli unici proprietari e responsabili dei commenti sono gli autori degli stessi e che in nessun caso comedonchisciotte.org potrà essere considerato responsabile per commenti lesivi dei diritti di terzi.

La redazione informa che verranno immediatamente rimossi:

Messaggi che entrano automaticamente in coda di moderazione per essere approvati prima di pubblicarli o vengono sospesi dopo la pubblicazione:

Nota: se un commento entra in coda di moderazione (e quindi non appare immediatamente sul sito), è inutile e dannoso inviare di nuovo lo stesso commento, magari modificando qualcosa, perché, in questo caso, il sistema classifica l’utente come spammer e non mostra più nessun commento di quell’utente.
Quindi, cosa si deve fare quando un commento entra in coda di moderazione? bisogna solo aspettare che un moderatore veda il commento e lo approvi, non ci sono altre operazioni da fare, se non attendere.

Per qualsiasi informazione o comunicazione in merito, scrivere alla redazione dal modulo nella pagina dei Contatti

Una persona può avere un solo account utente registrato nel sito.

Commentare con utenti diversi è una pratica da trolls e vengono immediatamente bannati tutti gli utenti afferenti ad un’unica entità, senza preavviso.

SANZIONI IN CASO DI VIOLAZIONE DEL REGOLAMENTO STABILITE DALLA REDAZIONE CDC:

1) Primo avviso da parte del moderatore (in rappresentanza della redazione) e cancellazione del commento.

2) Secondo avviso da parte del moderatore (in rappresentanza della redazione) e conseguente ammonizione: l’account del commentatore verrà sospeso temporaneamente per 72 ore previo avviso individuale

3) Terzo avviso da parte del moderatore (in rappresentanza della redazione) e conseguente blocco dell’account con l’impossibilità permanente di accedere al portale web

Consigliamo caldamente di leggere anche la pagina delle F.A.Q. le domande frequenti e la nostra Netiquette

La Redazione

 

I piu' letti degli ultimi 7 giorni

Intelligenza Artificiale in caso di guerra: vincerà la legge del più forte

blank
A cura di Redazione CDC
Il 24 Settembre 2024
5669 Views
5669 Views
blank

Di Glauco Benigni

Come mai le Leggi sull’uso dell’AI, in caso di guerra, sono diverse tra USA e UE ?

Risponde ChatGPT

 

Agli inizi di agosto ’24 è entrata in vigore la Legge Europea sull’AI (Intelligenza Artificiale), ma la maggior parte delle norme si applicherà a far data dal 2.8.2026 . Nel frattempo la Commissione sta promuovendo il Patto IA che sollecita l’impegno volontario, per i Soggetti coinvolti nelle attività, ad anticipare l’attuazione della Legge prima della sua entrata in vigore legale . Una sorta di autoregolamentazione.

E’ questa una strada diversa da quella adottata dagli Stati Uniti, i quali hanno promulgato il 30 ottobre 2023 un’Ordinanza Presidenziale, a firma Joe Biden; ed è diversa anche dal percorso della Cina, che sin dal 2017 ha cominciato a pubblicare linee guida dette “Piano di Sviluppo AI per le Future Generazioni” .

Il presidente russo Vladimir Putin, invece, nel novembre 2023 ha annunciato l’intenzione di approvare una strategia nazionale per lo sviluppo dell’IA, essenziale secondo il leader del Cremlino per evitare il “monopolio occidentale”. Quindi la Legge russa  non c’è ancora e secondo alcuni osservatori il motivo potrebbe essere una “certa dipendenza” dalla visione di Pechino.

In tutto il mondo le Nazioni che hanno formulato norme, regolamenti, leggi e/o linee guida sono gia una 70ina. In questa grande scena – che comunque è ben lungi da configurarsi quale scena di riferimento globale condivisa – un aspetto di enorme rilevanza è quello che riguarda le norme sull’uso dell’AI riferite a armi e attività militari. Purtroppo è questo un aspetto che è sempre più tragicamente presente ma resta nel cono d’ombra dell’informazione.

Cerchiamo di saperne di più .

E scopriamo che:  mentre in USA le norme esistono e sono ben strutturate, nell’AI Act dell’Unione Europea, non sono previste norme specifiche che regolano le attività militari.

Sorpresa !? Sembrerebbe di no! Abbiamo chiesto il Perchè di tale “diversità” a CHATGPT che ci ha risposto così:

1) L’Unione Europea ha competenze limitate in materia di difesa e sicurezza nazionale. Queste aree rientrano principalmente nella sovranità degli Stati membri. La politica di difesa è una prerogativa nazionale e regolamentare l’uso dell’IA in ambito militare potrebbe superare le competenze attuali dell’UE.

2) Le attività militari sono strettamente legate alla sicurezza nazionale e spesso richiedono un alto livello di segretezza. Regolamentare l’IA militare a livello dell’UE potrebbe complicare la gestione delle informazioni sensibili e delle strategie di difesa degli Stati membri .

3) Molti Stati membri dell’UE hanno già le proprie normative e linee guida riguardanti l’uso dell’IA in ambito militare. Queste regolamentazioni possono variare significativamente in base alle specifiche esigenze e strategie di difesa di ciascun paese.

4) Le questioni militari e l’uso dell’IA in ambito militare sono spesso affrontate attraverso trattati e accordi internazionali. Ad esempio, esistono discussioni globali sull’uso di armi autonome letali (LAWS) nell’ambito della Convenzione delle Nazioni Unite su certe armi convenzionali (CCW). Queste piattaforme sono considerate più appropriate per trattare tali questioni rispetto a una normativa interna dell’UE.

5) L’AI Act si concentra principalmente sull’uso dell’IA in contesti civili e commerciali, mirando a bilanciare l’innovazione con la sicurezza dei cittadini. Inclusi in questa regolamentazione sono settori come la salute, la finanza e i trasporti. L’inclusione delle attività militari avrebbe richiesto un’analisi e una regolamentazione molto diverse, rendendo il processo normativo più complesso e disomogeneo.

6) L’uso dell’IA in ambito militare solleva complesse questioni etiche e morali, come l’uso di armi autonome. Queste questioni richiedono un dibattito etico approfondito e un approccio normativo specifico, spesso meglio trattato in contesti internazionali dedicati .

Conclusioni :

“L’esclusione delle attività militari dall’AI Act riflette la complessità e la sensibilità del settore della difesa. Le attività militari richiedono un approccio diverso, probabilmente più adatto a livello nazionale o attraverso trattati internazionali specifici, piuttosto che essere incluse in una normativa ampia e generale sull’IA come l’AI Act dell’UE”.

( N.d.R … probabilmente anche la sede NATO è considerata più appropriata per affrontare questi temi.)

Bene … questo è il “punto di vista” di CHATGPT . Resta però non affrontata  una questione fondamentale, ovvero : come è stato trattato il tema in generale da quelle Nazioni che hanno voluto esprimere norme al riguardo. Anche in questo caso abbiamo posto la questione a CHATGPT che ci ha risposto così :

“Il problema centrale nei regolamenti sull’IA che affrontano le questioni militari e di guerra riguarda principalmente l’equilibrio tra l’innovazione tecnologica e le implicazioni etiche e di sicurezza. Ecco alcuni degli aspetti chiave:

1. Autonomia delle Armi e Decisioni Letali
Uno dei temi più dibattuti è l’uso delle armi autonome letali (LAWS) (n.d.r killer robots , munizioni vaganti  e altri ordigni che possono colpire obiettivi senza l’intervento umano). Queste armi possono prendere decisioni di vita o di morte. Le preoccupazioni principali includono:
Controllo Umano: La necessità di garantire che ci sia sempre un controllo umano significativo nelle decisioni letali, per evitare scenari in cui macchine prendano decisioni etiche complesse senza supervisione umana.
Responsabilità: Difficoltà nel determinare chi è responsabile in caso di malfunzionamento o uso improprio delle armi autonome. Questa ambiguità potrebbe complicare l’attribuzione della responsabilità legale e morale.

2. Rispetto del Diritto Internazionale Umanitario (DIU)
Le tecnologie di IA devono essere conformi al diritto internazionale umanitario, che regola la condotta della guerra e protegge i civili e i combattenti che non partecipano più alle ostilità. Le sfide includono:

Distinzione e Proporzionalità:  Assicurare che i sistemi di IA possano distinguere tra combattenti e civili e che qualsiasi attacco sia proporzionato rispetto all’obiettivo militare legittimo.

Riduzione del Danno Collaterale: Minimizzare il rischio di danni collaterali e vittime civili, che richiede sofisticati algoritmi di riconoscimento e analisi in tempo reale.

3. Sicurezza e Cybersecurity
L’uso di IA in ambito militare introduce rischi significativi legati alla cybersecurity:

– Hacking e Manipolazione: I sistemi di IA possono essere vulnerabili a hacking e manipolazioni, che potrebbero portare a conseguenze disastrose se utilizzati in operazioni militari.

Difesa contro Attacchi Cibernetici: Necessità di sviluppare misure di difesa robusta per proteggere i sistemi di IA da attacchi cibernetici che potrebbero compromettere la sicurezza nazionale.
4. Trasparenza e Supervisione
La trasparenza e la supervisione sono cruciali per garantire che l’uso dell’IA in ambito militare sia etico e legittimo:

– Supervisione Internazionale: Creazione di meccanismi di supervisione internazionale per monitorare l’uso delle tecnologie di IA militari e assicurare la conformità con le leggi internazionali.
Trasparenza Operativa: Implementazione di requisiti di trasparenza per garantire che le operazioni militari condotte con IA siano documentate e sottoposte a revisione pubblica e legale.

5. Etica e Norme Internazionali
L’adozione di norme e principi etici internazionali è essenziale per guidare lo sviluppo e l’uso dell’IA in ambito militare:

– Standard Etici: Sviluppo di standard etici comuni per l’uso dell’IA nelle operazioni militari, che includano il rispetto dei diritti umani e la dignità umana.

– Cooperazione Internazionale: Promozione della cooperazione internazionale per affrontare le sfide etiche e normare l’uso dell’IA in guerra, attraverso trattati e accordi multilaterali.

Questi problemi evidenziano la necessità di un quadro normativo globale che possa bilanciare l’innovazione tecnologica con imperativi etici e di sicurezza, garantendo che l’uso dell’IA in ambito militare sia responsabile e conforme ai principi umanitari.

Sono belle parole, senza dubbio: controllo e responsabilità umane; riconoscimento diversificato a distanza tra civili e combattenti; limitazione di danni collaterali; protezione da attacchi di hackers; supervisione internazionale e conformità ai trattati; operazioni documentate e sottoposte a revisione pubblica; standard etici comuni; rispetto diritti umani e dignità; cooperaione e accordi multilaterali !

Tutti argomenti da Consiglio di Sicurezza dell’ONU o da G20, visioni del nemico (quasi) poetiche, che però non compaiono all’Ordine del Giorno di quelle spettabili Istituzioni mondiali. E del resto perchè aspettarcelo visti i tempi? Resta il fatto che purtroppo le guerre appaiono sempre più prossime e vicine e che l’AI è già abbondantemente utilizzata per scopi bellici e i morti muoiono in deroga, o peggio in assenza, di ogni auspicabile quadro normativo globale condiviso dalle parti belligeranti .

Di Glauco Benigni

24.11.2024

Glauco Benigni. Giornalista professionista e saggista.

ISCRIVETEVI AI NOSTRI CANALI
CANALE YOUTUBE: https://www.youtube.com/@ComeDonChisciotte2003
CANALE RUMBLE: https://rumble.com/user/comedonchisciotte
CANALE ODYSEE: https://odysee.com/@ComeDonChisciotte2003

CANALI UFFICIALI TELEGRAM:
Principale - https://t.me/comedonchisciotteorg
Notizie - https://t.me/comedonchisciotte_notizie
Salute - https://t.me/CDCPiuSalute
Video - https://t.me/comedonchisciotte_video

CANALE UFFICIALE WHATSAPP:
Principale - ComeDonChisciotte.org

Notifica di
11 Commenti
vecchi
nuovi più votati
Inline Feedbacks
View all comments

FORUM DEI LETTORI

RSS Come Don Chisciotte Forum – Argomenti recenti

  • Irruzione nelle basi UNIFIL 13 Ottobre 2024
    pronto Mattarella?!?!? _________________________ Questi criminali, fanatici e messianici si sentono onnipotenti e convinti che siano sopra tutto il mondo. Si sentono tali perché sono stati...
    dana74
  • VENTO DEL SUD 13 Ottobre 2024
    Sulle scalinate del Teatro Comunale si adunavano i manifestanti pro Reggio Capoluogo per difendersi dalle cariche della polizia “Vento del Sud” era l’organo politico-culturale del “Centr...
    mystes
  • Eroine moderne 12 Ottobre 2024
    Vedremo mai le boldracche de sx infiammarsi per questa ed altre donne che difendono il LORO MONDO contro l' occidente ? Leggete l'articolo: quella donna voleva solo fermare la guerra omici...
    oriundo2006
  • Prato, lavoratori protestano davanti a una pelletteria: aggrediti a sprangate 11 Ottobre 2024
    10 Ottobre 2024 - 18:30 «Nel cuore della notte una squadraccia armata di spranghe di ferro ha attaccato il picchetto della pelletteria Confezione Lin Weido...
    dana74
  • La Banca Mondiale ha approvato un nuovo fondo per l’Ucraina 11 Ottobre 2024
    11 Ottobre 2024 - 14:30 Il consiglio esecutivo della Banca Mondiale giovedì ha approvato lacreazione di un nuovo Fondo di intermediazione finanziaria(FIF) per ...
    dana74


blank