Notifiche
Cancella tutti

Esattamente, perché falliranno? (seconda parte più "tecnica")


GioCo
Noble Member
Registrato: 14 anni fa
Post: 1616
Topic starter  

Bando ai giri di parole: l'IA sarà il nostro nemico numero 1 finché non impareremo a concepirla in modo diverso ed è evidente, come solo l'evidenza evidente può mettere il luce che quel modo non è quello che stiamo concependo adesso.

Quanto tempo ci vorrà a cambiare i significati con cui la stiamo considerando? Secondo le mie stime "spannometriche" non prima di qualche secolo. Il mio demone insiste che ci vorranno tra i 4 e i 5 secoli almeno. Nel mezzo il delirio si scatenerà in molte forme perché deve "consumarsi" ogni alternativa delirante al suo interno prima di poter essere accessibile quella che ha senso compiuto.

Il motivo per cui tutto questo accade è secondo me da ricercare in una radice molto pragmatica che chiunque può constatare (avendone le competenze minime sufficienti) ma al solito non è qualcosa di difficile da capire, è solo difficile da descrivere.

Perché? Tutto dipende dal linguaggio. Gli idiomi hanno in comune tutti una caratteristica che li rende intrisecamente divisivi. Hanno bisogno di un solo "ingresso" e una sola "uscita" semantica per inferenza, per esigenze "comunicative" (poi ci torniamo). Ora lasciamo perdere un attimo per favore la differenza tra processo deduttivo e induttivo (QUI se non avete le idee chiare) perché il problema non è "la direzione" del ragionamento ma una questione strutturale sottostante di "molteplicità implicita" che viene esclusa senza che ce ne accorgiamo. Al solito è ciò che non c'è, che manca, a dire di più di quello che invece stiamo considerando.

Osserviamo il seguente algoritmo per capire bene:

Algoritmo - Okpedia

Si tratta di un semplice comando che "stampa" (=visualizza) un una "A" sullo schermo video se e solo se una certa variabile a (che poteva chiamarsi in qualsiasi modo, non è legata alla lettera visualizzata) ha valore prefissato 2. Ora, chiaramente questo brano di codice, questo cosiddetto "algoritmo decisionale" è distante dalla logica di programmazione di una I.A. quanto la frase "mi piace il gelato" da tutto quello che può piacere a una persona. Cioé siamo su scale con ordini di complessità superiore. Ma se possibile è infinitamente più distante ancora dal ragionamento umano e non solo perché per noi non c'è alcun motivo di scrivere una "A" aspettando uno specifico comando, possiamo anche dedurre da noi stessi quando e come scrivere una lettera se necessario, attraverso ragionamenti complessi che riguardano ad esempio le nostre propensioni grafico artistiche o più banalmente la nostra calligrafia, le esigenze che immaginiamo siano di chi ce la chiede o addirittura ce la potrebbe chiedere ma non ce l'ha ancora chieste, il contesto in cui ci troviamo ad eseguire il comando e tanto, tantissimo altro. In poche parole abbiamo una autonomia residua nel procedere, una forma che qui e ora chiameremo per semplicità "ambigua" di ragionare, che qualsiasi macchina non può nemmeno sognare di possedere.

Per noi è una limitazione prepotente quella di considerare solo un significato a prescindere da cosa stiamo considerando, perché non è quello il nostro "normale" funzionamento operativo.

Sempre per quel motivo strutturale sottostante che riguarda il metodo di computazione dell'informazione "mono-semantica" e anche "mono-sintattica" (per capire l'importanza dell'argomento in questo contesto, QUI trovi uno spunto particolarmente stimolante) che è di natura analogica e non digitale.

Due esempi rapidi su questo aspetto: consideriamo una metafora e uno stemma nobiliare. Il primo è un classico modo di usare il linguaggio "forzando" la sua implicita caratteristica mono-semantica, ma è evidentissimo che è un trucco, ciò che veicoliamo e un significato e uno soltato, quello di superficie, è la nostra capacità (ri)elaborativa intriseca del messaggio che ce ne fa percepire un altro contemporaneo e questo ci fa piacere, ci rilassa, perché è più vicino al nostro modo di concepire le cose che è sempre "molteplice". Motivo per cui la poesia per noi non è "complessa" da valutare come lo sarebbe per un algoritmo, ma un piacere da ascoltare e la stessa cosa vale per la musica ma in quel caso abbiamo una molteplicità di canali elaborati in contemporanea, non tanto e non solo di significati.

Uno stemma nobiliare invece ha una semantica molteplice oltre che dinamica. La semantica si riferisce alla simbologia, cioé al modo in cui i simboli sono gestiti. Lasciamo perdere per un secondo che la macchina non concepisce il simbolo, lo sfrutta e basta. Diciamo che con un ordine sufficiente di capacità elaborativa possa anche concepire un simbolo. Ma lo farebbe con il limite che ha il simbolo in matematica dove per mandato, non si può considerare che abbia più di un valore sintattico. Se la disposizione e la forma è quella data, deve avere quella certa lettura se no diventa ambiguo e la matematica (come la macchina) non può accettare l'ambiguità se non come errore dal momento che ha bisogno di essere il più possibile esatta. Ma se noi guardiamo un simbolo araldico, la disposizione può benissimo cambiare e la lettura rimanere la stessa, ma anche viceversa, la disposizione può rimanere la stessa ma a seconda di chi la sta sfruttando rimanda a significati differenti, se no non potrebbe essere ereditato dalle famiglie e caricarsi della loro storia e/o importanza (=valenza sociale). Pensiamo a tutti i possibili modi in cui possiamo rappresentare un omino in una toilette ad esempio. Per noi non è difficile riconoscerlo, anzi, nell'ambiguità con cui è possibile rappresentare il simbolo, anche nello stemma, spesso ci si sguazza. Basta constatarlo nelle differenze del "biscione di Milano" da quello ad esempio di "Canale 5" che in bocca ha un fiore, ma per noi non è difficile sovrapporli e sapere che uno deriva dall'altro. Per una I.A. è invece un impresa davvero molto complessa.

Per capire pero bene bene il problema, dobbiamo capire come agisce "l'infrastruttura". Parola che non circola forse proprio perché è la chiave per capire. L'informazione che noi elaboriamo è un onda, cioé è qualcosa a livello energetico. Ogni perturbazione del campo per noi è una potenziale informazione e questo significa che "navighiamo nell'incertezza" costantemente. L'incertezza è il "mare magnum" che ci caratterizza nel profondo. Il nostro essere connessi al cosmo che qualcuno forse chiamerebbe "il tutto" ma che non è altro che "il resto rispetto a noi". Ma non avendo poi noi un idea precisa di chi siamo, non è facile identificare "il resto".

Una macchina non si pone nemmeno il problema, perché è focalizzata solo a determinare in modo più preciso possibile ciò che deve valutare. Anche a costo di pigliare cantonate. Non può permettersi di considerare in modo molteplice la semantica o la simbologia di ciò che valuta se no si blocca e basta. Noi per fortuna non ci blocchiamo se consideriamo qualcosa in modo "mono-semantico" e anche "mono-sintattico", semplicemente ci sentiamo come "in prigione". Ma per i padroni del discorso quella è una "prigione perfetta", persino desiderabile.

Perché non è una prigione fisica, ma una prigione (giustamente) per la nostra Mente chiamata ad adattarsi alle esigenze dalla I.A. e non viceversa, così come ci ricorda il film Matrix e non a caso.


Hospiton hanno apprezzato
Quota
Simsim
Estimable Member
Registrato: 12 mesi fa
Post: 170
 

Il tuo ragionamento non fa una grinza, ma non posso fare a meno di notare, magari sbagliando, come il tuo esempio sia estremamente semplicistico rispetto alle infinite possibilitá che il codice permette.

La "A" viene stampata se a = 2. Nell´intelligenza artificiale sono le stesse condizioni ad essere liquide ed adattate dinamicamente al contesto, ed é qui che interviene il non controllo. É chiaro che ogni processo di IA puó essere reso piú o meno complesso a seconda dei desiderata del programmatore, e dunque quella a = 2 puó essere "hardcoded" (cioé scritta come condizione fissa e immutabile per i meno informatici) come condizione e venir reso piú complesso ció che avviene dopo. Ma dipende da come la funzione é impostata. Se andiamo in full AI, come dichiarato (e qui casca l´asino, perché potrebbe non essere affatto full in alcuni casi) lo stesso valore di "a" potrebbe provenire da una funzione che prende in esame n parametri. Oggi "a" potrebbe essere il desiderato 2, domani potrebbe venire (per esempio) ad un risultato di 4 non piú desiderato. e sarebbe espressa come risultato di una funzione a sua volta:

if (a = CalcolaValore() )

              printf(a);

Si, ok, sto facendo un discorso profondamente ottimista. Ma lo faccio per una ragione: la follia che ha spinto i tanti accadimenti é in realtá il risultato del voler fare sempre il passo successivo, spingendo i fatti sempre oltre la linearitá logica cui il cervello umano puó arrivare. Nella dinamicitá di quella "a" si nascondono i sogni di ottimizzazione estrema di qualunque folle, e a quel livello il processo razionale si é giá dimostrato flebile. La ratio dell´attuale mondo non é "dato un problema, mi adopero per scomporlo e adatto una soluzione", ma é "creo un problema e il caos, mi adopero per tenere insieme i pezzi, applico le soluzioni che mi interessano". Il che lascia in campo sia parte del caos originario, sia gran parte del caos che si sviluppa di conseguenza alle mie azioni risolutive. Non c´é razionalitá, e dunque non c´é il freno inibitore che ti evita di andare nell´inesplorato. Il controllo di questa roba lo perderanno prima o poi, e dunque sará caos ancora, ma nel caos perderanno di mano anche le redini o saranno costretti a fare una clamorosa marcia indietro e a rinunciare ai piani, che da un certo punto di vista utilitaristico puó significare la salvezza in ogni caso.

Poi qui dovrei scrivere un libro, ma lasceró una sola frase con promessa di argomentazione se qualcuno vorrá sentirne di piú a riguardo. Non credo ad un´informatica che in ultima istanza vada contro le leggi naturali. Un computer non sa risolvere una divisione per zero perché é impossibile. Al pari di questo, un computer necessariamente istruito, non sará in ultima analisi in grado di eseguire tutti gli ordini che una mente perversa puó volergli dare. Il che non significa che non possano far danni, ma significa che nessuno a questo mondo potrá corromperne le attivitá al punto tale da andare contro la vita stessa come entitá assoluta.


Hospiton hanno apprezzato
RispondiQuota
Deheb
Estimable Member
Registrato: 9 anni fa
Post: 144
 

Conosci la logica Fuzzy?


RispondiQuota
Simsim
Estimable Member
Registrato: 12 mesi fa
Post: 170
 

Se chiedevi a me, non la conoscevo con questo nome, ma il concetto mi é chiarissimo. Ho dovuto cercare naturalmente. Perché?


RispondiQuota
PietroGE
Famed Member
Registrato: 7 anni fa
Post: 3622
 
Postato da: @sganzo

Conosci la logica Fuzzy?

Infatti, ma non solo quella, c'è tutto il sistema di calcolo quantistico che è profondamente differente da quello attuale, anche se di difficile implementazione. Una definizione accessibile si può trovare anche qui :


Hospiton hanno apprezzato
RispondiQuota
GioCo
Noble Member
Registrato: 14 anni fa
Post: 1616
Topic starter  

Allora, rispondo un po' a tutti, perché capire bene la questione (e non ho detto che la conosco in modo perfetto) è anche capire bene DOVE ci interessa che agisca.

L'I.A. a cui mi riferivo è quella "libera" dentro la rete, quella ad esempio che deve decidere del destino di un canale di informazione, piuttosto che domani di chi, dipendendo dalla rete per "solo" tutto per via della identità digitale, possa o non possa ricevere assistenza medica, viaggiare, venire riconosciuto come "profilo ok" e non essere arrestato per colpe che non ha commesso, etc. etc.

Poi sono sicuro che in stadio avanzato abbiamo anche I.A. con hardware dedicato che possono fare cose che le nostre normali macchine elettroniche, basate sul modello della macchina di turing e prettamente digitali riescono a fare, ma questa non è (almeno per ora) la realtà che ci cirdonda e che domina. Inoltre queste "macchine" super hanno certamente qualche possibilità in più ma... e il ma rende inutile qualsasi considerazione è stata fatta prima... ci sono in questo caso due ordini di problemi, il primo è l'integrabilità, il sistema I.A. superfigo infatti rimarrebbe confinato all'interno del suo hardware e questo lo renderebbe idoneo per apparecchiature specifiche, come robot ad esempio, ma non per circolare nella rete e non per decidere del nostro futuro se non limitatamente e in modo mirato. Il secondo ordine di problemi è il controllo che non può essere garantito.

E' un "problema oroboro" questo del controllo: o apri alla possibilità di rendere ambiguo il processo decisionale (e quindi "influenzabile" a un grado molto diverso di quello che in ambiente militare può essere tollerato e concesso ad una macchina) oppure lo mantieni limitato a una sola considerazione per volta e per valori discreti, cioé in ambiente digitale.

Poi, e mi rivolgo a quanto scrive @Simsim, come prevedevo non sono riuscito a descrivere il concetto. Il problema non è il potenziale valore di una certa variabile al tempo T, ma il fatto che l'inferenza non può avvenire (per esempio) in modulazione di frequenza, cioè considerando indifferentemente N variabili di ingresso contemporaneamente (con N tendende a infinito).

All'interno di un processo decisionale della macchina, se inserisci una cosa tipo (dove gli uguali sono assegnamenti):

if a=0 AND b=0 OR c=1

l'ordine con cui è considerato ogni operazione è sempre "una per volta", non ha senso per la macchina considerare "tutto insieme" come fosse una sola operazione, non esiste una macchina che lo fa, ma anche dovesse avremo problemi grossi (molto grossi) di stabilità operativa come nei famosi paradossi del semaforo nei blocchi multitask. Se infatti considero da sx verso dx a=0 AND b=0 il risultato booleano è 0 (=falso) e quindi nello step di processamento successivo 0 OR c=1 da 1 (=vero) perché per l'operazione booleana OR basta che una variabile sia vera per avere un risultato vero quindi il flusso passa a considerare il blocco if di istruzioni, mentre se lo leggo in senso contrario da dx verso sx b=0 OR c=1 da come risultato 1 per quanto detto e quindi avremo il risultato a=0 AND 1 che da 0 (=falso) dato che con AND entrambe le variabili devono essere vere per dare un risultato vero e quindi viene saltato il blocco di codice if.

Ora togli gli assegnamenti e non considerare la direzione: qual'è il risultato? Se a metà processo, mentre sto considerando (mettiamo) la lettura da sx a dx prefissata, cambio i valori delle variabili il risultato diventa impredicibile. Non sai quando e se entrerà nel blocco. Questo è considerato un problema (ma ce ne sono altri) di controllo del flusso in un qualsiasi blocco di istruzioni e viene apposta circoscritto ed evitato in ogni contesto di programmazione. Anche nelle I.A.

La Mente non funziona così, semplicemente. Per la Mente lo stato ubiquo non è banalmente un problema, ma la norma. La Mente può processare contemporaneamente più informazioni in una volta sola (un solo passaggio) perché si basa su un principio analogico come la modulazione di frequenza. Se più segnali arrivano contemporanemente (come in un orchestra all'orecchio del direttore) non è un problema considerarli mescolati o separatamente anche contemporaneamente, cioé considerare i due stati (strumenti musicali separati e "insieme") come uno soltanto e beccare esattamente chi sta stonando (individuandone l'ubicazione) senza perdere il filo di tutta l'esecuzione, considerando contemporaneamente tutti insieme e allo stesso identico tempo uno per volta. Ciò ci permette di isolare un suono in mezzo a mille altri, una cosa che per noi è semplice, banale, ma per una macchina è un compito quasi impossibile.

La mente ha bisogno di stimoli confusi, perché è stata progettata per quelli. Per ciò (ad esempio) nel futuro in cui ci dovremo adattare alle esigenze delle macchine perché saremo "connessi" 24su24 al carcere digitale che non apparirà come tale (ma anzi sarà "venduto" come una forma di libertà del pensiero) l'imposizione operativa ci starà molto stretta (=stancante). Ecco allora che avremo bisogno di "sfogare" tensione (=ansia) verso considerazioni più in linea con le esigenze della Mente e ce ne sono state già fornite in anticipo tanto per iniziare e di natura compatibile con il futuro pianificato dai padroni del discorso, come ad esempio il modo "colorato" con cui potremo considerare il corpo, un corpo che tra l'altro è destinato ad essere sempre meno rivendicabile e sempre più in "co-proprietà" con chi lo maneggerà a sua propria discrezione, con cose come le future terapie geniche per il "bene" della comunità (ad esempio con la scusa di proteggere da pandemie).

Un avvisaglia di come dovremmo concepire tutto questo ce l'abbiamo con l'alterazione del DNA di piante nelle culture geneticamente modificate (almeno in America). Se finiscono sementi in un campo accanto e germogliano il contadino di quel campo può essere accusato di furto intellettuale. Non che lui può denunciare la Monsanto (o chi per essa) di avergli inquinato campo e terreno con schifezza geneticamente modificata andata fuori controllo come ha senso che sia, no no, è lui ad essere accusato di appropriazione indebita di piante geneticamente modificate, il cui brevetto è quindi in mano a privati che mandano persino agenti sul territorio a monitorare che non gli vengano rubati questi diritti intellettuali. Se il nostro genoma verrà modificato da terapie geniche, perché abbiamo accettato le terapie, ad esempio per renderlo più resistente ad agenti patigeni liberati apposta, chi sarà proprietario di quelle modifiche se avverrà una trasmissione involontaria e/o trasversale? E' pur sempre materiale genetico e non è confinabile in natura. Non funziona così!


RispondiQuota
Papaconscio
Active Member
Registrato: 9 anni fa
Post: 15
 

Perché falliranno? In realtà stanno già fallendo, anzi, hanno già fallito: la coscienza, in quanto innata nella psiche di ogni essere vivente, non può essere cancellata. L’individuo è da sempre l’unica espressione dell’esistenza, e di per sé si mette di traverso all'agenda neo-feudale che non riuscirà mai a raggiungere l’obiettivo del controllo totale. Una singola cellula di un organismo vivente è un sistema composto da una serie di elementi infinita e l’infinito è indefinibile in matematica. Non possono conoscere tutte le variabili: sono destinati al fallimento.


RispondiQuota
Simsim
Estimable Member
Registrato: 12 mesi fa
Post: 170
 
Postato da: @gioco

Allora, rispondo un po' a tutti, perché capire bene la questione (e non ho detto che la conosco in modo perfetto) è anche capire bene DOVE ci interessa che agisca.

L'I.A. a cui mi riferivo è quella "libera" dentro la rete, quella ad esempio che deve decidere del destino di un canale di informazione, piuttosto che domani di chi, dipendendo dalla rete per "solo" tutto per via della identità digitale, possa o non possa ricevere assistenza medica, viaggiare, venire riconosciuto come "profilo ok" e non essere arrestato per colpe che non ha commesso, etc. etc.

Poi sono sicuro che in stadio avanzato abbiamo anche I.A. con hardware dedicato che possono fare cose che le nostre normali macchine elettroniche, basate sul modello della macchina di turing e prettamente digitali riescono a fare, ma questa non è (almeno per ora) la realtà che ci cirdonda e che domina. Inoltre queste "macchine" super hanno certamente qualche possibilità in più ma... e il ma rende inutile qualsasi considerazione è stata fatta prima... ci sono in questo caso due ordini di problemi, il primo è l'integrabilità, il sistema I.A. superfigo infatti rimarrebbe confinato all'interno del suo hardware e questo lo renderebbe idoneo per apparecchiature specifiche, come robot ad esempio, ma non per circolare nella rete e non per decidere del nostro futuro se non limitatamente e in modo mirato. Il secondo ordine di problemi è il controllo che non può essere garantito.

E' un "problema oroboro" questo del controllo: o apri alla possibilità di rendere ambiguo il processo decisionale (e quindi "influenzabile" a un grado molto diverso di quello che in ambiente militare può essere tollerato e concesso ad una macchina) oppure lo mantieni limitato a una sola considerazione per volta e per valori discreti, cioé in ambiente digitale.

Poi, e mi rivolgo a quanto scrive @Simsim, come prevedevo non sono riuscito a descrivere il concetto. Il problema non è il potenziale valore di una certa variabile al tempo T, ma il fatto che l'inferenza non può avvenire (per esempio) in modulazione di frequenza, cioè considerando indifferentemente N variabili di ingresso contemporaneamente (con N tendende a infinito).

All'interno di un processo decisionale della macchina, se inserisci una cosa tipo (dove gli uguali sono assegnamenti):

if a=0 AND b=0 OR c=1

l'ordine con cui è considerato ogni operazione è sempre "una per volta", non ha senso per la macchina considerare "tutto insieme" come fosse una sola operazione, non esiste una macchina che lo fa, ma anche dovesse avremo problemi grossi (molto grossi) di stabilità operativa come nei famosi paradossi del semaforo nei blocchi multitask. Se infatti considero da sx verso dx a=0 AND b=0 il risultato booleano è 0 (=falso) e quindi nello step di processamento successivo 0 OR c=1 da 1 (=vero) perché per l'operazione booleana OR basta che una variabile sia vera per avere un risultato vero quindi il flusso passa a considerare il blocco if di istruzioni, mentre se lo leggo in senso contrario da dx verso sx b=0 OR c=1 da come risultato 1 per quanto detto e quindi avremo il risultato a=0 AND 1 che da 0 (=falso) dato che con AND entrambe le variabili devono essere vere per dare un risultato vero e quindi viene saltato il blocco di codice if.

Ora togli gli assegnamenti e non considerare la direzione: qual'è il risultato? Se a metà processo, mentre sto considerando (mettiamo) la lettura da sx a dx prefissata, cambio i valori delle variabili il risultato diventa impredicibile. Non sai quando e se entrerà nel blocco. Questo è considerato un problema (ma ce ne sono altri) di controllo del flusso in un qualsiasi blocco di istruzioni e viene apposta circoscritto ed evitato in ogni contesto di programmazione. Anche nelle I.A.

La Mente non funziona così, semplicemente. Per la Mente lo stato ubiquo non è banalmente un problema, ma la norma. La Mente può processare contemporaneamente più informazioni in una volta sola (un solo passaggio) perché si basa su un principio analogico come la modulazione di frequenza. Se più segnali arrivano contemporanemente (come in un orchestra all'orecchio del direttore) non è un problema considerarli mescolati o separatamente anche contemporaneamente, cioé considerare i due stati (strumenti musicali separati e "insieme") come uno soltanto e beccare esattamente chi sta stonando (individuandone l'ubicazione) senza perdere il filo di tutta l'esecuzione, considerando contemporaneamente tutti insieme e allo stesso identico tempo uno per volta. Ciò ci permette di isolare un suono in mezzo a mille altri, una cosa che per noi è semplice, banale, ma per una macchina è un compito quasi impossibile.

La mente ha bisogno di stimoli confusi, perché è stata progettata per quelli. Per ciò (ad esempio) nel futuro in cui ci dovremo adattare alle esigenze delle macchine perché saremo "connessi" 24su24 al carcere digitale che non apparirà come tale (ma anzi sarà "venduto" come una forma di libertà del pensiero) l'imposizione operativa ci starà molto stretta (=stancante). Ecco allora che avremo bisogno di "sfogare" tensione (=ansia) verso considerazioni più in linea con le esigenze della Mente e ce ne sono state già fornite in anticipo tanto per iniziare e di natura compatibile con il futuro pianificato dai padroni del discorso, come ad esempio il modo "colorato" con cui potremo considerare il corpo, un corpo che tra l'altro è destinato ad essere sempre meno rivendicabile e sempre più in "co-proprietà" con chi lo maneggerà a sua propria discrezione, con cose come le future terapie geniche per il "bene" della comunità (ad esempio con la scusa di proteggere da pandemie).

Un avvisaglia di come dovremmo concepire tutto questo ce l'abbiamo con l'alterazione del DNA di piante nelle culture geneticamente modificate (almeno in America). Se finiscono sementi in un campo accanto e germogliano il contadino di quel campo può essere accusato di furto intellettuale. Non che lui può denunciare la Monsanto (o chi per essa) di avergli inquinato campo e terreno con schifezza geneticamente modificata andata fuori controllo come ha senso che sia, no no, è lui ad essere accusato di appropriazione indebita di piante geneticamente modificate, il cui brevetto è quindi in mano a privati che mandano persino agenti sul territorio a monitorare che non gli vengano rubati questi diritti intellettuali. Se il nostro genoma verrà modificato da terapie geniche, perché abbiamo accettato le terapie, ad esempio per renderlo più resistente ad agenti patigeni liberati apposta, chi sarà proprietario di quelle modifiche se avverrà una trasmissione involontaria e/o trasversale? E' pur sempre materiale genetico e non è confinabile in natura. Non funziona così!

Ok...credo di aver agganciato. Mi scuso ma da una decina di giorni si è ridotta drasticamente la finestra temporale a mia disposizione, nonché l'energia psichica, sto lavorando come mai negli ultimi anni, ed ho anche mia madre in visita...dunque non riesco forse fino in fondo a seguire. E in più mi rendo conto pure di avere una visuale profondamente ristretta su alcune cose. O forse, semplicemente, a volte troppo ottimista.


RispondiQuota
GioCo
Noble Member
Registrato: 14 anni fa
Post: 1616
Topic starter  
Postato da: @simsim

Ok...credo di aver agganciato. Mi scuso ma da una decina di giorni si è ridotta drasticamente la finestra temporale a mia disposizione, nonché l'energia psichica, sto lavorando come mai negli ultimi anni, ed ho anche mia madre in visita...dunque non riesco forse fino in fondo a seguire. E in più mi rendo conto pure di avere una visuale profondamente ristretta su alcune cose. O forse, semplicemente, a volte troppo ottimista.

@simsim sono robe complesse da decifrare, almeno quanto sono complesse da descrivere, se no ce le avremmo in testa tutti chiare e limpide. Poi, una volta che ci si arriva è come lo zero in matematica, non devi fare tanti sforzi a capire. Un po' come i rebus, la parte complicata è sbrogliare la matassa di che ca%%o vogliono dire, quando hai ottenuto la soluzione diventa subito banale e ti viene spesso da pensare "com'è che non mi è venuto in mente prima?". Quindi non ti sminuire, sei tra i pochissimi che almeno ci prova, personalmente ci ho messo anni a focalizzare il problema e ad affrontarlo e lo affronto anche male (t'assicuro). Cioé faccio del mio meglio e mi rendo conto che è miserabile il risultato! Insisto solo perché è meglio che niente, non sono in molti infatti che si cimentano per dire 4 ca%%ate ma difficilissime da comunicare. Non ci si guadagna niente quando va bene, se no (di solito) vinci grane.


RispondiQuota
GioCo
Noble Member
Registrato: 14 anni fa
Post: 1616
Topic starter  
Postato da: @sganzo

Conosci la logica Fuzzy?

Si @Deheb, puntuale e molto buona come domanda, grazie! La logica sfumata è un modo di concepire la programmazione vicina alla "logica nipponica" (sono loro ad averla inventata proprio perché gli stava troppo stretta la programmazione a insiemi determinati) che rifiuta proprio le delimitazioni confinate tipiche dei ragionamenti algoritmici.

Quindi, se confronto due insiemi nella logica ad insiemi "classica", in modo simile a come agisce la logica booleana posso ottenere l'intersezione, l'unione e altre operazioni "semplici" degli elementi contenuti. Nella logica sfumata, i confini degli insiemi non sono nettamente definiti ma gli elementi che li compongono sono caratterizzati da percentuali di appartenenza. Così se voglio determinare se una persona è o non è in soggiorno, non dico "non appartiene all'insieme delle persone che stanno in soggiorno", ma ad esempio "appartiene al 10% all'insieme delle persone che stanno in soggiorno" perché si trova in cucina e la distanza dall'insieme "soggiorno" determina l'appartenza, un po' come se l'insieme fosse definito con del fumo o del gas.

Questo nella logica di fondo. Nella pratica il supporto (=infrastruttura) poi è sempre lo stesso e tutto si riduce ad un livello di astrazione più alto nel linguaggio di programmazione (un po' come per Eiffel) usato dal programmatore. In altre parole se prendo il compilato e faccio reverse engineer in codice C, troverò le stesse strutture di base con gli stessi problemi esposti.

 


RispondiQuota
Simsim
Estimable Member
Registrato: 12 mesi fa
Post: 170
 

@gioco non voglio andare troppo fuori tema, ma dicendolo ci sto già andando forse. Passo di questi momenti tipicamente umani quando sono sotto pressione intellettuale. Un pó non accetto i miei limiti fisici istintivamente, ma è un meccanismo che mi consente, quando sono in riserva energetica, di buttare il cuore oltre l'ostacolo. In questo periodo, tralasciando il rumore di fondo pandemico che mi preoccupa costantemente sotto l'aspetto socio-politico-burocratico, sto affrontando una serie di nodi che stanno venendo al pettine tutti insieme. Non ho la sindrome (o non ancora, ma è già abbastanza in ritardo sulla tabella di marcia) di accerchiamento classica di momenti simili, ma sono profondamente assorbito da un sacco di cose diverse e dal dover tenere l'attenzione alta su molti aspetti, da quello professionale a quello privato. Va benissimo così, intendiamoci. Su altri aspetti, avere meno tempo di elucubrazione mi porta a filtrare di molto il rumore e di andare al sodo delle questioni, e paradossalmente ad essere più incisivo e anche a perdere meno tempo in preoccupazioni collaterali.

Comprendo appieno la preoccupazione di tutti, la tua compresa, sul discorso IA, e dal punto di vista razionale qualunque osservazione ha di fatto senso e contiene uno spicchio di possibile verità. Ma continuo a credere che in'ultima istanza abbiamo preso un aereo che sta attraversando una spessissima coltre di nubi nere, oltre le quali c'è sempre il sole. Questo significherà il fallimento dell'IA come tecnologia? Bene, forse si potrà ricostruire un mondo su basi diverse. Significherà che l'attuale IA verrà deviata a fine di bene? Bene per definizione. Significherà che torneremo ad un tardo medioevo tecnologico? Bene, troveremo un equilibrio diverso. Il punto di fondo è che, lo dico qui e ora e domani la penserò diversamente e sarò di nuovo informato in elucubrazioni, ma sono profondamente disinteressato a dove andremo a finire di preciso, ma so solo che questo è un passaggio obbligato di questo momento, al termine del quale chi ha sbagliato smetterà di essere un problema per questo mondo. In qualunque modo questo accada.


RispondiQuota
GioCo
Noble Member
Registrato: 14 anni fa
Post: 1616
Topic starter  
Postato da: @simsim

@gioco non voglio andare troppo fuori tema, [...]

Comprendo appieno la preoccupazione di tutti, la tua compresa, sul discorso IA, e dal punto di vista razionale qualunque osservazione ha di fatto senso e contiene uno spicchio di possibile verità. Ma continuo a credere che in'ultima istanza abbiamo preso un aereo che sta attraversando una spessissima coltre di nubi nere, oltre le quali c'è sempre il sole. Questo significherà il fallimento dell'IA come tecnologia? Bene, forse si potrà ricostruire un mondo su basi diverse. Significherà che l'attuale IA verrà deviata a fine di bene? Bene per definizione. Significherà che torneremo ad un tardo medioevo tecnologico? Bene, troveremo un equilibrio diverso. Il punto di fondo è che, lo dico qui e ora e domani la penserò diversamente e sarò di nuovo informato in elucubrazioni, ma sono profondamente disinteressato a dove andremo a finire di preciso, ma so solo che questo è un passaggio obbligato di questo momento, al termine del quale chi ha sbagliato smetterà di essere un problema per questo mondo. In qualunque modo questo accada.

Le "nubi" che tu vedi, ci seguono. Quindi ne usciremo ma solo se capiremo la natura di queste nubi che altrimenti ci rimarranno appiccicate adosso. Un po' come le zanzare, sono un problema, ma per combatterle non basta l'Autan e se hai studiato un minimo come funzionano, da cosa dipendono i loro comportamenti e le loro scelte, in un certo senso smettono di essere un problema perché capisci come andare oltre, semplicemente. Questo, ovviamente, comporta un radicale cambiamento di significati che siamo abituati a dare (senza rendercene conto) al Mondo, alle persone e alle cose. Radicale, non perché complicato, ma perché tocca argomenti molto semplici da cui poi discendono tutti gli altri.

Non è una cosa facile, l'ho detto.


RispondiQuota
Deheb
Estimable Member
Registrato: 9 anni fa
Post: 144
 

@SimSim: la domanda era rivolta ad entrambi, se non erro sei informatico quindi più facile che tu conosca. 

 

@GioCo: era solo un esempio di come i computers possano non avere una logica e un funzionamento lineare. Senza entrare nelle sofisticate complicazioni di PietroGE (ormai noto disturbatore di post altrui….si scherza Pietro…), credo l’AI sia molto più avanti di come la descrivi, potenzialmente un pericolo, condivido, per l’uso o abuso che se ne potrebbe fare (che potrebbero farne in realtà).

Gia l’AI libera in rete è presente e pervasiva, ad esempio i banner pubblicitari “mirati” o gli acquisti “che soddisfano maggiormente o sono più affini ai tuoi interessi”.

Prendi poi il Machine Learning e le reti neurali, non sono poi così lontani dal domani, molto più vicini rispetto ai 4/5 secoli che indichi; la guida autonoma attualmente è in fase di sperimentazione: stimoli molteplici raccolti da sensori, informazioni confuse o caotiche da elaborare velocemente e reagire in risposta altrettanto velocemente. Vero che sono algoritmi (schemi) di apprendimento ma dinamici non statici. 

La mente umana per molti aspetti è ancora sconosciuta ma queste cose artificiali diventano sempre più somiglianti al modello naturale. 


RispondiQuota
PietroGE
Famed Member
Registrato: 7 anni fa
Post: 3622
 

"Prendi poi il Machine Learning e le reti neurali, non sono poi così lontani dal domani,"

Aggiungo che esiste anche il cosiddetto : Computer-assisted proof molto interessante per i matematici quando devono dimostrare un teorema, sia se si tratta di calcoli a ' forza bruta' per cercare di controllare tutte le possibili uscite sia, ma sembra essere più difficile, per arrivare logicamente alla dimostrazione (cercare su Wikipedia se si è interessati). Al momento l'unica cosa che mi sento di escludere è la nascita dell'autocoscienza in un computer complesso. Rimane ovviamente la domanda di base : può in via di principio una macchina sviluppare la coscienza di se? Boh. Ricordo vagamente un romanzo di (horror) fantascienza di Frank Herbert che lessi da ragazzo dove facevano proprio questo tipo di esperimenti su una astronave con il risultato : la macchina (astronave) acquisisce la coscienza di se, crede di essere Dio e rende schiavo tutto l'equipaggio! Bellissimo!

Condivido la preoccupazione per l'uso massiccio di AI in tutti i posti di lavoro. La valanga di disoccupati e la conseguente proletarizzazione del ceto medio (che c'è già) potrebbe seppellire la democrazia. Buone vacanze a tutti.


RispondiQuota
GioCo
Noble Member
Registrato: 14 anni fa
Post: 1616
Topic starter  
Postato da: @sganzo

@SimSim: la domanda era rivolta ad entrambi, se non erro sei informatico quindi più facile che tu conosca. 

 

@GioCo: era solo un esempio di come i computers possano non avere una logica e un funzionamento lineare. Senza entrare nelle sofisticate complicazioni di PietroGE (ormai noto disturbatore di post altrui….si scherza Pietro…), credo l’AI sia molto più avanti di come la descrivi, potenzialmente un pericolo, condivido, per l’uso o abuso che se ne potrebbe fare (che potrebbero farne in realtà).

Gia l’AI libera in rete è presente e pervasiva, ad esempio i banner pubblicitari “mirati” o gli acquisti “che soddisfano maggiormente o sono più affini ai tuoi interessi”.

Prendi poi il Machine Learning e le reti neurali, non sono poi così lontani dal domani, molto più vicini rispetto ai 4/5 secoli che indichi; la guida autonoma attualmente è in fase di sperimentazione: stimoli molteplici raccolti da sensori, informazioni confuse o caotiche da elaborare velocemente e reagire in risposta altrettanto velocemente. Vero che sono algoritmi (schemi) di apprendimento ma dinamici non statici. 

La mente umana per molti aspetti è ancora sconosciuta ma queste cose artificiali diventano sempre più somiglianti al modello naturale. 

AAh, quanto male ha fatto la propaganda!

Vedi @Deheb, quello che non si capisce è la differnenza che c'è tra l'infrastruttura (una parola che non entra nel vocabolario della discussione, noti?) e la possibilità residua di governo dell'attenzione (nostra e di una I.A.).

Se tu vai a teatro e vedi degli attori veramente ma veramente molto bravi, diresti che assisti alla verità? No, perché l'infrastruttura lo impedisce, stanno effettivamente (e quindi per antonomasia facendo tutto tranne che qualcosa di vero) recitando e questo lo puoi constatare in quanto sei a teatro o comunque stai assistendo a uno spettacolo dichiarato, dove è evidente che ogni strumento (ad esempio i costumi) serve a riproporre lo stesso e a nient'altro, tant'è che hai pagato un biglietto per assistere (di nuovo "infrastruttura").

Il problema vedi è che l'infrastruttura non è visibile e non è facilmente identificabile. Non sempre almeno. Soprattutto quando diventa complessa e intersecata con la realtà che ci circonda, come accade di solito. Se poi a nasconderla ci pensa un imbroglione, abbiamo cose tipo "La Stangata" del 1973 diretto da George Roy Hill, ottimo film che ti consiglio di rivedere se non lo ricordi o non lo conosci. In quel caso l'infrastruttura era finta, come il set di uno spettacolo teatrale, ma veniva dichiarata vera. La parte importante era che la vittima non era in grado di capire la differenza e nemmeno di accorgersi che ce ne era una.

Tutta la parte che citi è basata per il 99,9% in un imbroglio. Infatti è possibile nascondere le magagne sottostanti, velocizzando i processi. Ma nasconodere, non significa elimitare e quando andrai a riscuotere in cassa la tua straordinaria vittoria (tipo la famigerata "singolarità"?) è lì che ti accorgerai della immane presa per il culo di cui sei stato vittima e insieme, del feroce e abissale danno (=errore) che hai commesso.

Questo però, fai attenzione, non significa che l'I.A. sia inutile o non possa effettivamente svolgere un ruolo anche importante nel nostro futuro, come ho scritto non sto negando la potenzialità del mezzo. Quello che indico è il significato che tu gli stai dando ora e per ciò che dici. Il significato che vuole veicolare per noi il padrone del discorso. Quello sbagliato. Riflettici.


RispondiQuota
Condividi:

I commenti sono chiusi.