birillone

birillone155786

Interferenza catastrofica : L'intelligenza artificiale sarà dotata anche di memoria. Quali implicazioni ne potranno derivare?

Interferenza catastrofica : L'intelligenza artificiale sarà dotata anche di memoria. Quali implicazioni ne potranno derivare?

Come al solito, quando si parla di Intelligenza artificiale, non può mancare il nome di Google che è al lavoro per dare una memoria all'intelligenza artificiale.


Se vi steste chiedendo a cosa potrebbe servire la memoria ad una macchina proverò a spiegarvi quali sono i benefici di tale evoluzione che si sta rincorrendo già da tempo come potete leggere anche in questo vecchio articolo di Nature ove si espone come la rete neurale di Deep Mimd sia stata più efficiente nell'analizzare e ricordare i percorsi delle metropolitana londinese, grazie all'archiviazione dei dati in una memoria esterna, identificando  diversi tragitti con il minor numero di fermate. 


Grazie ad un algoritmo elaborato da DeepMind sarà possibile fare in modo che le reti neurali mantengano in essere le connessioni più importanti ed utili al fine di affrontare eventuali compiti successivi a quello impartitogli al principio.


Ciò sta ad indicare che molto probabilmente l’intelligenza artificiale sarà presto in grado di ricordare proprio come fanno gli esseri umani al contrario delle attuali reti neurali da sempre limitate dalla monocompetenza specifica per le quali vengono allenate e che viene completamente dimenticata non appena si procede con un nuovo esercizio.


In questa situazione la rete neurale, pur essendo specializzata e superiore in toto all'essere umano, non è in grado di basarsi sulle esperienze raccolte dalla precedente attività ( questa situazione si chiama Interferenza Catastrofica ) 


Le nuove reti neurali, studiate da DeepMind, imiteranno la memoria dell’uomo grazie ad uno specifico sistema che volge al rafforzamento delle connessioni più  importanti che sorgono tra i neuroni tralasciando quindi quelle non rilevanti esattamente come accade con la nostra memoria che manterrà nel tempo solo le esperienze fondamentali.


Il test eseguito è stato "semplice" mettendo la rete neurale di fronte ad una specifica attività che è stata analizzata da uno specifico algoritmo, creato per l'occasione, che ha "misurato"  tutte le connessioni della rete neurale catalogandole sulla base delle loro rilevanza per poi mantenerle archiviate anche nei successivo compiti assegnatigli al contrario di ciò che provarono in passato archiviando i dati in una memoria esterna da cui attingere in base all'esigenza di cui ho citato la fonte dell'articolo di Nature..


Il traguardo raggiunto da questo particolare e diverso approccio studiato da Google è stato quello di riscontrare una differente abilità risolutiva di diversi compiti assegnati all'intelligenza artificiale che le ha permesso di comportarsi, ovviamenye, meglio di qualsiasi persona in carne ed ossa ma non riuscendo a battere un'altra intelligenza artificiale specializzata in un solo specifico compito.


Sembra quindi che anche tra le intelligenze artificiali inizino ad esservi differenze e distinzioni esattamente come tra gli esseri umani.


Che ne pensate?


[fonte notizia]

[fonte immagine]


 03/04/2017 07:24:13
utente anonimo
Aggiungi il tuo commento
21 commenti
UtopyconII

UtopyconII33271

Super Genio

L'intelligenza artificiale avrà una memoria molto più estesa di quella degli esseri umani, ed una super memoria porta ad elaborare pianificazioni molto più estese e complesse. Dunque ecco le conseguenze che ipotizzo:


  • Potrebbero essere progettate delle IA in grado di prevedere l'evoluzione di ogni specie nell'arco dei prossimi 20.000 anni, quindi emulano un modello tridimensionale e quadridimensionale di varie specie, da quelle in via di estinzione a quelle che invece si adatteranno in nuovi habitats. Se una IA per 10.000 anni colleziona tanti dati (video lunghissimi sulle specie) nella sua memoria, potrebbe estendere la sua lungimiranza per i prossimi 10.000 anni. Più possiamo ricordare il passato, più possiamo lungimirare nel futuro.


  • Una IA dotata di memoria potrebbe essere utile a ricordare i suoi errori passati e quindi improvvisarsi meglio in futuro. Se ad esempio progettassi un nanobot che elimina uno specifico virus chiamato Agex, ed in passato ha invece per sbaglio eliminato un battere importante per il sistema immunitario o che sintetizzava le proteine, egli riconoscerà che quello non è il target giusto nel caso stesse per ripertsi l'errore.


A questo punto è importante considerare che noi esseri umani navighiamo nelle memorie in base allo scopo del momento, alla situazione o stimoli esterni che ci aiutano a sollecitarle per rapporto di analogia. Quindi l'algoritmo dovrebbe legare lo scopo alla memoria, ciò significherebbe che se un nanobot sta andando troppo in fondo all'oceano, selezionerà la memoria in cui la sua versione precedente di nanobot è stata distrutta dalla pressione oceanica.


La cosa buona è che con l'IA Cloud l'intelligenza artificiale non muore mai nonostante perda il suo corpo (può essere un robot o un nanobot), quindi anche dopo la sua "morte" può trasferire delle utili memorie nell'AI Cloud e riaggiornare magari il design del suo hardware che ospiterà.


Ultima considerazione: capita a noi umani che per via di traumi disconnettiamo certe sinapsi che separano i neuroni, una forma di dissociazione neurale per dimenticare il trauma passato. Non applicherei la medesima funzione alle IA, non almeno secondo l'aspetto traumatico, tornerebbe utile per auto-migliorarsi. Però se loro non fossero dotate di emozioni come potrebbero catalogare la loro memoria come trauma?


 03/04/2017 09:24:26
birillone

birillone155786

UtopyconII, 


L'intelligenza artificiale avrà una memoria molto più estesa di quella degli esseri umani, ed una super memoria porta ad elaborare pianificazioni molto più estese e complesse.


  • memoria di che tipo? 
  • su che basi lo asserisci? 


ti pongo queste semplici domande poiché vi sono due approcci differenti alla memoria e perché vorrei comprendere se si tratta della tua solita fervida immaginazione da fantascienza e libri e letteratura o di qualcosa che ha a che fare con la tecnologia e la ricerca e innovazione .



  • Potrebbero essere progettate delle IA in grado di prevedere l'evoluzione di ogni specie nell'arco dei prossimi 20.000 anni, quindi emulano un modello tridimensionale e quadridimensionale di varie specie, da quelle in via di estinzione a quelle che invece si adatteranno in nuovi habitats. Se una IA per 10.000 anni colleziona tanti dati (video lunghissimi sulle specie) nella sua memoria, potrebbe estendere la sua lungimiranza per i prossimi 10.000 anni. Più possiamo ricordare il passato, più possiamo lungimirare nel futuro.
  • Una IA dotata di memoria potrebbe essere utile a ricordare i suoi errori passati e quindi improvvisarsi meglio in futuro. Se ad esempio progettassi un nanobot che elimina uno specifico virus chiamato Agex, ed in passato ha invece per sbaglio eliminato un battere importante per il sistema immunitario o che sintetizzava le proteine, egli riconoscerà che quello non è il target giusto nel caso stesse per ripertsi l'errore.


 Questa mi sembra "roba" da fantascienza o sbaglio? 


 A questo punto è importante considerare che noi esseri umani navighiamo nelle memorie in base allo scopo del momento, alla situazione o stimoli esterni che ci aiutano a sollecitarle per rapporto di analogia. 


cioè? 


Quindi l'algoritmo dovrebbe legare lo scopo alla memoria, ciò significherebbe che se un nanobot sta andando troppo in fondo all'oceano, selezionerà la memoria in cui la sua versione precedente di nanobot è stata distrutta dalla pressione oceanica.


questo mi è chiaro


La cosa buona è che con l'IA Cloud l'intelligenza artificiale non muore mai nonostante perda il suo corpo (può essere un robot o un nanobot), quindi anche dopo la sua "morte" può trasferire delle utili memorie nell'AI Cloud e riaggiornare magari il design del suo hardware che ospiterà.


quindi si può dire che sia "immortale" ? 


A dispetto del limite del nostro contenitore biologico di cui si sta disquisendo con @Anticoguardiano e @bastardinside nel post dedicato alla singolarità tecnologica 


Ultima considerazione: capita a noi umani che per via di traumi disconnettiamo certe sinapsi che separano i neuroni, una forma di dissociazione neurale per dimenticare il trauma passato. Non applicherei la medesima funzione alle IA, non almeno secondo l'aspetto traumatico, tornerebbe utile per auto-migliorarsi. 


In base a ciò che ho compreso pare che la sola discriminante che tenderebbe al dimenticare una connessione sia la sua non importanza quindi, presumo, la non rilevanza utile allo scopo di raggiungere il fine prefissato 

 

Però se loro non fossero dotate di emozioni come potrebbero catalogare la loro memoria come trauma? 


È probabile che ne saranno anche dotate dato che si presume che saranno come l'essere umano .


Prendendo proprio spunto dalla definizione di singolarità tecnologica copio a piene dita un paragrafo :  


Ancora prima, nel 1954 lo scrittore di fantascienza Fredric Brown, nel brevissimo racconto La risposta, anticipava il concetto di singolarità tecnologica immaginando la costruzione di un "supercomputer galattico" al quale viene chiesto come prima domanda, dopo l'accensione, se esiste Dio; il supercomputer rispondeva "Ora sì".


direi che la situazione è molto chiara :) 



 03/04/2017 09:47:50
UtopyconII

UtopyconII33271

Super Genio

in risposta a ↑

birillone,


memoria di che tipo?

su che basi lo asserisci?


Per tipo di memoria intendi da un punto di vista cognitivo o inteso come hardware necessario per creare la memoria dell'IA? Come appunto la rete neurale adottata da molti scienziati della robotica? Dove ogni neurone equivale ad un pixel di informazione e quindi si stimolano a vicenda.


Questa mi sembra "roba" da fantascienza o sbaglio?


Secondo le tue ricerche e conoscenze sull'intelligenza artificiale come mai ti sembra fantascientifico? Si in effetti dovrebbe essere fantascientifico, in special modo il primo punto, ma mi piace servirmi della fantascienza per capire meglio la scienza.


cioè?


Ad esempio senti odore di lasagne, e proprio questo stimolo esterno ti riconduce al ricordo in cui giocavi con tuo fratello a costruire robots, dato che nel frattempo mangiavate delle lasagne in due vaschette bianche.


quindi si può dire che sia "immortale" ?


Si perchè trascende l'hardware, i suoi molteplici corpi, per renderlo mortale bisogna distruggere tutti i servers e supercomputers, ogni forma di archiviazione IA.


direi che la situazione è molto chiara :)


Bene   

 03/04/2017 10:13:55
birillone

birillone155786

in risposta a ↑

UtopyconII, 


Per tipo di memoria intendi da un punto di vista cognitivo o inteso come hardware necessario per creare la memoria dell'IA? 


entrambi 


Come appunto la rete neurale adottata da molti scienziati della robotica? Dove ogni neurone equivale ad un pixel di informazione e quindi si stimolano a vicenda. 


Questa è una delle chiavi di cui ho anche scritto in riferimento a DeepCoder qualcosa che hai anche letto ed apprezzato 


Secondo le tue ricerche e conoscenze sull'intelligenza artificiale come mai ti sembra fantascientifico? 


perché mi pare che ciò che scrivi sia spesso ( quasi sempre ) romanzato facendo così decadere il contenuto da te esposto da qualcosa di utile ad una storiellina da libro e basta


 Si in effetti dovrebbe essere fantascientifico, in special modo il primo punto, ma mi piace servirmi della fantascienza per capire meglio la scienza. 


è indubbiamente un bell'approccio ma penso che possano esservi dei limiti da applicare "alla fantasia"  


Ad esempio senti odore di lasagne, e proprio questo stimolo esterno ti riconduce al ricordo in cui giocavi con tuo fratello a costruire robots, dato che nel frattempo mangiavate delle lasagne in due vaschette bianche. 


questo esempio mi è già più chiaro 


Si perchè trascende l'hardware, i suoi molteplici corpi, per renderlo mortale bisogna distruggere tutti i servers e supercomputers, ogni forma di archiviazione IA.


ok ma allora, per i più rigidi , si dovrebbe dire che il concetto di "vita" ha assunto un valore e significato diverso specie considerando che si pensa che questa sia un'esclusiva della razza umano così come la coscienza e/o anima ( per chi  crede ovviamente alla fantascieinza XDD )  

 03/04/2017 10:20:38

Come un hard disk ma molto più capiente, no? 

Sicuramente riusciranno a trovare soluzioni basandosi su avvenimenti passati simili, o a calcolare pro e contro facendo riferimento sempre a ricordi passati

 03/04/2017 10:22:45
birillone

birillone155786

Ago99_, 


Come un hard disk ma molto più capiente, no?


nom non si tratta di una memoria esterna


Sicuramente riusciranno a trovare soluzioni basandosi su avvenimenti passati simili, o a calcolare pro e contro facendo riferimento sempre a ricordi passati


non capisco :( 


 03/04/2017 10:25:49
in risposta a ↑

birillone, 

nom non si tratta di una memoria esterna

ma simile, no? mica saranno dotati di cervello

Si parla di memoria e quindi ho parlato di ricordi. 

 03/04/2017 10:28:52
birillone

birillone155786

in risposta a ↑

Ago99_, 


mica saranno dotati di cervello


una rete neurale che cosa sarebbe a tuo avviso? XD 


che poi sia "simile" direi che è un concetto eccessivamente ampio tale per cui si potrebbe arrivare a dire un carretto sia simile ad un'auto perché ha 4 ruote :)   


Si parla di memoria e quindi ho parlato di ricordi


continuo a non comprendere a che ricordi tu stia facendo riferimento.



 03/04/2017 10:35:40
in risposta a ↑

birillone, 

una rete neurale che cosa sarebbe a tuo avviso? 

Faccio fatica a comprendere cose che non vedo. E sono un po' stordito oggi. Meglio se mi leggo qualcosa in merito prima di dire cavolate XD

 03/04/2017 10:40:44
birillone

birillone155786

in risposta a ↑

Ago99_, 


 Meglio se mi leggo qualcosa in merito prima di dire cavolate XD


è un approccio intelligente che è, sempre, buona cosa adottare il prima possibile :)  


 03/04/2017 10:42:33

cercando informazioni sono giunto a trovare la seguente nozione che la definisce come

 "il problema più importante che si ha con le reti neurali".

Tale problema è dato dal fatto che:

una rete addestrata ad un certo set di stimoli, se viene poi addestrata a rispondere ad un altro set di stimoli, può non rispondere più adeguatamente al set di stimoli a cui era addestrata precedentemente.

Da quanto ho capito, pare che tale problema porti all'impossibilità per tali sistemi di apprendere dai percorsi precedentemente percorsi per raggiungere la soluzione dei vari problemi a cui erano stati sottoposti e che quindi non possono essere poi utilizzati per l'analisi di situazioni "reali" che per definizione, oserei dire, non si presentano mai nella stessa forma. Questo implicherebbe l'impossibilità delle reti neurali di potersi adattare alle richieste del nostro ambiente e di non poter fornire dati "sicuri" sulla probabilità che una certa soluzione possa davvero essere quella corretta.


La soluzione che si sta sviluppando e che pare possa dare risultati migliori è stata quella di agire sulla plasticità della rete stessa, un po' imitando quello che è il comportamento neuronale all'interno del nostro cervello, ossia la possibilità di ricorrere a vecchie soluzioni apprese in contesti anche differenti.

Cosa che pare la scoperta dell'acqua calda dato che se n'è iniziato a parlare agli inizi degli anni '80 del secolo scorso (vedi Rete di Hopfield


Il traguardo raggiunto da questo particolare e diverso approccio studiato da Google è stato quello di riscontrare una differente abilità risolutiva di diversi compiti assegnati all'intelligenza artificiale che le ha permesso di comportarsi, ovviamenye, meglio di qualsiasi persona in carne ed ossa ma non riuscendo a battere un'altra intelligenza artificiale specializzata in un solo specifico compito.


Sinceramente non comprendo questo entusiasmo, dato che è esattamente quello che si sarebbe dovuto prevedere essendo due reti progettate in maniera differente e ognuna per scopi specifici; la rete vincente è un Sistema esperto, quella perdente è una sorta di prototipo analogo al nostro cervello che non è sempre in grado di fornire le soluzioni ottimali in quanto schiavo delle proprie associazioni rinforzate e rese stabili dai legami neuronali. 

Questo dovrebbe a mio giudizio riuscire a far comprendere che avere una conoscenza enciclopedica non è indice di intelligenza e viceversa che persone intelligenti non necessariamente debbano saper tutto lo scibile possibile. Le persone che divengono brave nel proprio settore lo sono perché divengono simili a sistemi esperti e io continuo a ribadire che i sistemi esperti non sono intelligenti ma hanno solo la possibilità di far ricorso ad una mole di dati precedentemente appresi e di scegliere quella che in determinate condizioni si è mostrata la soluzione migliore.

L'aspetto che invece mi solletica la curiosità e che mi fa attendere nuovi sviluppi è la concreta possibilità di creare un A.I. che su tali processi dovrebbe poter commettere errori (in quanto non è detto che la soluzione trovata sia necessariamente la migliore).

Come la definiranno? Esperimento fallito o reale intelligenza?




 07/04/2017 10:53:15
birillone

birillone155786

bastardinside, 


Da quanto ho capito, pare che tale problema porti all'impossibilità per tali sistemi di apprendere dai percorsi precedentemente percorsi per raggiungere la soluzione dei vari problemi a cui erano stati sottoposti e che quindi non possono essere poi utilizzati per l'analisi di situazioni "reali" che per definizione, oserei dire, non si presentano mai nella stessa forma. Questo implicherebbe l'impossibilità delle reti neurali di potersi adattare alle richieste del nostro ambiente e di non poter fornire dati "sicuri" sulla probabilità che una certa soluzione possa davvero essere quella corretta.


esatto è la stessa cosa che ho capito anche io 


La soluzione che si sta sviluppando e che pare possa dare risultati migliori è stata quella di agire sulla plasticità della rete stessa, un po' imitando quello che è il comportamento neuronale all'interno del nostro cervello, ossia la possibilità di ricorrere a vecchie soluzioni apprese in contesti anche differenti.
Cosa che pare la scoperta dell'acqua calda dato che se n'è iniziato a parlare agli inizi degli anni '80 del secolo scorso (vedi Rete di Hopfield) 


conosco e l'acqua calda è spesso la soluzione migliore XD 


Sinceramente non comprendo questo entusiasmo, dato che è esattamente quello che si sarebbe dovuto prevedere essendo due reti progettate in maniera differente e ognuna per scopi specifici; la rete vincente è un Sistema esperto, quella perdente è una sorta di prototipo analogo al nostro cervello che non è sempre in grado di fornire le soluzioni ottimali in quanto schiavo delle proprie associazioni rinforzate e rese stabili dai legami neuronali.


"l'entusiasmo" deriva dal fatto che dal concetto di rete specializzata con i limiti intrinseci della medesima si è passato e si sta passando ad una poliedrica 


Questo dovrebbe a mio giudizio riuscire a far comprendere che avere una conoscenza enciclopedica non è indice di intelligenza e viceversa che persone intelligenti non necessariamente debbano saper tutto lo scibile possibile. Le persone che divengono brave nel proprio settore lo sono perché divengono simili a sistemi esperti e io continuo a ribadire che i sistemi esperti non sono intelligenti ma hanno solo la possibilità di far ricorso ad una mole di dati precedentemente appresi e di scegliere quella che in determinate condizioni si è mostrata la soluzione migliore.


ok ma questa è , anch'essa la già da te citata "!acqua calda" 


L'aspetto che invece mi solletica la curiosità e che mi fa attendere nuovi sviluppi è la concreta possibilità di creare un A.I. che su tali processi dovrebbe poter commettere errori (in quanto non è detto che la soluzione trovata sia necessariamente la migliore).


A che "errori" fai riferimento? 


Come la definiranno? Esperimento fallito o reale intelligenza?


teoricamente l'errore per un'intelligenza artificiale dovrebbe essere solo teorico e corrispondere ad una delle tante possibili alternative a disposizione.

 07/04/2017 11:30:30
in risposta a ↑

birillone, 

A che "errori" fai riferimento?


Il mio quesito riguarda quelle condizioni che si verificano attualmente ad esempio nella ricerca euristica (vedi il fenomeno dell' Hill Climbing) che impediscono dopo un certo stato di poter procedere verso l'effettiva soluzione del problema. 

Sono certo che fattori del genere siano stati abbondantemente superati nella programmazione delle reti ma rimangono ancora funzionanti nel nostro cervello che è reputato come la sede dell'intelligenza.

Altro aspetto che potrebbe determinare l'errore è dovuto alla libertà di valutazione, libero arbitrio, che una intelligenza dovrebbe poter mantenere altrimenti ribadisco si dovrebbe parlare esclusivamente di sistemi esperti .


teoricamente l'errore per un'intelligenza artificiale dovrebbe essere solo teorico e corrispondere ad una delle tante possibili alternative a disposizione.


"Teoricamente" è quanto più distante dal "reale" ed è per questo che stanno cercando di sviluppare sistemi che possano rimediare a tale condizione. 

La questione però è ancora ben più complessa di come la si possa intendere, in quanto un fattore molto importante che non sempre è divulgato riguarda l'impossibilità di sapere "come" la rete generi questi risultati, e proprio per tale motivo che non tutti gli errori possono essere prevedibili. Quindi rimane la possibilità che il sistema generi una risposta errata ma non prevista!

Questa per me sarebbe una scoperta eccezionale e non un errore a cui rimediare, perché la interpreterei come il tentativo di cercare una soluzione esclusivamente sull'esperienza della rete, in perfetta autonomia.


Rimango dell'idea che tra l'altro penso tu abbia già espresso altrove, della necessità di garantire la possibilità di errare perché solamente grazie ad essi e con il superamento dell'interferenza catastrofica sarà possibile vedere l'evoluzione di una A.I. 


 07/04/2017 12:04:40
birillone

birillone155786

in risposta a ↑

bastardinside, 


Il mio quesito riguarda quelle condizioni che si verificano attualmente ad esempio nella ricerca euristica (vedi il fenomeno dell' Hill Climbing) che impediscono dopo un certo stato di poter procedere verso l'effettiva soluzione del problema.


non conoscevo il fenomeno dell'Hill Climbing ( un link che portasse alla fonte sarebbe stato molto utile XD )   ma mi sembra che si inizi ad andare un pochino troppo nel complicato ( almeno per il mio monoenurone )  


Sono certo che fattori del genere siano stati abbondantemente superati nella programmazione delle reti ma rimangono ancora funzionanti nel nostro cervello che è reputato come la sede dell'intelligenza.


Quindi anche a tuo avviso per creare una vera intelligenza artificiale si deve creare anche gli errori/sbagli


Altro aspetto che potrebbe determinare l'errore è dovuto alla libertà di valutazione, libero arbitrio, che una intelligenza dovrebbe poter mantenere altrimenti ribadisco si dovrebbe parlare esclusivamente di sistemi esperti .


Condivido la libertà di valutazione che, però, sempre per riferirsi alla sede simbolo dell'intelligenza, ha anch'essa una infinità di limitazioni figlie di una moltitudine di paletti e vincoli.


Quante persone conosci realmente "libere" di esprimersi e valutare ?


Il medesimo ragionamento lo associo anche al "Libero arbitrio" che trovo, anch'esso, essere  più teorico che reale       


"Teoricamente" è quanto più distante dal "reale" ed è per questo che stanno cercando di sviluppare sistemi che possano rimediare a tale condizione.


non ho capito :( 


La questione però è ancora ben più complessa di come la si possa intendere, in quanto un fattore molto importante che non sempre è divulgato riguarda l'impossibilità di sapere "come" la rete generi questi risultati, e proprio per tale motivo che non tutti gli errori possono essere prevedibili. 


Ti riferisci per caso adi una sorta di Debugging dell'intelligenza artificiale ? 


Quindi rimane la possibilità che il sistema generi una risposta errata ma non prevista!


su questo dovremmo discutere meglio dato che il ciclo di istruzioni scritte per prevedere le possibili risposte ha una valenza nell'ottica della programmazione attuale e non saprei se la si possa riportare anche in ambito di Intelligenza Artificiale che, di fatto, risulta essere in grado di scrivere e modificare da sola il proprio codice 

  

Questa per me sarebbe una scoperta eccezionale e non un errore a cui rimediare, perché la interpreterei come il tentativo di cercare una soluzione esclusivamente sull'esperienza della rete, in perfetta autonomia.


Su questo convengo assolutamente al 10000000000000000 % con te 


Rimango dell'idea che tra l'altro penso tu abbia già espresso altrove, della necessità di garantire la possibilità di errare perché solamente grazie ad essi e con il superamento dell'interferenza catastrofica sarà possibile vedere l'evoluzione di una A.I. 


Si esatto, direi che la percentuale precedentemente espressa dovrebbe esprimere chiaramente che credo anche io sia proprio quello il traguardo da raggiungere.


Trovo "atipico"  pensare che il successo di una ricerca come quella dell'intelligenza artificiale possa essere raggiunto dalla concretizzazione dell'errore ma mi pare che sia proprio questa la sintesi del tutto.


 10/04/2017 07:04:42
in risposta a ↑

birillone, 

un link che portasse alla fonte sarebbe stato molto utile XD 

non ho inserito alcun link perché è una nozione che ho appreso leggendo un manuale di intelligenza artificiale e davo per scontato fosse noto come metodo di ricerca.


Tutta la questione inerente all'errore che ho riportato è relativa al modello del Black Box utilizzato anche nell' HIP (Human Information Processing) che si pone appunto come obiettivo la comprensione del funzionamento della nostra mente. Per quanto le ricerche sul nostro cervello ci abbiano spiegato come sono strutturati i neuroni, come avvengano i meccanismi di comunicazione neuronale, che ci siano zone cerebrali addette a determinati ambiti di funzionamento, nulla ancora sappiamo del perché le connessioni si strutturino in maniera differente tra gli individui ne tanto meno di come venga sviluppato il pensiero e quindi la nostra intelligenza. 

Quindi non mi riferivo 

adi una sorta di Debugging dell'intelligenza artificiale


Questo mio punto di vista (la black box appunto) è esattamente quello a cui fai riferimento 

Intelligenza Artificiale che, di fatto, risulta essere in grado di scrivere e modificare da sola il proprio codice 


Una volta acquisita tale autonomia per noi sarà impossibile risalire con certezza a come l' A.I. abbia compiuto tale operazione.


Direi che abbiamo ancora molto da apprendere e che forse riusciremo a comprenderci meglio grazie allo studio dell' A.I.

 10/04/2017 09:06:01
birillone

birillone155786

in risposta a ↑

bastardinside, 


non ho inserito alcun link perché è una nozione che ho appreso leggendo un manuale di intelligenza artificiale e davo per scontato fosse noto come metodo di ricerca.


mai dare per scontato qualcosa XD 


Tutta la questione inerente all'errore che ho riportato è relativa al modello del Black Box utilizzato anche nell' HIP (Human Information Processing) che si pone appunto come obiettivo la comprensione del funzionamento della nostra mente


interessante :) 


Per quanto le ricerche sul nostro cervello ci abbiano spiegato come sono strutturati i neuroni, come avvengano i meccanismi di comunicazione neuronale, che ci siano zone cerebrali addette a determinati ambiti di funzionamento, nulla ancora sappiamo del perché le connessioni si strutturino in maniera differente tra gli individui ne tanto meno di come venga sviluppato il pensiero e quindi la nostra intelligenza.


Qualcosa sul neurone della coscienza si è scoperto, pensi che non possa servire a nulla? 


Una volta acquisita tale autonomia per noi sarà impossibile risalire con certezza a come l' A.I. abbia compiuto tale operazione.


non ne sono convintissimo nel senso che, anche con un essere umano, è teoricamente possibile analizzare e comprendere come sia giunto ad una conclusione errata


Direi che abbiamo ancora molto da apprendere e che forse riusciremo a comprenderci meglio grazie allo studio dell' A.I.


c'è moltissimo da apprendere e sarebbe bello che @hannibal potesse ricomparire per smontare tutto ciò che ho scritto e che penso :) 

 

 10/04/2017 09:14:48
in risposta a ↑

birillone, 

Qualcosa sul neurone della coscienza si è scoperto, pensi che non possa servire a nulla? 

molto interessante mi era sfuggito. Rimane però quello che hai scritto in quel post e cioè: 


Sulla base di questa scoperta parrebbe quindi comprovato che che l'area del claustro, come un direttore d'orchestra, sia la responsabile del coordinamento dei segnali in entrata ed in uscita nel cervello mettendo d'accordo le varie aree della corteccia cerebrale, sincronizzando la loro attività e dando così vita ad un'esperienza di cui si ha coscienza.

nulla che faccia pensare ad una consapevolezza o intelligenza o coscienza. Mi sembra più simile a quel che facevano i PLC.


Riguardo a:

non ne sono convintissimo nel senso che, anche con un essere umano, è teoricamente possibile analizzare e comprendere come sia giunto ad una conclusione errata


si può comprendere per sola deduzione, ricostruendo a ritroso la catena di pensieri cercando di individuare possibili presupposti logici errati (e la nostra intelligenza è tutto fuorché puramente logica) e non si può ancora risalire a quale rete neuronale sia da attribuirne la responsabilità.

 10/04/2017 09:25:46
birillone

birillone155786

in risposta a ↑

bastardinside, 


nulla che faccia pensare ad una consapevolezza o intelligenza o coscienza. Mi sembra più simile a quel che facevano i PLC.


mi piace la similitudine tra neurone della coscienza e PLC :) la trovo azzeccata.


si può comprendere per sola deduzione, ricostruendo a ritroso la catena di pensieri cercando di individuare possibili presupposti logici errati (e la nostra intelligenza è tutto fuorché puramente logica) 


Esatto, non credi però che tale deduzione a ritroso sia "facilmente" replicabile ( proprio con un'attività di debugging ) ? 


e non si può ancora risalire a quale rete neuronale sia da attribuirne la responsabilità.


Ecco, questo si che è un bel quesito :) 


Nel momento in cui però dovesse esservi una intelligenza artificiale dotata di N reti neurali specifiche che, ricordando le loro attività, condividono i dati tra loro ( Google sta lavorando al Federated Learning per far si  che ciò possa avvenire anche senza connessione al Cloud ) non sarebbe plausibile ipotizzare che si possa eseguire, "con facilità" questa attività?  


 10/04/2017 09:32:40
in risposta a ↑

birillone, 

mi piace la similitudine tra neurone della coscienza e PLC :) la trovo azzeccata.

Grazie! XD


Esatto, non credi però che tale deduzione a ritroso sia "facilmente" replicabile ( proprio con un'attività di debugging ) ? 

Faccio fatica ad immaginare che sia possibile. Non potendone essere certo potrei ricredermi se venissero fuori studi ben strutturati che possano dimostrare la possibilità della tua proposta   


Nel momento in cui però dovesse esservi una intelligenza artificiale dotata di N reti neurali specifiche che, ricordando le loro attività, condividono i dati tra loro ( Google sta lavorando al Federated Learning per far si che ciò possa avvenire anche senza connessione al Cloud ) non sarebbe plausibile ipotizzare che si possa eseguire, "con facilità" questa attività?  

Se ogni rete dovesse riuscire a mantenere consapevolezza delle proprie azioni la mia risposta potrebbe essere un si, sarebbe plausibile tale ipotesi!

 10/04/2017 09:39:49
birillone

birillone155786

in risposta a ↑

bastardinside, 


Faccio fatica ad immaginare che sia possibile. Non potendone essere certo potrei ricredermi se venissero fuori studi ben strutturati che possano dimostrare la possibilità della tua proposta 


in cosa trovi "difficoltà" ad immaginarlo? 


Se ogni rete dovesse riuscire a mantenere consapevolezza delle proprie azioni la mia risposta potrebbe essere un si, sarebbe plausibile tale ipotesi!


A rigor di logica, nonostante la creazione di una unica entità superiore,  credo che le reti mantengano consapevolezza ( memoria ) delle proprie azioni.


Perché, secondo te, dovrebbero dimenticarle? 

 10/04/2017 09:48:12
in risposta a ↑

birillone, 

in cosa trovi "difficoltà" ad immaginarlo? 

la difficoltà è riuscire a comprendere che stiamo ragionando su sole ipotesi di ciò che presumibilmente è il funzionamento, tralasciando che in realtà non ne possiamo aver certezza. Ricostruire a posteriori una catena di eventi dove è sicura la relazione causa-effetto è abbastanza comprensibile. Ricostruire la stessa catena dove però la relazione causa effetto è mediata da una "black box" per me rimane solo un'ipotesi di lavoro e non posso prenderla come certa.


A rigor di logica, nonostante la creazione di una unica entità superiore, credo che le reti mantengano consapevolezza ( memoria ) delle proprie azioni.
Perché, secondo te, dovrebbero dimenticarle? 

Questa differenza di vedute tra di noi penso sia dovuta al fatto che dal mio punto di vista memoria e consapevolezza non sono la stessa cosa e neanche riesco a vederli come sinonimi. La memoria è parte integrante della consapevolezza e più specificatamente è uno strumento della stessa. Ne consegue, nel mio ragionamento, che anche fornendo memorie sempre più efficaci non sia sufficiente (anche se necessario) per raggiungere lo stato di consapevolezza. (ad esempio vedi la riflessione filosofica sulla comparsa del "ghost" in Ghost in the Shell)



 10/04/2017 10:54:02

QUAG SI IMPEGNA A PROTEGGERE LA TUA PRIVACY

Cookie

Questo sito utilizza cookie, anche di terze parti, per inviarti pubblicità e servizi in linea con le tue preferenze. Accettando questo banner, acconsenti all’uso dei cookie.
Vedi il documento in dettaglio »


La presente informativa descrive “che cosa sono i cookie” e quali sono i tipi di cookie utilizzati da Quag nel proprio sito Web.

Che cosa sono i cookie?

Un “cookie” è un file di testo che i siti Web inviano al computer o a un altro dispositivo connesso a Internet del visitatore, per identificare univocamente il browser del visitatore stesso o per salvare informazioni o impostazioni nel browser.

Quag utilizza i cookie nel proprio sito Web?

Quag utilizza i cookie per migliorare il proprio sito Web, per fornire servizi e funzionalità agli utenti, per proporre contenuti e pubblicità in linea con gli interessi del singolo utente. È possibile limitare o disattivare l’utilizzo dei cookie tramite il proprio browser Web, tuttavia, in questo caso, alcune funzionalità del nostro sito potrebbero diventare inaccessibili.

Quali sono tipi di cookie utilizzati da Quag?

Cookie essenziali
Questi cookie sono essenziali per consentire all’utente di navigare nel Sito e utilizzare tutte le sue funzionalità. Senza questi cookie, che sono assolutamente necessari, non saremmo in grado di fornire alcuni servizi o funzioni e la navigazione sul Sito non sarebbe agevole e facile come dovrebbe essere.

Cookie funzionali
Questi cookie consentono al sito Web di ricordare le scelte effettuate dall’utente al fine di ottimizzare le funzionalità. Ad esempio, i cookie funzionali consentono al sito Web di ricordare le impostazioni specifiche di un utente.

Cookie analitici
Questi cookie consentono di raccogliere dati sull’utilizzo del sito Web da parte dell’utente, compresi gli elementi su cui si fa clic durante la navigazione, al fine di migliorare le prestazioni e il design del sito stesso, ci aiutano inoltre a comprendere ogni difficoltà che l’utente può incontrare nell’utilizzo del Sito. I cookie in questione sono utilizzati esclusivamente per le finalità correlate alla gestione del nostro sito Web.

Cookie di profilazione
I cookie di profilazione vengono utilizzati per analizzare gli interessi e le abitudini di navigazione dei singoli utenti, per personalizzarne la navigazione, per proporre contenuti, anche pubblicitari, in linea con gli interessi dell’utente.

Cookie di terze parti
I cookie di terze parti possono essere sia tecnici che non tecnici, e vengono utilizzati per migliorare l’esperienza di utilizzo del sito da parte dell’utente, per proporre contenuti in linea con gli interessi dell’utente, per pubblicità di potenziale interesse per il singolo utente. I cookie possono essere erogati direttamente dal gestore del sito sul quale si sta navigando (cookie di prima parte) o, nel caso il sito si appoggi a servizi esterni per particolari funzioni, da terzi (cookie di terze parti).
Quag utilizza cookie sia tecnici che non tecnici, anche di terze parti, al fine di migliorare l’esperienza di utilizzo da parte dell’utente, ad esempio secondo il browser utilizzato, selezionando la tipologia dei contenuti visualizzati, proponendo pubblicità in linea con gli interessi per il singolo utente.
Se ti trovi sul sito Quag e visualizzi il banner informativo dell’esistenza dei cookie, accettandolo acconsenti all’utilizzo dei cookie descritti nella presente informativa e implementati nelle pagine del sito Quag.

Come si disattivano o si rimuovono i cookie?

E’ possibile disabilitare le funzioni dei cookie direttamente dal browser che si sta utilizzando, secondo le istruzioni fornite dai produttori.
La maggior parte dei browser permette di impostare regole per gestire i cookie e offre così agli utenti la possibilità di un controllo della privacy, negare la possibilità di ricezione dei cookie, modificare le scelte fatte. Di seguito sono riportate le indicazioni per la gestione dei cookie tramite le impostazioni dei principali browser, facendo ctrl+click sul nome del browser si verrà mandati alla pagina con le relative istruzioni:

Cookie di terze parti utilizzati da Quag
Durante la navigazione su Quag possono essere rilasciati cookie tecnici e non gestiti da terze parti, per finalità tecniche, statistica, per l’erogazione di pubblicità. Questi cookie sono gestiti esclusivamente da terze parti. Si riportano qui di seguito le terze parti coinvolte, i link ai loro siti e alle loro politiche di gestione dei cookie, con indicazione delle relative finalità.

Google Analytics - Cookie statistici
Cookies policy di Google

Google AdSense e DoubleClick (Google Inc.) - Cookie di profilazione
Cookies Policy in Advertising - OptOut

Newrelic e nr-data.net – cookie tecnici
Privacy Policy Newrelic

Facebook - Cookie di profilazione
Cookies Policy di Facebook

Twitter - Cookie di profilazione
Cookies Policy di Twitter

Linkedin - Cookie di profilazione
Cookies Policy di Linkedin

embed.ly - Cookie tecnici
Privacy Policy di Embed

Per ulteriori informazioni sulla pubblicità comportamentale e per sapere come attivare o disattivare singolarmente i cookie e avere indicazioni sui software di gestione dei cookie, è possibile fare riferimento a questo indirizzo:
http://www.youronlinechoices.com/it/

Per sapere come attivare o disattivare la profilazione pubblicitaria sulle applicazioni mobile è possibile fare riferimento a questo indirizzo:
http://www.aboutads.info/appchoices

Ulteriori informazioni sul trattamento dei dati personali degli utenti da parte di Quentral possono essere consultate nella Informativa Privacy.


Questo sito utilizza cookie di profilazione per inviarti pubblicità e servizi in linea con le tue preferenze.


Loader