Superintelligenza

Tendenze, pericoli, strategie

Nonfiction, Computers, Advanced Computing, Artificial Intelligence, Science & Nature, Science, Other Sciences, Philosophy & Social Aspects
Cover of the book Superintelligenza by Nick Bostrom, Bollati Boringhieri
View on Amazon View on AbeBooks View on Kobo View on B.Depository View on eBay View on Walmart
Author: Nick Bostrom ISBN: 9788833930176
Publisher: Bollati Boringhieri Publication: January 11, 2018
Imprint: Bollati Boringhieri Language: Italian
Author: Nick Bostrom
ISBN: 9788833930176
Publisher: Bollati Boringhieri
Publication: January 11, 2018
Imprint: Bollati Boringhieri
Language: Italian

«Lo consiglio vivamente. »
Bill Gates

«Da leggere assolutamente... Dobbiamo essere estremamente cauti con l’Intelligenza Artificiale. Potenzialmente, è più pericolosa del nucleare. »
Elon Musk

««Non c’è alcun dubbio sulla forza degli argomenti di Bostrom. Il problema pone una sfida formidabile ai migliori talenti matematici della prossima generazione. È in gioco la sopravvivenza della civiltà umana. »
Financial Times

«Questa superba analisi, condotta da uno dei più chiari pensatori del mondo, affronta una delle più grandi sfide dell’umanità: se l’Intelligenza Artificiale sovrumana diventa il più grande evento della storia umana, allora come potremo garantire che non diventi anche l’ultimo?»
Max Tegmark

Nel gennaio 2015 Nick Bostrom è stato cofirmatario, assieme tra gli altri a Stephen Hawking, di una celebre lettera aperta che metteva in guardia sui potenziali pericoli dell’Intelligenza Artificiale. Non ha firmato quell’appello per passatismo, né tantomeno per luddismo, bensì in virtù di un lineare ragionamento filosofico. L’Intelligenza Artificiale è una delle più grandi promesse dell’umanità; grazie ai suoi sviluppi, attuali e futuri, saremo probabilmente in grado di fare cose che oggi sarebbero impensabili, vivremo meglio, e magari più a lungo e più felici.
E tuttavia c’è una nube minacciosa sopra il cielo dell’Intelligenza Artificiale, e con questo libro Nick Bostrom è stato il primo a vederla e ad analizzarla, lanciando un allarme che ha avuto un’eco vastissima in tutto il mondo. Siamo proprio certi che riusciremo a governare senza problemi una macchina «superintelligente» dopo che l’avremo costruita?
Se lo scopo dell’attuale ricerca sull’Intelligenza Artificiale è quello di costruire delle macchine fornite di un’intelligenza generale paragonabile a quella umana, quanto tempo occorrerà a quelle macchine, una volta costruite, per superare e surclassare le nostre capacità intellettive? Poco, ci informa Bostrom, pochissimo. Una volta raggiunto un livello di intelligenza paragonabile al nostro, alle macchine basterà un piccolo passo per «decollare» esponenzialmente, dando origine a superintelligenze che per noi risulteranno rapidamente inarrivabili. A quel punto le nostre creature potrebbero scapparci di mano, non necessariamente per «malvagità», ma anche solo come effetto collaterale della loro attività. Potrebbero arrivare a distruggerci o addirittura a distruggere il mondo intero.
Per questo – sostiene Bostrom – dobbiamo preoccuparcene ora. Per non rinunciare ai benefici che l’Intelligenza Artificiale potrà apportare, è necessario che la ricerca tecnologica si ponga adesso le domande che questo libro pone con enorme chiarezza e chiaroveggenza.

View on Amazon View on AbeBooks View on Kobo View on B.Depository View on eBay View on Walmart

«Lo consiglio vivamente. »
Bill Gates

«Da leggere assolutamente... Dobbiamo essere estremamente cauti con l’Intelligenza Artificiale. Potenzialmente, è più pericolosa del nucleare. »
Elon Musk

««Non c’è alcun dubbio sulla forza degli argomenti di Bostrom. Il problema pone una sfida formidabile ai migliori talenti matematici della prossima generazione. È in gioco la sopravvivenza della civiltà umana. »
Financial Times

«Questa superba analisi, condotta da uno dei più chiari pensatori del mondo, affronta una delle più grandi sfide dell’umanità: se l’Intelligenza Artificiale sovrumana diventa il più grande evento della storia umana, allora come potremo garantire che non diventi anche l’ultimo?»
Max Tegmark

Nel gennaio 2015 Nick Bostrom è stato cofirmatario, assieme tra gli altri a Stephen Hawking, di una celebre lettera aperta che metteva in guardia sui potenziali pericoli dell’Intelligenza Artificiale. Non ha firmato quell’appello per passatismo, né tantomeno per luddismo, bensì in virtù di un lineare ragionamento filosofico. L’Intelligenza Artificiale è una delle più grandi promesse dell’umanità; grazie ai suoi sviluppi, attuali e futuri, saremo probabilmente in grado di fare cose che oggi sarebbero impensabili, vivremo meglio, e magari più a lungo e più felici.
E tuttavia c’è una nube minacciosa sopra il cielo dell’Intelligenza Artificiale, e con questo libro Nick Bostrom è stato il primo a vederla e ad analizzarla, lanciando un allarme che ha avuto un’eco vastissima in tutto il mondo. Siamo proprio certi che riusciremo a governare senza problemi una macchina «superintelligente» dopo che l’avremo costruita?
Se lo scopo dell’attuale ricerca sull’Intelligenza Artificiale è quello di costruire delle macchine fornite di un’intelligenza generale paragonabile a quella umana, quanto tempo occorrerà a quelle macchine, una volta costruite, per superare e surclassare le nostre capacità intellettive? Poco, ci informa Bostrom, pochissimo. Una volta raggiunto un livello di intelligenza paragonabile al nostro, alle macchine basterà un piccolo passo per «decollare» esponenzialmente, dando origine a superintelligenze che per noi risulteranno rapidamente inarrivabili. A quel punto le nostre creature potrebbero scapparci di mano, non necessariamente per «malvagità», ma anche solo come effetto collaterale della loro attività. Potrebbero arrivare a distruggerci o addirittura a distruggere il mondo intero.
Per questo – sostiene Bostrom – dobbiamo preoccuparcene ora. Per non rinunciare ai benefici che l’Intelligenza Artificiale potrà apportare, è necessario che la ricerca tecnologica si ponga adesso le domande che questo libro pone con enorme chiarezza e chiaroveggenza.

More books from Bollati Boringhieri

Cover of the book Opere complete by Nick Bostrom
Cover of the book Piove all'insù by Nick Bostrom
Cover of the book Opere complete by Nick Bostrom
Cover of the book Oltre la particella di Dio by Nick Bostrom
Cover of the book Stare in Europa by Nick Bostrom
Cover of the book La donna che scriveva racconti by Nick Bostrom
Cover of the book Il tuo cervello è una macchina del tempo by Nick Bostrom
Cover of the book Primo, non curare chi è normale by Nick Bostrom
Cover of the book Storia del dove by Nick Bostrom
Cover of the book Meno letteratura per favore! by Nick Bostrom
Cover of the book Le parole nell'aria by Nick Bostrom
Cover of the book Geografia by Nick Bostrom
Cover of the book Tramonto nei Balcani by Nick Bostrom
Cover of the book Lo sviluppo libidico del bambino by Nick Bostrom
Cover of the book Il principe dei gigli by Nick Bostrom
We use our own "cookies" and third party cookies to improve services and to see statistical information. By using this website, you agree to our Privacy Policy