- 0
Se alguém criar, todos morrem
Por que a IA super-humana pode nos matar
Em até 4 de 19.98 s/juros
Fora de estoqueDescrição Saiba mais informações
Em 2023, centenas de personalidades influentes no campo da tecnologia assinaram uma carta aberta alertando para o sério risco que as inteligências artificiais representam para a vida humana. Desde então, a corrida da IA só se intensificou, e o mundo está profundamente despreparado para o que está por vir.
Por décadas, os autores, dois dos signatários preocupados, têm estudado como as inteligências superiores à humana vão pensar, se comportar e perseguir seus objetivos. A pesquisa deles aponta que IAs superinteligentes serão capazes de desenvolver metas próprias que as colocarão em conflito direto com a humanidade e que, nesse cenário, elas sairiam vitoriosas. Não teríamos a menor chance nessa disputa.
Como uma máquina superinteligente pode extinguir nossa espécie? Por que ela iria querer isso, ou desejar qualquer coisa? Neste livro urgente, Yudkowsky e Soares examinam teorias e evidências, apresentam um possível — e provável — cenário de extinção e o que seria preciso para que a humanidade sobrevivesse.
O mundo está correndo para construir algo realmente novo. E, se alguém criar, todos morrem
| Acabamento | Brochura |
|---|---|
| Páginas | 320 |
| Data de publicação | 02/04/2026 |
| Formato | 21 x 13.5 x 1.9 |
| Lombada | 1.9 |
| Altura | 1.9 |
| Largura | 13.5 |
| Comprimento | 21 |
| Tipo | pbook |
| Número da edição | 1 |
| Subtitulo | Por que a IA super-humana pode nos matar |
| Classificações BISAC | COM004000; COM079010; TEC004000 |
| Classificações THEMA | UYQ; UYZ; TJFM |
| Idioma | por |
| Peso | 0.312 |

