Si alguien la crea, todos moriremos

Yudkowsky, Eliezer

21,90€ 20,80€
Hoy -5% y envío gratis
21,90€ 20,80€
Hoy -5% y envío gratis
Entrega a domicilio o recogida en tienda

Compra ahora y lo recibirás viernes 17 abril


Haz clic y recoge

Haz clic y recoge

Este producto no está disponible. Por favor, selecciona otra opción.
Payment methods icons
Payment methods icons
 

Compra segura

 

Entrega en 1-2 días laborables

 

Regístrate y disfruta de descuentos en cada compra

 

Envío gratis en todo.

 

Productos de robótica: no se aceptan devoluciones en la tienda. Contacta con atención al cliente.

Descripción

LA AMENAZA PARA LA HUMANIDAD DE LA IA SUPERINTELIGENTE

En 2023, cientos de expertos en inteligencia artificial advirtieron que supone un grave riesgo de extinción para la humanidad. Desde entonces, la carrera se ha intensificado: empresas y países compiten por crear máquinas más inteligentes que cualquier persona, y el mundo no está preparado. Durante décadas, Yudkowsky y Soares han estudiado cómo pensarán estas inteligencias y concluyen que desarrollarán objetivos propios, en conflicto con los nuestros. Si llega el enfrentamiento, nos aplastarán, pero aún estamos a tiempo de frenar y diseñar políticas que garanticen nuestra seguridad. La conclusión es clara: debemos actuar ahora para que la IA sea una aliada, no una amenaza. Este libro explica por qué, cómo y qué debemos hacer para sobrevivir.

«Puede que sea el libro más importante de nuestro tiempo.» Tim Urban, Wait But Why

Ficha técnica - Si alguien la crea, todos moriremos

Tipo de producto: Libro
Páginas/Hojas: 288
Colección: Imago mundi
Idioma: Español
Tipo de tapa: Blanda
EAN: 9788423369348
Referencia Abacus: 1577093.36
Editorial: Destino
Si alguien la crea, todos moriremos

Si alguien la crea, todos moriremos

Yudkowsky, Eliezer

21,90€ 20,80€
5% descuento

Encuentra una tienda

Consulta la disponibilidad de productos en tu zona