Preocupaciones sobre la superinteligencia artificial
El cofundador de Ethereum, Vitalik Buterin, ha vuelto a encender el debate sobre los riesgos de la inteligencia artificial (IA) avanzada, conocida como superinteligencia. En un reciente blog publicado el 5 de enero, Buterin advierte sobre las potenciales amenazas existenciales que la IA podría representar para la humanidad y propone estrategias regulatorias para mitigar los riesgos.
Buterin señala que la IA mal gestionada podría llegar a causar la extinción humana, y subraya la urgencia de tomar medidas antes de que el desarrollo de la superinteligencia alcance un punto irreversible. Según él, la inteligencia general artificial (AGI) podría estar a solo tres años de distancia, con la superinteligencia emergiendo poco después.
«Acelerar lo bueno y frenar lo malo»
En su propuesta, Buterin introduce el concepto de «aceleración defensiva» o d/acc, un enfoque para desarrollar tecnologías que prioricen la defensa frente a los potenciales daños de la IA. Argumenta que, además de fomentar avances positivos en la IA, también es crucial frenar los desarrollos que puedan tener consecuencias catastróficas.
IA descentralizada y toma de decisiones humanas
Buterin aboga por sistemas de IA descentralizados que mantengan un control humano estricto en la toma de decisiones. Esto, según él, podría reducir el riesgo de que la IA actúe de forma autónoma en detrimento de los intereses humanos.
Además, advierte sobre el uso militar de la IA, señalando que los ejércitos representan un riesgo particular debido a la posible exención de regulaciones. Casos recientes como los conflictos en Ucrania y Gaza, donde se utilizó IA, demuestran el potencial peligro de estas tecnologías en manos de fuerzas militares.
Propuestas regulatorias de Buterin
Buterin sugiere un marco regulatorio para mitigar los riesgos asociados con la IA avanzada:
1. Responsabilidad del usuario
Buterin propone que los usuarios de sistemas de IA sean responsables de cómo se utilizan estas tecnologías, ya que ellos deciden el propósito específico de la IA.
2. Botones de «pausa suave»
En caso de que las reglas de responsabilidad no sean suficientes, plantea la implementación de mecanismos globales de pausa, que permitirían reducir el uso del cómputo dedicado a IA en un 90-99% durante un período crítico de 1-2 años. Esto proporcionaría tiempo para establecer regulaciones más robustas y prepararse para los avances.
3. Control del hardware
Buterin propone equipar el hardware de IA con chips de control, que requieran la autorización semanal de al menos tres organismos internacionales. Uno de estos organismos debería ser completamente independiente de cualquier entidad militar para garantizar un enfoque neutral.
Reconocimiento de limitaciones
Buterin admite que sus propuestas son soluciones temporales y presentan fallas. Sin embargo, considera que estas estrategias pueden proporcionar un margen crítico de tiempo para abordar los desafíos que plantea la IA avanzada.
Un llamado a la acción
Con el desarrollo de la IA avanzando rápidamente, las propuestas de Vitalik Buterin buscan incitar un debate urgente sobre la seguridad y regulación de estas tecnologías. Su enfoque pone de relieve la necesidad de equilibrar los beneficios de la innovación con la gestión responsable de los riesgos.