Líderes en el sector de la inteligencia artificial (IA) y de la tecnología han pedido frenar el desarrollo de la IA que supere el intelecto humano, conocida como «superinteligencia».
Dicha solicitud la hicieron a través de una carta, firmada por expertos como el Premio Nobel, Geoffrey Hinton y Yoshua Bengio, considerados los padrinos de la IA, al igual que el cofundador de Apple, Steve Wozniak.
Amenaza de la superinteligencia
La superinteligencia se define de forma general como una inteligencia artificial que supera las capacidades cognitivas humanas.
Sin embargo, para algunos expertos tecnológicos, esto podría hacer que los humanos perdieran el control de estos sistemas y las máquinas tomen el control.
Por ello, los líderes mundiales sostienen que ganar la carrera de la IA es clave para la seguridad nacional y para los avances en la salud, la economía y la tecnología.
Mientras tanto, empresas tecnológicas como Meta han recurrido al término superinteligencia para ensalzar sus últimos modelos de IA.
Por ejemplo, este año, Meta bautizó su división de modelos de lenguaje de gran tamaño (LLM) como Meta Superintelligence Labs.
En la carta mencionada al principio, afirma que la carrera de la IA hacia la superinteligencia «ha suscitado preocupaciones, que van desde la obsolescencia económica humana y la pérdida de poder, de libertad, de libertades civiles, de dignidad y de control, hasta riesgos para la seguridad nacional e incluso la posible extinción humana».
Por otra parte, también reclamaron y exigieron una «prohibición del desarrollo de la superinteligencia, hasta que exista un amplio consenso científico de que se hará de forma segura y controlable«.




