Este es el newsletter de Ciencia del Sur, una selección de lo más importante en ciencia, periodismo científico e innovación de Paraguay y la región.
Soy Daniel Duarte, editor general de Ciencia del Sur. Esta semana fue destaque mundial la carta abierta firmada por expertos y líderes tecnológicos como Elon Musk y Steve Wozniak de una moratoria sobre el desarrollo de la inteligencia artificial, por al menos seis meses.
Argumentan que lanzar versiones más avanzadas que la reciente GPT-4 puede desencadenar riesgos graves para la humanidad, como desinformación generalizada o reemplazo masivo de trabajadores.
Notablemente ausente de esta carta está Sam Altman, líder de OpenAI, la fundación que hizo disponible ChatGPT y abrió la carrera desenfrenada en noviembre pasado. Este se mantiene calmo pero sí reconoce la necesidad de una coordinación internacional entre gobiernos.
El problema principal está en que el "genio ya salió de la botella" y difícilmente sea posible volver a meterlo. Entrenar un modelo como GPT-4 requirió muchísimo poder de cómputo y recursos, pero eso está cambiando. El modelo LLaMa, de Meta, se filtró a inicios de este mes. Ahora cualquier persona puede instalarlo en una computadora normal y usarlo sin ningún tipo de barreras. Esto volverá a suceder con modelos más avanzados.
Una moratoria ciertamente puede retrasar los cambios sociales negativos, pero tambien los positivos. ¿Cómo se justifica detener la búsqueda de nuevos fármacos? ¿Qué decirle a un paciente terminal cuya enfermedad podría ser curada gracias a un descubrimiento mediado por la IA? Finalmente, ¿quién debe tener el poder de decidir todo esto? |