Qué hacer con la Inteligencia Artificial

Es imprescindible que la irrupción de esta fase avanzada de la Inteligencia Artificial conlleve reflexiones, regulaciones y máxima responsabilidad por parte de individuos, familias, empresarios, gobiernos y organismos transnacionales.

Qué hacer con la Inteligencia Artificial
Inteligencia Artificial: amenazas y oportunidades (Foto: Funiversity).

Las alarmas sonaron con fuerza a fines de marzo pasado, cuando cientos de notables académicos y científicos solicitaron detener por seis meses el desarrollo de la inteligencia artificial (IA) hasta encontrar y consensuar un marco regulatorio. La causa del pedido: el temor de un gran daño para la humanidad. Entre los firmantes figuraban Elon Musk –el dueño de Twitter, Tesla y Space X-, Steve Wozniak, cofundador de Apple– y el historiador Yuval Noah Harari.

Todo se desencadenó tras el lanzamiento de varias herramientas de inteligencia artificial, como el poderoso Chat GPT4, que permite elaborar textos sumamente complejos y coherentes, reconocer errores, “aprender” y proporcionar respuestas acertadas a diversos problemas planteados por usuarios.

Pero el Chat GPT4 es apenas la punta del iceberg de novedosas aplicaciones de IA que permiten desde traducir textos en todos los idiomas sin modificar su significado, hasta elaborar ilustraciones, fotografías o videos a partir de descripciones o de palabras clave. O que crean videos con avatares según las indicaciones que se le brinden.

Se trata, en definitiva, de algoritmos que extraen valor de grandes volúmenes de datos de forma ágil y eficiente, y facilitan así la toma de decisiones de manera automática.

Y a pesar de que estos impresionantes avances aún están lejos de reemplazar capacidades de conexiones, razonamientos y cuestionamientos morales propios de la humanidad, la aceleración de estos avances igualmente preocupa, por las consecuencias sociales, económicas, culturales y laborales que puede tener este fenómeno.

No tuvo demasiado impacto en su momento, pero la Organización para la Cooperación y el Desarrollo Económicos (Ocde) convocó a un grupo de 50 expertos para la administración responsable de la IA, quienes elaboraron una serie de principios y recomendaciones adoptadas el 22 de mayo de 2019 por los países miembros.

Los principios consensuados son cinco: 1) La IA debe beneficiar a las personas y al planeta, impulsando el crecimiento inclusivo, el desarrollo sostenible y el bienestar; 2) Los sistemas de IA deben diseñarse respetando el estado de derecho, los derechos humanos, los valores democráticos y la diversidad; 3) Debe existir una transparencia y divulgación responsable en torno de los sistemas de IA; 4) Los sistemas de IA deben funcionar de manera sólida y segura a lo largo de su ciclo de vida y los riesgos potenciales deben evaluarse y gestionarse continuamente, y 5) las organizaciones e individuos que desarrollan, despliegan u operan sistemas de IA deben ser responsables de su correcto funcionamiento.

Por ello resulta imprescindible que la irrupción de esta fase avanzada de la IA conlleve reflexiones, regulaciones y máxima responsabilidad y criterio por parte de individuos, familias, empresarios, gobiernos y organismos transnacionales.

Si eso sucediera, la IA habrá llegado para facilitarnos la vida cotidiana, para potenciar nuestras capacidades y concentrarnos en aquellas tareas que agregan valor, más creativas y que nos distinguen de manera inequívoca de cualquier máquina o sistema. Al contrario, si se hiciera un uso indiscriminado e irresponsable de estas herramientas, el peligro puede ser tan grave como difícil de definir.

Tenemos algo para ofrecerte

Con tu suscripción navegás sin límites, accedés a contenidos exclusivos y mucho más. ¡También podés sumar Los Andes Pass para ahorrar en cientos de comercios!

VER PROMOS DE SUSCRIPCIÓN

COMPARTIR NOTA