La definición de Inteligencia Artificial del reglamento europeo, en su versión más actual, define esta como “un sistema basado en máquinas diseñado para operar con diferentes grados de autonomía y que puede mostrar un comportamiento adaptativo tras su implantación y que, para unos objetivos explícitos o implícitos, infiere, a partir de las entradas que recibe, como generar respuestas en forma de predicciones, contenidos, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales” (traducción propia).
⭕Es una máquina, con elementos mecánicos diseñados con un objetivo explícito.
⭕Depende de las entradas que recibe del entorno: la fuerza del empujón inicial, la posición de partida, las posibles corrientes de aire, la temperatura y humedad ambientas y otros factores que influyen en su resultado.
⭕Emite una decisión que tiene un claro impacto en los participantes y los promotores del concurso.
⭕Incluso tiene cierto comportamiento adaptativo, ya que los sucesivos movimientos y desgaste y la posición anterior influyen en su comportamiento posterior.
Puede parecer una broma, pero tenemos que ser conscientes de la definición tan abierta que ha adoptado el reglamento europeo sobre IA. La influencia de la aparición de los modelos de IA generativa durante el proceso de tramitación del reglamento ha obligado a considerar esta VISIÓN EXPANSIVA.
Desde las organizaciones es posible que debamos considerar un umbral de sensibilidad más amplio de la cuestión de lo que inicialmente podemos pensar.
Un EJEMPLO muy claro en el mundo financiero. El Banco Central Europeo, en su dictamen de 29 de diciembre de 2021 sobre la propuesta de reglamento, indicaba expresamente en su apartado 3.2 que “sugiere que los sistemas de IA destinados a evaluar la solvencia de las personas físicas o determinar su calificación crediticia y que aprovechan el uso independiente de la regresión lineal o logística o los diagramas de decisiones bajo supervisión humana, no se consideren sistemas de IA de alto riesgo”.
Sin embargo, el reglamento clasifica como de alto riesgo los sistemas de IA dedicados a la evaluación de crédito de personas físicas o establecer su score de crédito, con excepción de los sistemas para detección de fraude. De hecho, se excluyó del texto la redacción alternativa que propuso el BCE en este sentido (propuesta 7 del documento técnico de respuesta).
Consecuencia: un modelo de regresión lineal parece que puede considerarse que entra dentro del ámbito de la IA, y si se usa para un scoring de crédito, se considera, además, de alto riesgo.
Y… ¿Es importante pararnos en la definición de la Inteligencia Artificial?
Podemos decir que la respuesta, aunque pueda parecer evidente, no está exenta de matices.
⭕ Por un lado, es imprescindible porque la APLICACIÓN DEL REGLAMENTO EUROPEO y sus consecuencias sólo afecta a los sistemas de IA según están definidos en el mismo.
⭕ No obstante, la profundidad y rapidez de los cambios que se producen en este ámbito obligará a INTERPRETACIONES EXTENSIVAS en su aplicación real, especialmente en las decisiones donde los jueces y tribunales tendrán que abordar cuestiones técnicas y fronterizas.
⭕ Adicionalmente, las organizaciones que aplican la IA están sujetas a un especial escrutinio por parte de la OPINIÓN PÚBLICA, dado el IMPACTO MEDIÁTICO de cualquier noticia al respecto. Por tanto, existe un ámbito más amplio que debe considerarse inexcusablemente en la definición de la estrategia empresarial, especialmente en la medición de oportunidades de negocio frente a los riesgos de imagen y reputacionales. No podemos dejar de lado que, en ciertos casos, el ecosistema interconectado y síncrono en el que se desarrollan los negocios, la propagación de determinadas noticias puede tener efectos inmediatos y devastadores para la organización.
Debemos tener presente esta triple óptica en las decisiones clave de las organizaciones.