Saltar al contenido

Riesgos de la inteligencia artificial

julio 24, 2022

Masukan

Dado que la IA es una fuerza relativamente nueva en las empresas, pocos directivos han tenido la oportunidad de perfeccionar su intuición sobre el alcance total de los riesgos sociales, organizativos e individuales, o de desarrollar un conocimiento práctico de sus factores asociados, que van desde los datos introducidos en los sistemas de IA hasta el funcionamiento de los modelos algorítmicos y las interacciones entre los seres humanos y las máquinas. Como resultado, los ejecutivos suelen pasar por alto los peligros potenciales (“No estamos utilizando la IA en nada que pueda ‘explotar’, como los coches autodirigidos”) o sobrestiman las capacidades de mitigación de riesgos de una organización (“Llevamos mucho tiempo haciendo análisis, así que ya tenemos los controles adecuados y nuestras prácticas están en línea con las de nuestros compañeros de la industria”). También es común que los líderes agrupen los riesgos de la IA con otros que pertenecen a especialistas en las organizaciones de TI y de análisis (“Confío en mi equipo técnico; están haciendo todo lo posible para proteger a nuestros clientes y a nuestra empresa”).

Este artículo pretende ayudar ilustrando primero una serie de escollos fáciles de pasar por alto. A continuación, presenta marcos que ayudarán a los dirigentes a identificar sus mayores riesgos y a aplicar la amplitud y profundidad de los controles matizados necesarios para sortearlos. Por último, ofrece un primer vistazo a algunos esfuerzos en el mundo real que se están llevando a cabo para abordar los riesgos de la IA mediante la aplicación de estos enfoques.

Efectos negativos de la inteligencia artificial

Bernard MarrBernard Marr es un futurista de renombre mundial, influenciador y líder de pensamiento en los campos de los negocios y la tecnología, con una pasión por el uso de la tecnología para el bien de la humanidad. Es un autor de 20 libros de gran éxito, escribe una columna periódica para Forbes y asesora y entrena a muchas de las organizaciones más conocidas del mundo. Tiene más de 2 millones de seguidores en las redes sociales, 1 millón de suscriptores a su boletín de noticias y ha sido clasificado por LinkedIn como una de las 5 personas más influyentes en el mundo de los negocios y la número 1 en el Reino Unido.

  Universidad politecnica de madrid inteligencia artificial

Algunas personas notables, como el legendario físico Stephen Hawking y el líder e innovador de Tesla y SpaceX, Elon Musk, sugieren que la IA podría ser muy peligrosa; Musk en un momento dado comparó la IA con los peligros del dictador de Corea del Norte. El cofundador de Microsoft, Bill Gates, también cree que hay motivos para ser precavidos, pero que lo bueno puede superar lo malo si se gestiona adecuadamente. Dado que los últimos avances han hecho posibles las máquinas superinteligentes mucho antes de lo que se pensaba en un principio, es el momento de determinar qué peligros plantea la inteligencia artificial.

Riesgos de seguridad de la inteligencia artificial

Eso puede hacer que la gente se pregunte: Espera, ¿qué? Pero estas grandes preocupaciones tienen su origen en la investigación. Junto con Hawking y Musk, figuras destacadas de Oxford y UC Berkeley y muchos de los investigadores que trabajan en IA hoy en día creen que los sistemas avanzados de IA, si se despliegan sin cuidado, podrían apartar permanentemente a la civilización humana de un buen futuro.

Esta preocupación se ha planteado desde los albores de la informática. Pero ha cobrado especial importancia en los últimos años, ya que los avances en las técnicas de aprendizaje automático nos han permitido conocer de forma más concreta lo que podemos hacer con la IA, lo que la IA puede hacer por (y para) nosotros, y lo mucho que aún no sabemos.

También hay escépticos. Algunos piensan que la IA avanzada está tan lejos que no tiene sentido pensar en ella ahora. A otros les preocupa que la excesiva exageración sobre el poder de su campo pueda matarlo prematuramente. E incluso entre las personas que están de acuerdo en general en que la IA plantea peligros únicos, hay distintas opiniones sobre los pasos que tienen más sentido hoy en día.

  Creacion de inteligencia artificial

La conversación sobre la IA está llena de confusión, desinformación y gente que habla por encima de los demás, en gran parte porque usamos la palabra “IA” para referirnos a muchas cosas. Así que aquí está el panorama general de cómo la inteligencia artificial podría suponer un peligro catastrófico, en nueve preguntas:

La inteligencia artificial en el futuro

A medida que las empresas de servicios financieros evalúan las posibles aplicaciones de la inteligencia artificial (IA), por ejemplo: para mejorar la experiencia del cliente y obtener eficiencias operativas, Artificial Intelligence/Machine Learning (AI/ML) Risk and Security (“AIRS”)[1] se compromete a fomentar este diálogo y ha redactado el siguiente resumen en el que se analiza la implementación de la IA y los correspondientes riesgos potenciales que las empresas podrían considerar al formular su estrategia de IA. Este libro blanco ofrece las opiniones de AIRS sobre los posibles enfoques de la gobernanza de la IA para los servicios financieros, incluidos los riesgos potenciales, la categorización de los riesgos, la interpretabilidad, la discriminación y la mitigación de los riesgos, en particular, aplicados al sector financiero.

Las opiniones expresadas en este documento son las de los colaboradores individuales y no constituyen las opiniones de ninguna de las empresas con las que los colaboradores están asociados o por las que son empleados.

Este documento pretende ser la primera de varias iteraciones y nuevas contribuciones del grupo AIRS. Estas ideas se basan en la experiencia colectiva de AIRS, y las sugerencias que presentamos no pretenden ser exhaustivas. AIRS tiene previsto seguir construyendo una comunidad activa en torno a estas cuestiones. En la sección 6 (Agradecimientos) se facilita la información de contacto por si hay alguna respuesta o si los lectores desean hacer comentarios sobre este documento o sobre AIRS.

  Serie de inteligencia artificial
Esta web utiliza cookies propias para su correcto funcionamiento. Contiene enlaces a sitios web de terceros con políticas de privacidad ajenas que podrás aceptar o no cuando accedas a ellos. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Más información
Privacidad