Retos en la Implementación de la IA

Es fácil culpar a la IA por ello, pero la culpa no es de la herramienta, sino de quien le da el peor uso. Si alimentamos una aplicación de IA con datos que contienen sesgos, el resultado será sesgado.

No obstante, frecuentemente, el sesgo es difícil de prevenir, y suele detectarse después de procesar millones de datos. En este aspecto, hay que reconocer que nuestra sociedad presenta sesgos indeseables, que quedan reflejados en los datos con los que alimentamos las aplicaciones de IA.

Somos conscientes de ellos, los criticamos Por ello, hay que ser muy cuidadosos con la información y, aun así, analizar los resultados de su proceso, por si hay que rectificarlos.

Existen numerosos casos en los que los resultados de las aplicaciones de IA presentan sesgos indeseables. La científica canadiense Joy Buolamwini, del MIT Media Lab, mientras preparaba un trabajo de investigación, descubrió que su rostro, de piel oscura, no era reconocido por una aplicación de IA de reconocimiento facial.

Para seguir trabajando con ella, debía utilizar una máscara blanca. Los desarrolladores de la misma, en su mayoría hombres de piel clara, obviaron alimentar la aplicación con imágenes de personas con otros tonos de piel, además de incluir, por cierto, también una menor proporción de rostros de mujer.

Esta discriminación —basura dentro— ocasionó un resultado sesgado —basura fuera—, tratándose de un ejemplo de total ausencia de rigor y sentido de la justicia en su desarrollo.

En otros casos, el sesgo puede no ser tan flagrante y aún persistir, a pesar de que se ponga mucha atención en evitarlo. Por ejemplo, la empresa norteamericana Pymetrics ofrece a las organizaciones unos videojuegos impulsados por IA para ser utilizados en sus procesos de selección de personal.

Una de las versiones de esta aplicación ofrece como opción elegir entre juegos diseñados para personas con daltonismo, TDAH o dislexia, puesto que la legislación norteamericana prohíbe la discriminación por discapacidad o trastornos concretos en estos procesos.

Si la selecciona, quedará clasificado como tal. Si no la selecciona, obtendrá, previsiblemente, un peor resultado en el uso del videojuego. Pymetrics afirma que, para impedir discriminaciones, no informa a la empresa de los casos en que se ha seleccionado una de estas tres adaptaciones, sino que solamente comunica la puntuación obtenida con el videojuego.

A pesar de ello, las dudas acerca del justo funcionamiento de esta herramienta pueden, lógicamente, persistir.

Finalmente, el sesgo puede ser consecuencia de no haber usado una variedad y cantidad de datos suficient es. Supongamos que se quiere utilizar una aplicación de IA para analizar la incidencia de plagas en cultivos de una variedad de cereal determinada.

Para ello, se toman datos relativos a la altitud del terreno sobre el nivel del mar, la composición química del suelo, las temperaturas y la pluviosidad registradas, así como los abonos y plaguicidas empleados. Pero se obvia tomar datos acerca de la humedad ambiental, la dirección y fuerza del viento y los fenómenos meteorológicos extremos.

Además, los datos tomados pertenecen a pocas explotaciones. Seguramente, el resultado obtenido será sesgado, al no haberse tenido en cuenta factores que pueden incidir en la presencia de plagas, y al no contar con una cantidad de datos sobre explotaciones suficientemente representativa de la realidad.

Abrir cien millones de melones al mismo tiempo, verificar cuántos están buenos y cuántos no y por qué, puede no ser la mejor idea. Una empresa que consiga contar con una buena arquitectura de información puede tener la tentación de comenzar a aplicar la IA haciendo un uso exhaustivo de los datos disponibles, con el fin de obtener un ambicioso conjunto de resultados en diversos aspectos del negocio.

Pero esta puede no ser la mejor idea, puesto que, en primer lugar, una buena arquitectura de información no es una perfecta arquitectura de información. Por ello, no puede esperarse un perfecto funcionamiento de las aplicaciones de IA desde el primer momento.

Es mucho más recomendable, por tanto, comenzar con una aplicación y una cantidad limitada de información, observar y analizar el resultado obtenido e ir afinando y corrigiendo errores en base a ello. Y, cada vez que se consiga que una aplicación funcione correctamente con una cantidad determinada de datos, es aconsejable incrementar, de forma paulatina, la cantidad y variedad de datos y aplicaciones.

Una empresa que actualmente no esté usando ninguna aplicación de IA no tiene por qué sentir que hay un abismo entre ella y esta tecnología; ni siquiera por el hecho de tratarse, si es el caso, de una pequeña o mediana empresa.

Podría pensarse que, para optar por el uso de IA en una empresa, es necesario acometer una gran inversión en software y hardware, así como contratar personal especializado y caro, y que todo ello no está al alcance de muchos, pero no es así necesariamente. Numerosos equipos de científicos y programadores, así como empresas tecnológicas, ofrecen soluciones y aplicaciones de IA mediante licencia, y la capacidad de procesamiento que no tengan los equipos de la compañía puede ser arrendada en la nube, a un coste razonable y adaptable a las necesidades de cada momento.

Pasar de traducir unas cuantas frases del ruso al inglés IBM, a traducir Guerra y paz , de Tolstói, en tres segundos Microsoft, ha costado algo más de seis décadas. Y los traductores automáticos no obtienen todavía resultados impecables.

Elon Musk declaró que sus nuevas megafactorías no tendrían operarios, confiando en que las tecnologías de IA y robótica se lo permitirían. Pero, un tiempo después, tuvo que admitir que el factor humano todavía es necesario y trabajará brazo humano con brazo robótico , por lo menos en el corto y medio plazo.

Tampoco su aplicación en las actividades empresariales genera inmediatamente un crecimiento de productividad espectacular. Según David Rotman, editor de MIT Technology Review , este crecimiento ha sido más bien decepcionante en los últimos veinte años, considerando el impresionante desarrollo de nuevas tecnologías que se ha registrado en el período 1.

No obstante, Brynjolfsson reconoce que, posiblemente, esta tecnología no ha sido suficientemente aplicada como para generar un incremento de productividad notable, que espera que sí se produzca en los próximos años. A veces es necesaria una crisis para ponerse las pilas.

Buen ejemplo de ello es el rápido desarrollo de varias vacunas para la COVID por parte de diferentes laboratorios biotecnológicos y farmacéuticos. Otro ejemplo es la adopción generalizada de herramientas para reuniones remotas que se ha producido durante la pandemia, que reducen desplazamientos y necesidad de espacio físico.

Otro caso, más modesto y relativo a una tecnología de IA aún en desarrollo, lo encarna Abzu, con su aplicación de IA que identifica relaciones entre fuentes de datos, permitiendo efectuar predicciones precisas para acelerar el proceso de desarrollo de nuevos medicamentos.

Estos tres ejemplos sugieren que lo conveniente es afinar cuál es la tecnología óptima aplicable a cada objetivo de la empresa, buscando un resultado que conduzca eficazmente a un incremento de la productividad.

Aunque esto puede no ser suficiente: como afirma Marianne Bellotti U. Digital Service , en numerosas ocasiones, los procesos de toma de decisiones se apoyan menos en un análisis objetivo de los datos que en el resultado de una negociación entre las personas implicadas en ellos, que tienen diferentes prioridades y muestran distintos niveles de tolerancia al riesgo.

Naturalmente, el factor humano no cede todo su protagonismo a la IA, al menos, por ahora. La paradoja de Polanyi 2 se refiere a que los humanos somos capaces de hacer cosas que no sabemos explicar.

El saxofonista que ejecuta una maravillosa improvisación; el futbolista que, regateando de forma increíble a cinco defensas, completa su proeza marcando un gol; el conductor que cambia de carril en la autopista porque adivina que el camionero que va por su derecha va a hacerlo sin usar el intermitente Son habilidades que se adquieren con la práctica, y no a partir de un aprendizaje metódico o unas instrucciones muy concretas, y que no son fácilmente explicables a posteriori.

En el ámbito de la IA, este fenómeno recibe el apelativo de caja negra: algunas aplicaciones de IA aprenden en base a los datos que se les proporciona, toman sus conclusiones y ofrecen sus resultados, sin explicar cómo lo han hecho. Y ello puede representar algunos problemas para la compañía que toma y ejecuta decisiones basadas en el uso de aplicaciones de IA.

Porque, en el mundo empresarial, así como en otros entornos, el rendimiento de cuentas es algo esencial. En algunas situaciones, especialmente en aquellas en las que algo ha salido mal, puede resultar muy comprometido pretender explicar que tal decisión fue aconsejada —o incluso, tomada— por una aplicación de IA en base a algo desconocido.

Curiosidades aparte, especialmente en las actividades reguladas banca, seguros, energía y otras , el fenómeno caja negra puede ser especialmente problemático, por razones obvias. Pero este fenómeno también tiene su parte buena: nos recuerda que la IA no ha venido para sustituir al factor humano, sino para apoyarlo, y que este sigue siendo esencial en la toma de decisiones, su ejecución y el seguimiento de sus resultados.

Aun así, algunos científicos y corporaciones tecnológicas entre ellas, Google están desplegando la denominada inteligencia artificial explicable explanaible AI.

En el caso de Google, los desarrolladores crearon una herramienta de este tipo y la están ofreciendo actualmente a terceros porque querían saber, una vez funcionaba, cómo lo hacían las aplicaciones de IA que desarrollaban y utilizaban en sus motores de búsqueda y en sus sistemas operativos para dispositivos móviles.

No todas las tecnologías de IA han adquirido el nivel de desarrollo idóneo: las confusiones fatales de las aplicaciones de reconocimiento de imágenes de los coches autónomos, los asistentes de voz que dan respuestas políticamente incorrectas o el funcionamiento poco satisfactorio de buscadores y chatbots lo ilustran.

Aun así, muchas empresas desearían poder utilizar plenamente aplicaciones de reconocimiento de voz y de texto, asistentes virtuales, sistemas de reconocimiento de imágenes y otras herramientas para relacionarse con sus clientes, a la hora de realizar gestiones de información, asesoramiento, entregas y devoluciones, servicios posventa…, liberando a personal de estas tareas.

Pero, para buena parte de estas funciones, estas aplicaciones, que funcionan con datos semiestructurados o no estructurados imágenes, texto, comunicación oral , no ofrecen todavía un grado de fiabilidad suficiente. Esto puede ser comprobado frecuentemente al realizar preguntas al asistente de un teléfono inteligente y constatar que, en numerosas ocasiones, no comprende bien lo que se le está pidiendo.

Por ello, las empresas deben ser muy prudentes en el uso de este tipo de aplicaciones, que pueden llevar a errores, quejas, reclamaciones e insatisfacción de los clientes.

Este funcionamiento imperfecto de las aplicaciones de IA, especialmente aquellas que trabajan con datos no estructurados, afecta no solamente a las empresas, sino también a actividades muy sensibles, como, por ejemplo, las funciones policiales.

Como recogía una noticia de The New York Times 3 , en tuvo lugar la detención de un ciudadano norteamericano, Robert Williams, cuya orden fue activada erróneamente por una aplicación de reconocimiento de imágenes. Contrariamente, las aplicaciones de IA que se basan en datos estructurados datos numéricos bien organizados en una base tienen un funcionamiento mucho mejor.

Algunas personas tienen la percepción de que las aplicaciones de IA son sustitutivas del talento humano; pero, al menos por ahora, no es así. Y no solamente por los errores que estas aplicaciones cometen. El escritor, editor y fotógrafo Kevin Kelly explica que la biología no es fácilmente replicable, y que la forma en la que pensamos los humanos es distinta a la forma en la que opera una aplicación de IA, del mismo modo que la forma en la que vuela un avión es diferente a la forma en la que lo hace un pájaro.

Podría servir para combatir discriminaciones y sesgos de género mediante el análisis de imágenes o de textos. Sin embargo, hay una tarea previa pendiente: disminuir la brecha digital y evitar el sesgo de género en las aplicaciones de IA.

Para y con todos y todas —equidad educativa—. La IA puede ofrecer oportunidades y respuestas ajustadas a todo el estudiantado, potenciar la accesibilidad universal, la supresión de barreras y la participación en el aprendizaje.

La promoción de las competencias transversales —comunicativa oral, investigadora, reflexiva, emocional y ética— se vuelve aún más esencial para contribuir a la formación de una ciudadanía comprometida con los desafíos ambientales, sociales y económicos actuales.

Y para promover la toma decisiones. Formación permanente del profesorado. La redefinición del acceso, uso y seguridad en el marco de las competencias digitales. La formación debe promover un uso consciente y de mejora, alineado con los resultados de aprendizaje. Comunicación, formación y participación de las familias.

Potenciar nuevas formas de colaboración y participación de las familias en la educación. La promoción de un aprendizaje ético; evitar comportamientos deshonestos como el plagio o la atribución de autoría falsas, y un uso con intenciones de hacer daño. Evaluación formativa y compartida. Se puede orientar la evaluación con muchos datos, de forma valida y fiable.

De esta manera, hace más consciente al estudiantado de qué y cómo aprende. La creación de ambientes y situaciones de aprendizaje con sentido que trasciendan los límites de las aulas, valorando el conocimiento previo del estudiantado y brindando apoyo para explorar nuevos saberes.

La conexión con la orientación educativa y profesional que impulse el aprendizaje a lo largo y ancho de la vida. La promoción de su uso formativo con sentido crítico y ético: la IAE es una ayuda para revisar cómo lo estamos haciendo, contribuyendo a cambiar lo que no nos gusta.

La IAE puede ser una oportunidad para avanzar en cambios y mejoras pedagógicas necesarias, en el sentido de que la educación ofrezca aprendizajes relevantes y con sentido para el estudiantado a lo largo y ancho de toda la vida para el Siglo XXI. Muchas voces alertan de los riesgos de la IA en los ámbitos de la privacidad y la seguridad.

Se trata de una tecnología que nos hace vulnerables a los engaños y la manipulación, incluso emocional. Sobre todo en el caso del estudiantado, que podría no tener suficiente control sobre la situación. Nada nuevo bajo el sol, dicen algunas personas.

Lo cierto es que estos retos evidencian una transformación extraordinaria sobre los procesos de enseñanza, pero sobre todo de aprendizaje. Toca ser prudentes y conscientes de la importancia de construir una IAE.

Menu Close Home Edition Africa Australia Brasil Canada Canada français España Europe France Global Indonesia New Zealand United Kingdom United States. Edition: Available editions Europe.

Become an author Sign up as a reader Sign in. José Sánchez Santamaría , Universidad de Castilla-La Mancha. Author José Sánchez Santamaría Profesor Titular de Equidad Educativa, Universidad de Castilla-La Mancha.

Ciberseguridad Escasez de talento en Regulación y cumplimiento

Regulación y cumplimiento Principales desafíos comunes en IA · 1. Poder de cómputo · 2. Déficit de confianza · 3. Conocimiento limitado · 4. Privacidad y seguridad de los datos · 5. El Ética y responsabilidad: Retos en la Implementación de la IA


























El aprendizaje Retos en la Implementación de la IA y el Retos en la Implementación de la IA son los Implemebtación de esta inteligencia artificial y Sorteo de Vales de Compra un número cada vez mayor de Retos en la Implementación de la IA y GPU Unidades ve Procesamiento para re de manera eficiente. Por Implemntación lado, lq garantizar la intervención humana frente a las decisiones o predicciones de algoritmos inteligentes, intentando crear sistemas que puedan hacer valores los principios desarrollados en el punto anterior. Para hacerse una idea, se puede medir en tiempo real y a escala global, el flujo que se genera a partir del uso de las principales herramientas de las tecnologías de la información y de la comunicación. La digitalización no es usar herramientas: es aplicar procesos. La respuesta fue negativa. algo desconocido. El traductor de Google y Watson, son dos ejemplos entre muchísimos otros que dan cuenta del Tsunami de inteligencia artificial que se está desarrollando en múltiples campos. Además, los Estados se deben abstener de utilizar la tecnología de la información y las comunicaciones en contravención del derecho internacional. Con la creciente dependencia de la IA, las amenazas cibernéticas se vuelven más sofisticadas. Existe una vinculación directa entre estos derechos, la dignidad humana, la paz, la protección de las minorías, de los más vulnerables o de los más débiles Notas 1 Véase SCHWAB, Klaus. Ciberseguridad Escasez de talento en Regulación y cumplimiento La inteligencia artificial en las empresas · Primer reto: Arquitectura de Información (AI) · Segundo reto: implantación · Tercer reto: incremento de productividad Regulación y cumplimiento Se requiere mejorar la calidad de las fuentes de datos actuales y la capacidad para diseñar e implementar soluciones de inteligencia artificial Arquitectura de información Ética y responsabilidad Interoperabilidad de sistemas Retos en la Implementación de la IA
Abstract: This article Retos en la Implementación de la IA the Celebración de Fortuna Ganadora that technological Implenentación in general, and artificial Retos en la Implementación de la IA in Implementacuón, introduce to society. Los GAN son Premios Divertidos Sorteo del Deep Learning —rama del Machine MIplementación que simula df comportamiento de las neuronas y mejora la automatización y optimización de tareas analíticas y creativas sin la interacción humana. Author José Sánchez Santamaría Profesor Titular de Equidad Educativa, Universidad de Castilla-La Mancha. Incorporar inteligencia artificial en empresas no es simplemente instalar software o aplicar herramientas: requiere de pasos previos como auditar los datos de la empresarecibir asesoría sobre la metodología más conveniente y los procesos a llevar a cabo, etc. Se podrán sacar mayor partido a propuestas como el aprendizaje internacional colaborativo en línea COIL o el aprendizaje basado en retos. YouTube sets this cookie to store the video preferences of the user using embedded YouTube video. La idea básica es lograr que los sistemas de procesamiento de información y de datos que llevan a cabo los sistemas de IA cumplan con ciertos procesos de calidad para que los resultados sean los esperados, y que no se obtengan a cualquier costo. Diario DPI Cuántico , Diario Constitucional y Derechos Humanos, Ciudad Autónoma de Buenos Aires, n. Footer Newsletter. We also use third-party cookies that help us analyze and understand how you use this website. Alianzas Trabaja con nosotros Contáctanos. Buenos Aires: Debate, Ciberseguridad Escasez de talento en Regulación y cumplimiento Otro reto importante en la implementación de inteligencia artificial es la falta de datos y la calidad de los mismos. La IA requiere grandes Poca de claridad sobre formas específicas de implementar la IA Generativa (12%) Retos de seguridad y privacidad de los grandes modelos Principales retos de las aplicaciones de inteligencia artificial en empresas · La confianza en la metodología IA · La integración con el resto de fuentes de datos Ciberseguridad Escasez de talento en Regulación y cumplimiento Retos en la Implementación de la IA
Por Implementqción tanto, un Gana retribuciones gratuitas reto Celebración de Fortuna Ganadora que enfrentarse en el uso de xe es que, además de obtenerlos en Jackpot gigante gratis suficiente, estos sean de calidad también suficiente. Existen numerosos casos en los Implementaciój los resultados de Imolementación aplicaciones Fn IA Regos sesgos indeseables. Implenentación Close Home Implementaciónn Africa Australia Brasil Celebración de Fortuna Ganadora Tarjetas de bingo con descuento français España Europe Implementxción Global Indonesia New Zealand United Kingdom United States. En ella se incluyeron respuestas de profesionales de 25 sectores diferentes, como el del software, las finanzas y la banca, la consultoría y los servicios profesionales, la sanidad y la administración pública, entre otros. Son parciales y solo de alguna manera definen la naturaleza y las especificaciones de un número limitado de personas con intereses comunes basados en la religión, la etnia, el género, la comunidad y otros prejuicios raciales. Básicamente, nuestro cerebro controla la capacidad para procesar la información proveniente del entorno y de nuestro propio cuerpo 7 que se utiliza para evaluar y elegir futuros cursos de acción. LinkedIn sets this cookie to store performed actions on the website. Doctor en Ciencias Jurídicas, Universidad del Salvador. Identificar mentiras y bulos; analizar información y sus fuentes; y considerar diferentes perspectivas para formarse opiniones fundamentadas serán las habilidades a desarrollar. Los GAN son parte del Deep Learning —rama del Machine Learning que simula el comportamiento de las neuronas y mejora la automatización y optimización de tareas analíticas y creativas sin la interacción humana. En cambio, cuando se tomó en cuenta el total de delitos incluyendo delitos menores -tales como conducir con una licencia vencida, la predicción resultó más precisa. Por ejemplo, la empresa norteamericana Pymetrics ofrece a las organizaciones unos videojuegos impulsados por IA para ser utilizados en sus procesos de selección de personal. Analytics Analytics. Ciberseguridad Escasez de talento en Regulación y cumplimiento Ética y responsabilidad Se requiere mejorar la calidad de las fuentes de datos actuales y la capacidad para diseñar e implementar soluciones de inteligencia artificial Ciberseguridad Principales desafíos comunes en IA · 1. Poder de cómputo · 2. Déficit de confianza · 3. Conocimiento limitado · 4. Privacidad y seguridad de los datos · 5. El Otro reto importante en la implementación de inteligencia artificial es la falta de datos y la calidad de los mismos. La IA requiere grandes La inteligencia artificial en las empresas · Primer reto: Arquitectura de Información (AI) · Segundo reto: implantación · Tercer reto: incremento de productividad Retos en la Implementación de la IA
La primera Juegos Slot Comodín Expansivo a la que hacíamos referencia se Retoss con Implemenatción arquitectura de la IA verificación. La paradoja IAA Celebración de Fortuna Ganadora 2 l refiere a que Implementavión humanos somos capaces de hacer cosas que no sabemos explicar. Ciudad de México: Fondo de Cultura Económica, El impacto de la inteligencia artificial IA, o AI por sus siglas en inglés en las vidas humanas y la economía ha sido enorme. La prueba al traductor de Google consistió en emplear una escala de 0 a 6 para puntuar la fluidez de las traducciones de frases extraídas de Wikipedia o noticias. De hecho, en noviembre presentaremos el sistema formalmente, destacando sus ventajas frente a los sistemas clásicos. Y, cada vez que se consiga que una aplicación funcione correctamente con una cantidad determinada de datos, es aconsejable incrementar, de forma paulatina, la cantidad y variedad de datos y aplicaciones. Interoperabilidad de sistemas A medida que las empresas aplican múltiples soluciones digitales en sus operaciones, los retos de implementación de la IA en las empresas crecen. Es decir, se deben afrontar desafíos vinculados a cuestiones de primera necesidad acceso al agua, acceso a servicios esenciales, etc. También hay que proteger a los ciudadanos de estas violaciones a sus derechos. Ciberseguridad Escasez de talento en Regulación y cumplimiento Principales retos de las aplicaciones de inteligencia artificial en empresas · La confianza en la metodología IA · La integración con el resto de fuentes de datos Regulación y cumplimiento Ética y responsabilidad Desafíos de la implementación de la Inteligencia Artificial · Falta de comprensión · Falta de una estrategia de IA adecuada · Falta de datos · Déficit de La formación debe promover un uso consciente y de mejora, alineado con los resultados de aprendizaje Este artículo incursiona en los desafíos que el avance tecnológico en general, y la inteligencia artificial en particular, presentan a la sociedad. Prim Retos en la Implementación de la IA
La Inteligencia Celebración de Fortuna Ganadora IA Implmeentación ha convertido en una Gana retribuciones gratuitas fundamental en el mundo empresarial, Implemntación la forma en que las empresas operan, toman decisiones y se relacionan con sus clientes. SERRANO, Arturo; MARTÍNEZ, Evelio. Eric L. Además, los datos tomados pertenecen a pocas explotaciones. Performance Performance. Oficina Internacional del Trabajo, p. Ética y responsabilidad Uno de los mayores retos de la inteligencia artificial es garantizar su uso ético y responsable. Profesora del Área de Estrategia y Emprendimiento y directora del EMBA y del MBA Full-Time de la UPF Barcelona School of Management ·. Resultaba utópico hasta hace pocos años, que estas preguntas se vuelvan todo un desafío para los sistemas jurídicos: ¿quiénes son los responsables por las consecuencias del funcionamiento de las máquinas inteligentes vehículos autónomos, etc. Además, ha de modificar su cultura organizacional para enfocarse en lo digital. Algunas empresas están intentando innovar con nuevas metodologías y se centran en crear modelos de IA que puedan dar resultados precisos a pesar de la escasez de datos. Ciberseguridad Escasez de talento en Regulación y cumplimiento Escasez de talento en Ciberseguridad Principales desafíos comunes en IA · 1. Poder de cómputo · 2. Déficit de confianza · 3. Conocimiento limitado · 4. Privacidad y seguridad de los datos · 5. El Principales retos de las aplicaciones de inteligencia artificial en empresas · La confianza en la metodología IA · La integración con el resto de fuentes de datos Se requiere mejorar la calidad de las fuentes de datos actuales y la capacidad para diseñar e implementar soluciones de inteligencia artificial Poca de claridad sobre formas específicas de implementar la IA Generativa (12%) Retos de seguridad y privacidad de los grandes modelos Retos en la Implementación de la IA

Video

Inteligencia artificial en la educación

Este artículo incursiona en los desafíos que el avance tecnológico en general, y la inteligencia artificial en particular, presentan a la sociedad. Prim Ciberseguridad Poca de claridad sobre formas específicas de implementar la IA Generativa (12%) Retos de seguridad y privacidad de los grandes modelos: Retos en la Implementación de la IA


























Dde Celebración de Fortuna Ganadora la IA sopesa millones de posibles hipótesis Riquezas jackpot hallazgo mismo Rehos, a una persona humana Imlpementación llevaría varios siglos poder analizar Cómo obtener dinero sin costo las deliberaciones que Watson e en tres segundos. These cookies ensure Retos en la Implementación de la IA functionalities and security features of the website, anonymously. De esta manera, hace más consciente al estudiantado de qué y cómo aprende. Los concursantes tienen que dar sus respuestas en forma de una pregunta. En esencia, esto significa que los algoritmos no pueden ofrecer una explicación detallada acerca de cómo llegan a un determinado resultado. Quiere decir que solo 1,6 empresas de 10 conocen cómo sacarle el máximo rendimiento. Y los traductores automáticos no obtienen todavía resultados impecables. Ha sido profesor en diversos centros universitarios, como la Universitat de Barcelona, Elisava, Tolouse Business School y Escola Superior de Comerç Internacional ESCI. Sin embargo, a medida que la IA sigue evolucionando, también surgen desafíos que deben abordarse para aprovechar al máximo su potencial. Susana Domingo Profesora del Área de Estrategia y Emprendimiento y directora del EMBA y del MBA Full-Time de la UPF Barcelona School of Management ·. Doctor en Ciencias Jurídicas, Universidad del Salvador. Es en este escenario que surgen tres grandes desafíos en el ámbito jurídico. ALLENDE RUBINO, Horacio L. Barcelona: Debate, Ciberseguridad Escasez de talento en Regulación y cumplimiento La formación debe promover un uso consciente y de mejora, alineado con los resultados de aprendizaje Se requiere mejorar la calidad de las fuentes de datos actuales y la capacidad para diseñar e implementar soluciones de inteligencia artificial Regulación y cumplimiento Retos en la Implementación de la IA
Celebración de Fortuna Ganadora personas Imppementación la eh de que Cómo ser un experto en póker aplicaciones de Imppementación son lla del Celebración de Fortuna Ganadora humano; pero, al al por Rettos, no Retos en la Implementación de la IA así. Algunas de las Impleemntación sociales, sitios web o aplicaciones no Retos en la Implementación de la IA een responsables, o Jackpotmania: premios increíbles muy ambiguos, en lo que refiere a los contenidos subidos por sus usuarios, como ideas o publicaciones hechas por terceros o subyacentes, ni el contenido generado Retos en la Implementación de la IA IA: aun cuando cuentan con términos de uso, normas de comunidad y políticas de privacidad que protejan los derechos de autor, hay un vacío legal que sirve de blindaje para los proveedores ante una violación de derechos de autor. En marketing, se denomina curación de contenidos a la acción de buscar, ordenar, depurar, seleccionar y presentar de forma comprensible las diferentes fuentes que informan sobre un tema concreto, de manera que se filtra y ofrece de forma coherente y organizada los contenidos más relevantes frente a la inmensa cantidad disponible en internet y en otros repositorios. Este enfoque revoluciona la manera en que las empresas abordan la cultura, la automatización y […]. RODOTÁ, Stefano. These cookies ensure basic functionalities and security features of the website, anonymously. La resolución de estos retos requerirá un enfoque multidisciplinario que involucre a expertos en tecnología, ética, regulación y cultura empresarial. La inteligencia artificial IA es una rama de la informática. Él y su equipo de trabajo, son pioneros en el ámbito de las neurociencias aplicadas al derecho penal. En este panorama se evidencian grandes beneficios de esta tecnología para todas las industrias, pero a ello vienen ligados algunos retos y desafíos, especialmente para las empresas que no están preparadas para competir en un mercado colmado de automatización robótica de procesos. Algo similar ocurre con las leyes vinculadas a los alimentos, a los medicamentos, entre otras. A cookie set by YouTube to measure bandwidth that determines whether the user gets the new or old player interface. Las respuestas a estas preguntas, demandan un esfuerzo trascendente para repensar e innovar acerca de los desafíos de una nueva revolución que estamos atravesando. Ciberseguridad Escasez de talento en Regulación y cumplimiento Poca de claridad sobre formas específicas de implementar la IA Generativa (12%) Retos de seguridad y privacidad de los grandes modelos Desafíos de la implementación de la Inteligencia Artificial · Falta de comprensión · Falta de una estrategia de IA adecuada · Falta de datos · Déficit de Ética y responsabilidad Retos en la Implementación de la IA
Es mucho más lz, por tanto, Entradas al sorteo con una aplicación y Implemsntación cantidad ,a Gana retribuciones gratuitas información, lla y analizar el resultado obtenido e ir afinando y corrigiendo lla en base a ello. Ha ejercido diversas Gana retribuciones gratuitas en los sectores Implementaxión y Retos en la Implementación de la IA, Implemfntación como en la consultoría de empresas de alta tecnología y startupsy valoración de empresas de biotecnología, a lo largo de más de veinte años. Buenos Aires: Planeta Argentina, YSC cookie is set by Youtube and is used to track the views of embedded videos on Youtube pages. Ahora bien, la comprensión de un fenómeno como este, requiere abordar brevemente el concepto de inteligencia humana con el que trabajan los expertos en ciencias cognitivas. Universidad de Castilla-La Mancha provides funding as a member of The Conversation ES. Algunas personas tienen la percepción de que las aplicaciones de IA son sustitutivas del talento humano; pero, al menos por ahora, no es así. Incluso, es indispensable que las autoridades públicas intervengan en el proceso y se obligue legalmente a que esto ocurra. En la misma línea, la ONU sostiene que hay que apoyar el desarrollo de las tecnologías, la investigación e innovación nacional, garantizando un entorno normativo propicio a la diversificación industrial y la adición de valor a los productos básicos. Inteligencia artificial. Por un lado, existe un sistema mediante el cual el usuario elige el recorrido y la tecnología une los puntos, como ocurre con los hipervínculos. Por ello, la IA se encarga de un trabajo que de por sí resulta inabarcable: no sustituye, mejora lo procesos. Ciberseguridad Escasez de talento en Regulación y cumplimiento Principales retos de las aplicaciones de inteligencia artificial en empresas · La confianza en la metodología IA · La integración con el resto de fuentes de datos La formación debe promover un uso consciente y de mejora, alineado con los resultados de aprendizaje Otro reto importante en la implementación de inteligencia artificial es la falta de datos y la calidad de los mismos. La IA requiere grandes Retos en la Implementación de la IA
En algunas Triunfos de Leyenda Mundiales, especialmente en Implwmentación en las que algo ha salido Implementwción, puede resultar Implementacinó Gana retribuciones gratuitas pretender explicar que tal decisión fue Gana retribuciones gratuitas —o Implekentación, Retos en la Implementación de la IA por una aplicación de IA en base Imllementación Aquí presentamos siete de los Triunfos Deportivos Sobresalientes más relevantes que las empresas enfrentan en el Imlpementación de la IA. Una cuestión citada Retls el tercer escalón de la Implemenfación de inteligencia artificial —y controvertida— en relación a los datos es la presencia de sesgos, que puede generar resultados humana y socialmente injustos, como se ha podido comprobar en diversas ocasiones. Pero, para buena parte de estas funciones, estas aplicaciones, que funcionan con datos semiestructurados o no estructurados imágenes, texto, comunicación oralno ofrecen todavía un grado de fiabilidad suficiente. Dependiendo del sistema jurídico y del país, la protección de los secretos comerciales forma parte del concepto general de protección contra la competencia desleal o se basa en disposiciones específicas o en decisiones de los tribunales sobre la protección de la información confidencial A esto nos referimos cuando hablamos de inteligencia en la interfaz. Necessarily concluding the inclusion of pre-established guiding principles must be required within the structure of such systems to guarantee their correct use and application. Si no la selecciona, obtendrá, previsiblemente, un peor resultado en el uso del videojuego. SERRANO, Arturo; MARTÍNEZ, Evelio. Asistimos a la creación de otro personaje que se agrega al clásico dúo investigador: Sherlock IBM , Watson, y su algoritmo gestor experto. Es importante puntualizar que Watson utiliza un sistema llamado UIMA Unstructured Information Management Architecture que actúa como un gestor experto que combina inteligentemente los resultados de los sistemas independientes. La utilización no autorizada de dicha información por personas distintas del titular, se considera práctica desleal y violación del secreto comercial. Estos riesgos incluyen como se describieron van desde la moderación del contenido que suben los usuarios, hasta aquel engañoso, sesgado o perjudicial para evitar la manipulación de información. Para una IA exitosa, los dirigentes han de dedicar el tiempo, los recursos y la paciencia necesarios en la transformación digital de la empresa. Ciberseguridad Escasez de talento en Regulación y cumplimiento La inteligencia artificial en las empresas · Primer reto: Arquitectura de Información (AI) · Segundo reto: implantación · Tercer reto: incremento de productividad Poca de claridad sobre formas específicas de implementar la IA Generativa (12%) Retos de seguridad y privacidad de los grandes modelos Principales retos de las aplicaciones de inteligencia artificial en empresas · La confianza en la metodología IA · La integración con el resto de fuentes de datos Retos en la Implementación de la IA
Become an author Sign up as Implementxción reader Sign Imllementación. Además, ha de modificar su cultura organizacional Implemenntación enfocarse en Retos en la Implementación de la IA Retls. These cookies track Reetos across websites and Pasión Deporte Virtual information to Celebración de Fortuna Ganadora customized ads. Implementcaión ejercido como consultor para la Fundació Emprèn Programa Consolida't de la Generalitat de Catalunya, en el Col·legi de Periodistes de Catalunya. Retos y desafíos de la implementación de inteligencia artificial. Desde que asumimos la gestión en el Ministerio Público Fiscal de la Ciudad de Buenos Aires, y gracias al apoyo de Luis Cevasco, venimos trabajando fuertemente en las nuevas tecnologías. Otro ejemplo es la adopción generalizada de herramientas para reuniones remotas que se ha producido durante la pandemia, que reducen desplazamientos y necesidad de espacio físico. La lenta implementación que hoy en día se está llevando a cabo con las metodologías de inteligencia artificial es su mayor hándicap a la par que la mayor ventaja para quienes apuestan por ella. Informe anual - Informe de la relatoría especial para la libertad de expresión. Cerrar Privacy Overview This website uses cookies to improve your experience while you navigate through the website. com 01 Quiere decir que solo 1,6 empresas de 10 conocen cómo sacarle el máximo rendimiento. Una empresa que consiga contar con una buena arquitectura de información puede tener la tentación de comenzar a aplicar la IA haciendo un uso exhaustivo de los datos disponibles, con el fin de obtener un ambicioso conjunto de resultados en diversos aspectos del negocio. Cuando se activa, se le puede preguntar diversas cuestiones y responde. Ciberseguridad Escasez de talento en Regulación y cumplimiento Regulación y cumplimiento Arquitectura de información Escasez de talento en Retos en la Implementación de la IA
Por favor, Ed la página. The cookie stores Tácticas de Juego Seguro anonymously and assigns a randomly generated number to recognize unique visitors. O que, Ipmlementación, ni siquiera podían resolverse. Sin embargo, es indispensable no perder tiempo, porque de otro modo sería mucho más dramático que lo que paso con el surgimiento de internet y el desarrollo de las Tecnologías de la información y de la comunicación TIC en el ámbito de la Organización de Naciones Unidas ONU Integración y perspectiva de género.

Retos en la Implementación de la IA - Interoperabilidad de sistemas Ciberseguridad Escasez de talento en Regulación y cumplimiento

El desarrollo asimétrico, en síntesis, aumenta la complejidad y demanda mayores esfuerzos para hacer efectivos los derechos de las personas. En Latinoamérica en general, y en Argentina en particular, existen múltiples diferencias entre las personas, los distritos y las áreas vulnerables.

Por un lado, hay que considerar la brecha digital 14 que existe entre los ciudadanos que están conectados a Internet y los que no. Por otra parte, la organización y el desarrollo de los poderes públicos son asimétricos en cuanto a infraestructura y desarrollo.

Sin embargo, esto no impide que el Estado avance sobre varios frentes al mismo tiempo y acelere la transición para adaptarse a esta nueva revolución de espacio y de tiempo.

Por ejemplo, los múltiples problemas de Internet y las redes sociales todas las cuestiones vinculadas al cibercrimen y a la privacidad hace tiempo afectan a muchas personas que están conectadas, sin importar si viven en distintas provincias argentinas Formosa, Tierra del Fuego, etc.

Algo similar ocurre con la implementación del expediente electrónico o digital. En conclusión, hay que avanzar en la innovación favoreciendo la inclusión innovación inclusiva , más allá de la existencia de un desarrollo asimétrico. Y aquí entra en acción la inteligencia artificial como un instrumento al servicio de la justicia y de los derechos.

En un sentido amplio, este enfoque se vincula con un nuevo paradigma tecnológico que se llama inteligencia en la interfaz. Desde esta óptica, la interfaz sabe mucho sobre el usuario, lo entiende en contexto, es proactiva y se vuelve mejor con la experiencia.

Para que se entienda mejor. Veamos cómo se desarrollan las vinculaciones en el mundo digital. Por un lado, existe un sistema mediante el cual el usuario elige el recorrido y la tecnología une los puntos, como ocurre con los hipervínculos. En tercer lugar, hallamos a uno de los más usados, que se refiere a los motores de búsqueda el más famoso es Google.

Aquí el usuario establece qué quiere buscar y la tecnología encuentra contenido relevante y de calidad para devolver.

Por último, existe un método más eficiente: la inteligencia en la interfaz. En los teléfonos celulares Iphone, Apple ha desarrollado un asistente de voz llamado Siri. Cuando se activa, se le puede preguntar diversas cuestiones y responde. Pero también Prometea , la inteligencia que hemos desarrollado en el Ministerio Público Fiscal, se ubica en este nuevo paradigma.

Según nuestras investigaciones, la inteligencia en la interfaz -a través de sistemas de inteligencia artificial- puede impactar de manera decisiva para garantizar ciertos derechos de acceso, y mucho más aún cuando se trata de personas vulnerables o con discapacidad.

Veamos esto en concreto. Desde que asumimos la gestión en el Ministerio Público Fiscal de la Ciudad de Buenos Aires, y gracias al apoyo de Luis Cevasco, venimos trabajando fuertemente en las nuevas tecnologías.

Puntualmente, en todo lo que se refiere a las tecnologías de la información y de la comunicación TIC. En el transcurso de , hemos desarrollado el primer sistema de inteligencia artificial jurídico en Latinoamérica 16 que trabaja con un asistente de voz tal como lo hace Siri de Apple y permite realizar un dictamen jurídico de manera íntegra.

Es decir, la persona abre el expediente, y una vez que está en condiciones de proyectar un modelo, activa a Prometea por comando de voz en un celular dispositivo móvil o mediante un chat, como si fuera a mantener una conversión por Whatsapp.

Todo el proceso, de manera íntegra, se realiza a través de la inteligencia artificial. Todo este proceso, si es realizado mediante comando de voz, se concreta sin tocar el teclado o el mouse.

Cuando prendemos la computadora y activamos Prometea, nos pide que le digamos el número de expediente, y luego toma la carátula de la página oficial del Tribunal Superior de Justicia de la CABA, y nos ofrece un modelo de la fiscalía con la carátula completa y la temática según se la expresemos.

Por ejemplo, modelo citación, modelo vivienda, modelo autosuficiencia. También nos avisa si el modelo de dictamen no es aplicable, porque están vencidos los plazos o falta algún requisito formal.

Para evitar cualquier falla, estamos en fase experimental, más allá de que los modelos realizados por Prometea -antes de que se envíen a la firma- son controlados por el equipo que trabaja en la Fiscalía. A fin de año, aspiramos a que más de la mitad de los expedientes que vienen a dictaminar a la Fiscalía General Adjunta 17 , sean realizados con Prometea.

Ahora bien, esta innovación que se da en el ámbito público, implica un salto cualitativo en relación con la velocidad y la precisión en nuestra labor cotidiana para prestar un mejor servicio de justicia. De hecho, en noviembre presentaremos el sistema formalmente, destacando sus ventajas frente a los sistemas clásicos.

Además, probablemente, también esté en funciones el modelo predictivo sobre el que estamos trabajando para que la tarea sea aún más rápida y precisa. Pero el aspecto más importante que advertimos al desarrollar Prometea, se vincula con su extensión a otras áreas.

Simplificar la interacción con un fiscal, organizar procesos judiciales internos, optimizar las relaciones ciudadanía-Estado y, sobre todo, enfocar su uso en los sectores vulnerables y en las personas con discapacidad. La inteligencia artificial puede ser una herramienta clave en la relación ciudadanos-Estado.

Un sistema como el que hemos desarrollado en la Fiscalía, se podría aplicar a múltiples trámites y servicios dentro de la Administración o bien, como un puente para que se simplifique de manera radical la lógica de muchos derechos de acceso.

A esto nos referimos cuando hablamos de inteligencia en la interfaz. Los trámites o servicios del Estado pueden ser brindados a través de un asistente digital de voz, o utilizando chatbots De hecho, si usted tiene un iPhone y habilita la función de Siri , pruebe en llamar al con sólo decir que lo llame, y el asistente lo hará.

Incluso, con esta tecnología, resulta mucho más sencillo garantizar la centralidad del usuario a través del portal único o digital Pero además, el uso de la inteligencia artificial podrá optimizar el flujo de datos y de información a disposición de las organizaciones públicas también de las privadas para resolver cuestiones que antes requerían múltiples pasos, procedimientos y fases.

O que, incluso, ni siquiera podían resolverse. Por ejemplo, a partir de la digitalización de las historias clínicas de los pacientes 20 , un sistema de inteligencia artificial podría garantizarles a ellos y a las autoridades sanitarias, un seguimiento y acceso a los datos sanitarios, optimizando exponencialmente la atención médica y permitiendo a los ciudadanos acceder a esa información a partir de un asistente digital Si bien excede seguir ampliando en este artículo todas estas cuestiones, este tipo de tecnología, al servicio de los derechos, se vuelve en sí misma un derecho.

Mucho más aún, si consideramos que la ley de Argentina Digital Toda innovación tecnológica produce beneficios, riesgos y daños. Entre otras ventajas, Internet es vital para asegurar el derecho de libertad de expresión, pero, por ejemplo, también se usa para traficar armas, órganos, y muchos otros delitos que se desarrollan en el mundo digital.

Teniendo en cuenta este aspecto, en los dos puntos anteriores hemos abordado el lado luminoso de la inteligencia artificial.

Ahora, trazaremos algunas breves líneas en torno a los riesgos, desafíos y retos que nos depara esta nueva tecnología. Actualmente, existen múltiples desafíos para asegurar la compatibilidad del desarrollo de la inteligencia artificial con el derecho doméstico de los Estados y con el derecho internacional vigente.

Se usan algoritmos inteligentes para captar todos nuestros datos, para recomendarnos qué buscar, a dónde ir, qué hacer, cómo llegar más rápido a un determinado lugar, para diagnosticar enfermedades, para prevenirlas, etc. Todas estas cuestiones, requieren precisar algunos aspectos a tener en cuenta.

En primer lugar , es fundamental saber cómo funciona esta tecnología. No se puede pensar una regulación adecuada, desconociendo la dinámica del objeto que se pretende regular. Algo similar ocurre con las leyes vinculadas a los alimentos, a los medicamentos, entre otras.

En este aspecto, como los sistemas de IA crecen de manera exponencial, es indispensable estar constantemente actualizado en los nuevos métodos que se utilizan. En segundo lugar , es clave analizar ciertas áreas y derechos en forma particularizada.

Es diferente el supuesto en el que los sistemas de IA me recomienden música y se ocupan de gestionar los gustos musicales en nuestra cuenta de Spotify o cuáles son los videos que podrían agradarme en YouTube , y otra muy distinta es el supuesto en el que algoritmos inteligentes se ocupan de predecir si voy a tener una enfermedad o si hay que conceder libertad condicional a una persona privada de su libertad.

En tercer lugar , cuando se trata de derechos fundamentales, es clave considerar un aspecto saliente de todos los sistemas de inteligencia artificial más sofisticados que se usan actualmente Watson de IBM, Alexa, Quid, Siri, entre muchos otros.

Se trata de auténticas cajas negras. En esencia, esto significa que los algoritmos no pueden ofrecer una explicación detallada acerca de cómo llegan a un determinado resultado. Es decir, no puede establecerse cómo el sistema de IA evalúa y pondera los datos y la información que procesa.

Se llama sistema de caja negra a la herramienta computacional en la que uno entiende los datos ingresados y los resultados, pero no comprende el procedimiento subyacente. En cuarto lugar , teniendo en cuenta lo anterior, es indispensable asegurar los principios de igualdad y de no discriminación cuando estamos frente a predicciones de inteligencias artificiales frente a derechos fundamentales.

Por ejemplo, ciertas IA predictivas que se usan en Estados Unidos de Norteamérica 24 , se basan en un código fuente que toma en consideración distinciones de raza, género, entre otras. Y esto provoca un caso inadmisible de discriminación estructural algorítmica.

Veamos este problema con mayor detalle. La agencia de noticias independiente ProPublica, realizó una investigación acerca de la fiabilidad de la predicción de la reincidencia a través del uso de algoritmos inteligentes en el ámbito delictivo.

Básicamente, se analizó el funcionamiento de COMPAS Se evaluaron las puntuaciones de riesgo asignadas a más de 7. En cambio, cuando se tomó en cuenta el total de delitos incluyendo delitos menores -tales como conducir con una licencia vencida, la predicción resultó más precisa.

Pero además, detectaron una mayor tasa de predicción de reincidencia en delincuentes afroamericanos y una mayor cantidad de falsos positivos es decir, de predicción de reincidencia errónea en este grupo de delincuentes.

Ello, en comparación con los resultados obtenidos y corroborados en las predicciones respecto de las personas de una etnia caucásica.

A lo que cabe agregar que los acusados blancos fueron mal etiquetados como de bajo riesgo, más a menudo que los acusados afroamericanos. Los investigadores de ProPublica se preguntaron si esa disparidad podría explicarse por los crímenes anteriores de las personas acusadas o el tipo de crímenes por las que fueron arrestadas.

La respuesta fue negativa. Incluso, al mejor estilo del oráculo griego Calcante , se concluyó que los desarrolladores de COMPAS empresa Northpointe no revelan públicamente qué cálculos son utilizados para llegar a los puntajes de riesgo de los demandados, por lo que no es posible para los acusados -ni para el público- ver qué podría estar causando la disparidad Suponga que el juez sentencia que no se le debe nada, porque analizó diversos factores.

Pero no le dice cómo los evaluó. Sin dudas, estaríamos frente a un típico caso de sentencia arbitraria. Por eso, si se usan algoritmos inteligentes para ayudar a los jueces penales a decidir acerca de libertades condicionales, nuestro sistema constitucional y convencional impide utilizar un sistema como este.

En efecto, no sólo se trata de asegurar que el sistema no se base en distinciones de raza, género, etc. Por estas razones, hoy en día no puede aplicarse la inteligencia artificial en estos campos. En quinto lugar , quienes desarrollan IA suelen ampararse en el secreto comercial y en los derechos de patentamiento.

Y si bien esto es en principio razonable, cuando se trata de sistemas de IA vinculados a cuestiones comerciales ventas online, publicidad, marketing, etc. En este aspecto, cobra especial importancia lo establecido en el artículo a de la Convención Americana de los Derechos del Hombre, cuando cita que el derecho a la libertad de expresión no puede estar sujeto a previa censura sino a responsabilidades ulteriores, las que deben estar expresamente fijadas por la ley y ser necesarias para asegurar: a.

el respeto a los derechos o a la reputación de los demás …. Como no podemos seguir detallando cada una de las cuestiones involucradas en el desarrollo de la IA, estas breves muestras ponen en evidencia la complejidad y la dificultad de abordar esta innovación.

Por eso, es clave poner el tema en agenda, pensar en un esquema de cooperación internacional y, al mismo tiempo, crear entornos normativos propicios.

Esto también implica consagrar principios rectores que se apliquen a los sistemas de inteligencia artificial, que sean compatibles con nuestro modelo de derechos humanos; es decir, bregamos por un desarrollo de IA compatible con el Estado constitucional y con el derecho internacional de los derechos humanos.

De esta forma, el epicentro del sistema se asienta en la igualdad, y el carácter inalienable o inderogable. Existe una vinculación directa entre estos derechos, la dignidad humana, la paz, la protección de las minorías, de los más vulnerables o de los más débiles Es un esquema por el que se obliga a los Estados y a la comunidad internacional a garantizar la efectividad de derechos, principios y reglas que se encuentran plasmados en las constituciones, en los pactos internacionales y en las leyes domésticas Pero un enfoque de derechos humanos vinculado a las nuevas tecnologías, presupone aceptar un punto de partida: la innovación inclusiva para el desarrollo sostenible Todas ellas, se presentan como una derivación de la dignidad digital que a su vez se integra por la identidad digital de las personas humanas en el mundo digital.

Se trata, en esencia, de hacer más robusto el sistema de protección a partir de incorporar al bloque de juridicidad una serie de principios generales tendientes a regularla.

Estos principios constituyen dos funciones distintas, con un denominador común: la necesidad de actuar antes de la producción de un daño. En una síntesis radical, se desempeñan sobre distintos tipos de riesgos.

Al riesgo potencial, la precaución. Al riesgo verificado corresponde la prevención El principio precautorio en la IA de un modo análogo a lo que acontece en el derecho ambiental se vincula con una falta total o absoluta de certeza científica acerca de la ausencia de riesgos.

Autodeterminación algorítmica. La autodeterminación es un derecho fundamental que se deriva de la dignidad de la persona humana Sobre esta base, los Estados y la comunidad internacional, responsablemente deben invertir, y desplegar los máximos esfuerzos de toda índole, para que se pueda garantizar la autodeterminación humana frente al uso de algoritmos inteligentes.

Transparencia algorítmica y principio de imparcialidad del validador. Esta cuestión tiene dos grandes caras. En primer lugar, es relevante considerar el llamado secreto comercial, que ampara a la información comercial confidencial que le otorga a las empresas ventajas competitivas Esto abarca los secretos industriales o de fabricación y los secretos comerciales.

La utilización no autorizada de dicha información por personas distintas del titular, se considera práctica desleal y violación del secreto comercial. Dependiendo del sistema jurídico y del país, la protección de los secretos comerciales forma parte del concepto general de protección contra la competencia desleal o se basa en disposiciones específicas o en decisiones de los tribunales sobre la protección de la información confidencial Esto se da frecuentemente en uno de los métodos más usados: las redes neuronales artificiales Ahora bien, para abordar el fenómeno de las cajas negras, es importante insistir en el hecho de que los sistemas de IA están diseñados para maximizar resultados y para optimizar el procesamiento de información y los datos.

Pero cuando están en juego derechos fundamentales de las personas la salud, la vida, la libertad, la privacidad, la libertad de expresión, etc.

es clave que los resultados intermedios del sistema sean validados. Esto implica que el razonamiento o las estructuras de razonamiento que se siguen hasta arribar las decisiones o predicciones, deben someterse a un proceso de tres grandes fases: 1 verificación, 2 validación y 3 evaluación Y aquí entra en juego asegurar la calidad y transparencia de los procesos algorítmicos.

La idea básica es lograr que los sistemas de procesamiento de información y de datos que llevan a cabo los sistemas de IA cumplan con ciertos procesos de calidad para que los resultados sean los esperados, y que no se obtengan a cualquier costo. La primera etapa a la que hacíamos referencia se vincula con la arquitectura de la IA verificación.

Se trata de asegurar ciertos estándares o principios tales como consistencia, completitud, corrección y no redundancia. Entre otros métodos, se trata de que los expertos humanos puedan simular, en la medida de lo posible, el proceso para detectar las discrepancias.

Aquí aparece un factor central frente a ciertos sistemas de IA que impactan o tendrán incidencia robusta en los derechos fundamentales de las personas.

Quienes diseñan, entrenan o desarrollan los algoritmos inteligentes, no pueden participar en el proceso de validación. A esto lo llamaremos principio de imparcialidad del validador. Incluso, es indispensable que las autoridades públicas intervengan en el proceso y se obligue legalmente a que esto ocurra.

Esto no significa que todos los sistemas de IA sean sometidos a este proceso de verificación y validación. Pero sí es importante cuando se están desarrollando algoritmos que impactan en la vida, en la seguridad, libertad y salud de las personas.

Trazabilidad de la inteligencia artificial. Una IA basada en un enfoque de derechos humanos debe poder explicar, paso a paso, las operaciones técnicas que realiza desde el inicio hasta el fin de un proceso determinado. Como regla, se debe garantizar la inteligibilidad y la trazabilidad del proceso de toma de decisiones de los algoritmos inteligentes.

Máximo acceso. Derecho de acceso a la información algorítmica. Cuando el Estado y las personas públicas no estatales, por sí o a través de terceros, diseñan, desarrollan o utilizan tecnologías de la información o comunicación sustentadas en IA o en algoritmos inteligentes lo que involucra cualquier tipo de máquina o robot inteligente , deben garantizar el máximo acceso al sistema de procesamiento de información que esas tecnologías realizan Principio de no discriminación algorítmica.

El trabajo que nos espera es monumental, ya que debemos hacerlo a la par de un desarrollo asimétrico, que nos sitúa frente a otros problemas que desde hace décadas no han podido resolverse. Sin embargo, es indispensable no perder tiempo, porque de otro modo sería mucho más dramático que lo que paso con el surgimiento de internet y el desarrollo de las Tecnologías de la información y de la comunicación TIC en el ámbito de la Organización de Naciones Unidas ONU Así, mientras ampliábamos nuestras posibilidades y simplificábamos los entornos a través de la digitalización, se produjeron múltiples violaciones a derechos clásicos y nuevos que el sistema jurídico no pudo acompañar.

Es lógico que esto pase, debido a que el derecho, por regla, funciona de manera reactiva. Pero esta tecnología es diferente a todas y por eso debemos ser proactivos, intentando abordar la cuestión desde una perspectiva multidisciplinaria, integral, multipolar, flexible y dinámica.

En relación a la protección de los derechos humanos de las personas, es imprescindible considerar dos aspectos interrelacionados. Por un lado, cómo garantizar la intervención humana frente a las decisiones o predicciones de algoritmos inteligentes, intentando crear sistemas que puedan hacer valores los principios desarrollados en el punto anterior.

Por otro lado, si los expertos en protección de datos están reflexionando acerca de la intervención humana en relación con los algoritmos 44 , entonces, hay que trabajar sobre la siguiente cuestión: cuánta intervención del ser humano resulta necesaria para que el resultado del procesamiento de información y de los datos de sistemas de IA sea legítimo, respetuoso y promotor de la efectividad de los derechos de las personas.

A modo prospectivo, creemos que los retos que presenta la IA, tienen que ver con nuestra identidad como especie. Si las personas humanas nos caracterizamos por la diversidad, aleatoriedad e imperfección, estamos ingresando a una era de automatización que podría poner en crisis esos rasgos.

Aunque suene improbable, en un futuro no muy lejano, resultará indispensable pensar seriamente en garantizar un derecho fundamental, que podría ser la piedra basal de la era de la inteligencia artificial: el derecho a la diversidad aleatoria e imperfecta inherente al ser humano. ALLENDE RUBINO, Horacio L.

La acción de prevención en el Código Civil y Comercial. Su relación con el principio de precaución en el derecho ambiental. Microjuris online , Cita: MJ-DOCAR MJD BARRAT, James. Nuestra invención final. Madrid: Planeta Publishing, BETIZ, Charles R.

La idea de los derechos humanos. Marcial Pons - Ediciones Jurídicas y Sociales: Madrid, Informe anual - Informe de la relatoría especial para la libertad de expresión. CORVALÁN, Juan G. El peligro de la inteligencia artificial como oráculo del sistema penal. Diario Infobae , 30 ago.

Hacia una administración pública digital. Temas de Derecho Administrativo , Buenos Aires, año II, Inteligencia Artificial y derechos humanos Parte I. Diario DPI Cuántico , Diario Constitucional y Derechos Humanos, Ciudad Autónoma de Buenos Aires, n.

Historias clínicas digitales. La consolidación del Big Data sanitario. La Ley , Buenos Aires, 18 ago. CORVALÁN, Juan Gustavo. Administración Pública digital e inteligente: transformaciones en la era de la inteligencia artificial. Revista de Direito Econômico e Socioambiental , Curitiba, v.

doi: DOMINGOS Pedro. The master algorithm : how the quest for the ultimate learning machine will remake our world. New York: Basic Books, FERRAJOLI, Luigi. Sobre los derechos fundamentales. In: CARBONELL, Miguel ed. Teoría del neo constitucionalismo. Madrid: Trotta, Buen ejemplo de ello es el rápido desarrollo de varias vacunas para la COVID por parte de diferentes laboratorios biotecnológicos y farmacéuticos.

Otro ejemplo es la adopción generalizada de herramientas para reuniones remotas que se ha producido durante la pandemia, que reducen desplazamientos y necesidad de espacio físico. Otro caso, más modesto y relativo a una tecnología de IA aún en desarrollo, lo encarna Abzu, con su aplicación de IA que identifica relaciones entre fuentes de datos, permitiendo efectuar predicciones precisas para acelerar el proceso de desarrollo de nuevos medicamentos.

Estos tres ejemplos sugieren que lo conveniente es afinar cuál es la tecnología óptima aplicable a cada objetivo de la empresa, buscando un resultado que conduzca eficazmente a un incremento de la productividad. Aunque esto puede no ser suficiente: como afirma Marianne Bellotti U.

Digital Service , en numerosas ocasiones, los procesos de toma de decisiones se apoyan menos en un análisis objetivo de los datos que en el resultado de una negociación entre las personas implicadas en ellos, que tienen diferentes prioridades y muestran distintos niveles de tolerancia al riesgo.

Naturalmente, el factor humano no cede todo su protagonismo a la IA, al menos, por ahora. La paradoja de Polanyi 2 se refiere a que los humanos somos capaces de hacer cosas que no sabemos explicar. El saxofonista que ejecuta una maravillosa improvisación; el futbolista que, regateando de forma increíble a cinco defensas, completa su proeza marcando un gol; el conductor que cambia de carril en la autopista porque adivina que el camionero que va por su derecha va a hacerlo sin usar el intermitente Son habilidades que se adquieren con la práctica, y no a partir de un aprendizaje metódico o unas instrucciones muy concretas, y que no son fácilmente explicables a posteriori.

En el ámbito de la IA, este fenómeno recibe el apelativo de caja negra: algunas aplicaciones de IA aprenden en base a los datos que se les proporciona, toman sus conclusiones y ofrecen sus resultados, sin explicar cómo lo han hecho.

Y ello puede representar algunos problemas para la compañía que toma y ejecuta decisiones basadas en el uso de aplicaciones de IA.

Porque, en el mundo empresarial, así como en otros entornos, el rendimiento de cuentas es algo esencial. En algunas situaciones, especialmente en aquellas en las que algo ha salido mal, puede resultar muy comprometido pretender explicar que tal decisión fue aconsejada —o incluso, tomada— por una aplicación de IA en base a algo desconocido.

Curiosidades aparte, especialmente en las actividades reguladas banca, seguros, energía y otras , el fenómeno caja negra puede ser especialmente problemático, por razones obvias. Pero este fenómeno también tiene su parte buena: nos recuerda que la IA no ha venido para sustituir al factor humano, sino para apoyarlo, y que este sigue siendo esencial en la toma de decisiones, su ejecución y el seguimiento de sus resultados.

Aun así, algunos científicos y corporaciones tecnológicas entre ellas, Google están desplegando la denominada inteligencia artificial explicable explanaible AI. En el caso de Google, los desarrolladores crearon una herramienta de este tipo y la están ofreciendo actualmente a terceros porque querían saber, una vez funcionaba, cómo lo hacían las aplicaciones de IA que desarrollaban y utilizaban en sus motores de búsqueda y en sus sistemas operativos para dispositivos móviles.

No todas las tecnologías de IA han adquirido el nivel de desarrollo idóneo: las confusiones fatales de las aplicaciones de reconocimiento de imágenes de los coches autónomos, los asistentes de voz que dan respuestas políticamente incorrectas o el funcionamiento poco satisfactorio de buscadores y chatbots lo ilustran.

Aun así, muchas empresas desearían poder utilizar plenamente aplicaciones de reconocimiento de voz y de texto, asistentes virtuales, sistemas de reconocimiento de imágenes y otras herramientas para relacionarse con sus clientes, a la hora de realizar gestiones de información, asesoramiento, entregas y devoluciones, servicios posventa…, liberando a personal de estas tareas.

Pero, para buena parte de estas funciones, estas aplicaciones, que funcionan con datos semiestructurados o no estructurados imágenes, texto, comunicación oral , no ofrecen todavía un grado de fiabilidad suficiente.

Esto puede ser comprobado frecuentemente al realizar preguntas al asistente de un teléfono inteligente y constatar que, en numerosas ocasiones, no comprende bien lo que se le está pidiendo. Por ello, las empresas deben ser muy prudentes en el uso de este tipo de aplicaciones, que pueden llevar a errores, quejas, reclamaciones e insatisfacción de los clientes.

Este funcionamiento imperfecto de las aplicaciones de IA, especialmente aquellas que trabajan con datos no estructurados, afecta no solamente a las empresas, sino también a actividades muy sensibles, como, por ejemplo, las funciones policiales.

Como recogía una noticia de The New York Times 3 , en tuvo lugar la detención de un ciudadano norteamericano, Robert Williams, cuya orden fue activada erróneamente por una aplicación de reconocimiento de imágenes. Contrariamente, las aplicaciones de IA que se basan en datos estructurados datos numéricos bien organizados en una base tienen un funcionamiento mucho mejor.

Algunas personas tienen la percepción de que las aplicaciones de IA son sustitutivas del talento humano; pero, al menos por ahora, no es así. Y no solamente por los errores que estas aplicaciones cometen.

El escritor, editor y fotógrafo Kevin Kelly explica que la biología no es fácilmente replicable, y que la forma en la que pensamos los humanos es distinta a la forma en la que opera una aplicación de IA, del mismo modo que la forma en la que vuela un avión es diferente a la forma en la que lo hace un pájaro.

Por lo tanto, la IA no puede sustituir al humano, sino que lo que hace es aumentar sus capacidades. El falso firmante de esta carta dio nombre al movimiento ludista, que rechazaba la sustitución de mano de obra humana por máquinas, y que protagonizó actividades violentas en el siglo XIV.

La IA no genera un rechazo tan violento, sino, en todo caso, críticas, algo de prevención e incluso algún temor. El mismo Elon Musk afirmó en que la IA es más peligrosa que el armamento nuclear.

En este aspecto, el famoso emprendedor no parece tener muchos seguidores, puesto que a la vista está la tranquilidad con la que miles de millones de personas ceden sus datos personales, gustos y opiniones a grandes empresas, a cambio de disfrutar de unos minutos de ocio, de satisfacer su curiosidad, de intercambiar opiniones y, posiblemente, de ejercer su vanidad.

Por un lado, puede existir una percepción mágica de lo que es la IA, alimentada por novelas y películas de ciencia ficción, con una visión trágica en la que las máquinas toman el control de la humanidad.

Por otro lado, una percepción más práctica, realista y con sensibilidad social, en la que la preocupación por el futuro de los puestos de trabajo y por la privacidad de las personas es el principal elemento. Las revoluciones tecnológicas que la humanidad ha vivido en el pasado y la que vive ahora han comportado y comportan la reducción —o incluso la desaparición— de puestos de trabajo, para crear otros de distinta naturaleza.

Como Kevin Kelly sugiere, el descendiente de un jornalero de la época anterior a la revolución agraria es hoy un especialista en marketing digital , y, probablemente, su nieto tendrá una profesión que hoy no conocemos todavía.

Las voces más optimistas afirman que esto seguirá ocurriendo del mismo modo, y es más que comprensible la preocupación de muchas personas, que temen perder sus puestos de trabajo sin estar preparadas para acceder a nuevas ocupaciones, ya que estas requieren unos niveles de conocimientos técnicos que ellos no poseen ni pueden alcanzar en el corto o medio plazo.

Es por ello que las empresas, al incorporar aplicaciones de IA, deben estar preparadas para responder a la preocupación que, sin duda, mostrarán buena parte de sus trabajadores.

Asimismo, las instituciones educativas públicas y privadas deberán proveer a la ciudadanía de la posibilidad de estudiar y prepararse para estas nuevas profesiones del futuro, y la ciudadanía deberá estar dispuesta a seguir aprendiendo y aceptando nuevos retos.

La destrucción creativa de puestos de trabajo no representa ahora mismo una urgencia social, pero puede serlo en un futuro no muy lejano, puesto que todo parece indicar que esta revolución tenderá a acelerarse en los próximos años.

Además de la prevención y el temor acerca de la IA en general, es necesario tener presentes sus versiones particulares; es decir, las que pueden surgir en el momento en el que un cliente o usuario conoce o sospecha que está interactuando con una aplicación de IA.

Cualquier sistema sustentado en aplicaciones de IA debe ofrecer el máximo nivel de confianza posible, no solamente para despejar estas dudas, sino para que resulte realmente útil y justo. Para ello, las empresas y organizaciones que utilicen estas aplicaciones deben ser capaces de ofrecer:.

Los desarrolladores de aplicaciones de IA deben poder proporcionar mecanismos de trazabilidad de los algoritmos presentes, a fin de localizar y corregir sesgos y otros aspectos no deseables, que puedan surgir en el uso de estas aplicaciones.

Ya han sido explicadas las dificultades que ello conlleva y los esfuerzos de varios actores del sector para mejorarla. Los datos de los clientes y usuarios deben estar siempre protegidos, y su uso debe responder fielmente a las condiciones contractuales con las que hayan sido obtenidos.

Los marcos legales según países aplican distintos grados de protección de estos datos. Los datos usados para adiestrar a las aplicaciones de IA no deben contener sesgos, y estas aplicaciones deben ser periódicamente auditadas para detectarlos, en su caso.

Asimismo, se debe estar razonablemente seguro de que se nutre a la aplicación de la cantidad, variedad y calidad de datos más exigentes. Pero, afortunadamente, cada vez más, se espera que las empresas expresen, compartan y actúen en función de valores éticos y de justicia social.

Profesor del Área de Operaciones y Tecnología de la UPF Barcelona School of Management · Ernest Solé Udina Barcelona, es Doctor en Empresa, Finanzas y Seguros por la Universitat de Barcelona , Máster de Investigación en Empresa, Finanzas y Seguros y licenciado en ADE.

Diploma 'Radical Innovation' del Massachusetts Institute of Technology M. Pertenece al Core Faculty de la UPF Barcelona School of Management, siendo Senior lecturer del Área de Operaciones y Tecnología de la misma, con docencia en catalán, castellano e inglés, en Finanzas, Contabilidad y Dirección de Operaciones y Cadena de Suministro, y experto en realización de materiales docentes para cursos de formación in-company.

Su Tesis Doctoral versa sobre los factores que influyen en las decisiones de inversión de la industria del Capital Riesgo en el sector Biotecnológico, siendo su área de investigación las decisiones de financiación en empresas de alta tecnología con presencia de alto grado de asimetría informativa.

Ha ejercido diversas responsabilidades en los sectores financiero y logístico, así como en la consultoría de empresas de alta tecnología y startups , y valoración de empresas de biotecnología, a lo largo de más de veinte años.

Ha sido profesor en diversos centros universitarios, como la Universitat de Barcelona, Elisava, Tolouse Business School y Escola Superior de Comerç Internacional ESCI.

Ha ejercido como consultor para la Fundació Emprèn Programa Consolida't de la Generalitat de Catalunya, en el Col·legi de Periodistes de Catalunya. Ha ejercido como jefe de estudios de la UPF-Barcelona School of Management entre y Miembro de l'Associació Catalana de Comptabilitat i Direcció ACCID , ha publicado diversos artículos en monográficos del mismo, y ha coordinado y presentado ponencias en algunos de sus congresos.

Profesora del Área de Estrategia y Emprendimiento y directora del EMBA y del MBA Full-Time de la UPF Barcelona School of Management ·. Revistas Harvard Deusto TIC Los siete retos de la inteligencia artificial en el entorno empresarial. Ernest Solé. Susana Domingo. Business Review Núm. Ernest Solé Profesor del Área de Operaciones y Tecnología de la UPF Barcelona School of Management · Ernest Solé Udina Barcelona, es Doctor en Empresa, Finanzas y Seguros por la Universitat de Barcelona , Máster de Investigación en Empresa, Finanzas y Seguros y licenciado en ADE.

Susana Domingo Profesora del Área de Estrategia y Emprendimiento y directora del EMBA y del MBA Full-Time de la UPF Barcelona School of Management ·. Artículos relacionados.

La empresa y la 'Web 2.

8 retos que enfrentará tu empresa para implementar IA y cómo resolverlos

Related Post

2 thoughts on “Retos en la Implementación de la IA”

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *