FOTO:
adobestock
¿Puede su marca explicar cómo funcionan sus aplicaciones de inteligencia fabricado (IA) y por qué toman las decisiones que toman? La confianza en la marca es difícil de aventajar y tratable de perder, y las aplicaciones de IA transparentes y fáciles de explicar son un excelente eclosión para originar confianza en los clientes y mejorar la eficiencia y la eficiencia de las aplicaciones de IA.
Este artículo analiza la IA explicable (XAI) y por qué debería ser parte de la organización de IA de su marca.
¿Qué es la Inteligencia Industrial Explicable (XAI)?
Las aplicaciones típicas de IA a menudo se denominan IA de «caja negra» porque todo lo que ocurre internamente de la aplicación es relativamente desconocido para todos, excepto para los científicos de datos, programadores y diseñadores que lo crearon. Individualmente, incluso esas personas pueden no ser capaces de explicar nadie fuera de su dominio principal. Sin poder proporcionar información discernible sobre cómo la IA llega a tomar decisiones, una aplicación de IA no puede optimizarse por completo.
En sitio de estar oculto en una caja negra figurativa, XAI ofrece transparencia, haciéndolo tratable de ver e infinitamente más explicable. Por lo genérico, los aspectos de la IA que son difíciles de entender giran en torno a las decisiones que toma la aplicación de IA, que se basan en los conocimientos prácticos que obtiene de las interacciones pasadas y en tiempo existente. XAI facilita la comprensión de por qué los algoritmos de IA deciden realizar esa «sucesivo mejor acto». Oportuno a que las aplicaciones XAI son transparentes y más fáciles de depurar, las marcas pueden eliminar los sesgos inconscientes y explicar las decisiones éticas.
¿Por qué es importante la explicabilidad?
El funcionamiento interno de las aplicaciones de IA relativamente complejas, como los sistemas de recomendación minorista en tilde, los asistentes inteligentes o los chatbots conversacionales, utilizan motores de valentía moderadamente benignos que no son de interés para la mayoría de los usuarios. Es probable que a la mayoría de las marcas no les preocupe proporcionar transparencia o explicabilidad para este tipo de aplicaciones de IA.
Sin incautación, otros procesos de valentía son más riesgosos, como los diagnósticos médicos, las decisiones de inversión y los sistemas críticos para la seguridad en los automóviles autónomos. Para estas aplicaciones, la IA debe ser explicable, comprensible y transparente, ya que la confianza, la fiabilidad y la coherencia son fundamentales para originar confianza.
La IA explicable permite a las marcas detectar fallas en los modelos de datos con maduro facilidad, así como sesgos inconscientes en los datos mismos. XAI además es eficaz para mejorar los modelos de datos, probar las predicciones y obtener información adicional sobre lo que funciona y lo que no.
Sascha Poggemann, director de operaciones y cofundador de cogniciónuna plataforma empresarial de inteligencia fabricado conversacional, habló con CMSWire sobre las razones por las que es crucial que las aplicaciones de inteligencia fabricado sean confiables.
Para asomar, las marcas deben determinar dónde la IA tendrá el maduro impacto. “Enterarse dónde encaja la IA en la organización de servicio al cliente es un desafío global para los líderes empresariales”, dijo Poggemann. “Es muy difícil pero, cuando se hace correctamente, parece funcionar sin problemas desde el fondo. Y es un componente secreto de la IA confiable que es de representación crítica para la saludo y prohijamiento de la IA.
«Sin incautación, existe el problema de la caja negra. Las aplicaciones de IA se basan en modelos muy complejos que son difíciles de entender para quienes no tienen experiencia técnica y los métodos utilizados para los sistemas basados en IA no siempre se explican claramente, por ejemplo, cómo funciona un maniquí de estudios obligatorio. llega a una valentía particular».
En la mayoría de las relaciones, la confianza comienza con un profundo nivel de comprensión y las aplicaciones de IA no son una excepción. “La IA explicable facilita la comprensión de ‘cómo funciona’ y ‘por qué es importante’ detrás de los métodos de IA profundamente técnicos como las redes neuronales y el estudios profundo”, agregó Poggemann. “Cuanto más se entiendan las aplicaciones de IA, más se confiará en ellas, y originar esta confianza desde el principio establece una saco más sólida para una IA exitosa”.
Artículo relacionado: Razones por las que el diseño conversacional ético es vital para la IA empresarial
XAI permite que las marcas eliminen el sesgo inconsciente
Un ejemplo patente de sesgos inconscientes ocurrió con el gigantesco minorista Amazon y sus intento fallido de usar IA para la investigación de solicitudes de empleo. Aunque Amazon no usó algoritmos prejuiciosos premeditadamente, su conjunto de datos analizó las tendencias de contratación durante la última plazo y sugirió la contratación de solicitantes similares para puestos vacantes.
Los datos indicaron que la mayoría de los que fueron contratados eran hombres blancos, lo que lamentablemente revela los sesgos internamente de la propia industria de TI. Amazon finalmente renunció al uso de IA para sus prácticas de contratación de preselección y volvió a encargar en las decisiones humanas.
Los sesgos a menudo se cuelan en las aplicaciones de IA, que incluyen:
- sesgo étnico
- Sesgo de nombre
- sesgo de belleza
- sesgo de perduración
- sesgo de acento
- sesgo de afinidad
Gracias a Dios, XAI puede erradicar los sesgos inconscientes internamente de los conjuntos de datos de IA. Varias organizaciones de IA, como IA abierta y el Instituto Futuro de la Vidaestán trabajando para cerciorarse de que las aplicaciones de IA sean éticas y equitativas para todos.
Kimberly Nevala, asesora estratégica de IA en S.A.S., un proveedor de software y soluciones de disección, habló con CMSWire sobre las formas en que XAI puede eliminar los sesgos inconscientes. Si correctamente se entiende correctamente que los humanos tienen prejuicios, Nevazón dijo que “no siempre ha estado claro cómo esos prejuicios (tanto intencionales como no intencionales) se materializan en nuestras prácticas y sistemas comerciales. XAI, yuxtapuesto con los métodos de disección de datos existentes, permite a los equipos analizar y probar rápidamente la influencia de las variables sensibles en las predicciones del maniquí.
“Esto ha sido increíblemente útil en las aplicaciones de atención médica donde, por ejemplo, la tasa de diagnosis varía ampliamente según el mercaderías, el origen étnico, el nivel socioeconómico, etc. O en la evaluación de solicitudes de crédito donde fundamentos tales como los ingresos individuales frente a los familiares, la ubicación o el número de multas de estacionamiento pueden sesgar los resultados de modo adversa y, a menudo, injustamente».
Anejo con los sesgos inconscientes, los algoritmos XAI eliminan la discutible defensa de que una marca o una persona no pueden ser responsables de los resultados «imprevistos» porque no se podrían tener pronosticado razonablemente. “Por ejemplo, evitar situaciones como el uso de pronombres en un currículum para filtrar a las mujeres; el argumento es: esa no era nuestra intención, el mercaderías ni siquiera se especifica en el currículum de una persona. O la pesantez de la enfermedad o las deyección de lozanía de un paciente se basan en su historial de facturación (es afirmar, cuántas veces han sido atendidos por un médico)”, explicó Nevala.
Artículo relacionado: Lidiando con los sesgos de la IA, Parte 1: Reconocer el sesgo
XAI no es solo para los consumidores
Un aspecto de XAI del que generalmente no se deje es que XAI no solo es importante para los consumidores. De hecho, si uno piensa en todas las aplicaciones de inteligencia fabricado para usuarios finales que se han utilizado hasta ahora, ¿cuántas veces hubo una explicación accesible y significativa apto? La mayoría de las veces, no lo era. Actualmente, la mayoría de las explicaciones disponibles están ahí para los diversos dominios involucrados en la creación de aplicaciones de IA: científicos de datos, ingenieros, diseñadores, programadores, permitido, etc.
La información sobre cómo y por qué funciona una aplicación de IA y toma decisiones no es una alternativa única para todos. Cada dominio tiene diferentes expectativas, requisitos y deyección en función de cuáles son sus objetivos y dónde encajan en el proceso de incremento de aplicaciones de IA.
El Instituto Brookings publicó un artículo titulado «La explicabilidad no salvará a la IAque discutió los diversos requisitos de cada dominio y por qué una explicación no es suficiente. En el documento, razonaron que para tres dominios de IA, ingeniería, implementación y gobierno, cada uno tenía objetivos completamente diferentes para la explicabilidad. El dominio de ingeniería incorporó los de otros ingenieros. entrada, mientras que el dominio de implementación incorporó la entrada de los usuarios y el dominio de gobierno se centró en el impacto de la aplicación de IA en comunidades más amplias y el mundo.XAI puede desempeñar un papel importante para ayudar a cada dominio a mejorar la eficiencia, la eficiencia y la saludo de la IA, pero solo si la explicación que se les ha proporcionado estaba diseñada para sus objetivos específicos.
El futuro de XAI
Recientemente, muchas herramientas están disponibles para ayudar con la creación de aplicaciones XAI. Plataformas como Banco de trabajo xAI, Arizar IAy ÉticoML/ai permitir que las marcas comprendan y expliquen mejor el funcionamiento interno de sus aplicaciones de IA.
“La próxima frontera de la IA es el crecimiento y las mejoras que ocurrirán en las tecnologías de IA explicable. Se volverán más ágiles, flexibles e inteligentes cuando se implementen en una variedad de nuevas industrias. XAI se está volviendo más centrado en el ser humano en su codificación y diseño”, reflexionó AJ Abdallat, fundador y director ejecutor de Mas allá de los límitesun proveedor de soluciones de software de IA empresarial.
Sorprendentemente, el tipo humano es una gran parte de lo que permite que la IA mejore y evolucione. “Hemos ido más allá de las técnicas de estudios profundo para integrar el conocimiento y las experiencias humanas en los algoritmos de IA, lo que permite una toma de decisiones más compleja para resolver problemas nunca ayer vistos, esos problemas sin datos históricos o referencias”, dijo Abdallat.
“Las técnicas de estudios obligatorio equipadas con conocimiento humano codificado permiten una IA que permite a los usuarios editar su saco de conocimientos incluso posteriormente de que se haya implementado. A medida que aprende interactuando con más problemas, datos y expertos en el dominio, los sistemas se volverán significativamente más flexibles e inteligentes. Con XAI, las posibilidades son verdaderamente infinitas”.
Pensamientos finales
Si correctamente XAI no es una alternativa para todos los desafíos de la inteligencia fabricado, la maduro transparencia y comprensión que brinda permite a las marcas crear aplicaciones de IA en extremo optimizadas, efectivas y eficientes. Adicionalmente, XAI ayuda a las empresas a eliminar sesgos inconscientes, cumplir con la ley y originar confianza en los consumidores.

