Una guía para hacer que la inteligencia artificial se pueda explicar
Las posibilidades de la inteligencia artificial (IA) son infinitas. La IA ayuda a las empresas a crear enormes eficiencias a través de la automatización, al tiempo que mejora la capacidad de las organizaciones para tomar decisiones comerciales más efectivas. Sin embargo, no sorprende que las empresas empiecen a ser responsables de los resultados de sus decisiones basadas en la inteligencia artificial. Desde la proliferación de noticias falsas hasta lo más reciente, la creación deliberada con IA de la figura del psicópata Norman, estamos empezando a comprender y experimentar los posibles resultados negativos de la IA.
Si bien en la IA el aprendizaje automático y el aprendizaje profundo se consideran tecnologías de «caja negra», incapaces de proporcionar información o explicación de sus acciones, esta incapacidad para explicar la IA ya no es aceptable para los consumidores, los reguladores y otras partes interesadas. Por ejemplo, con el Reglamento General de Protección de Datos en vigencia, las compañías ahora deberán proporcionar a los consumidores una explicación de las decisiones basadas en la inteligencia artificial.
FICO ha sido pionera en la IA explicable durante más de 25 años y está a la vanguardia de ayudar a las personas a comprender y abrir la caja negra de la IA. A medida que avance en su viaje de IA, se beneficiará de la lista de blogs que incluimos a continuación y que descubren la importancia y las tendencias que conducen a la IA explicable.
GDPR y otras regulaciones demandan IA explicable
De acuerdo con GDPR, los clientes deben tener razones claras sobre cómo una decisión les ha impactado negativamente. Pero ¿qué sucede cuando su modelo se construyó con IA? Esta publicación en el blog de FICO revela el requisito de hacer que la IA sea explicable.
La IA explicable se sale de la caja negra
La IA viene con muchos desafíos, incluido tratar de descifrar qué han aprendido estos modelos y, por lo tanto, sus criterios de decisión. Esta entrada del blog enumera maneras de explicar la IA cuando se utiliza en un contexto de riesgo o normativo basado en la experiencia de FICO.
Cómo construir modelos de riesgo de crédito usando IA y Aprendizaje Automático
¿Listo para hacer que la IA sea explicable? Esta publicación ilustra cómo puede lograr un mejor rendimiento y una mayor capacidad de explicación al combinar el aprendizaje automático y los modelos de puntuación tradicionales.
IA explicable en la detección de fraude: una historia de regreso al futuro
En 1996 presentamos una patente para la funcionalidad Reason Reporter, una muestra de cuánto tiempo lleva FICO trabajando con IA explicable. Reason Reporter proporciona las razones asociadas a la puntuación que Falcon produce como resultados del cálculo de sus redes neuronales. ¿La parte no tan simple?