La Inteligencia Artificial se está explicando a los humanos, Y está dando buenos resultados – LinkedIn
La Inteligencia Artificial: LinkedIn de Microsoft aumentó los ingresos por suscripciones en un 8% después de armar a su equipo de ventas con un software de inteligencia artificial que no solo predice a los clientes en riesgo de cancelar, sino que también explica cómo llegó. en su conclusión.
El sistema, presentado en julio pasado y que se describirá en una publicación de blog de LinkedIn el miércoles, marca un gran avance para lograr que la IA «muestre su trabajo» de una manera útil.
Si bien los científicos de IA no tienen problemas para diseñar sistemas que hagan predicciones precisas sobre todo tipo de resultados comerciales, están descubriendo que para hacer que esas herramientas sean más efectivas para los operadores humanos, es posible que la IA deba explicarse a sí misma a través de otro algoritmo.
El campo emergente de «IA explicable», o XAI, ha estimulado una gran inversión en Silicon Valley a medida que las nuevas empresas y los gigantes de la nube compiten para hacer que el software opaco sea más comprensible y ha avivado el debate en Washington y Bruselas, donde los reguladores quieren garantizar que se tomen decisiones automatizadas. de manera justa y transparente.
La tecnología de IA puede perpetuar sesgos sociales como los relacionados con la raza, el género y la cultura. Algunos científicos de IA ven las explicaciones como una parte crucial para mitigar esos resultados problemáticos.
Los reguladores de protección al consumidor de EE. UU., incluida la Comisión Federal de Comercio, han advertido durante los últimos dos años que la IA que no es explicable podría ser investigada. La UE podría aprobar el próximo año la Ley de Inteligencia Artificial, un conjunto de requisitos integrales que incluyen que los usuarios puedan interpretar predicciones automatizadas.
Los defensores de la IA explicable dicen que ha ayudado a aumentar la eficacia de la aplicación de la IA en campos como la atención médica y las ventas. Google vende servicios de IA explicables que, por ejemplo, les dicen a los clientes que intentan afinar sus sistemas qué píxeles y, luego, qué ejemplos de entrenamiento fueron más importantes para predecir el tema de una foto.
Pero los críticos dicen que las explicaciones de por qué la IA predijo lo que hizo son demasiado poco confiables porque la tecnología de IA para interpretar las máquinas no es lo suficientemente buena.
LinkedIn y otros que desarrollan IA explicable reconocen que cada paso del proceso (analizar predicciones, generar explicaciones, confirmar su precisión y hacerlas procesables para los usuarios) aún tiene margen de mejora.
Pero después de dos años de prueba y error en una aplicación de riesgo relativamente bajo, LinkedIn dice que su tecnología ha dado un valor práctico. Su prueba es el aumento del 8% en las reservas de renovación durante el año fiscal actual por encima del crecimiento esperado normalmente. LinkedIn se negó a especificar el beneficio en dólares, pero lo describió como considerable.
Antes, los vendedores de LinkedIn confiaban en su propia intuición y en algunas alertas automáticas irregulares sobre la adopción de servicios por parte de los clientes.
Ahora, la IA maneja rápidamente la investigación y el análisis. Apodado CrystalCandle por LinkedIn, destaca tendencias desapercibidas y su razonamiento ayuda a los vendedores a perfeccionar sus tácticas para mantener a bordo a los clientes en riesgo y presentarles a otros las actualizaciones.
LinkedIn dice que las recomendaciones basadas en explicaciones se han expandido a más de 5,000 de sus empleados de ventas que abarcan ofertas de reclutamiento, publicidad, marketing y educación.
«Ha ayudado a los vendedores experimentados al brindarles información específica para navegar conversaciones con prospectos. También ha ayudado a los nuevos vendedores a sumergirse de inmediato», dijo Parvez Ahammad, director de aprendizaje automático y jefe de investigación aplicada de ciencia de datos de LinkedIn.
En 2020, LinkedIn había proporcionado por primera vez predicciones sin explicaciones. Una puntuación con una precisión de aproximadamente el 80 % indica la probabilidad de que un cliente que pronto renovará se actualice, se mantenga estable o cancele.
Los vendedores no estaban completamente convencidos. El equipo que vendía el software de reclutamiento y contratación Talent Solutions de LinkedIn no tenía claro cómo adaptar su estrategia, especialmente cuando las probabilidades de que un cliente no renovara no eran mejores que tirar una moneda.
En julio pasado, comenzaron a ver un breve párrafo generado automáticamente que destaca los factores que influyen en la puntuación.
Por ejemplo, la IA decidió que era probable que un cliente se actualizara porque creció en 240 trabajadores durante el último año y los candidatos se habían vuelto un 146 % más receptivos en el último mes.
Además, un índice que mide el éxito general de un cliente con las herramientas de contratación de LinkedIn aumentó un 25 % en los últimos tres meses.
Lekha Doshi, vicepresidenta de operaciones globales de LinkedIn, dijo que, según las explicaciones, los representantes de ventas ahora dirigen a los clientes a capacitación, soporte y servicios que mejoran su experiencia y les permiten seguir gastando.
Pero algunos expertos en IA cuestionan si las explicaciones son necesarias. Incluso podrían hacer daño, generando una falsa sensación de seguridad en la IA o provocando sacrificios de diseño que hacen que las predicciones sean menos precisas, dicen los investigadores.
Fei-Fei Li, codirectora del Instituto de Inteligencia Artificial Centrada en el Humano de la Universidad de Stanford, dijo que la gente usa productos como Tylenol y Google Maps, cuyo funcionamiento interno no se comprende claramente. En tales casos, las pruebas y el seguimiento rigurosos han disipado la mayoría de las dudas sobre su eficacia.
De manera similar, los sistemas de IA en general podrían considerarse justos incluso si las decisiones individuales son inescrutables, dijo Daniel Roy, profesor asociado de estadística en la Universidad de Toronto.
LinkedIn dice que la integridad de un algoritmo no se puede evaluar sin comprender su pensamiento.
También sostiene que herramientas como CrystalCandle podrían ayudar a los usuarios de IA en otros campos. Los médicos podrían saber por qué AI predice que alguien tiene más riesgo de contraer una enfermedad, o se les podría decir a las personas por qué AI recomendó que se les niegue una tarjeta de crédito.
La esperanza es que las explicaciones revelen si un sistema se alinea con los conceptos y valores que uno quiere promover, dijo Been Kim, investigador de IA en Google.
«Considero que la interpretabilidad permite, en última instancia, una conversación entre máquinas y humanos», dijo. «Si realmente queremos habilitar la colaboración hombre-máquina, lo necesitamos». Ver las imágenes en nuestro Portal Tv.
Fuente: reuters