Cómo evitar pasar vergüenza en Inteligencia Artificial
La red de seguridad que debes tener para salvar tu pellejo
Traducido por Carlos Secada del original por Cassie Kozyrkov
¿Cómo evitarás pasar vergüenza en machine learning? La respuesta es … no lo podrás del todo.
¡Espera lo inesperado!
Los sabios gerentes y diseñadores de productos podrían salvar tu pellejo al ver que algunos problemas están a un kilómetro de distancia, ayudándote a cocinar preventivamente una solución en el código de tus programas en producción. Desafortunadamente, los sistemas de Inteligencia Artificial (IA) son complejos y tu equipo generalmente no pensará en todo.
Habrá sorpresas desagradables que te obligarán a actuar en modo reactivo.
La vida real también es así. Soy meticuloso cuando planifico mis vacaciones, pero no consideré la posibilidad de perder mi tren a Roma a causa de una visita inesperada al hospital, fina cortesía de una intoxicación por mariscos. Una historia real. Me enseñó, en edad universitaria, a no repetir nunca las palabras “Tengo todo pensado”.
Cuando lo inesperado asoma su fea cabeza, lo mejor que podemos esperar es tener una infraestructura que nos ayude a reaccionar de la manera más efectiva posible. Hablemos de construir esa infraestructura para la IA.
Chatbots del demonio
A las personas en Internet le encantan los chatbots que se vuelven locos, así que veamos un ejemplo basado en el chatbot de Microsoft, Tay.
Imagina que quieres hacer un sistema de IA que tuitee como un humano. Naturalmente, lo entrenarás con tuits humanos reales. Ahora, avancemos al punto en el futuro en que ya están funcionando perfectamente.
¡Tatáaan! Ahora tienes un chatbot que ha aprendido a usar improperios y otros comportamientos indeseables que se obtienen cuando le das anonimato a un adolescente eterno. (Los veo mis queridos trolls, ésto es para ustedes.)
Si bien el resultado funciona según lo previsto, tus usuarios están molestos porque tu bot simplemente los maldijo (o peor). Claramente, no hiciste un muy buen trabajo intencionalmente. Tu error fue doble: el objetivo que elegiste (“tuitear como un humano” en lugar de “tuitear como un humano muy educado y sabio, con el que mi negocio estaría orgulloso de estar relacionado”) y los datos que utilizaste (“ejemplos no organizados de humanos de corral”).
Precauciones obvias
Los profesionales experimentados en machine learning conocen muy bien la frase que sigue (es de aficionados sorprenderse con ella). El sentido común te obliga a comprender que pedirle a un chatbot que tuitee como un humano es prácticamente rogarle que empiece a usar malas palabras.
Los sistemas de inteligencia artificial no piensan por sí mismos. De hecho, no piensan en absoluto.
Así es como hablan los humanos, así que espero que tu sistema refleje esa desafortunada verdad en tu conjunto de datos, porque por cualquier miserable razón esas palabras picantes y comportamientos troll son lo que hay en tus datos. Los sistemas de ML /IA no piensan por sí mismos, no importa cuánto intentes antropomorfizarlos. Simplemente convierten los patrones que les muestras en recetas para crear más de lo mismo.
La analítica se trata de poner tus ojos en tus datos. Te ayuda a descubrir problemas y planificarlos.
Cuando un comportamiento no es deseable y lo has anticipado, puedes escribir un código para hacer que ese comportamiento sea imposible que suceda desde un principio. Inclusive hay protección así no lo hayas considerado a priori: los equipos bien dirigidos implementan analítica en los entrenamiento de datos mucho antes del lanzamiento, y saben exactamente qué hay en los ‘libros de texto’ desde los cuales les piden a sus máquinas estudiantes que aprendan. Si el equipo reflexionando no lo vio venir, difícilmente se les pasará cuando los analistas los hayan empapado con ejemplos del maravilloso lirismo de nuestra especie.
Idealmente. Pero, ¿qué pasa si los líderes no lo pensaron por adelantado y los analistas se quedaron dormidos?
Plan de respaldo de comprensión retrospectiva
No pongas todos los huevos en la canasta de precaución. Confiar en nada más que tu capacidad de anticipar todos los problemas es imprudente. Una forma de mantenerse a salvo (o al menos más a salvo) es usar protección: una capa de políticas.
No pongas todos los huevos en la canasta de precaución. ¡Usa capas de políticas!
Una capa de políticas es una capa de lógica separada que se encuentra en la parte superior del sistema de ML / IA. Es una red de seguridad de IA imprescindible, que verifica la salida, la filtra y determina qué hacer con ella. Por ejemplo, tu política podría decir: “No se permite que ninguna palabra en la salida coincida con nuestra lista negra de malas palabras”.
La potencial salida que viola la política, desencadena una alternativa de tu elección como “Elimina la palabra ofensiva de la oración”. O usa palabras que reemplacen la intención del significado con una mejor palabra, o algo así.
Etiqueta para la IA
Si suficientes lectores encuentran interesante este artículo, escribiré un siguiente artículo explicando las capas de políticas con más detalle. Mientras tanto, puedes intuir algunos de los puntos clave si piensas en las capas de políticas como la versión de IA para la etiqueta del comportamiento humano.
Las capas de políticas son el equivalente de IA para la etiqueta del comportamiento humano.
Para entender por qué las capas son una mejor opción que el inocente enfoque de proteger tus sistemas de datos no deseados, reflexiona sobre cómo yo manejo el truco de no decirte malas palabras a ti. Estoy al tanto de algunas palabras muy “picantes” en varios idiomas, pero no me escucharás pronunciarlas en un escenario. Eso no es porque no se me vengan a la mente. Es porque me estoy filtrando . La sociedad me ha enseñado buenos modales. Afortunadamente para ti (¡y tus usuarios!) hay una solución equivalente para el machine learning… eso es exactamente lo que son las capas de políticas.
Ahora que ya sabes que existen y que son fáciles de construir, sería muy maleducado de tu parte no incorporarlos de inmediato en tus sistemas de IA.