IA ética: lo que necesitas saber antes de crear un Bot

February 05, 2019

Messaging Conversacional

Inteligencia artificial y ética: ¿pueden estos dos conceptos estar juntos? La tecnología ya está teniendo un impacto importante en los modelos de negocio y en la organización del trabajo.

Una revolución capaz de enfrentar una palabra ciertamente no tan común en las Tecnologías de la Información y Comunicación (TIC), precisamente la ética.

En Hubtype, nuestros productos se basan en empoderar a las personas, no en reemplazarlas. Hemos visto cómo chatbots y humanos funcionan mejor juntos, y cómo mejoran realmente el el día a día de las personas. Sin embargo, eso no significa que no haya una necesidad real de la IA ética.

Hemos elaborado una guía de inteligencia artificial ética que te ayudará a formular (y a responder) las preguntas correctas.

Regla de IA ética #1: Reconocer el riesgo de prejuicios

Los softwares que subyacen a las aplicaciones y servicios de IA no surgen de la noche a la mañana, sino que son desarrollados por alguien.

Más precisamente, los sistemas de aprendizaje automático necesitan datos “registrados” por los seres humanos (aprendizaje supervisado) o, al menos, seleccionado y preparado (aprendizaje no supervisado).

Entonces, al ser elaborados por personas reales, el riesgo está en reproducir errores o prejuicios, incluso involuntariamente introducidos por los desarrolladores, replicándolos en las aplicaciones futuras.

Un caso explicativo de este peligro es lo que ya sucedió en el sistema judicial estadounidense, donde se utilizaron softwares con IA con el objetivo de predecir qué individuos presentan un riesgo mayor de ser “futuros delincuentes”: el siguiente análisis ha puesto en evidencia la presencia de prejuicios contra gente de color.  

En estos casos, ¿cómo podemos hablar de una inteligencia artificial ética? ¿Cuál es el límite entre la ética humana y el uso ético de la inteligencia artificial?

Regla de IA ética #2: Asegúrate de que tus datos estén equilibrados

Cuando hablamos de un uso ético de la inteligencia artificial, el riesgo está, en general, en la elaboración de conjuntos de datos desequilibrados, que sobreestiman o subestiman el peso de ciertas variables en la reconstrucción de la relación causa-efecto necesaria para explicar ciertos eventos y, sobre todo, predecirlos.

En un escenario positivo, los sistemas de inteligencia artificial pueden usarse para mejorar el juicio humano y reducir nuestros sesgos conscientes o inconscientes.

Sin embargo, los datos, los algoritmos y otras opciones de diseño pueden reflejar e incluso amplificar las suposiciones culturales existentes en un momento específico en el tiempo y, en consecuencia, las desigualdades.

La ética es un tema que debe estar cada vez más presente en el desarrollo futuro de la inteligencia artificial, a partir de la regla básica que establece que la IA debe ponerse siempre al servicio de las personas, y no al revés.

Regla de IA ética #3: Sé transparente

A la gente no le gusta ser engañada. No construyas un bot que pretenda ser humano. Deja en claro cuándo tus clientes están hablando con un humano y cuando están hablando con un bot.

Google lo aprendió recientemente de la manera más difícil después de presentar a su nuevo asistente inteligente.Durante la presentación del asistente inteligente de Google, quedó claro que las personas que interactúan con el bot realmente pensaron que estaban hablando con un humano. Esto generó preguntas sobre cuán engañosa podría ser la tecnología de Google.

Regla de IA ética # 4: Protege la privacidad de tus clientes

Asegúrate de que tus clientes sepan cuándo y cómo recopilas sus datos. Las personas están sorprendentemente dispuestas a proporcionar a chatbots y IA información altamente personal.

Por ejemplo, algunas compañías de terapia pretenden a través de unas apps ayudar a las personas con depresión y ansiedad. Este tipo de conversaciones contienen datos confidenciales y privados.

Asegúrate de ser diligente sobre cómo se almacenan los datos y obten siempre el consentimiento de tus clientes antes de recopilarlos.

Regla de IA ética # 5: Asegúrate de que tu bot sepa cómo manejar el uso indebido

Nos gustaría pensar que todos serán agradables con la IA, pero ciertamente ese no es el caso. La forma en que tu bot maneja los comentarios groseros también es una cuestión de ética de IA.

Muchas personas creen que la inteligencia artificial debería reconocer el lenguaje abusivo y rechazarlo. También les gustaría que los bots recompensen a los usuarios que son inusualmente amigables y educados.

Si bien esto puede parecer innecesario, es particularmente importante para los usuarios jóvenes.

Regla de IA ética # 6: Fomenta la autoevaluación

Coloca barandillas que te ayuden a triunfar. Las empresas más grandes deben establecer juntas de ética y redactar códigos de ética que sirvan de modelo. La autorregulación es una excelente manera de evitar la necesidad de que un tercero o un organismo gubernamental se involucre.

Microsoft es solo una de las compañías de tecnología que establece los estándares para IA ética. Pronto agregará una revisión de ética centrada en temas de Inteligencia Artificial a su lista de verificación estándar de auditorías de productos.

También Apple, Amazon, Microsoft, Google, IBM y Facebook fundaron conjuntamente una organización sin fines de lucro llamada Partnership on AI para centrarse en cuestiones éticas.

¿Estás listo para construir tu propio chatbot conversacional? Si eres desarrollador, empieza a usar nuestra plataforma ahora, si no, contáctanos para obtener más información.