Los insólitos chatbots que logran hacerse pasar por humanos
La tecnología logra programas que atienden al público y, en muchos casos, no se nota la diferencia.
“Varias veces mantuve conversaciones con el bot de una aerolínea creyendo estar consultándole a un operario de carne y hueso -confiesa Romina, asistente ejecutiva en una empresa del sector hotelero-. Me encantaba que a cada una de mis preguntas el asistente siempre respondía con palabras amables. Admito que sentí vergüenza cuando supe que del otro lado de la pantalla había un software y no un ser humano.”
Tal como dice Gerardo Andreucci, director general de TecnoVoz, una compañía que ofrece servicios de telefonía computacional en nuestra región, existe una gran expectativa respecto al rol de los chatbots para mejorar la experiencia del cliente. Sin embargo, por tratarse de una tecnología en maduración, o acaso debido a cierta opacidad reinante en torno a estos y otros temas de inteligencia artificial, el vínculo entre los clientes y los operarios virtuales presenta, a veces, matices insólitos.
“Los chatbots se diseñaron para imitar la interacción humana. La idea es recrear una situación de diálogo a tal punto que parezca que hay una persona respondiendo del otro lado. Esto, aun cuando el consumidor puede saber que en realidad está hablando con una máquina. No significa que deben engañarnos pretendiendo ser humanos”, anota Andreucci.
Francisco Mosse, director de la firma de desarrollo y hosting Efemosse Sistemas, dice que la mayoría de los clientes que dialogan con el chatbot que atiende en la web de su empresa desconoce que es un ente digital. “Es usual que el robot insista con ciertas preguntas para conseguir datos ,y eso hace que algunos se den cuenta. Pero son pocos”, dice Mosse.
Estas máquinas de software suelen ser obstinadas. Por ejemplo, cuando pide que el cliente escriba su dirección de correo electrónico y el tipeo no es preciso, vuelve a preguntar una y otra vez. Entonces la conversación se desnaturaliza.
Cuando la condición de la máquina queda al descubierto, ¿nos agrada conversar con ella? La consultora eMarketer concluyó que un 30% de los clientes se siente a gusto consultando a un asistente digital, y que más de una cuarta parte de los consultados prefiere dialogar por chat que por otros medios.
Rebeca Marciel, ingeniera en telecomunicaciones y directora de la consultora Gartner en España y Portugal, dijo en una entrevista con el diario El País que hacia en 2020 hablaremos más con bots que con nuestras parejas. “Tengo mucha confianza en el poder de los datos y en la inteligencia artificial. Ha conquistado el control de los medios de producción y la automatización de tareas básicas. El siguiente paso es la comunicación: convertirse en una persona que está al otro lado y que te ayuda en determinadas tareas”, indicó.
En diálogo con La Nacion, Marciel señala que las aplicaciones de chatbots y de inteligencia artificial en general “aún están lejos de replicar las emociones, la intuición o los patrones de pensamiento humano más complejos”. Por lo demás, respecto de si es necesario hacer explícito que estos operarios son máquinas, sostiene que “es necesario observar de cerca y evaluar el sentimiento de un volumen representativo de usuarios antes de decidir”, y que esta decisión “dependerá de los casos de aplicación particulares”.
Andrea Mandelbaum, presidenta de Mc Luhan Consulting, la empresa responsable de la comercialización en América Latina del sistema Amelia, de IPSoft, dice: “En nuestra experiencia el cliente no consulta más porque tenga un humano del otro lado. Y prefiere la transparencia en el vínculo con la empresa, es por eso que recomendamos que se le comunique al cliente que está hablando con un bot y lo invitamos a que colabore en el aprendizaje”.
¿Por qué muchas empresas intentan que su chatbot se haga pasar por un ser humano? Además, ¿por qué en muchos chats de este tipo se colocan nombres de personas, generando así una confusión mayor? Mandelbaum baraja algunas de las posibles razones: que dichas empresas aún no estén convencidas de la tecnología que emplean; que el bot esté en proceso de prueba y aún trabaje auxiliado por un operario humano; que la empresa “tiene miedo de exponer al bot y que esto genere rechazo por parte del cliente”; o por el hecho de que están probando alternativas de estas tecnologías y, hasta tanto no se decida por una, no la exponen.
“La herramienta por sí sola no hace maravillas. La información hay que saber estructurarla y al bot hay que enseñarle con un equipo de especialistas de consultores cognitivos, para que el cliente perciba la mejor experiencia y no que, por frustración, deje de usar el canal”, concluye Mandelbaum.
“El foco de nuestra herramienta es ser transparente. Si le preguntás si es una persona responde que no, y si le preguntás si es un bot responde que sí. Algunos le ponen nombre humano y otros le ponen un nombre que refiere más a un bot”, cuenta Martín Becerra, administrador de producto de Cliengo, otro servicio muy popular de chatbots. El funcionamiento de estas herramientas es sencillo: se establecen respuestas para preguntas concretas o para determinadas palabras clave. Un objetivo primordial es obtener los datos de aquellos que consultan, principalmente su dirección de correo electrónico.
“En el caso de Cliengo siempre tiene que llegar a un punto bien claro, que consiste en conseguir los datos de contacto del visitante. Y eso hace que el flujo de la conversación sea mucho más efectivo”, explica Becerra. En este sentido, Diego Faita, director de ventas de la región para SAP Customer, una firma que ofrece soluciones de asistencia basadas en inteligencia artificial y machine learning, dice que “la capacidad de interpretación y el manejo del contexto son claves para hacer más amena las interacciones”, y que esto se logra “teniendo un conjunto de reglas sintácticas que interpreta las distintas maneras de preguntar para dar una respuesta acorde”.
Respecto de posibles regulaciones, Maciel observa: “No creo que en este nivel de madurez sea necesario regular. Considero que el foco actual es mejorar la experiencia de usuario, y aún queda mucho camino por recorrer”.
Nota de Uriel Bederman publicada en diario La Nación el 24 de febrero de 2018.