¿Cómo afecta la configuración de roles nuestra experiencia de uso de chatbots?

Hay un montón de diferentes servicios de asistente de voz y chatbot por ahí, como Google Assistant, Siri, Microsoft Ice, o servicio de atención al cliente de banca online. Después de que empezamos a interactuar con él, queríamos burlarnos de él, alimentarlo con mucha vulgaridad, y hacerle decir cosas desagradables, pero algunos se las arreglaron para permanecer en el mercado y seguir interactuando con nosotros. La mecánica detrás de estos asistentes de voz no es tan diferente, pero sus destinos son muy diferentes, ¿podría ser que el papel de «eso» sea el responsable de esto?

Autor / Yang Qilan

● Metáforas utilizadas en el diseño de los chatbots.

En el proceso de diseño, la metáfora se utiliza a menudo para hacer que el usuario entienda cómo se utilizará un nuevo diseño o su finalidad prevista. Cuando entres en la pantalla del ordenador, nombra la pantalla principal como Escritorio, los usuarios sabrán naturalmente que puedes poner archivos en ella, y los archivos no deseados se pueden poner en la basura. [2]

Antes de utilizar los diferentes robots de chat del mercado, solemos ver una descripción del papel del robot, como «el mejor ayudante para usted», «su asesor financiero sobre la marcha», «un ayudante que entiende y responde de forma inteligente», «su propio compañero de chat», etc. Estas descripciones del papel son un ejemplo. Por ejemplo, cuando interactuamos con un chatbot llamado «Su asesor financiero personal», le hacemos preguntas financieras y esperamos que sea capaz de responder a todo tipo de preguntas financieras, pero no esperamos que establezca un calendario o reserve un restaurante para nosotros.

Estas metáforas conforman las expectativas del usuario del chatbot, guiándolo a una conversación con un chatbot de diferente experiencia y limitando la conversación a un área específica.

● «Mayores expectativas, mayor decepción» afecta a nuestra experiencia con los chatbots.

Un estudio realizado en 2020 por el Equipo de Investigación de Interacción Humano-Computadora de la Universidad de Stanford [1] encontró que toleramos a los chatbots que no responden a las preguntas cuando nuestra primera impresión de ellos es que son menos competentes, pero no podemos tolerar que no respondan a las preguntas cuando nuestra primera impresión de ellos es que son profesionales.

El método del Mago de Oz [3] permite a los usuarios interactuar con dos tipos diferentes de chatbots (jugados por gente real). Un grupo hablará con un chatbot que se asemeje a un «niño» (poco profesional y cálido), mientras que el otro grupo hablará con un chatbot que se asemeje a un «agente de viajes inteligente» (mucho profesional y cálido). Durante el experimento, se pidió a los usuarios que pidieran a cada uno de estos chatbots información sobre el viaje para completar una tarea de planificación del mismo.

Nota: El Mago de Oz es un método comúnmente utilizado en la interacción hombre-computadora, en el que una persona real juega el papel de un sistema inteligente y responde según un guión preestablecido por los investigadores, haciendo parecer que el usuario está interactuando con el sistema inteligente cuando en realidad el usuario está interactuando con una persona real que se esconde detrás del sistema. Este método se utiliza a menudo para comprender cómo interactúa un usuario con un sistema inteligente, asegurando que las acciones de la persona real que actúa como sistema puedan ser ejecutadas sistemáticamente por la computadora. El propósito de utilizar una persona real en los experimentos en lugar de implementar un sistema inteligente es reducir los costos de desarrollo, de manera que se puedan explorar más ampliamente los diferentes tipos de interacciones para la implementación futura del sistema antes del desarrollo formal del mismo.

 

Foto de Charles Deluvio en Unsplash

Los investigadores pidieron a todos los usuarios que escribieran sus primeras impresiones sobre el robot de chat basándose en la introducción básica del robot de chat, lo fácil que era de usar, si satisfacía sus necesidades, si les gustaría usarlo de nuevo en el futuro, etc. Luego se asignaron dos grupos de personas para que interactuaran con los dos robots de chat, pidiendo información relacionada con la planificación del viaje y respondiendo a las preguntas después de la interacción. No estoy seguro de cuánto me gustaría usarlo.

Tras comparar las calificaciones de los usuarios, se comprobó que, después de hablar con un chatbot (con una imagen de niño pequeño) cuya primera impresión fue de poco profesionalismo y gran calidez, los usuarios seguían encontrándolo útil y querían seguir utilizándolo después. El otro grupo interactúa con un chatbot que parece profesional a primera vista (un agente de viajes inteligente y capaz).

Por lo tanto, aunque los dos robots de chat fueron jugados por personas reales que dieron respuestas similares, el uso inicial de metáforas diferentes (niño pequeño contra gerente) creó expectativas diferentes de los dos robots de chat, lo que a su vez influyó en su comportamiento y experiencia durante la interacción.

 

Foto de BENCE BOROS en Unsplash

● No quiero usar chatbots con capacidades insuficientes.

Aunque se descubrió inesperadamente a partir del análisis anterior que convertir un chatbot en una primera impresión poco profesional es más favorecido por los usuarios, porque su respuesta está más allá de las expectativas originales, por lo que obtendrá una mejor evaluación después de la interacción, pero El análisis posterior encontró que si se compara el chatbot con una imagen de «baja profesionalidad y no cálida» (por ejemplo: adolescentes con poca experiencia social), y luego se pide a los usuarios que respondan si quieren usarlo sin usarlo, y resulta que todos No quiero usar un robot de chat que tenga la imagen de «poco profesionalismo y no cálido» desde el principio, pero quiero usar un robot de chat que se compare con un «asistente de viaje capacitado» (profesional y cálido).

Es dificil para la genteLos usuarios quieren «sentirse» capaces de los chatbots, pero si espera demasiado de ellos al principio, si comete un pequeño error después de usarlos, se sentirá más decepcionado.Entonces, ¿qué deberían hacer mejor los diseñadores y desarrolladores?

Foto de Micah Hallahan en Unsplash

No querrás usar un chatbot que no es lo suficientemente bueno.

Si bien el análisis anterior reveló sorprendentemente que presentar a un chatbot como poco profesional a primera vista tenía más probabilidades de ser favorecido por los usuarios porque era más receptivo de lo que se esperaba originalmente y, por lo tanto, recibía calificaciones más altas después de la interacción, en un análisis posterior se determinó que si se comparaba a los chatbots con «poco profesional y poco cool» (por ejemplo, adolescentes con poca experiencia social), y luego no se utilizaban, era más probable que recibieran calificaciones más altas después de la interacción. Se pidió a los usuarios que respondieran si querían utilizar un chatbot o no, y resultó que la gente no quería un chatbot con una imagen que en un principio se describió como «poco profesional y poco guay», sino un chatbot que se describió como un «agente de viajes bien capacitado» (profesional y cálido).

Los usuarios quieren droides de chat que se «sientan» competentes, pero si esperan demasiado al principio, se decepcionarán aún más si no lo hacen.

Autor: Ciencia de la información interdisciplinaria, Universidad de Tokio Yang Lan

Materiales de referencia:

  1. Pranav Khadpe, Ranjay Krishna, Li Fei-Fei, Jeffrey T. Hancock y Michael S. Bernstein. 2020. Las metáforas conceptuales impactan las percepciones de la colaboración humano-IA. Proc. ACM Hum.-Comput. Interact. 4, CSCW2, artículo 163 (Octubre de 2020), 26 páginas. Https://doi.org/10.1145/3415234
  2. Metáfora de escritorio. (2020, 23 de septiembre). Consultado el 17 de octubre de 2020.
  3. Experimento del Mago de Oz (21 de marzo de 2020). Consultado el 18 de octubre de 2020.
  4. Liang Ronghui. (2008, 09 de diciembre). Del material a la metáfora.


Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para fines de afiliación y para mostrarte publicidad relacionada con sus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de sus datos para estos propósitos. Más información
Privacidad
Ir al contenido