Rhied Al-Othmani
(NL versie onderaan)
This year’s Conversational User Interfaces Conference (CUI) was held in Luxembourg. I went there to participate in the Doctoral Consortium and the workshop Between Trust and Identity: Form, Function, and Presentation.
The theme of this year’s CUI was “Trustworthy Conversational Agents,” which speaks to my PhD research on how Conversational Agents influence public sector trust. It was fascinating to see other people’s work and the variety of approaches used, like multimodal dialogues, LLM experiments, experiments examining how a chatbot’s appearance or gender could affect trust, and experiments exploring the various personalities of chatbots. The contexts likewise vary, ranging from studying chatbots’ potential to prevent smoking relapses to developing voice assistants for exercise and using agents to mentor students. All the proceedings can be found here: https://cui.acm.org/2024/proceedings/
The usage of Chatgpt in methods and tests was noteworthy. Additionally, considerable research was done on voice assistants, with fitness and healthcare bots standing out. The behavioural shift is another area of emphasis. One interesting approach was to observe online interactions, such as those on Reddit, and contrast them with human-bot conversations. The Doctoral Consortium was very helpful in providing guidance and comments, which aided in gathering ideas from people with a variety of backgrounds and viewpoints on how to start and work on a PhD. Academics from many fields, such as business, psychology, marketing, and health were present.
Simon King’s keynote was also highly inspiring in terms of LLM, such as Microsoft’s Valle-E, in which the model is given a natural voice and tries to replicate it based on the data being provided. It was suggested that instead of starting from scratch, to rather look at existing innovative models. But, even here, what data is given into the model and how it is labelled is critical; incorrect labelling or a lack thereof affects accuracy.
Overall, it was nice to be present and meet fellow researchers who are also passionate about conversational agents.
The next CUI will be in Japan, in 2025.
Conversational User Interfaces Conferentie 2024
De Conversational User Interfaces Conference (CUI) vond dit jaar plaats in Luxemburg. Ik ging erheen om deel te nemen aan het Doctoral Consortium en de workshop Between Trust and Identity: Form, Function, and Presentation.
Het thema, ‘Trustworthy Conversational Agents’, sluit goed aan bij mijn promotieonderzoek, waarin wordt onderzocht hoe Conversational Agents het vertrouwen van de publieke sector beïnvloeden. Het was mooi te zien hoe academici uit vele vakgebieden, zoals het bedrijfsleven, marketing en gezondheid, ook aan dit onderwerp werken. Het was fascinerend om het werk van anderen te zien en de diversiteit aan benaderingen die werden gebruikt, zoals multimodale dialogen, LLM-experimenten, tests die onderzoeken hoe het uiterlijk van een chatbot het vertrouwen kan beïnvloeden, en experimenten die de verschillende persoonlijkheden van chatbots onderzoeken. De contexten variëren ook, van het bestuderen van het potentieel van chatbots om terugval van roken te voorkomen tot het ontwikkelen van spraakassistenten voor fitnes en het gebruik van bots om studenten te begeleiden. Alle papers zijn hier te vinden: https://cui.acm.org/2024/proceedings/
Het gebruik van Chatgpt in methoden en tests was opmerkelijk. Daarnaast is er veel onderzoek gedaan naar spraakassistenten, waarbij fitness en gezondheidszorg opvallen. Gedragsverandering is een ander aandachtsgebied. Een interessante benadering was om online interacties, zoals die op Reddit, te observeren en deze te contrasteren met gesprekken tussen mens en bot. Het Doctoraats Consortium was zeer behulpzaam bij het verstrekken van begeleiding en feedback, wat echt hielp bij het verzamelen van ideeën van mensen met verschillende achtergronden en standpunten over hoe een PhD te starten.
De keynote van Simon King was ook zeer inspirerend op het gebied van LLM, zoals Valle-E van Microsoft, waarin het model een natuurlijke stem krijgt en deze probeert te repliceren op basis van de verstrekte gegevens. Er werd gesuggereerd om in plaats van helemaal opnieuw te beginnen, te kijken naar bestaande innovatieve modellen. Maar zelfs hier is het van cruciaal belang welke data in het model worden gegeven en hoe deze worden gelabeld; onjuiste etikettering of een gebrek daaraan beïnvloedt de nauwkeurigheid.
Al met al was het leuk om aanwezig te zijn, collega-onderzoekers te ontmoeten die ook een passie hebben voor Conversational Agents.
De volgende CUI zal in Japan, 2025, plaats vinden.
Funding
This publication is part of the project Bots of Trust: An interdisciplinary discourse (with project number 023.020.030 which is financed by the Dutch Research Council (NWO).