-¿Cuál es tu opinión sobre el panorama que viven los chatbots y los cruces con Inteligencia Artificial?
-Fue un año fantástico el 2022. Sobre todo por cómo fue el último trimestre, por cómo terminó el año con con varias innovaciones de mucha notoriedad que renovaron la expectativa general de todos los actores en la industria, tanto de quienes estamos produciendo, como de las personas que usan chatbots, quienes cada vez creen más en lo que se puede hacer, y de las empresas que casi que lo ven como una línea de supervivencia en la que hay que estar.
Pero las innovaciones vienen de varios lados. ¿Qué pasó el año pasado en Argentina y en América Latina? El mercado de chatbots tiene varios conductores y uno que es muy importante es la disponibilidad de canales de comunicación, es decir dónde se dan esos chats. Se dan en la web, en WhatsApp, en las redes sociales, por teléfono, en aplicaciones, en los asistentes de voz como Alexa, Google Assistant o Siri. Y la verdad es que los canales de chat son también los canales de distribución para los chatbots, que no existirían si no tuvieran un espacio dónde estar presentes. Entonces, yo miraría siempre primero ese corte como algo muy importante.
Y el 2022 fue un año en el que hubo una consolidación de WhatsApp como canal en América Latina, de un fuerte liderazgo como principal canal de conversación, pero que le puso costos importantes para las empresas. En febrero de 2022, WhatsApp comenzó a cobrar todos los chats que tienen las empresas a través de la plataforma. Antes sólo las conversaciones salientes, las que eran más de marketing o más de iniciar chats eran pagas. Whatsapp el año pasado empezó a cobrar todo y esto condiciona un poco la velocidad de adopción y la velocidad para implementar se detiene, porque muchas compañías dicen “pará, esto tiene un costo, el costo está en dólares, es internacional y si le doy mucha manija se me viene una factura que cada vez es más grande”. Y eso condicionó un poquito, lo que hizo que pasen dos cosas: por un lado la velocidad perdió un poco el impulso, porque ahora hay un factor importante a conocer. Lo otro es que los casos se vuelven más relevantes, porque ahora el que paga quiere estar seguro de que le sirve y, sobre todo, que le sirve al usuario. Entonces, los costos restringen, pero también aumentan la relevancia: ahora los chatbots que hay son de verdad, porque si no tienen un resultado, un retorno, se los apaga. Eso fue un poco lo que marcó la dinámica en América Latina.
Y después tenemos dos cosas muy interesantes, que nosotros implementamos, que salieron el año pasado: la primera es Google Business Messages, que es el chat en los resultados de búsqueda de Google en mobile y principalmente el chat disponible dentro de Google Maps. Cuando alguien busca un negocio, además de aparecer en el mapita y la opción de llamar, también le aparece la opción de chatear. Y esto es enorme. Las compañías que lo encienden en su Google My Business habilitan chat en su perfil de Maps, sobre todo para lo que es “sucursales”, retail y empresas que venden al público, esto es gigante.
Nosotros vemos empresas que una vez que lo encienden, si tienen mucha búsqueda de mapas, tranquilamente la mitad de los chats pueden ser en Google. Es importante, no está tan diseminado porque las compañías todavía no lo conocen tanto, hay un proceso de educación por recorrer, pero es muy grande. Y por último, Apple, que para América Latina pareciera no ser tan grande, pero nosotros nos certificamos en Apple y hoy podemos hacer experiencias de chat en Imessage. Y es muy importante, porque a la persona que está en un entorno de Apple le es muy nativo, muy natural, pasa de la MAC al iPad, al Iphone de una manera muy natural y queda conectado con la empresa.
–¿Cómo viste el cierre del 2022 y la masividad que adquirió ChatGPT de OpenAI?
-Sobre OpenAI, nosotros lo incorporamos y pudimos lanzar productos a principios de este año, funcionalidades y cosas ya muy concretas para que nuestros clientes y los usuarios tengan el impacto. Es una evolución que va teniendo puntos de quiebre. Este es un modelo que ya existía, GPT-3, pero a ChatGPT como producto que utiliza GPT-3 OpenAI lo hace accesible de forma masiva sin necesidad de que vos lo tengas que implementar, sino que ya está implementado en un chat al que vos entrás y lo usás. Entonces lo hizo muy visible. Esto ya venía utilizándose, hubo modelos anteriores con GPT-2. Lo que alcanzaron es que con 175 mil millones de datos han podido entrenar lo que se llama un “modelo de lenguaje general”, en donde ya no es que vos lo entrenás para un caso de uso, sino que está entrenado de forma genérica a través de redes neuronales.
De esta manera aprende a entender cómo funciona el lenguaje de una forma más genérica y permite predecir cuál es la próxima palabra en una oración hasta cumplir una oración completa. Entonces, vos le das un comando y según lo que le decís predice lo que debería responder y lo hace con un nivel de precisión enorme. Esto en el mercado de chatbots es lo que se necesita para poder responder de forma automatizada, es decir, empezar a predecir la respuesta.

GPT-3 es un conjunto de APIs y dependerá de cómo sean usadas. En Botmaker tenemos dos casos de uso al que nuestros clientes tienen acceso. El primero es en la construcción de bots, en donde GPT te completa el armado de las intenciones. Es decir, con muy pocos datos, le digo “yo quiero que mi bot pueda responder sobre áreas de mi negocio, sobre precios y sobre productos” y conseguimos con GPT completarte todo para que la configuración del bot, en vez de que te tome días, te tome minutos. Hoy para construir un bot en Botmaker, usando GPT, aumentamos la velocidad de desarrollo y la simpleza.
El segundo caso es el siguiente: en el mundo de bots siempre había dos modelos de operación, uno que se llamaba “automatizado” con el chatbot que responde de forma automática, y el modelo “híbrido”, en donde el chatbot responde hasta cierto punto y transfiere el chat a una persona que lo continúa. Bueno, nosotros pudimos inaugurar un tercer modelo que se llama el “copilot”, en el que el bot le prepara la respuesta al operador, es decir, es un copiloto. No responde por la empresa, sino que le anticipa la respuesta al agente y el agente solo tiene el rol de corrector o de editor. Esto hace que un agente responda 10 veces más chats, con más precisión, la velocidad y la productividad se multiplica por 10, porque tarda un décimo en responder.
Estamos viendo que el impacto es brutal y esto es justamente porque nuestros bots usan también GPT-3 o ChatGPT, las herramientas de OpenAI. De esta manera, hoy podés montar una operación de chat manual con poquitos operadores y con un robot que te completa las respuestas. Y lo que tus agentes van eligiendo como respuesta correcta, te entrena el modelo. Entonces es una curva de costos decreciente. Tiene un costo porque OpenAI ya cobra un poco por el uso de la API. Pero, si bien cobra, el aumento de productividad es tan brutal que es relativamente irrisorio. Creo que la experiencia de ChatGPT de OpenAI muestra que la realidad era un poquito al revés de lo que nos imaginábamos: el modelo más exitoso no es híbrido ni automático, es el copilot. Además, el toque final lo da el ser humano, o sea, la perfección la trae el ser humano, no la trae la máquina.
–Botmaker incursionó fuerte en el terreno de los recursos humanos. ¿Qué aportes está haciendo la tecnología conversacional en el sector?
-Es enorme. Las empresas usan el chat adentro de sus corporaciones, de sus entornos, para ser más productivas. Entonces resulta que el chat no sólo se usa con clientes, también se usa dentro de la compañía para la colaboración. Y si hay chat, probablemente haya una oportunidad de tener bots, para que ayuden a ser más productivos a los equipos. Hay entornos de chat, digamos muy usados, y surgen varias áreas de las empresas que empiezan a ver que si ponen un chatbot pueden proveer servicios internos de forma más productiva o incrementar los servicios que tienen para sus equipos. El primero en notar esto es el equipo de recursos humanos: es un área de servicios, una parte importante son los servicios a los equipos y los chatbots ayudan a extender esos servicios. Entonces, por poner un ejemplo muy común, muchas empresas tienen contractors, terceros que vienen a probar servicios a una planta de producción, oficinas o inclusive personal de limpieza, distribuidores o choferes que distribuyen en toda una ciudad. Esas personas necesitan interactuar con la empresa, registrarse, darse de alta, darse de baja, modificar horarios, consultar rutas… hoy lo pueden hacer desde WhatsApp o desde Microsoft Teams, se registran y comienzan su jornada de trabajo.
–Ustedes fueron pioneros en el desarrollo de chatbots aplicados al sector público. ¿Cómo estás viendo la evolución de este rubro?
-Aceleradísima. En la segunda mitad del año pasado se sumaron 20 ciudades más que están trabajando con nosotros. Es un efecto contagio. Los servicios se van poniendo disponibles, para los ciudadanos funcionan y el sector público está entre quienes más tienen por ganar. Te diría que la barrera más importante es el costo que tiene WhatsApp, porque es un costo variable y porque muchas veces no hay presupuesto para el sector público. Entonces es difícil que sea un costo variable para algo que en sí es un servicio público. A pesar de eso, dentro de ciertos términos, el sector público tiene muy buenos programas con WhatsApp para poner los bots disponibles, permite que el ciudadano pueda salir de la página web y continuar hablando con esa ciudad, municipio o intendencia.

–¿Cómo está posicionado Botmaker dentro del mercado de bots?
-Estamos creciendo mucho. El ritmo de adopción se sigue acelerando. Nosotros lo que hicimos fue poner a disposición, justamente por un tema de escalabilidad, soluciones online para que las compañías no necesiten hablar con un equipo. Estuvimos muy enfocados en hacer las soluciones lo más autosuficientes posibles, siempre con nuestro objetivo y con nuestra mirada que es que somos una plataforma de largo plazo, para que las compañías una vez que la adoptan la puedan implementar en muchas áreas y puedan desarrollar experiencias completas a través de chatbots.
Es decir, no somos un chat para poner en tu homepage y que haga dos cosas y nada más, sino para que haga dos, cuatro, diez cosas y que el día de mañana la podamos usar para todo lo que necesites. Nuestra mirada es de una plataforma de desarrollo. Estuvimos enfocados para poder abordar todo el crecimiento en la región, que la puedas comprar online y la puedas usar de forma sofisticada, dando los primeros pasos de la forma más fácil posible. Ese es el desafío y ahí es donde estamos. Hoy hay muchas empresas alrededor del mundo que todos los días se dan de alta. Eso fue posible porque en 2022 nos enfocamos mucho en la experiencia de autoservicio. Nosotros siempre seguimos trabajando cerca de grandes clientes. Hoy tenemos una red de 155 partners, es decir 155 empresas no sólo en Argentina, muchos en Brasil y en el resto de la región que usan Botmaker para atender a sus clientes. A veces son pymes, otras veces son grandes consultoras que la implementan para sus clientes.
–¿Cuáles son los desafíos comerciales para este año?
-El desafío es operacional. Es decir, estamos en un mercado que crece y el desafío no es externo, es cómo hacemos operativo que la demanda que hay y la necesidad de las empresas se traduzca en implementaciones que funcionen con éxito. Al final el desafío mayúsculo es siempre el mismo, que el usuario tenga una conversación útil, que le mejore la vida, le mejore esa interacción y que además le de una recordación de esa empresa o ese gobierno con el que habló. Porque detrás de cada conversación que tuvo éxito hay una relación de fidelidad de esa persona con esa empresa. Entonces el desafío más importante está en la calidad de la conversación.
-¿Cuáles son según tu criterio las tendencias en el sector conversacional para 2023? ¿Qué es lo que se viene?
-Bueno, es lo que vimos un poco sobre el final del año pasado. Hay un cambio generacional del tipo de herramientas para hacer inteligencia artificial. También, se suman la incorporación de estas herramientas como OpenAI, junto a otras herramientas que van a salir este año a competir.
Pero tenemos que entender a OpenAI como un sistema operativo de lenguaje, no como un bot, sino como un conjunto de APIs que dan una interfaz de lenguaje sobre la cual nosotros y un montón de otras empresas construyen aplicaciones para sus clientes. Por eso, una de las tendencias es que habrá no una, sino un par de interfaces como OpenAI. Entender cómo pueden servir mejor a la conversación útil va a generar un montón de empresas y de aplicaciones nuevas. Va a haber una explosión. En la medida que esto funcione mejor, cada vez tendrá más sentido tener un bot.
Hacé tu comentario