Hogar Machine Learning Accenture crea una solución de asistencia de conocimiento utilizando servicios de IA generativa en AWS

Accenture crea una solución de asistencia de conocimiento utilizando servicios de IA generativa en AWS

por Iván Torres
0 comentario
Las empresas hoy en día enfrentan grandes desafíos al utilizar sus bases de información y conocimiento para operaciones comerciales internas y externas. Con operaciones, procesos, políticas y requisitos de cumplimiento en constante evolución, puede ser extremadamente difícil para empleados y clientes mantenerse actualizados. Al mismo tiempo, la naturaleza no estructurada de gran parte de este contenido hace que encontrar respuestas mediante búsqueda tradicional sea tedioso.

Internamente, los empleados pueden pasar innumerables horas buscando la información que necesitan para hacer su trabajo, lo que lleva a frustración y reducción de la productividad. Y cuando no pueden encontrar respuestas, tienen que escalar problemas o tomar decisiones sin un contexto completo, lo que puede crear riesgos.

Externamente, los clientes también pueden encontrar frustrante localizar la información que buscan. Aunque las bases de conocimiento empresarial han mejorado la experiencia del cliente con el tiempo, aún pueden ser engorrosas y difíciles de usar. Ya sea que busquen respuestas a una pregunta relacionada con un producto o necesiten información sobre horarios y ubicaciones de operación, una mala experiencia puede llevar a la frustración o, peor aún, a la pérdida de un cliente.

En ambos casos, a medida que la gestión del conocimiento se vuelve más compleja, la IA generativa presenta una oportunidad revolucionaria para que las empresas conecten a las personas con la información que necesitan para rendir e innovar. Con la estrategia correcta, estas soluciones inteligentes pueden transformar cómo se captura, organiza y utiliza el conocimiento en una organización.

Para abordar este desafío, Accenture colaboró con AWS para construir una innovadora solución de IA generativa llamada Asistencia de Conocimiento. Utilizando los servicios de IA generativa de AWS, el equipo ha desarrollado un sistema que puede ingerir y comprender enormes cantidades de contenido empresarial no estructurado.

En lugar de búsquedas por palabras clave tradicionales, los usuarios ahora pueden hacer preguntas y extraer respuestas precisas en una interfaz conversacional directa. La IA generativa comprende el contexto y las relaciones dentro de la base de conocimiento para ofrecer respuestas personalizadas y precisas. A medida que recibe más consultas, el sistema mejora continuamente su procesamiento de lenguaje mediante algoritmos de aprendizaje automático (ML).

Desde el lanzamiento de este marco de asistencia con IA, las empresas han visto mejoras significativas en la retención y productividad del conocimiento de los empleados. Al proporcionar acceso rápido y preciso a la información y permitir que los empleados se autoabastezcan, esta solución reduce el tiempo de entrenamiento para los nuevos empleados en más del 50% y reduce las escaladas hasta en un 40%.

Con el poder de la IA generativa, las empresas pueden transformar cómo se captura, organiza y comparte el conocimiento en la organización. Al desbloquear sus bases de conocimiento existentes, las empresas pueden aumentar la productividad de los empleados y la satisfacción del cliente. Como demuestra la colaboración de Accenture con AWS, el futuro de la gestión del conocimiento empresarial reside en sistemas impulsados por IA que evolucionan a través de interacciones entre humanos y máquinas.

Accenture está trabajando con AWS para ayudar a los clientes a implementar Amazon Bedrock, utilizar los modelos fundamentales más avanzados como Amazon Titan y desplegar tecnologías líderes en la industria como Amazon SageMaker JumpStart y Amazon Inferentia junto con otros servicios de ML de AWS.

Este post proporciona una visión general de una solución de IA generativa de extremo a extremo desarrollada por Accenture para un caso de uso de producción utilizando Amazon Bedrock y otros servicios de AWS.

Resumen de la solución

Un gran cliente del sector público de salud sirve a millones de ciudadanos todos los días, y estos demandan fácil acceso a información actualizada en un panorama de salud en constante cambio. Accenture ha integrado esta funcionalidad de IA generativa en un bot de preguntas frecuentes existente, permitiendo al chatbot proporcionar respuestas a una gama más amplia de preguntas de los usuarios. Aumentar la capacidad de los ciudadanos para acceder a información pertinente de manera autónoma ahorra tiempo y dinero al departamento, reduciendo la necesidad de interacción con agentes de centros de llamadas. Las características clave de la solución incluyen:

  • Enfoque de intención híbrida – Utiliza intenciones generativas y preentrenadas.
  • Soporte multilingüe – Conversa en inglés y español.
  • Análisis conversacional – Informa sobre las necesidades, sentimientos y preocupaciones de los usuarios.
  • Conversaciones naturales – Mantiene el contexto con procesamiento de lenguaje natural (NLP) similar al humano.
  • Citas transparentes – Guía a los usuarios a la información fuente.

La solución de IA generativa de Accenture ofrece las siguientes ventajas sobre los marcos de chatbot existentes o tradicionales:

  • Genera respuestas precisas, relevantes y naturales a las consultas de los usuarios rápidamente.
  • Recuerda el contexto y responde a preguntas de seguimiento.
  • Maneja consultas y genera respuestas en varios idiomas (como inglés y español).
  • Aprende continuamente y mejora las respuestas basándose en los comentarios de los usuarios.
  • Es fácilmente integrable con tu plataforma web existente.
  • Ingiera un vasto repositorio de base de conocimientos empresariales.
  • Responde de manera similar a un humano.
  • La evolución del conocimiento está continuamente disponible con un mínimo o ningún esfuerzo.
  • Utiliza un modelo de pago por uso sin costos iniciales.

El flujo de trabajo de alto nivel de esta solución implica los siguientes pasos:

  1. Los usuarios crean una integración simple con plataformas web existentes.
  2. Los datos se ingieren en la plataforma como una carga masiva el día 0 y luego cargas incrementales el día 1+.
  3. Las consultas de los usuarios se procesan en tiempo real con el sistema escalando según sea necesario para satisfacer la demanda del usuario.
  4. Las conversaciones se guardan en bases de datos de aplicaciones (Amazon Dynamo DB) para soportar conversaciones de múltiples rondas.
  5. Se invoca el modelo de fundación Anthropic Claude a través de Amazon Bedrock, que se utiliza para generar respuestas a consultas basadas en el contenido más relevante.
  6. El modelo de fundación Anthropic Claude se utiliza para traducir consultas y respuestas del inglés a otros idiomas. Esto soporta conversaciones en múltiples idiomas.
  7. Se invoca el modelo de fundación Amazon Titan a través de Amazon Bedrock para generar incrustaciones vectoriales.
  8. La relevancia del contenido se determina a través de la similitud de las incrustaciones de contenido bruto y la incrustación de consulta del usuario utilizando incrustaciones de base de datos vectorial Pinecone.
  9. El contexto junto con la pregunta del usuario se añade para crear un prompt, que se proporciona como entrada al modelo Anthropic Claude. La respuesta generada se proporciona al usuario a través de la plataforma web.

El siguiente diagrama ilustra la arquitectura de la solución.

El flujo de la arquitectura se puede entender en dos partes:

En las siguientes secciones, discutimos diferentes aspectos de la solución y su desarrollo con más detalle.

Selección del modelo

El proceso para la selección del modelo incluyó pruebas de regresión de varios modelos disponibles en Amazon Bedrock, que incluyeron modelos de AI21 Labs, Cohere, Anthropic y Amazon. Verificamos los casos de uso soportados, atributos del modelo, tokens máximos, coste, precisión, rendimiento e idiomas. Basándonos en esto, seleccionamos Claude-2 como el mejor para este caso de uso.

Fuente de datos

Creamos un índice de Amazon Kendra y añadimos una fuente de datos utilizando conectores de web crawler con una URL raíz y una profundidad de directorio de dos niveles. Varias páginas web fueron ingeridas en el índice de Amazon Kendra y se utilizaron como fuente de datos.

Proceso de solicitud y respuesta de GenAI chatbot

Los pasos en este proceso consisten en una interacción de extremo a extremo con una solicitud de Amazon Lex y una respuesta de un modelo de lenguaje grande (LLM):

  1. El usuario envía la solicitud a la aplicación frontal conversacional alojada en un bucket de Amazon Simple Storage Service (Amazon S3) a través de Amazon Route 53 y Amazon CloudFront.
  2. Amazon Lex entiende la intención y dirige la solicitud al orquestador alojado en una función AWS Lambda.
  3. La función orquestadora Lambda realiza los siguientes pasos:
    • La función interactúa con la base de datos de la aplicación, que está alojada en una base de datos gestionada por DynamoDB. La base de datos almacena el ID de sesión y el ID de usuario para el historial de conversación.
    • Se envía otra solicitud al índice de Amazon Kendra para obtener los cinco resultados de búsqueda más relevantes para construir el contexto relevante. Utilizando este contexto, se construye el prompt modificado requerido para el modelo LLM.
    • Se establece la conexión entre Amazon Bedrock y el orquestador. Se envía una solicitud al modelo Claude-2 de Amazon Bedrock para obtener la respuesta del modelo LLM seleccionado.
  4. Los datos se post-procesan a partir de la respuesta LLM y se envía una respuesta al usuario.

Informes en línea

El proceso de informes en línea consta de los siguientes pasos:

  1. Los usuarios finales interactúan con el chatbot a través de una capa frontal de CDN de CloudFront.
  2. Cada interacción de solicitud/respuesta es facilitada por el SDK de AWS y envía tráfico de red a Amazon Lex (el componente NLP del bot).
  3. Los metadatos sobre los pares de solicitud/respuesta se registran en Amazon CloudWatch.
  4. El grupo de logs de CloudWatch está configurado con un filtro de suscripción que envía logs a Amazon OpenSearch Service.
  5. Una vez disponibles en OpenSearch Service, los logs pueden usarse para generar informes y dashboards usando Kibana.

Conclusión

En este post, mostramos cómo Accenture está utilizando los servicios de IA generativa de AWS para implementar un enfoque de extremo a extremo hacia la transformación digital. Identificamos las brechas en las plataformas de respuesta a preguntas tradicionales y aumentamos la inteligencia generativa dentro de su marco para tiempos de respuesta más rápidos y mejorando continuamente el sistema mientras interactúa con los usuarios en todo el mundo. Comuníquese con el equipo del Centro de Excelencia de Accenture para profundizar en la solución y desplegar esta solución para sus clientes.

Esta plataforma de Asistencia de Conocimiento puede aplicarse a diferentes industrias, incluyendo, pero no limitándose a, ciencias de la salud, servicios financieros, manufactura y más. Esta plataforma proporciona respuestas naturales y similares a las humanas a preguntas utilizando conocimiento que está asegurado. Esta plataforma permite eficiencia, productividad y acciones más precisas que sus usuarios pueden tomar.

Este esfuerzo conjunto se basa en la relación estratégica de 15 años entre las empresas y utiliza los mismos mecanismos y aceleradores probados construidos por el Grupo de Negocios Accenture AWS (AABG).

También te Puede Interesar

Sobre nosotros

About Data Blog es un espacio traido a ti por Gold Light Data con el objetivo de investigar y compartir información valiosa sobre Big Data, Inteligencia Artificial, Machine Learning, Analítica de Negocio e Inteligencia de Negocios.

 

Estamos comprometidos con la investigación y nuestra misión siempre será compartir ese conocimiento para la evolución tecnológica y de negocio.

© 2022 About Data. Created by WeApp4U