MX2007002880A - Maquina de aprendizaje. - Google Patents

Maquina de aprendizaje.

Info

Publication number
MX2007002880A
MX2007002880A MX2007002880A MX2007002880A MX2007002880A MX 2007002880 A MX2007002880 A MX 2007002880A MX 2007002880 A MX2007002880 A MX 2007002880A MX 2007002880 A MX2007002880 A MX 2007002880A MX 2007002880 A MX2007002880 A MX 2007002880A
Authority
MX
Mexico
Prior art keywords
group
communications
agent
communication
conversation
Prior art date
Application number
MX2007002880A
Other languages
English (en)
Inventor
David R Williams
Jeffrey Hill
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of MX2007002880A publication Critical patent/MX2007002880A/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M7/00Arrangements for interconnection between switching centres
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/487Arrangements for providing information services, e.g. recorded voice services or time announcements
    • H04M3/493Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/027Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/51Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
    • H04M3/5166Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing in combination with interactive voice response systems or voice portals, e.g. as front-ends
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Data Mining & Analysis (AREA)
  • Telephonic Communication Services (AREA)
  • Machine Translation (AREA)
  • Information Transfer Between Computers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Computer And Data Communications (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

Un sistema de respuesta automatico (por ejemplo, un sistema de respuesta por voz automatico) puede emplear estrategia de aprendizaje para desarrollar o mejorar capacidades de respuesta automatica. Las estrategias de aprendizaje puede incluir utilizar comunicaciones (por ejemplo, expresiones, mensajes de texto, etc.) de una parte en una conversacion (por ejemplo, un agente de servicio al cliente) para identificar y clasificar comunicaciones de otra parte en la conversacion (por ejemplo, un persona que llama). Los clasificadores pueden construirse a partir de las comunicaciones clasificadas. Los clasificadores pueden utilizarse para identificar patrones de comunicaciones comunes de un parte en una conversacion (por ejemplo, un agente). Las estrategias de aprendizaje tambien pueden incluir seleccionar comunicaciones como oportunidades de aprendizaje en criterios de seleccion (por ejemplo, criterios de seleccion elegidos para asegurar que el sistema no aprende de ejemplos no confiables o insignificantes).

Description

MAQUINA DE APRENDIZAJE ANTECEDENTES Está descripción se refiere a una máquina de aprendizaje en un sistema de respuesta automático. Una aplicación en la cual se manejan conversaciones es en centros de contacto de cliente. Los centros de contacto de cliente, por ejemplo centros de llamada, han surgido como una de las áreas más importantes y dinámicas de la empresa en la nueva economía. El ambiente económico rígido de hoy en día, los clientes de servicio de retención de costo de efectivo es de importancia estratégica. La mayoría de las compañías se dan cuenta que mantener clientes satisfechos es menos costoso que adquirir nuevos. Como el punto de toque de empresa para más de la mitad de todas las interacciones de cliente, el centro de contacto se ha convertido en una piedra angular para una estrategia de negocios exitosa. La importancia en crecimiento del centro de contacto es un fenómeno reciente. Históricamente, el servicio de clientes se ha observado por la mayoría de organizaciones como un costo caro pero necesario de hacer negocios, lleno de problemas e ineficiencias. Los volúmenes de llamadas altos regularmente se abruman bajo el equipo entrenado, lo que resulta en consultas ocupadas largas para los clientes. Los sistemas de información inadecuados requieren que la mayoría de las personas que llaman repitan la información básica varias veces. Debido a esto, un estimado de veinte por ciento de los compradores abandonan los sitios web cuando se enfrentan a tener que llamar a un centro de contacto de la organización, y muchos más abandonan las llamadas cuando se encuentran con consultas en espera o elecciones de un menú frustrantes. Además, los centros de contacto de cliente representan un costo operativo extraordinario, que consume casi diez por ciento de los ingresos para los negocios promedio. El costo de trabajo domina este gasto, y la velocidad de giro extraordinariamente alto de la industria resulta en el reclutamiento directo y el entrenamiento de nuevos agentes. Desafortunadamente para los negocios, la meta de asegurar el servicio de cliente de costo efectivo se hace más difícil. El Internet se ha conducido a una explosión en comunicación entre organizaciones y sus clientes. Los clientes unen un alto valor al servicio en la economía de Internet debido a que los productos y servicios comprados en línea generan un número superior de preguntas que aquellos comprados a través de canales de ventas tradicionales. El papel de centro de contacto se expandió para incluir nuevas audiencias de servicio, tal como compañeros de negocio, inversionistas e incluso empleados de la compañía. Las nuevas iniciativas de publicidad y de mercadeo altamente efectivas dirigen a los clientes a interactuar con centros de contacto ya abrumados para obtener información. Además de las llamadas telefónicas, las preguntas ahora se hacen en nuevos canales de texto a base de web, que incluyen correo electrónico, correo de web y chat, que colocan una enorme raza en operaciones de servicio de cliente. La combinación de la importancia en crecimiento del buen servicio a cliente y los obstáculos para entregarla conforman un reto de servicio a cliente.
BREVE DESCRIPCIÓN DE LA INVENCIÓN En un aspecto, las características de la invención que utilizan comunicaciones de agente (por ejemplo, expresiones, mensajes de texto, etc.) capturados en un grupo de conversaciones de agente-persona que llama previamente registradas (por ejemplo, conversaciones de agente humano-persona que llama) para entrenar un grupo de clasificadores de agente. A partir de los clasificadores de agente, las expresiones de persona que llama pueden localizarse y agruparse. Las expresiones de persona que llama agrupadas pueden utilizarse para entrenar un grupo de grupos de persona que llama. En otro aspecto, las características de la invención que aumentan los grupos de persona que llama al utilizar clasificadores (por ejemplo, clasificadores de agente o persona que llama) para clasificar comunicaciones en conversaciones de agente-persona que llama previamente registradas, que agregan las comunicaciones clasificadas a un grupo de entrenamiento a un clasificador asociado, y que reconstruyen clasificador. En otro aspecto, las características de invención que utilizan clasificadores de agente para identificar patrones de solicitud de agente común en un grupo de conversaciones previamente registradas entre agentes y personas que llaman. Estos patrones de solicitud de agente comunes pueden asociarse con ciertos tipos de llamada (por ejemplo, llamadas que se relacionan a la misma solicitud de persona llama inicial). Estos patrones de solicitud agente pueden utilizarse, por ejemplo, por un desarrollador de aplicación para diseñar el flujo de conversación de un sistema de respuesta automático. En otro aspecto, las características de invención que utilizan distribuciones de respuestas de persona que llaman para preguntas de agente con frases diferentes que piden la misma información para determinar una palabra de una pregunta para un sistema de respuesta automático que es muy probable que produzcan la respuesta deseada de una persona que llama. En otro aspecto, las características de la invención, un método que incluye recibir un grupo de conversaciones entre miembros de un primer tipo de parte (por ejemplo, agentes humanos o agentes de software) y un miembro de un segundo tipo de parte (por ejemplo, personas que llaman humanas), en donde cada una de las conversaciones incluyen la comunicación de un miembro del primer tipo de parte y en la comunicación (por ejemplo, una solicitud hablada) de un miembro del segundo tipo de parte que es en respuesta a la comunicación del miembro del primer tipo de parte (por ejemplo, una respuesta hablada a la solicitud). El método también incluye agrupar las comunicaciones de miembros de primer tipo de parte en un primer grupo de grupos, y después agrupar las comunicaciones en respuesta de miembros del segundo tipo de parte en un segundo grupo de grupos basado en el agrupamiento de las comunicaciones de miembros del primer tipo de parte. Un método también incluye generar, a máquina, un segundo grupo de clasificadores de segundo tipo de parte (por ejemplo, una máquina de vector de soporte o árbol de decisión) para uno ó más grupos en el segundo grupo de grupos. Las implementaciones de este aspecto de la invención incluyen una ó más de las siguientes características. El método puede utilizarse para desarrollar una aplicación inicial para un sistema de respuesta automático, tal como un sistema de respuesta de voz automático o un sistema de respuesta de envío de mensaje de texto automático. Las comunicaciones de miembros de un primer tipo de parte pueden agruparse en un primer grupo de grupos que utilizan en la computadora. Por ejemplo, un procedimiento de computadora puede determinar primero características semánticas de las comunicaciones y después agrupar las comunicaciones en grupos basados en las características semánticas. Los grupos de comunicaciones de miembros del primer grupo pueden agruparse basándose en el significado de sus comunicaciones. En otras palabras, las comunicaciones pueden agruparse para que las comunicaciones en un grupo todas tengan el mismo significado, pero pueden tener diferentes palabras. Los grupos de las comunicaciones de miembros del segundo tipo de parte en grupos que corresponden a las respuestas para solicitar la información de los miembros del primer tipo de parte. El método además incluye recibir un segundo grupo de grupos de conversaciones entre un miembro del primer tipo de parte y miembros del segundo tipo de parte, que aplican los clasificadores de segundo tipo de parte al grupo de comunicaciones de miembros del segundo tipo de parte, y a máquina, que regenera clasificadores de un segundo tipo de parte para un grupo en el segundo grupo de grupos que utilizan datos que se relacionan a las comunicaciones agrupadas en el grupo. En otro aspecto las características de la invención, que aplican un grupo de clasificadores para clasificar comunicaciones iniciales (por ejemplo, solicitudes de información de un agente) que son parte de conversaciones que también incluyen comunicaciones en respuesta y que utilizan las comunicaciones clasificadas para identificar patrones de comunicación comunes. Las implementaciones de la invención pueden incluir una o más de las siguientes características. El método además puede incluir agrupar conversaciones en el grupo de conversaciones por asunto sujeto (por ejemplo, el asunto sujeto del propósito de la persona que llama para formar a un centro de llamado), y asociar patrones de comunicación comunes identificados con los grupos. En otro aspecto, las características de la invención que aplican un grupo de clasificadores (por ejemplo, una máquina de vector de soporte) para clasificar comunicaciones de un miembro de un primer tipo de parte en una conversación entre los miembros del primer tipo de parte y un miembro de un segundo tipo de parte y que determinan un asunto sujeto en la conversación basándose en la combinación o secuencia de las comunicaciones clasificadas del miembro del primer tipo de parte. Las implementaciones de la invención pueden incluir uno o más de las siguientes características. En el método también puede incluir acoplar la secuencia de las comunicaciones clasificadas con una secuencia de comunicaciones clasificadas asociadas con una conversación que tiene un asunto sujeto conocido. En otro aspecto las características de la invención que utilizan ejemplos de comunicaciones que ocurrieron entre personas que llaman y un sistema de respuesta automático (por ejemplo, un sistema de respuesta de envío de mensaje de texto automático o un sistema de respuesta de voz automática) para mejorar el desempeño del sistema. En otro aspecto las características de la invención que seleccionan ejemplos para oportunidades de aprendizaje para un sistema de respuesta automático basándose en algunos criterios de selección. Los criterios de selección pueden elegirse (por ejemplo, por un usuario a través de una interfase de usuario gráfica) para ayudar a asegurar que los ejemplos de los cuales el sistema aprende son confiables. Los criterios de selección también pueden elegirse para asegurar que el sistema selecciona solo ejemplos que resultan en una mejora significativa al sistema. Al descartar los ejemplos que no resultan en una mejora significativa al sistema, el sistema ayuda a minimizar la carga en los recursos (por ejemplo, procesar recursos contrarios de implementar la mejora o recursos administrativos sumados con tareas de revisar o aprobar ejemplos de aprendizaje). En otro aspecto, las características de la invención de un método para seleccionar oportunidades de aprendizaje para un sistema de respuesta automático asociado con un centro de compacto que incluye recibir representaciones digitales de conversaciones al menos algunas de las cuales comprenden una serie de comunicaciones (por ejemplo, expresiones, mensajes de texto, etc.) entre una persona y un agente (por ejemplo, un agente humano o un agente de software) asociado con un centro de contacto y que selecciona la comunicación como una oportunidad de aprendizaje si se satisface uno o más criterios de selección. Las implementaciones pueden incluir una o más de las siguientes características. Los criterios de selección pueden ser un requerimiento que una comunicación se siga por un intercambio de comunicación entre la persona y un agente, un requerimiento que luna comunicación se siga por un número de intercambios de comunicación subsecuentes exitosos entre la persona y un agente, un requerimiento que una comunicación puede estar incluida dentro de una conversación en la cual la persona se responde positivamente a una pregunta de satisfacción preguntada por un agente, un requerimiento que una comunicación en una primera conversación se confirme por comunicaciones similares que ocurren en un número de otras conversaciones o un requerimiento que una comunicación no cause un grupo de construcción de clasificadores que utiliza la comunicación para clasificar erróneamente las comunicaciones que un grupo previene clasificadores ya clasificó correctamente. En algunas implementaciones, las comunicaciones entre las personas y agentes pueden incluir interacciones de ayuda en las cuales un agente humano selecciono una respuesta a una comunicación de persona de una lista clasificada de respuestas propuestas generadas por el sistema de respuesta automático. Para estas interacciones de ayuda el titulo de selección puede incluir un requerimiento que no respeta seleccionada en una interacción de ayuda se clasifique sobre un umbral, o un requerimiento que una respuesta seleccionada en una interacción de ayuda se seleccione de un agente humano confiable. Las comunicaciones seleccionadas pueden utilizarse para mejorar el desempeño de sistema al reconstruir clasificadores que utilizan comunicación seleccionada, que generan un modelo de lenguaje para un motor de reconocimiento de dialogo automático que utiliza la comunicación seleccionada, o que modifica una red de estado finito que utiliza la comunicación seleccionada. En implementaciones de respuesta por voz, el método también puede incluir realizar reconocimiento de dialogo en motor de reconocimiento de dialogo fuera de línea en una expresión seleccionada como una oportunidad de aprendizaje. El método también puede incluir, antes de realizar el reconocimiento de dialogo, determinar si desempeñar el reconocimiento de dialogo en la expresión seleccionada basándose en el nivel de confianza del significado de la expresión asociada con la representación digital de la comunicación. En otro aspecto, las características de invención de un método para seleccionar oportunidades de aprendizaje para un sistema de respuesta por voz automática asociado con un centro de contacto que incluye presidir una representación digital de una conversación que toma lugar entre una persona que llama y uno o más agentes asociados con el centro de contacto y que seleccionan una expresión capturada en la representación digital de la conversación para trascripción basándose en uno o más criterios de selección. Las implementaciones pueden incluir uno o más de las siguientes características. Los criterios de selección puede incluir un requerimiento que un nivel de confianza de una respuesta por el sistema de respuesta de voz automática este dentro de una escala de valores o un requerimiento que un nivel de confianza de un procedimiento de reconocimiento de dialogo realizado en la expresión durante la conversación este dentro de una escala de valores. El método también puede incluir realizar reconocimiento de lenguaje en la expresión y agregar palabras reconocidas en la expresión a un vocabulario de palabras utilizadas por un procedimiento de reconocimiento de dialogo utilizado por el sistema para reconocer expresiones durante conversaciones.
En otro aspecto, la invención modaliza un método que incluye, basándose en una interacción entre una persona y un agente humano asociado con un sistema de respuesta automático en el cual el agente selecciono una respuesta a una comunicación de la persona de entre respuestas propuestas por el sistema de respuesta automático, seleccionar la comunicación como un ejemplo para entrenar el sistema de respuesta automático. Las implementaciones de la invención pueden incluir una o más de las siguientes características. La selección de la comunicación puede basarse en un nivel de confianza de la respuesta seleccionada por el agente o en un nivel de confianza del agente humano que selecciono la respuesta. En otro aspecto, la invención modaliza un método que identifica una comunicación entre la persona que contacta un sistema de respuesta automático que resulto en la respuesta que se controlo por un agente humano y que modifica el sistema de respuesta automático para responder a comunicaciones futuras similares de personas que contactan el sistema. En una implementación particular, la modificación del sistema de respuesta automático puede comprender modificar una red de transición de estado finito asociada con el sistema. En otro aspecto la invención modaliza un método para seleccionar oportunidades de aprendizaje para un sistema de respuesta automático que incluye agregar una comunicación a un grupo de entrenamiento ilustrativo para un clasificador en un motor de reconocimiento de concepto, que genera un nuevo clasificador que utiliza el grupo de ejemplo de entrenamiento que incluye la comunicación agregada, y desconsiderar el nuevo clasificador basándose en el requerimiento de desempeño para un nuevo clasificador. Las implementaciones pueden incluir una o más de las siguientes características. El requerimiento de desempeño puede ser un requerimiento que un nuevo clasificador clasifique correctamente al menos un número predeterminado de otros ejemplos o un requerimiento que un nuevo clasificador tenga un nuevo grupo definitivo de ejemplos que diferente del grupo definitivo de ejemplos de clasificador previo por una cantidad predeterminada. En otro aspecto las características de la invención que generan un grupo de clasificadores para al menos un grupo de comunicaciones en respuesta, el grupo que está basado en uno o más grupos de comunicaciones en inicio con las cuales las comunicaciones en respuesta están asociadas dentro de las conversaciones. Las implementaciones pueden incluir una o más de las siguientes características. Las conversaciones de inicio pueden ser de un miembro de un primer tipo de parte (por ejemplo, un agente en un centro de servicio de cliente) y las conversaciones en respuesta pueden ser de un miembro de un segundo tipo de parte (por ejemplo, un cliente que contacta un centro de servicio de cliente). El método también puede incluir recibir un grupo de conversaciones al menos algunas de las cuales incluyen una comunicación en inicio y una comunicación en respuesta asociada. El grupo de comunicaciones de respuesta pueden comprender comunicaciones de respuesta asociadas con una comunicación en inicio. Otras ventajas, características, e implementaciones serán evidentes a partir de la siguiente descripción, y de las reivindicaciones.
DESCRIPCIÓN DE LOS DIBUJOS La Figura 1 muestra un diagrama de línea de transición de estado y la Figura 1A muestra una gráfica de transición de estado. La Figura 2 muestra interacciones entre cliente, el sistema, y el agente humano. La Figura 3 es un cuadro de flujo. La Figura 4 es una revisión de un sistema de arquitectura de software. La Figura 5 es una vista más detallada de la arquitectura de software de la Figura 4. La Figura 6 es un diagrama de bloque de sistema de componentes de flujo de trabajo. La Figura 7 es un diagrama de bloque de componentes de canal de interacción. La Figura 8 es un diagrama de bloque de un reconocedor de dialogo.
La Figura 9 es un diagrama de bloque de un motor de reconocimiento de concepto. La Figura 10 es una vista de una organización de documentos de lenguaje de marcación. La Figura 11 es una vista de un subgrupo de la gráfica de transición de estado de una gráfica ilustrativa. La Figura 12 es una vista de un procedimiento de desarrollo de aplicación iterativo. La Figura 13 es una diapositiva. La Figura 14 es otra diapositiva. La Figura 15 es una vista de un procedimiento de desarrollo de aplicación inicial. Las Figuras 16A-16F son vistas de un procedimiento de desarrollo de aplicación inicial. La Figura 17 es un diagrama de bloques de un servidor de aprendizaje.
DESCRIPCIÓN DE LA INVENCIÓN La tecnología de procesamiento de lenguaje natural basándose en conceptos o significado, tal como la tecnología descrita en la patente de los Estados Unidos 6,401,061, incorporada por referencia en su totalidad, puede elevarse para interactuar inteligentemente con información basándose en el significado de información, o contexto semántico, más que en sus palabras literales. Un sistema después puede construirse para manejar comunicaciones, por ejemplo, comunicaciones en las cuales un usuario hace una pregunta, y el sistema proporciona una respuesta. Tal sistema es latamente efectivo, condescendiente con el usuario, y tolerante a fallas debido a que automáticamente extrae los conceptos clave de la pregunta del usuario independientemente de las palabras literales. El motor de reconocimiento de concepto (del tipo descrito en la patente de Estados Unidos 6,401,061) permite la formación de respuestas apropiadas basándose en lo que los clientes están preguntando cuando se comprometen con el sistema base en la conversación con los canales de comunicación a base de voz o de texto. La conversación puede ser una comunicación sincrónica con el cliente (tal como un diálogo de tiempo real que utiliza envío de mensaje por voz o instantáneo u otra comunicación a través de la página web) o comunicaciones sincrónicas (tal como correos electrónicos o mensajes de correo por voz). En las conversaciones que utilizan el modo de comunicaciones sincrónico, la respuesta se proporcionan a un tiempo posterior relativo a las preguntas del cliente. En el ejemplo del centro de contacto de cliente, antes del tiempo de funcionamiento, el sistema de manejo de comunicación crea una base de conocimiento que utiliza conversaciones reales registradas entre clientes y agentes humanos en un centro de contacto de cliente. Al utilizar las conversaciones registradas de está forma en vez de intentar programar el sistema para cada interacción de cliente posible hace la configuración simple, rápida, y dentro de la capacidad de una gran escala de administradores de sistema. Diferente a los sistemas de autoservicio tradicionales que son incapaces de adaptarse rápidamente a cada una de las condiciones de negocio cambiantes, el sistema aquí descrito puede modelar rápidamente preguntas típicas y responder pares y conversaciones futuras automáticas. Cada conversación que se procesa por el sistema (ya sea para construir la base de conocimiento antes del tiempo de funcionamiento, o para procesar comunicaciones en vivo en tiempo de funcionamiento) se moldea como un grupo ordenado de estados y transiciones a otros estados en los cuales la transición de cada estado incluye una pregunta o declaración por el cliente y una respuesta por el agente humano (o en algunos casos, una acción para tomarse en respuesta a la pregunta, tal como formular una pregunta de nuevo al usuario). Una secuencia de estado de transición de estado simbólico para una pregunta que se está procesando de una interacción registrada se ilustra en la Figura 1. En algunas implementaciones, El limitador para cada declaración o comunicación por el cliente o respuesta por el agente humano es un período de silencio o una interrupción hablada. El texto para cada una de estas declaraciones o respuestas se extrae de cualquier modo de comunicación que se utilizo en la conversación, por ejemplo, texto o diálogo. Por ejemplo, un motor de reconocimiento de diálogo automático (ASR) en línea puede utilizarse para convertir la conversación hablada en texto. Después, el sistema extrae conceptos clave de la pregunta de cliente o declaración o la respuesta del agente humano. Esta extracción se hace como se describió en la patente de E. U. A. 6,401,061 al crear una biblioteca de elementos de texto (S-Morfos) y su significado en términos de un grupo de conceptos (factores semánticos) como una base de conocimiento para utilizarse por un motor de reconocimiento de concepto. El motor de reconocimiento en concepto analiza el texto del cliente o agente en estos S-Morfo y después los conceptos que se acoplan a estos S-Morfo se reúnen. Estos conceptos claves para una comunicación (pregunta o respuesta, en el ejemplo que se discute) pueden almacenarse como un grupo no ordenado y pueden iluminarse como una "bolsa de conceptosP Las organizaciones de nivel superior de los conceptos en varias estructuras que reflejan la sintaxis o la cercanía también es posible. Después de que se procesa este grupo completo de conversaciones registradas (es decir, diálogos), cada conversación se expresa como una secuencia de estado-transición-estado. El sistema acumula todas las secuencias de transición de estado de conversación en un gráfico individual para que el estado inicial pueda hacer transición a cualquiera de las conversaciones. Este gráfico de transición agregado después se comprime al utilizar las técnicas de teoría de gráfico que reemplazan estados duplicados y transiciones. El sistema determina de forma recursiva que transiciones de un estado dado se duplican, el comparar las transiciones con sus "conceptosP Los estados de sucesor de transiciones duplicadas del mismo estado se fusionan en un estado con todas las transiciones de los estados sucesores. El texto de uno de las respuestas de las transiciones duplicadas se conserva en la base de conocimiento como una respuesta estándar. Este texto puede regresarse al cliente como parte de un intercambio de conversación en la forma de texto o convertido en voz. Un ejemplo de un gráfico de transición de estado comprimido se ilustra en la Figura 1A. En algunas implementaciones, toda la información en la base de conocimiento se almacena al utilizar una gramática XML bien definida. Ejemplos de lenguajes de marcación incluyen lenguaje de Marcación de Hiper Texto (HTML) y Lenguaje de Marcación Extensible de Voz (VozXML). En este caso, un Lenguaje de Marcación de Conversación (CML) se utiliza para almacenar la información para la base de conocimiento. Una vez que la base de conocimiento se formó, el sistema puede proceder a un modo de operación (tiempo de funcionamiento), el cual se utiliza para manejar comunicaciones en, por ejemplo, un centro de contacto de cliente. Los registros que se utilizan para construir la base de conocimiento para un centro de contacto de cliente dado serían, en algunas ¡mplementaciones, registradas de conversaciones que ocurren en el mismo centro de contacto de cliente o una que se caracteriza por tipos similares de conversaciones. Al utilizar la base de conocimiento, el sistema puede mantener el rastro del estado actual de conversaciones de tiempo real basándose en el gráfico de transición de estado para el centro de contacto de cliente. Por ejemplo, después de un cliente hace su primera comunicación (convertido a texto) con un centro de compacto de cliente (por ejemplo, el usuario puede tomar una consulta hablada de lenguaje natural arbitrario), el sistema utilizan motor de reconocimiento de concepto para extraer los conceptos del texto. Después, el sistema intenta acoplar los conceptos del texto con las transiciones del estado inicial en la gráfica de transición de estado del centro de contacto. Este acoplamiento se hace al comparar el grupo de conceptos asociados con la comunicación actual con grupos de conceptos almacenados en la base de conocimiento. Entre más cerca estén los dos grupos, más confianza existe en la exactitud del acoplamiento. Si la mejor transición de acoplamiento en la base de conocimiento se acopla al texto de cliente con una confianza sobre algún umbral, entonces el sistema asume que identificó la transición correcta, localiza la respuesta correspondiente en la base de conocimiento, y comunica esa respuesta correspondiente a clientes. El sistema procede al siguiente estado en el gráfico de transición de estado y espera la siguiente comunicación del cliente. Esta transversal de una secuencia de estados y transiciones puede continuar hasta que el cliente termina la conversación o hasta que el gráfico de transición de estado alcanza un estado final. Sin embargo, los errores en le texto recibido por el motor de reconocimiento de concepto y las preguntas o declaraciones no estándares (o no esperadas) por el cliente puedan requerir intervención por un agente humano. Cuando la comunicación de cliente está en la forma de diálogo, la conversación del diálogo al texto puede tener tales errores. Debido a la responsabilidad de tales errores, en algunas implementaciones, el sistema no confía en la automatización completa de las respuestas al cliente pero tiene una transición suave a intervención manual por el agente humano cuando la automatización no es exitosa. En general, este tipo de automatización gradual se sugiere por la Figura 2 que muestra interacciones entre el cliente o no. El sistema 3, y el agente humano 5. (en otras implementaciones del sistema, las respuestas automáticas pueden darse en caso de alta confianza, mientras no hay respuesta (diferente a lo indicado que el sistema es incapaz de responder se da al usuario). En algunos ejemplos, el sistema utiliza tecnología de reconocimiento de diálogo para acoplar a clientes en conversaciones en el teléfono. La tecnología de reconocimiento de diálogo convierte el diálogo del cliente en texto que entra al motor de reconocimiento de concepto. Al integrar el motor de reconocimiento de concepto con reconocimiento de diálogo, el sistema base reconoce lo que el cliente dice al entender conceptualmente lo que significa lo que dijo el cliente. Está combinación permite nuevos niveles de automatización en el centro de servicio de cliente al comprometer a usuarios en interacción intuitiva, inteligente, y constructiva a través de múltiples canales. Y que permite a organizaciones descargar volúmenes significantes de transacciones de cliente de rutina a través de todos los canales de contacto, ahorrando gastos considerables y mejorando los niveles de servicio. En otras implantaciones, estas conversaciones con el cliente pueden ocurrir en interfases de audio que utilizan, por ejemplo, un navegador de VozXML, la web que utiliza un navegador HTML, Envío de Mensaje instantáneo que utiliza una aplicación IM, correo electrónico que utiliza una aplicación de correo así como otros canales que todavía no están en uso. Se debe notar que este sistema permite que la respuesta de centro de contacto utilicé un modo diferente de comunicación que la comunicación de cliente. Por ejemplo, el cliente puede comunicarse al utilizar la voz y el centro de contacto puede responder con texto o el cliente puede comunicarse al utilizar texto y el centro de contacto puede responder con voz generada por computadora. Esto se realiza ya sea al utilizar el texto de respuesta al guardado directamente o al convertir el texto de respuesta guardado en diálogo generado por computadora. En algunas implementaciones, el sistema proporciona tres tipos o niveles de manejo de conversación y el sistema puede cambiar entre estos durante una conversación dada. 1. Automático-el sistema es capaz de producir respuestas apropiadas a las solicitudes de cliente y automatizar la transacción completamente de forma independiente de un agente humano. Por ejemplo, el cliente A llama a un centro de contacto de cliente de la compañía para preguntar sobre sus garantías de nuevos productos. Al dienta A se le da la bienvenida por un sistema automático que lo introduce y le da una breve explicación de cómo trabaja el sistema automático, lo que incluye preguntas de muestra. Después se le impulsa a mencionar su pregunta con sus propias palabras. El cliente A menciona su pregunta en una forma de conversación. El sistema automático informa al cliente de la política de garantía comprensiva de la compañía. El sistema pregunta al cliente A y la resolución fue útil y sí tiene cualquier pregunta adicional. Con su pregunta respondida, el cliente A termina la llamada. 2. Ayuda de agente mezclada. En este modo, el sistema involucra un agente humano al presentarlo con la pregunta de cliente y un número de respuestas sugeridas clasificadas por confianza/similitud ("marca de acoplamiento"). El agente humano selecciona una de las respuestas sugeridas, lo que permite al sistema completar la llamada. El agente humano también puede buscar la base de conocimiento de sistema para una respuesta alternativa al ingresar una pregunta en el sistema. En le modo de ayuda de agente mezclada, el agente no contesta la llamada o interactúa directamente con el cliente. Se espera que el modelo mezclado reduzca el tiempo del agente en una llamada al permitirle "dirigir" rápidamente el sistema a al resolución correcta. El agente humano después puede moverse en una nueva transacción. Por ejemplo, el cliente B llama a una organización de servicio de cliente de la compañía para preguntar una dirección en donde puede pagar durante la noche los servicios. El cliente B se le da la bienvenida con un sistema automático que lo introduce y lo confirma el nombre del cliente. Después de confirmar su nombre, al cliente B se le da una breve explicación de cómo trabaja el sistema automático, que incluye preguntas de muestra. Después se le impulsa al mencionar su pregunta en sus propias palabras. El cliente B menciona su pregunta en una forma de conversación. El sistema automático le pide la cliente que por favor espere momentáneamente mientras encuentra una respuesta a su pregunta. El sistema coloca una llamada al siguiente agente disponible. Mientras el cliente está esperando, el sistema lo conecta a un agente humano disponible y reproduce la pregunta del cliente B. El agente humano recibe una pantalla de aparición instantánea con varias respuestas sugeridas a la pregunta del cliente. El agente humano selecciona una respuesta sugerida apropiada y teclea las "respuestas", lo que permite al sistema completar la interacción. El sistema resume su interacción con el cliente B al proporcionar una dirección de noche. El sistema pregunta al cliente B si la resolución fue útil y si tiene alguna pregunta adicional. Con su pregunta respondida, el cliente B termina la llamada sin saber que un agente humano selecciono cualquiera de las respuestas. 3. Toma de mando de ayuda de agente - en el modelo de toma de mando, el sistema escala a un agente humano y el agente humano toma la llamada completamente, comprometiendo a la persona que llama en conversación directa. El modelo de toma de mandó se espera que mejore la productividad del agente al pre-recolectar información de conversación de la llamada para el agente de servicio de cliente y permitir al agente revisar información en la base de conocimiento de sistema durante la llamada, al reducir la cantidad de tiempo que después se necesita para gastar en una llamada. Por ejemplo, el cliente C llama a una organización de servicio de cliente de la compañía para cerrar su cuenta. Al cliente C se le da bienvenida con un sistema automático que le introduce y confirma el nombre del cliente. Después de confirmar su nombre, al cliente C se le da una breve explicación de cómo trabaja el sistema automático, incluyendo preguntas de muestra. Después se le impulsa a mencionar su pregunta en sus propias palabras. El cliente C menciona que desearía cerrar su cuenta con la compañía. El sistema automático permite al cliente confirmar su número de cuenta. El cliente C oprime su número de cuenta en el teclado del teléfono. El sistema le dice al cliente C que espere mientras se transfiere a un agente. El sistema pasa la llamada a la compañía de agente apropiada para transacción. El siguiente agente disponible recibe un registro de la pregunta del cliente C y recibe una pantalla aparición instantánea con su información de cuenta. El agente toma el mandó de la llamada al preguntar cuando el cliente C desearía cerrar su cuenta. El sistema cambia entre esos tres modelos de manejo de conversación basándose en la capacidad del sistema de controlar la situación. Por ejemplo, en un modo de conversación automático, sí el sistema es incapaz de acoplar la pregunta del cliente con un par de pregunta/respuesta estándar con suficiente confianza, después el sistema puede cambiar al modo de ayuda de agente mezclado. Además, en un modo de ayuda de agente mezclado, si el agente humano determina que ninguna de las especies generadas por la computadora son apropiadas dado la pregunta del cliente, después el sistema puede cambiar al modo de conversación de toma de mandó de ayuda de agente y el agente humano termina la conversación. En una modalidad preferida de está invención, el cliente también tiene la capacidad de cambiar modos de conversación. Por ejemplo, el cliente puede desear cambiar del modo de conversación automático. En otra modalidad, el sistema puede ajustar el umbral de confianza la interpretar la comunicación del cliente basándose en que tan ocupados están los agentes humanos. Esto puede dar a los clientes la opción de intentar repuestas automáticas más que esperar a agentes humanos ocupados. Un modo adicional de manejo de conversación ocurre cuando el agente humano tiene suficiente experiencia con los patrones de comunicación del sistema. En ese caso, si la comunicación del cliente se acopla con transiciones con un nivel bajo de confianza, el agente humano puede decidir volver a mencionar la pregunta de cliente con texto substituto que pueda resultar en un acoplamiento más exitoso. Sí es así, después la conversación puede continuar en el modo automático. Las conversaciones entre un cliente y un centro de contacto que se manejan por el sistema que utilizan estos tres modos de conversación se modelan por el cuadro de flujo ilustrado en la Figura 3. En este flujo, primero un usuario inicia una conversación al comunicar una pregunta o declaración al centro de contacto (2). Después, la comunicación se convierte en texto (4). La transición identificada puede contener datos variables que son pertinentes a la respuesta subsecuente por el sistema. Los datos variables pueden ser el nombre del tiempo o número de identificación y tienen un tipo de datos específico {fila, número, fecha, etc.}. Los datos variables (cuando están presentes) se extraen del texto de la comunicación del cliente (6). Las reglas especiales pueden utilizarse para identificar los datos variables. Después, el motor de reconocimiento de concepto analiza el texto restante en S-Morfos y recolecta una "bolsa de conceptos" que se acopla a estos S-Morfos (8). Después, el sistema identifica la transición del estado actual cuyos conceptos se acoplan a los conceptos extraídos de la comunicación del cliente con el nivel más lato de confianza (10). Si las variables de datos se esperan en la transición, después el acoplamiento de tipo de datos de las variables esperadas con el tipo de datos de las variables extraídas se incluye en la comparación. Si la confianza del acoplamiento es superior que un umbral establecido (12), después el sistema asume que el cliente está en la transición identificada. En este caso, el sistema puede tener que revisar los datos por la respuesta que se acopla a la transición identificada (14). Por ejemplo, si la comunicación del cliente es una pregunta que solicita sobre horas de operación de negocio, después el sistema puede revisar las horas de operación en una base de datos. Después, el sistema envía la respuesta de acoplamiento al usuario con los datos extra si es parte de la respuesta (16). Está respuesta puede ser una o muchas formas de comunicación. Sí la conversación está en el teléfono, después la respuesta de sistema puede ser diálogo generado por computadora. Sí la conversación está basada en texto, después la respuesta puede ser texto. De la respuesta puede estar en texto incluso aunque la pregunta este en diálogo, o viceversa. El sistema identifica una transición con suficiente confianza (12), después un agente humano en el centro de contacto se impulsa para ayuda. El agente humano de una interfase de usuario gráfica con una presentación de la conversación también (18). El sistema también muestra al agente humano una lista de transiciones esperadas del estado actual clasificadas en el orden de la transición con el mejor acoplamiento con la comunicación del cliente al peor acoplamiento. El agente humano determina si una de las transiciones esperadas es apropiada para el contexto de la conversación (20). Sí una transición es apropiada, después el agente humano indica la transición al sistema y el sistema continúa a la conversación en el modo automático (14). De otra forma, si el agente humano determina que ninguna transición es apropiada para el contexto de la conversación, después el agente humano directamente toma el mandó de la conversación hasta su termino (28). El sistema puede continuar expandiendo su base de conocimiento mientras está en modo operacional (tiempo de funcionamiento). El sistema registra conversaciones entre el agente humano y el cliente cuando el sistema está en el modo de toma de mando de ayuda de agente. En intervalos regulares, estas conversaciones se procesan como en la creación inicial de la base de conocimiento y las nuevas secuencias de transición de estado se agregan a la base de conocimiento. Una diferencia es que el modo de toma de mando de ayuda de agente típicamente comience en un estado después del estado inicial. De esa forma, una de las nuevas secuencias de transición de estado típicamente se agrega a la gráfica de transición de estado agregado como una transición de un estado no inicial. Cada vez que se agrega una nueva secuencia de transición de estado a la gráfica de transición de estado agregado en la base de conocimiento, el gráfico de transición de estado agregado se comprime como se describió previamente. Una implementación ilustrativa del sistema se ilustra en la Figura 4. El servidor de conversación 30 es el motor de tiempo de funcionamiento del sistema. El servidor de conversación 30 es una aplicación de Edición de Empresa Java 2 (J2EE) desplegada en un servidor de aplicación J2EE. Está aplicación se desarrolla y despliega al servidor de conversación utilizando al estudio de conversación 32. La Figura 4 muestra la relación entre el servidor de conversación 30 y el estudio de conversación 32. El sistema es una aplicación de conversación de canales múltiples. Dentro del servidor de conversación 30, los grupos de los agentes de software automáticos ejecutan la aplicación de sistema. Por el canal múltiple, queremos decir, por ejemplo, que los agentes de software son capaces de interactuar con personas que llaman en múltiples canales de interacción: teléfonos, web, Envío de Mensajes Instantáneos, y correo electrónico. Por conversación, queremos decir que los agentes de software tienen conversaciones interactivas con personas que llaman similares a las conversaciones que los agentes humanos tienen con las personas que llaman. El sistema utiliza un desarrollo de aplicación iterativo y paradigma de ejecución. Como se explicó anteriormente, los diálogos de la persona que llaman y agente que soportan la aplicación de sistema están basados en los diálogos reales entre las personas que llaman y el cliente humano soporta a los agentes dentro del centro de contacto. La Figura 4 también muestra la relación entre el servidor de conversación y otros elementos del sistema. El servidor de conversación 30 interactúa con un servidor de información de empresa (34) que acepta datos que se originan de clientes y proporcionan datos para respuestas a preguntas de cliente. La estación de trabajo de agente 36 ejecuta software con una interfase de usuario gráfica que permite a un agente humano seleccionar transiciones para el sistema cuando una conversación está en le modo de ayuda de agente mezclado. El teléfono de agente 38 permite al agente humano ingresar en una conversación oral en vivo en un cliente cuando la conversación está en le modo de toma de mandó de ayuda de agente. El sistema también incluye un servidor de aprendizaje 31 que implementa procedimientos para ayudar al sistema aprender de llamadas después de que se despliega el sistema. El servidor de aprendizaje 31 se describe en más detalle más adelante con respecto a la Figura 17. La arquitectura interna del servidor de conversación 30 se ¡lustra en la Figura 5. El servidor de conversación 30 tiene un grupo central de cuatro uniones que soportan la lógica de la aplicación del sistema. Estás uniones son las cuatro uniones que se encuentran tradicionalmente en servidores de aplicación web. Son la presentación 40, flujo de trabajo 42, negocio 44, e integración 46. La unión de presentación 40 es responsable de presentar información a usuarios finales. Los servidores tal como Página de Servidor Java (JSPs) son las tecnologías J2EE tradicionalmente enviadas en está unión. La unión de presentación se compone de dos subsistemas: el subsistema de canal de interacción 48 y el subsistema de interacción de agente 50. El subsistema de canal de interacción 48 controla la interacción del servidor de conversación 30 con clientes en cada uno de los canales de interacción: web 52, VozXML 54, chat de Messenger Instantáneo 58, y correo electrónico 58. El subsistema de interacción de agente controla la interacción del servidor de conversación 30 con los agentes humanos dentro del centro de contacto. La unión de flujo de trabajo 42 controla la secuencia de acciones. Estás acciones incluyen transacción contra los objetos de negocio dentro de la unión de negocio y las interacciones con usuarios finales. En el servidor de conversación 30 la unión de flujo de trabajo 42 se llena por agentes de software 60 que entienden las conversaciones que se controlan con clientes. Además, estos agentes interactúan con los objetos de negocio dentro de la unión de negocio 44. Los agentes de software 60 son los interpretes de lenguaje de marcación producido por el estudio de conversación 32 (el sistema de despliegue de aplicación 40). La unión de negocio 44 sostienen los objetos de negocio para el dominio de aplicación. Java Beans de empresa (EJBs) son la tecnología tradicionalmente empleada en la unión de negocio. El servidor de conversación no introduce tecnología especifica de sistema en está unión. Más que eso, emplea el mismo grupo de componente disponible para otras aplicaciones desplegadas en el servidor de aplicación J2EE. La unión de integración 46 es responsable de la interfase del servidor de aplicación a bases de datos y sistemas externos. Los Conectores J2EE y Servicios Web son las tecnologías tradicionales empleadas en está unión. Similar a la unión de negocio 44, el servidor de conversación 30 no introduce la tecnología especifica de sistema en está unión. Más que eso, emplea los componentes J2EE tradicionales. El valor de una unión de integración común es que cualquier trabajo que integre sistemas externos está disponible para otras aplicaciones desplegadas en el servidor J2EE. Rodeando el grupo de núcleo de cuatro uniones está un grupo de subsistemas que facilitan las operaciones del servidor de conversación 30. Estos subsistemas son el despliegue 62, registro 64, interfase de servidor de contacto 66, estadística 68, y manejo 70. El subsistema de despliegue soporta el despliegue iterativo, caliente de las aplicaciones de sistema. Esto se ajusta dentro del despliegue de aplicación iterativa en donde las conversaciones se registran y se realimentan al estudio de conversación 32 en donde el personal dentro del centro de contacto puede aumentar la aplicación con frases que la aplicación de sistema no entiende. El subsistema de registro 64 mantiene un registro de las conversaciones que los agentes de software 60 tienen con los clientes y los agentes de soporte de clientes. Este registro es la entrada al procedimiento de desarrollo de aplicación iterativa soportado por el estudio de conversación 32. El servidor de aprendizaje 31 utiliza estas llamadas registradas para generar un grupo de oportunidades de aprendizaje para el motor de reconocimiento de concepto (CRE) 74. La interfase de servidor de contacto (CTI) 66 proporciona una interfase unificada a un número de CTI y servidores de contacto 72.
El subsistema de estadística 68 mantienen las estadísticas de control de llamada para los agentes humanos. Estas estadísticas son equivalentes a las estadísticas proporcionadas por ACD y/o servidores de contacto 72. El agente de operaciones del centro de llamado puede utilizar estas estadísticas para asegurar que el centro tiene suficiente fuerza de trabajo de agentes humanos para servir el tráfico del centro que se anticipa. El subsistema de manejo 70 permite al servidor de conversación 30 manejarse por el personal de manejo de red dentro de la empresa. El subsistema 70 soporta un protocolo de manejo de red de estándar tal como SNMP para que el servidor de conversación 30 pueda manejarse por los sistemas de manejo de red tal como Vista Abierta HP. La Figura 6 muestra los componentes de la unión de flujo de trabajo 40 del sistema. Los agentes de software 60 son la entidad primaria dentro de la unión de flujo de trabajo 40. Los agentes de software 60 son las entidades automáticas que soportan las conversaciones con los clientes, agentes humanos dentro del centro de contacto, y los sistemas de final. Todas estas conversaciones se mantienen de acuerdo con las aplicaciones desarrolladas y desplegadas por el estudio de conversación 32. Los requerimientos funcionales en la unión de flujo de trabajo 40 son: Distribuir, agrupar, y hacer disponibles los agentes de software capaces de controlar cualquiera de las aplicaciones desplegadas al servidor de conversación 30. Esta capacidad de agrupamiento de agente es similar a la capacidad de agrupamiento de caso de EJBs. Esto también se ajusta dentro del modelo de manejo de fuerza de trabajo de los centros de contacto. El canal de interacción distribuye un agente de software 60 y solicita que el agente de software 60 controla una aplicación particular. La unión de flujo de trabajo 40 interactúa con un administrador de aplicación que maneja las aplicaciones. El administrador de aplicación seleccionara a la versión de la aplicación para emplear (como se instruye por el desarrollador de aplicación). El agente de software 60 revisa con el administrador de licencia para asegurar que las interacciones se permite sobre dos canales de solicitud. Si no es así, el agente de software 60 regresa a una respuesta apropiada. Los agentes de software son capaces de mantener múltiples diálogos una vez. Los agentes de software pueden sostener una conversación con al menos un cliente mientras conversan con un agente humano con la resolución de una respuesta. Está capacidad puede extenderse para tener a los agentes hablando con los clientes en múltiples canales a la vez. Los agentes de software 60 mantienen la conversación de acuerdo con la aplicación desarrollada en el estudio de conversación 32. Los agentes de software 60 llaman al motor de reconocimiento de concepto (CRE) 74 para interpretar la entrada de cliente en el contexto que se recibió y actúa con los resultados regresados. Cada agente de software 60 mantiene una trascripción de la conversación que está teniendo. Está trascripción finalmente se registra a través del subsistema de registro de conversación. La trascripción contiene la siguiente información toda apropiadamente registrada a tiempo: • La aplicación que se corre. • La ruta a través del dialogo con el cliente que incluye: o La entrada de cliente como reconocida por texto así como la frase hablada. o El estado del dialogo (contexto, transiciones, etc.) o Los resultados de reconocimiento de significado, o Las acciones de agente de software tomadas basándose en los resultados de reconocimiento de significado, o La salida enviada al cliente. Una de las acciones que el agente de software 60 puede tomar es para solicitar la ayuda de un agente humano. Esto resultará en una sub-transcripción para el diálogo con el agente humano. Está trascripción contiene: • Estadísticas de consulta para el grupo de agente al inicio de la llamada. • Cuando la llamada se coloca y se contesta. • Una sub-transcripción de las acciones de agente con la llamada que incluyen: o Sí el agente ayuda a tomar el mando, o Acciones que el agente toma al ayudar; por ejemplo, seleccionar de la lista de reapuestas presentadas por el agente de software 60, ajustar la pregunta y buscar la base de conocimiento, crear una respuesta de costumbre. o Sí el agente marca una respuesta particular para revisión y las notas del agente coloca en la respuesta. o Las instrucciones del agente al agente de software 60. • La unión de flujo de trabajo 42 producirá las estadísticas para el grupo(s) de agentes de software 60. Estas estadísticas se publicaran a través del subsistema de estadísticas 68. • Los parámetros de operación que rigen la unión de flujo de trabajo 42 (por ejemplo, agentes mínimos y máximos/aplicación, incrementos de crecimiento) se recuperarán de la base de datos de configuración manejada a través del subsistema de manejo 70. La Figura 6 muestra los componentes que forman la unión de flujo de trabajo 42, el administrador de agente 76 y el caso de agente. El administrador de agente 76 controla el grupo de casos de agente en la distribución de estos casos para aplicación particular. El administrador de agente 76 es en respuesta para interactuar con otros administradores/subsistemas que conforman el servidor de conversación 32 (no mostrado esta la interacción de administrador de agente 76 con el subsistema de Estadísticas 68). Cada caso de agente 60 registra una trascripción de conversación con el Administrador de Registro 78. La unión de presentación consiste de dos subsistemas: canales de interacción 48 y el subsistema de interacción de agente 50. Existe un canal de interacción asociado con cada uno de los modos de interacciones soportados por el servidor de conversación: HTML 80, VozXML 82, Messenger Instantáneo 84, y correo electrónico 86. El subsistema de canal de interacción 48 se construye con la infraestructura de procesamiento Cocoon XSP. El canal de interacción 48 de procesamiento se ilustra en la Figura 7. Los requerimientos funcionales de los canales de interacción son: • Iniciar, mantener, y terminar una sesión de interacción para cada conversación con un cliente (usuario final). Como parte de esa sesión, el canal de interacción mantendrá el caso del agente que maneja el estado del diálogo con el cliente. • Determinar el tipo de canal y aplicación del localizador de Recurso Uniforme (URL). El URL puede tomar la forma de http:://hostadress/applicationname.minetype?parameters en donde la dirección de alojamiento = dirección IP y puerto; nombre de apl¡cación = nombre desplegado de la aplicación; tipo MIME = indica tipo de canal (por ejemplo, html, vxml, etc.); parámetros = parámetros de solicitud. • Para los canales HTML y VozXML, para pasar la solicitud http a la gente para procesamiento. Para el canal IM y de correo electrónico, para realizar un paso de procesamiento de solicitud equivalente. • Para traducir la respuesta independiente de canal a una respuesta específica de canal que utiliza el lenguaje de definición de documento apropiado (HTML, VozXML, SIMPL, SMTP, etc.). Está traducción se rige por las hojas de estilo XSL. La definición de las respuestas y las hojas de estilo de procesamiento es parte de la definición de aplicación y se regresa por el agente en respuesta a cada una de las invocaciones de procesamiento de solicitud. La definición de las respuestas y las hojas de estilo XSL caen en tres casos de uso. El canal de interacción no está particularmente consiente de estos casos de uso. El documento de respuesta y una hoja de estilo XSL se definen en una base de canal para la aplicación. El documento de respuesta solicita los contenidos de la etiqueta <salida> CML así como otros artefactos generados del CML (por ejemplo, archivo gramático). En el caso de uso "archivo", el usuario define el documento de respuesta dentro de la aplicación. El documento de respuesta se procesa al utilizar la hoja de estilo XSL definida en el canal. El documento de respuesta debe adherirse al DTD que rige los documentos de respuesta. Este DTD permite que se definan formas de campo múltiples. En el caso de uso "abierto", el usuario define el documento de respuesta así como la hoja de estilo XSL. No se coloca ninguna restricción en el documento o el servidor de conversación 30 y es responsable de ninguno de los resultados con respecto al procesamiento de la respuesta. Esta traducción controla tanto la transformación del lenguaje de documento específico de canal como la marca de una respuesta de un cliente particular. Para el canal de VozXML 54, el canal de interacción 82 es responsable de registrar la solicitud de cliente registrada e informara a la gente de la ubicación del registro para la intrusión del registro de conversación y/o pasar en el murmullo a un agente humano. Como se mencionó previamente, el subsistema de canal de interacción 84 se implementa al utilizar la infraestructura Cocoon. La infraestructura Cocoon proporciona un paradigma de controlador de vista de modelo en la unión de presentación 40 de una infraestructura de servidor de aplicación web. Un servidor 90 (el controlador) maneja la solicitudes HTTP e ínteractúa con el caso de agente 60 para procesar la solicitud. El caso de agente 60 regresa el documento XSL de respuesta y la hoja de estilo XSL para aplicar a la salida del documento. El documento XSP (el modelo) se cumple y ejecuta como un servidor 92. El documento solicita parámetros del caso de agente para producir su salida, una corriente XML. Un documento XSP es el equivalente de un documento JSP. Similar al procesamiento JSP, la recopilación XSP solamente ocurre si el documento XSP cambió desde la última vez que se recopilo. La corriente XML se transforma de acuerdo con la hoja de estilo XSL (la Vista) al lenguaje específico al canal de interacción (por ejemplo HTML, VXML). El subsistema de interacción de agente humano (AIS) es responsable de establecer un diálogo con un agente humano dentro del centro de contacto manejar la colaboración entre el agente de software y el agente humano para resolver una respuesta que es incierta. El subsistema también se utiliza cuando una transferencia y una aplicación se solicita en una aplicación. El subsistema de interacción de agente interactúa con la Interfase de Servidor CTI para ejecutar la conexión dentro del centro de contacto. La Interfase de Servidor CTI también proporciona al subsistema de interacción de agente estadísticas de consulta que pueden alterar su comportamiento con respecto a la conexión del grupo de agente. Es un sistema de interacción de agente (AIS) hace las siguientes acciones: • Iniciar, mantener, y terminar un diálogo con un agente humano dentro del centro de contacto para resolver una respuesta que esta en pregunta. El agente humano es un miembro de un grupo de agente específico designado para controlar resoluciones para está aplicación particular. • Como parte de inicio en un diálogo con un agente, el AIS distribuye y pasa un control a la sesión de agente que permite a la aplicación descrita de agente humano colaborar en la resolución de la respuesta. • El AIS proporciona una ¡nterfase de programa siendo aplicación (API) a través del cual la aplicación de escritorio de agente humano es capaz de recuperar lo siguiente: la solicitud de cliente y las respuestas sugeridas que actualmente requieren resolución; configuraciones de umbral que llevan a la solicitud de resolución y si la solicitud de resolución es debido a demasiadas respuestas buenas o muy pocas respuestas buenas; el tipo de canal de interacción de cliente; la trascripción de la conversación a la fecha; el estado actual del flujo de trabajo asociado con está conversación de cliente, por ejemplo, el número de tiempos que los agentes humanos ayudaron en está conversación, a longitud de tiempo que el cliente habla a un agente de software, el estado (contexto) que el cliente está con respecto a la conversación y potencialmente, alguna medida de progreso basándose en el estado y tiempo de la conversación; y las propiedades de aplicación (si es red) actuales. • La API de AIS también permite al agente humano: seleccionar la respuesta para regresar al cliente, modificar la solicitud y buscar la base de datos MRE, y potencialmente seleccionar la respuesta para regresar al cliente, tomar un mando de la llamada del agente de software; y marcar una interacción de solicitud/respuesta para revisión en el registro de conversación y asociar una nota con la interacción. • La API de AIS también expone la interfase JTAPI para permitir al agente humano registrar la entrada/salida del servidor de contacto 72 y manejar su estado de trabajo con respecto a las consultas de centro de contacto. • La API de AIS emplea un formato independiente del lenguaje que permite que se acceda desde un número de tecnologías de implementación. • La AIS soporta la dirección de llamados de voz del servidor de VozXML 54 al centro de contacto y la asociación subsecuente de esas llamadas de voz con una sesión de agente particular.
• La AIS permite a un diseñador de aplicación definir la presentación de datos de aplicación al agente humano. Esta presentación debe utilizar el mismo procesamiento XSL empleado en el canal de interacción (82, 84, 86, u 88). La parte del subsistema de interacción de agente humano es una aplicación de escritorio de agente que permite a la gente de centro de contacto controlar una llamada de resolución. Está aplicación toma dos formas: • Escritorio de Agente Humano Genérico. El escritorio opera en ambiente de Manejo de relaciones de Cliente (CRM) no integradas y funciona como un procedimiento separado en el escritorio de agente conectado al CTI y servidor CS. • Componente CRM. Este escritorio se empaca como un componente (componente activo X o Applet(aplicación pequeña)) que corre dentro del contexto de un paquete CRM. El reconocimiento de diálogo es la técnica de convertir automáticamente lenguaje hablado por humano en texto. Existen muchos ejemplos de sistemas de reconocimiento de diálogo. En implementaciones del sistema en el cual el cliente conversa en el teléfono, el reconocimiento de diálogo (realizado por un ASR en línea) es el primer paso en acoplar la comunicación del cliente con respuestas apropiadas. El reconocimiento de diálogo típico ocasiona aplicar técnicas de procesamiento de señal al diálogo para extraer fonemas significativos. Después, un motor de búsqueda de software se utiliza para buscar palabras de un diccionario que pueden interpretarse de estos fonemas. La porción de reconocimiento de diálogo del sistema guía está búsqueda por el conocimiento del contexto probable de la comunicación. El diagrama de bloque de está porción de reconocimiento de diálogo del sistema se ilustra en la Figura 8. Como se describió previamente, el sistema tiene acceso a una base de cono cimiento que consiste de un lenguaje de marcación, EML, que define un gráfico de transición de estado de conversaciones estándar entre el cliente y el centro de llamado de contacto. Debido a que el agente de software mantiene el rastro del estado actual de la conversación, puede revisar todas las transiciones probables de este estado. Cada una de estas transiciones tiene una "bolsa de conceptos" o una "bolsa S-Morfos" 104. Estos S-Morfos 104 pueden convertirse en texto de acoplamiento 112. La agregación del texto de acoplamiento de todas las transiciones probables es un subgrupo de todas las palabras en un diccionario. En general, es más eficiente buscar acoplar un subgrupo de un grupo más que el grupo completo. De esa forma, el motor de búsqueda 102 para este reconocedor de diálogo primero intenta acoplar los fonemas de la comunicación de cliente, contra el texto 112 de todas las transiciones probables. El motor de búsqueda 102 busca en el diccionario cualquier combinación restante de fonemas no acoplados con este texto. El motor de reconocimiento de concepto 74 (mostrado en la Figura 5) utilizado en algunas implementaciones del sistema es una tecnología de procesamiento de lenguaje natural avanzado que proporciona una forma independiente del lenguaje voluminosa de preguntas de lenguaje natural de usuarios de entendimiento tanto de fuentes textuales como de audio. La tecnología automáticamente indexa e interactúa con información basándose en el significado, o contexto semántico, de la información más que en las palabras literales. El motor de reconocimiento de contexto entiende la forma en que la gente realmente habla y escribe, lo que permite al sistema a acoplar inteligentemente a los usuarios en conversaciones complejas independientes de frases o lenguaje, para facilitar el acceso a la información deseada. El motor de reconocimiento de concepto está basado en un análisis de nivel de morfema de frases, que le permiten producir un "entendimiento"de los componentes mayores del significado encapsulado. Está técnica es computacionalmente eficiente, más rápido que las tecnologías naturales tradicionales e independiente del lenguaje además de ser extremadamente exacta y voluminosa. La mayoría de los otros sistemas que aplican procesamiento de lenguaje natural utilizan análisis sintáctico para encontrar frases sinónimas para la entrada de usuario. El análisis primero identifica cada palabra, o componente de una palabra, en la frase que utiliza diccionarios lingüísticos extremadamente grandes. Después, los sistemas intentan acoplar estos elementos a entradas especificas en una lista rígida (es decir, palabra o índices de palabras clave). Como resultado. Estos sistemas utilizan acoplamiento basado en el nivel de filas de carácter; sí al menos un carácter es diferente de la entrada de índice objetivo, el acoplamiento falla. Con le motor de concepto utilizado en algunas implementaciones del sistema, el delineado no está basado en un grupo fijo de palabras, frases o elementos de palabra, pero en un grupo fijo de conceptos. Como resultado de su énfasis en procesamiento semántico, el procedimiento de reconocimiento de concepto es intrínsicamente voluminoso, trabaja extremadamente bien con datos de entrada "ruidoso". Esto es útil para la capacidad del sistema para reconocer la palabra hablada que utiliza software de reconocimiento de diálogo. El sistema emplea un procedimiento para reconocer exactamente el significado en interacción de conversación de mundo real, a pesar de los errores tipográficos comunes, errores generados por el software de reconocimiento de diálogo, o palabras fuera de contexto. Los usuarios pueden decir cualquier combinación de palabras, y el sistema es flexible y lo suficiente para entender la intención de los usuarios. El motor de reconocimiento de concepto está basado en algoritmos que crean y comparan etiquetas semánticas. Una etiqueta semántica para una pieza de texto de cualquier longitud es una codificación corta que captura los componentes más importantes de este significado. Cuando los artículos en el almacenamiento (s) de datos de fuentes se etiquetan con etiquetas semánticas, pueden recuperarse, o manejarse en otras formas, al delinearlos selectivamente a consultas de voz o de texto de forma libre u otras fuentes de texto de entrada, independientes de las palabras reales y la puntuación utilizada en estás fuentes de texto de entrada. Por ejemplo, un usuario puede preguntar al sistema "¿cómo puedo regresar pantalones que no me quedan?" se proporcionará con información relevante de una base de datos de política de regreso de la organización, incluso si la información correcta no contiene las palabras "pantalones" o "regresar" en cualquier lugar dentro de estas. Alternativamente las consultas de usuario con palabras que buscan la misma información se delinean conceptualmente a las mismas políticas de regreso, independientes de las palabras reales utilizadas en la fila de entrada. Este acercamiento une el espacio entre las ventajas de la red del software de reconocimiento de diálogo automático de modelo de lenguaje estadístico (SLM ASR) y ASR gramático de estado finito. Está tecnología se llama el motor de reconocimiento de concepto (CRE), un algoritmo de procesamiento de lenguaje natural. El motor de reconocimiento de concepto (CRE) proporciona una forma independiente de lenguaje, voluminosa de preguntas de lenguaje naturales de usuario de entendimiento tanto de fuentes textuales como de audio. La tecnología es una tecnología de procesamiento de lenguaje natural avanzada para indexar, delinear e interactuar con información basada en el significado, o contexto semántico, de la información más que en palabras literales. Como opuesto a la mayoría de otros esfuerzos de lenguaje naturales, la tecnología no confía en un análisis lingüístico formal completo de frases en un intento de producir un "entendimiento" completo del texto. En vez de eso, la tecnología está basada en un análisis de nivel de morfema de frases que le permiten producir un "entendimiento" de los componentes mayores del significado de encapsulado. Los morfemas se definen como la unidad más pequeña de lenguaje que contiene significado, o contexto semántico. Una palabra puede contener uno o varios morfemas, cada uno que puede tener un significado individual o múltiple. Un ejemplo relativamente simple de esto se ¡lustra utilizando la geografía de palabra que está compuesta de geografía de morfemas, lo que significa el globo, y gráfico que significa ilustración. Estos dos distintos morfemas cuando se combinan, forman un concepto que significa el estudio del globo. De esa forma, las unidades individuales de significado pueden combinarse para formar nuevos conceptos que se entienden fácilmente en comunicación normal. La tecnología está basada en algoritmos para crear y comparar etiquetas semánticas. La etiqueta semántica para una pieza dada de texto de cualquier longitud es una codificación corta que captura los componentes más importantes de este significado. Cuando los artículos en una "base de datos" se etiquetan con etiquetas semánticas, pueden recuperarse o delinearse selectivamente al analizar consultas de texto de forma libre generadas por usuario u otros tipos de filas de texto de entrada, independientes de las palabras reales y puntuación utilizadas en las filas de entrada. CRE determina el contexto en doble con el SLM ASR al analizar la salida de motor resultante y asignado etiquetas semánticas que después pueden compararse con una base de datos indexada de la información de compañía. Además, el CRE ayuda a suprimir los defectos de errores de reconocimiento de diálogo al ignorar a aquellas palabras muy comúnmente mal reconocidas (las palabras pequeñas) y utilizar las palabras de contexto más pesado en su análisis. El efecto, por lo tanto, del CRE es permitir a los sistemas de autoservicio que exactamente reconocen el significado en interacción de conversación de mundo real, a pesar de errores tipo gráficos comunes o errores generados por el software de reconocimiento de diálogo. Más simplemente poner, la combinación de estas dos tecnologías permite a los sistemas reconocer lo que dijo al entender lo que quiso decir. En tiempo de diseño, el CRE automáticamente indexa a los datos que se buscarán y recuperaran por usuarios. En aplicaciones de conversación, estos datos son los registros transcritos de conversaciones de cliente con agentes de centro de llamado, pero cualquier grupo de información textual (documentos, listas de Preguntas Frecuentemente Hechas (FAQ), información de texto libre dentro de una base de datos, argumentos de plática, correos electrónicos, etc.) pueden indexarse al utilizar CRE. Indexar es el procedimiento por el cual los grupos de CRE o datos de "grupos" de acuerdo con su similitud conceptual. Diferente a los índices alfabéticos tradicionales, los grupos creados por el CRE son referencias conceptuales especiales que se almacenan en un espacio de dimensiones múltiples llamado espacio de concepto. Se "etiquetan" utilizando un grupo de conceptos atómicos primarios (los bloques de construcción básicos de significado) que pueden combinarse para generar la descripción de cualquier concepto sin tener que crear manualmente y mantener una base de datos especializada y muy grande de conceptos. Debido a que el índice de conceptos permite que la información se busque maneje basándose en su significado en vez de palabras, puede desarrollarse una aplicación de manejo de diálogo tolerante a error e inteligente mucho más eficiente. A través de este procedimiento de agrupamiento, el CRE también extrae las transiciones entre grupos (es decir, el flujo de llamado) y genera indexa que posteriormente delineara preguntas de cliente de forma libre a respeto de agente encontradas en el registro de llamado. En tiempo de funcionamiento en algunos ejemplos, el CRE realiza este mismo procedimiento en preguntas del cliente en tiempo real. Como a la salida del motor de reconocimiento de diálogo y la descompone en su grupo de morfema asociado que utiliza técnicas de análisis morfológicos. El sistema controla también datos de entrada agrupados, que incluyen malos deletreos, amarrados de puntuación, y fuera de contexto o palabras fuera de orden, y no hay limitaciones preestablecidas en la longitud de la frase de entrada. El CRE después utiliza análisis de concepto para convertir morfemas en los conceptos atómicos primarios descritos anteriormente, ensambla este grupo de conceptos atómicos en un código de concepto individual para la entrada completa y después delinea el código a su código equivalente dentro de los datos indexados. En una aplicación de conversación, este procedimiento esencialmente "señala" la entrada de usuario a un estado de diálogo de sistema que puede ser una respuesta de sistema, árbol de menú de respuesta de voz interactivo (IVR) existente, o instrucción para consultar sistemas de transacción de información de cuenta de cliente. Este procedimiento genera un medio voluminoso para reconocer y "entender" automáticamente consultas de usuario de conversación altamente ambiguas dentro del contexto de una aplicación de autoservicio de centro de contacto. El efecto de está combinación de reconocimiento de diálogo CRE y SLM es mejorar la capacidad de poner la información disponible para los clientes a través de la automatización. La información corporativa que no se ajusta bien a un menú IVR de cinco opciones o gramática de diálogo predefinido puede ponerse disponible a través de una interfase de conversación. Debido a que la entrada de cliente resultante tiene un contexto asociado con ella, más opciones se hacen disponibles para como los sistemas inteligentemente controlan interacciones complejas. La aplicación de un acercamiento de modelo de vector espacio de factores semánticos en vez de espacio de palabras proporciona los siguientes beneficios: 1. La transición de si misma de palabras a conceptos mueven de ser más estadístico a ser más semántico. 2. El modelo de vector tradicional frecuentemente se llama un "modelo de bolsa de palabras" para subrayar el carácter combinatorio del modelo ignorando cualquier relación sintáctica o semántica entre palabras. Por analogía podemos llamar al modelo de vector un "modelo de bolsa de conceptos". En un modelo de vector tradicional calculamos algunos parámetros externos (palabras) estadísticamente asociados con parámetros internos de nuestro interés, concepto. En el modelo de vector calculamos conceptos directamente. 3. Mientras el número de factores semánticos es tan pequeño que el número de palabras incluso en un lenguaje básico de la intensidad de cálculo en el modelo de vectores considerablemente inferior. Otras técnicas de aprendizaje de máquina pueden utilizarse para formar una confianza basada en clasificación de concordancia. Por ejemplo, uno podría utilizar la inducción de árbol de decisión o construcción de máquinas de vector de soporte. Las combinaciones de técnicas de aprendizaje que utilizan amplificación también podría ser posible. Se han descrito anteriormente partes separadas del ciclo completo de dos pasos del trabajo de modelo: Objeto de Texto de Lenguaje de Entrada > Etiqueta Semántica > Objeto de Texto de Lenguaje de Salida. Es importante ver que los dos pasos en el ciclo son claramente independientes. Están conectados solamente a través de la etiqueta semántica la cual es un "lenguaje" interno no asociado con ninguno de los lenguajes humanos. Está característica hace posible y relativamente fácil en cualquier aplicación cambiar el lenguaje tanto en el lado de entrada como en el lado de salida. El primer paso es esencialmente dependiente del lenguaje. Esto significa que cambiar un lenguaje diferente requiere generación automática de la etiqueta semántica para una frase en un lenguaje dado. Más adelante describimos dos formas posibles de resolver este problema. El segundo paso está basado en el índice semántico. El índice por sí mismo no cuida el lenguaje de los objetos, solo lo señala y las etiquetas semánticas asociadas con los apuntadores son independientes del lenguaje. No hay información especifica del lenguaje en le índice semántico. Un primer acercamiento es recopilar nuevos diccionarios S-Morfos para el nuevo lenguaje. Para cada lenguaje escrito por humano un grupo de S-Morfos puede recopilarse. El procedimiento de recopilación puede estar basado en un análisis de un vocabulario ya sea de un cuerpo grande de texto o de un gran diccionario en este lenguaje. Al tener tal grupo completo de S-Morfos en un lenguaje (inglés) es útil para crear un grupo similar de S-Morfos en otro lenguaje. Como un punto de partida podemos intentar observar solo los equivalentes morfémicos en el segundo lenguaje. Esto reduce el esfuerzo de un análisis de cuerpo de trabajo intenso de otra forma en el segundo lenguaje. Es especialmente verdadero cuando movemos de lenguaje a lenguaje en le mismo grupo de lenguajes debido a que los lenguajes comparten mucho del "material" léxico. El grupo de S-Morfos en español es aproximadamente del mismo tamaño que el de Inglés. Los ejemplos de los S-Morfos en español son: LENGU, FRAS, MULTI, ESPAN, SIGUÍ. Después de hacer esto podemos necesitar hacer algún cambio del algoritmo de identificación de S-Morfo. Las buenas noticias sobre este algoritmo es que la mayoría de su trabajo es común para los lenguajes del mismo grupo. Incluso aunque cambie de ingreso a español sin ningún cambio de algoritmo, los resultados son satisfactorios. Si se necesitan se hacen pocos cambios de la mayoría de los lenguajes indo-europeos. El experimento de español demostró la energía de las capacidades del lenguaje de cruce de sistema: después recopilamos morfemas de español en español como un lenguaje de entrada se hace posible para todas las aplicaciones previamente desarrolladas para inglés. La base del conocimiento del lenguaje se utiliza para almacenar la información necesaria para el motor de reconocimiento de concepto. Está base de conocimiento tiene tres componentes mayores: diccionario de factor semántico, S-Morfo y diccionario de sinónimos. Cada entrada en el diccionario de factor semántico incluye: a) Nombre de factor semántico; b) Definición/descripción de factor semántico; c) Ejemplo de un código de concepto de palabra que utiliza este factor semántico. Cada entrada en los diccionarios S-Morfo incluyen: a) Texto S-Morfo; b) Código de concepto de factor semántico con partes separadas, sememas para significados alternativos de morfemas polisémicos; c) En etiquetas de códigos de factores múltiples para factores de cabeza a los cuales puede aplicarse modificación. Un diagrama de bloque funcional del motor de reconocimiento del concepto se ilustra una Figura 9. Los bloques de este diagrama se describen como siguen. El diccionario S-Morfo 122 y el Diccionario de Factor Semántico 124 se utilizan por el analizador 128 para producir un grupo de códigos de concepto. Después, el archivo CML se genera en la base de ejemplos 142.
Esto resulta en un archivo CML que se conoce por datos en la base de un diccionario ideológico. El siguiente paso es pasar revisión y editar el archivo CML. Está revisión y edición consiste en los siguientes pasos: a) Presentar ocurrencias de fila con criterios de búsqueda diferentes; b) Agregar una nueva paráfrasis; c) Agregar un nuevo par de pregunta-respuesta; d) Remover una paráfrasis de algunas paráfrasis; e) Remover un par de pregunta-respuesta (con todas las paráfrasis) o pocos pares; f) Fusionar dos pares de pregunta-respuesta (con la elección de frases de entrada y salida); g) Dividir el par en dos pares con ayuda de frases de entrada y salida; h) Editar frases (que incluyen edición de grupo). Después, el archivo CML se toma como información de entrada en cualquier punto de edición y se construye un índice. Subsecuentemente, se acoplan dos enfadas y se hace un cálculo de similitud con CML/índice específico. Esto puede hacerse para dos frases; para dos códigos de concepto; para una frase y un código de concepto; para dos frases, para dos códigos de concepto, o para una frase y un código de concepto en un modo cíclico con una de las entradas llegando a cada momento del archivo de alimentación; y para acoplamiento automático y calculo de similitud con una de las entradas que llagan cada momento desde el archivo de alimentación y los resultados almacenados en un archivo de salida. Después, el análisis de pre-análisis se hace al crear seudo factores por nombres; procesar nombres de palabra individual y personales de palabras múltiples; procesar nombres de palabra individual y de palabras múltiples para negocios y productos; y generar etiquetas de parte de diálogo. En este punto el control de aplicación y pruebas se realiza.
Esto consiste de los siguientes pasos: a) Analizar un archivo de conversaciones de entrada ambas por los ciclos y automáticamente con diferencias con el procesamiento previo del mismo archivo ya sea presentado o enviado al archivo de salida. b) Control de umbral de similitud; c) intervalo delta (espacio en similitud entre el primer y segundo acoplamiento); d) Control del número de acoplamientos regresados. La meta principal del lenguaje de marcación de conversación (CML) es especificar un grupo de instrucciones al servidor de conversación para controlar "conversaciones" con clientes en una forma automática o semiautomática. Las conversaciones automáticas son aquellas que se controlan completamente por el servidor de conversación desde el inicio hasta el fin. Las conversaciones semiautomáticas primero se controlaran por el servidor de conversación, y después se pasan a un agente humano, junto con cualquier otra información que se haya recolectado. CML es un lenguaje de marcación que específica lo siguiente: • Entradas de cliente, que incluyen paráfrasis que puede procesar el servidor de conversación. • Salidas de servidor de conversación (por ejemplo TTS y/o archivos de audio) para responder. • El flujo de una conversación. Este flujo se describe al utilizar un grupo de redes de transición de estado que incluyen: o Contextos en los cuales puede ocurrir cada entrada y salida, o Transiciones a otros contextos, basándose en la entrada de cliente y los resultados de objetos Java. o Llamada para regresar objetos de unión de negocio de fin o Lógica de aplicación en línea.
Además del lenguaje CML para describir las conversaciones entre el servidor de conversación y usuario, el lenguaje CMLApp permite a las aplicaciones construirse de los componentes reutilizables. En algunos ejemplos, el CML describe las interacciones de solicitud/respuesta típicamente encontradas en centros de contacto de soporte de cliente particulares que incluyen lo siguiente: • Solicitudes de información general tal como cuotas en existencia, solicitudes de prospecto de fondo, etc. • Solicitud específica de cliente tal como balances de cuenta, historial de transacción, etc. • Transacción iniciada por cliente tal como existencia/comercio de fondo, etc. • Interacciones iniciadas por el centro tal como telemercadeo, etc. CML se diseña para interpretarse y ejecutarse por un servidor de conversación (CS). Como se explico anteriormente, el CS tiene el grupo de agentes de software que interpreta CML basándose en aplicaciones. Estos agentes se afrontan por un grupo de canales de interacción que traducen entre lenguaje de documento específico de canal tal como HTML, VozXML, SIMPL, SMTP y representación independiente de canal de CML, y viceversa. Un documento CML (o un grupo de documentos llamado a una aplicación) forma la red de transición de estado de conversación que escribe el diálogo de la gente de software con el usuario. El usuario siempre está en un estado de conversación o contexto, en un momento. Un grupo de transiciones define las condiciones bajo los cuales se mueve el diálogo a un nuevo contexto. Estas condiciones incluyen una nueva solicitud del usuario, un estado particular dentro del diálogo, o una combinación de los dos. La ejecución se termina cuando se alcanza un contexto final. Se utilizan cuatro elementos para definir las redes de transición de estado que son los diálogos entre la gente de software y el usuario: Redes, Contexto, Subcontexto, y Transiciones. Una red es una colección de contextos (estados) y transiciones que definen el diálogo que un agente software tiene con un usuario. Puede haber una o más redes por documento CML con un nombre único por el cual se hace referencia. Además de definir la sintaxis de un diálogo con el usuario, una red define un grupo de propiedades que están activas mientras la red se ejecuta activamente. Estás propiedades mantienen los datos que se presentan en la salida al usuario así como datos que rigen la ejecución de la red. Por ejemplo, las precondiciones de transiciones y pos condiciones de texto se definen en término de propiedades. Los contextos representan los estados dentro del diálogo entre agentes de software y usuarios. Cada contexto tiene un grupo de transiciones definidas que toman la aplicación a otro contexto (o giros al mismo contexto). Un contexto representa un estado en donde una solicitud de usuario se espera y se interpretará. Se marcan ciertos contextos como finales. Un contexto final representa el fin del diálogo representado por la red. Un subcontexto es un contexto especial en el cual otra red se llama dentro del contexto de la red de contenido. Los subcontextos son llamados de subrutina enlazadas y existe un enlace de propiedades de la llamada y la red llamada. Los subcontextos pueden ser modales o no modales. En un subcontexto modal, las transiciones de subred de contenido (o ancestros) no están activas. En un subcontexto de no modal, las transiciones de subred de contenido (y ancestros) están activos. Una transición define un cambio de un contexto a otro. Una transición se toma si se satisface una precondición y/o la solicitud de usuario se acopla al grupo de expresiones asociados con la transición. Si una transición no define una precondición, después solo un acoplamiento entre la solicitud de usuario y las expresiones de transición se requieren para detonar la transición. Si una transición no define un grupo de expresiones después la transición se detonará en cualquier momento que su precondición sea verdadera. Sí no se define ni una precondición ni un grupo de expresiones, la transición se detona automáticamente. La denotación de una transición resulta en la ejecución del escrito de transición y la transición al contexto señalado por la transición. En algunos ejemplos, una aplicación CML requiere un documento CMLApp individual, un documento CML individual, y un documento de grupo. Una aplicación de documentos múltiples ocasiona un documento CMLApp individual, un documento de grupo individual, y documentos CML múltiples. La Figura 10 muestra la relación de un documento CMLApp 150, documentos CML 154, un documento de grupo 152, documentos de salida 156, archivos de datos referenciados 158, y objetos de negocio 160. El Apéndice 1 menciona el texto de un ejemplo de un documento CMLApp llamado "abd 2app.ucmla", un documento de grupo CML llamado "abd 2clusters.ucmlc", y un documento CML llamado "abd 2ucml.ucml". El documento CMLApp específica el archivo de grupo que utiliza la marcación "Archivo de Grupo" y el archivo CML que utiliza el "documento" de marcación. El documento CMLApp también específica un canal de comunicación con el cliente que utiliza marcación "tipo de canal", en este caso, el tipo de canal es "VXML". Primero, el documento de grupo almacena el texto de todas las comunicaciones registradas de clientes que se agruparon en un grupo por una transición dada de un estado o contexto dado. En el documento de grupo ilustrativo, los grupos se nombran d a c41. Las variables de datos asociados con los grupos especifican utilizar la marcación "variables" y tienen tales tipos como "Nombre Propio, y fila de Dígitos". Estos grupos se denominan en el documento CML ilustrativo. Un documento CML define el gráfico de transición de estado (o red). El documento CML ilustrativo define un grupo de estados (denotados por la marcación "nombre de contexto") y transiciones (denotado por marcación "Nombre de Transición"). Por ejemplo, las líneas 11-16 del documento CML son como siguen: "<nombre de contexto = "s0" final = "falso"ir con agente = "falso">. <transiciones> <nombre de transición = "tO" a = "s1">. <grupo de entrada = "c7"> si me gustaría revisar mi balance de cuenta por favor</entrada> <salida> tiene su número de cuenta señor </salida> </transición> Las líneas 11-16 especifican que existe un estado (o contacto) sO que tiene una transición tO a estado (o contexto) s1. La transición tO tiene una comunicación de cliente "si me gustaría revisar mi balance de cuenta por favor" y una respuesta de centro de contacto "tiene su número de cuenta señor". La Figura 11 ilustra un subgrupo del gráfico de transición de estado total definido por el documento CML ilustrativo. Este subgrupo incluye las transiciones del estado inicial a sO (162) a s1 (164) a s2 (166) a s3 (168) a s4 (170) a s5 (172) a s6 (174) y finalmente a s7 (176). Haciendo referencia a la Figura 12, un procedimiento 180 para desarrollo de una aplicación CML para un sistema de respuesta de voz automático incluye dos procedimientos de aprendizaje de máquina primarios, un procedimiento de desarrollo de aplicación inicial 182 y un procedimiento de aprendizaje de tiempo de funcionamiento 190. El procedimiento de desarrollo y aplicación inicial 182 genera una aplicación CML inicial que utiliza muestras de agente humano-persona que llama registrada. El procedimiento de aprendizaje de tiempo de funcionamiento 190 utiliza muestras de las conversaciones del sistema-persona que llama registradas para mejorar continuamente la aplicación CML. Un grupo de conversaciones de agente humano-personas que llaman transcritas 181 se ingresan en el procedimiento de desarrollo de aplicación inicial 182. La conversación de agente-persona que llama transcrita 181 son conversaciones registradas entre agente de soporte de cliente humanos y personas que llaman que transcribieron en texto al utilizar transcripción manual o un procedimiento de trascripción automático (por ejemplo, el procedimiento de reconocimiento por voz convencional). En centros de contacto en los cuales los agentes humanos y personas que llaman comunicados por teléfono, muestras de conversaciones de agente-persona que llama pueden obtenerse de las instalaciones de grabación de audio de aseguramiento de calidad el centro de contacto. En una implementación, las transcripciones de agente humano-persona que llama muestras están en la forma de archivos de Lenguaje de Marcación de Importación (IML) cuando se suministra al procedimiento de desarrollo de aplicación inicial 182. El procedimiento de desarrollo de aplicación inicial 182 utiliza las transcripciones de muestra para construir una aplicación CML inicial. El procedimiento de desarrollo de aplicación inicial (un ejemplo del cual se describen en más detalle en las Figuras 15-16) involucra las siguientes tres frases: 1. Clasificadores de construcción. En esta frase, los grupos de clasificadores para expresiones de agente y expresiones de persona que llama se construyen utilizando ejemplos de conversaciones de agente humano-persona que llama registrada. Cuando la aplicación se despliega y va en línea, estos clasificadores se utilizan para clasificar expresiones de persona que llama. Después de que se clasifica una expresión de persona que llama, el agente de software puede determinar la respuesta apropiada al utilizar la red de estado finito. Antes del despliegue de la aplicación, los dos grupos de clasificadores pueden utilizarse también para generar las redes de estado finito e identificar y desarrollar solicitudes de agente efectivas para información. 2. Generar Redes de Estado Finito. En está fase, los diálogos se capturan como redes de estado finito o redes libres de contexto que utilizan subcontextos. El elemento CML, contexto (o estado), es la construcción de definición de estado principal. 3. fase de inserción de Código. En está fase, las redes de estado se incorporan en la aplicación para realizar la automatización asociada con el diálogo. Con respecto a la fase en la cual se construyen los clasificadores, puede ser ventajoso, especialmente en una aplicación de centro de llamado, primero agrupar expresiones de agente en un grupo de clasificadores y después utilizar esos clasificadores de agente a localizar y clasificar expresiones de persona que llama. En una aplicación de centro de llamado, los diálogos entre una persona que llama y un agente humano típicamente se controlan para el agente. De hecho, frecuentemente se instruye a los agentes para seguir escritos estandarizados durante conversaciones con personas que llaman. Estos escritos pretenden dirigir y limitar conversaciones de agente-persona que llama para que las respuestas sean preguntas de la persona que llama que se proporciona de una forma confiable y eficiente. Un arreglo común para los agentes humanos es que nunca deben perder el control del flujo de la conversación. Si las expresiones de la persona que llama y agentes se agrupan basándose en el significado de la expresión que utiliza, por ejemplo, un algoritmo de frecuencia de Documento de Término-frecuencia-inversa (TF-IDF), las distribuciones de grupos de agente y persona que llama aparecen un poco diferentes. La distribución de los grupo de expresión de persona que llama tiende a tener grupos de respuesta muy poco comunes (por ejemplo, un grupo de expresiones en las cuales la persona que llama dice un número o se identifica así mismo) seguido por una disminución rápida de frecuencias de grupo para un número relativamente pequeño de respuestas menos comunes, y después un extremo muy largo de grupos de semifallo. Los grupos de semifallo típicamente cuentan la mitad de las expresiones de persona que llaman totales, y continúan aproximadamente a 90-95% de los grupos totales. Las expresiones que representan la solicitud inicial de la persona que llaman por información (por ejemplo, "¿cuál es mi balance de cuenta?"), que representan uno de los tipos más importantes de expresiones de persona que llama para diseño de un sistema de respuesta de voz automático, típicamente de un porcentaje muy pequeño de las expresiones totales (aproximadamente 1 de cada 20- 30 expresiones, dependiendo de la duración de llamadas). Debido a que existen muchas formas en las cuales una solicitud particular puede mencionarse, estos tipos de expresiones de solicitud de persona que llama iniciales es usualmente se ordenan en la distribución completa, con muchas expresiones que caen en sus propias categorías de semifallo. La distribución de grupos de expresión de agente típicamente es mucho más diferente que la distribución de grupos de expresión de persona que llama ampliamente debido a la naturaleza escrita de las expresiones de agente. En particular, la distribución de grupos de expresión de agente (que utilizan un algoritmo TF-IDF para agrupar las expresiones de agente) es mucho más plana que la distribución observada para las personas que llaman, con frecuencias totales inferiores para la mayoría de grupos de expresión común y una disminución mucho más gradual en frecuencias de grupos. Debido a que los agentes frecuentemente se acoplan a conversaciones con personas que llaman, la distribución de los grupos de expresión de agente también tiene un gran extremo de semifallos. Otra diferencia entre las distribuciones de agente de grupos de agente y persona que llama en el ambiente de centro de llamado es que los grupos de agente de alta frecuencia tienden a contener la información que reúne preguntas (por ejemplo, "¿me podría dar su número de seguro social, por favor?"), que son las expresiones más importantes para el diseño de un sistema de respuesta por voz automático. De hecho, es posible caracterizar casi todo el comportamiento de agente importante (por ejemplo solicitudes de agente por información) a analizar el 20% más frecuente de los grupos. Haciendo referencia a la Figura 15, un procedimiento de desarrollo de aplicación inicial 182 utiliza una técnica de detalle de datos céntrico de agente que primero genera un grupo de clasificadores de agente y después utiliza el grupo de clasificadores de agente para identificar y generar un grupo de clasificadores de persona que llama. El procedimiento de aplicación inicial 182 recibe como entrada un número estadísticamente significante de conversaciones de persona que llama-agente prerregistradas 181 que se transcribieron en texto. Todas las expresiones de agente en las conversaciones de persona que llama-agente prerregistrada se agrupan 302 en un grupo de grupos de agente, y los grupos de agente significantes (por ejemplo, aquellos grupos con expresiones en las cuales el agente produce información de una persona que llama) después se identifican. Estos grupos de agentes significantes después se utilizan para entrenar (es decir, se ingresan a) 304 un procedimiento de aprendizaje por máquina, por ejemplo, una Máquina de vector de soporte (SVM), del cual un grupo de clasificadores de agente se genera. Una vez que se generan los clasificadores de agente, estos clasificadores se utilizan para localizar 306 respuestas de persona que llama dentro de las conversaciones transcritas. Estas expresiones de persona que llama después se agrupan 307 en un grupo de grupos de persona que llama. Estas expresiones de persona que llama agrupadas después se utilizan para entrenar 308 (es decir, se ingresan a) un procedimiento de aprendizaje de máquina, por ejemplo, una Máquina de Vector de Soporte, del cual se genera un grupo de clasificadores de persona que llama. Después de que los grupos de clasificadores de agente y persona que llama se determinan, o pueden utilizarse para clasificar expresiones de agente y persona que llama en nuevas transcripciones de conversación. Las respuestas de persona que llama apropiadas para preguntas de agente importantes después se extraen automáticamente de las nuevas transcripciones y se agregan a los grupos de persona que llama. Estos grupos de persona que llama aumentados después se utilizan para construir un nuevo grupo mejorado de clasificadores de persona que llama 310. Dado un grupo de conversaciones transcritas, las expresiones de las cuales se clasificaron al utilizar un grupo de clasificadores de agente y persona que llama, pueden identificarse los patrones de conversación de agente canónico 312. Los patrones de conversación canónicos son patrones comunes de solicitudes de información y respuestas utilizadas para agente al responder tipos particulares de solicitudes de persona que llama. Por ejemplo, si una persona que llama contacta un agente y solicita su balance de cuenta, un patrón de respuesta común entre agentes es para hacer la pregunta X (por ejemplo, "¿cuál es su nombre?"), seguido por la pregunta Y (por ejemplo "¿cuál es su número de seguro social?"), seguido por la pregunta Z (por ejemplo, "¿cuál es su apellido materno?"). Por otro lado, si la persona que llama solicita literatura, la pregunta de la gente X puede seguirse por la pregunta A (por ejemplo "¿cuál es su código postal?") y la pregunta B (por ejemplo, "¿cuál es su dirección?"). Estos patrones de conversación canónicos pueden utilizarse en general 314 una red de estado finito para la aplicación.
Además, los pares de las expresiones de agente y persona que llama clasificadas en las conversaciones transcritas pueden utilizarse para identificar 316 solicitudes de agente exitosas por información. Examinar las distribuciones de los tipos de respuestas de persona que llama para poner en diferentes palabras las preguntas de la gente que se pretenden para producir la misma información pueden revelar que una forma de preguntar la información es más efectivo que otras formas. Por ejemplo, una primera solicitud de agente con palabras "¿puede darme su número de seguro social?" puede tener un número significante de respuestas de persona que llama de "si" sin proporcionar el número de seguro social de la persona que llama. Sin embargo, otro clasificador de agente que clasifica una solicitud de agente con palabras "¿cuál es su número de seguro social?" puede generar una distribución en la cual un alto porcentaje de las personas que llaman responde a la pregunta proporcionándole información solicitada (es decir, el número de seguro social de la persona que llama). Un ejemplo de un procedimiento de desarrollo de aplicación inicial se muestra en más detalle en las Figuras 16A-16E.
Como se muestra en la Figura 16A, una herramienta de software de desarrollo de aplicación inicial recolecta 322 dos muestras aleatoriamente seleccionadas de igual tamaño de conversiones de agente humana-persona que llama registradas 318, un grupo de entrenamiento y un grupo de pruebas. El desarrollador de aplicación después clasifica 324a, 324b las llamadas de cada muestra en un grupo de baldes de acuerdo con la solicitud de persona que llama inicial de la persona que llama. Por ejemplo, las llamadas en las cuales la persona que llama solicito su balance de cuenta pueden colocarse en un balde, mientras las llamadas en las cuales la persona que llama solicito un cambio dé dirección puede colocarse en un balde separado. Después de que un desarrollador de aplicación clasifique las llamadas en baldes, el desarrollador de aplicación utiliza la herramienta de software para examinar las distribuciones 326 de solicitudes de persona que llama iniciales de cada grupo de llamadas. Sí las distribuciones de los grupos de entrenamiento y prueba de las llamadas no son similares, el desarrollador de aplicación no tiene una muestra más grande de llamadas aleatoriamente seleccionadas 330 y repite el procedimiento de colocación en baldes hasta que los grupos de entrenamiento de prueba generan distribuciones de tipo de llamada similares. Una vez que los grupos de entrenamiento y de prueba se determinan para tener distribuciones de tipo de llamada similares, el desarrollador de aplicación utiliza una herramienta de software a grupos 332 las expresiones de agente de las llamadas en el grupo de entrenamiento. Para agrupar las expresiones de agente, la herramienta de software corre las expresiones a través del motor de reconocimiento de concepto (descrito en más detalle anteriormente) para determinar una lista de características semánticas para cada expresión, y después utiliza el algoritmo TF-IDF para agrupar las expresiones basándose en su lista de características semánticas. Haciendo referencia a la Figura 16B, el desarrollador de aplicaciones examina los grupos de agente, fusiona 334 cualquiera de los grupos que se traslapan, y aprueba 336 los grupos de agente que tienen más de un cierto número de expresiones (por ejemplo, más de cuatro expresiones) para uso en clasificación. Un desarrollo de reaplicación típicamente no clasificaría cada grupo de agente ya que los grupos que tiene una baja frecuencia de ocurrencias son menos probables que las expresiones de gente en las cuales el agente produce información substantiva de la persona que llama (por ejemplo, "me podría dar su nombre, por favor"). Más que eso, los grupos de baja frecuencia (por ejemplo, grupos de semifallos) son probables que contengan expresiones de agente en las cuales el agente acoplo a la persona que llama en la conversación (por ejemplo, "¿cómo está el clima por allá hoy?"). Después de que el desarrollador de aplicación aprueba los grupos (por ejemplo, al utilizar una interfase de usuario gráfica para la herramienta de software), en el desarrollo de aplicación ordena a la herramienta de software para generar un grupo de clasificadores basándose en las características conceptuales de las expresiones en los grupos atrapados (es decir, los datos de entrenamiento). Un grupo de clasificadores es la salida de un procesamiento de aprendizaje por máquina (por ejemplo, árbol de decisión máquina de vector y soporte). Los clasificadores se utilizan para determinar que grupo del grupo de entrenamiento de cada nueva expresión es más similar. En una implementación preferida, la herramienta de software construye un grupo de clasificadores al utilizar un procedimiento de aprendizaje de máquina por máquina de vector de soporte (SVM). Este procedimiento genera un grupo de discriminaciones por par, una para cada grupo comparado con todos los otros, que después se aplican a nuevas expresiones. El grupo que "gana" el mayor número de comparaciones se determina para hacer el grupo en el cual se debe atribuir la nueva expresión. Por ejemplo, si un clasificador se construye al utilizar un SVM para todos los tres grupos, el clasificador tendrá un grupo de tres discriminaciones en par para comparar el grupo 1 con el grupo 2, el grupo 1 con el grupo 3, y el grupo 2 con el grupo 3. Cuando se presenta una nueva expresión a los clasificadores, cada uno de las tres comparaciones se aplica a los factores semánticos (determinado por el motor de reconocimiento de conversación) de la expresión. Cualquier grupo que "gane" el mayor número de comparaciones, se considera que es el grupo en el cual se debe atribuir la expresión. Una vez que un grupo de clasificadores de agente se construye, el grupo de entrenamiento de llamadas se alimenta en los clasificadores para verificar 340 la integridad de los clasificadores. La integridad de los clasificadores se revisa la comparar los grupos en los cuales los clasificadores atribuyeron las expresiones de agente del grupo de entrenamiento a los grupos en los cuales las expresiones de agente se clasificaron antes de la generación de los clasificadores de agentes. Si los clasificadores no clasifican el grupo de entrenamiento para que no se satisfagan algún criterio de validación (por ejemplo, los clasificadores deben clasificar al menos 98% de las expresiones de agente en el grupo de entrenamiento en su grupo apropiado), después el desarrollador de aplicación ajusta 344 dos grupos originales y reconstruye los clasificadores de agente 338. Una vez que los clasificadores satisfacen los criterios de validación, las expresiones de agente en el grupo de llamadas se anotan 346 al utilizar los clasificadores. Esto significa que las expresiones de agente se clasificaron y una etiqueta que identifico el grupo al cual se decía que pertenecía en la expresión más similar se asocio con cada expresión de agente. Por ejemplo, una expresión de agente "¿cuál su número de seguro social?" puede anotarse con la etiqueta "REQ_SSN" que indica que la expresión de agente se clasifico en un grupo que corresponde a una solicitud de agente para el número de seguro social de las personas que llaman. Después de anotar la expresión de agente en el grupo de prueba, el desarrollador de aplicación revisa 348 las anotaciones y marca el grupo de prueba anotado de acuerdo con si la expresión de agente se clasifico correctamente. Por ejemplo, si una expresión de agente "¿cuál es su número de seguro social?" se clasifico como "REQ_DIRECCIÓN", el desarrollador de aplicación debe marcar está clasificación como incorrecta. Si el desarrollador de aplicación no satisface la marca (por ejemplo, el porcentaje de clasificaciones correctas) es aceptable 350, el desarrollador de aplicación ajusta 344 los grupos originales y reconstruye los clasificadores de agente 338. Una vez que el desarrollador en la aplicación está satisfecho que el grupo de prueba obtuvo una marca aceptable, los clasificadores de agente actuales se establecen como los clasificadores de agente "dorados". Haciendo referencia a la Figura 16C, se ilustra un procedimiento para desarrollar un grupo de clasificadores de solicitud inicial de persona que llama. Las solicitudes iniciales de persona qua llama se refieren a la expresión que identifica la razón (es) primaria de la persona que llama para hacer la llamada (por ejemplo, una solicitud del balance de cuenta actual de la persona que llama, una solicitud del cambio de dirección, etc.). Como se muestra en la Figura 16C, las expresiones de agente del grupo de entrenamiento de llamadas se anotan 354 con los clasificadores de agente "dorado" que utilizan la herramienta de software. La herramienta de software después agrupa 356 las respuestas de la persona que llama a clasificadores de agente que corresponden a una solicitud de agente para la solicitud inicial de la persona que llama (por ejemplo, un clasificador que corresponde a "¿cómo le puedo ayudar?"). Las solicitudes iniciales de la persona que llama agrupadas después se utilizan para construir 358 un grupo de clasificadores para solicitudes iniciales de una persona que llama (por ejemplo, que utiliza una máquina de vector de soporte). Debido a que el número de expresiones de persona que llama que corresponden a la solicitud inicial de persona que llama es pequeña (usualmente solamente una solicitud inicial por llamada), un desarrollador de aplicación puede producir para identificar manualmente 360 las expresiones de solicitud de persona que llama al, por ejemplo, leer el texto de las llamadas y colocar la solicitud (es) inicial para cada llamada en un grupo. Una vez que un grupo inicial de los clasificadores de solicitud inicial de persona que llama se construye, los clasificadores se validan 362 al alimentar el grupo de entrenamiento de llamadas a través de los clasificadores y comparar los grupos en los cuales los clasificadores atribuyeron las expresiones de solicitud inicial de persona que llama del grupo de entrenamiento a los grupos en los cuales las expresiones de solicitud inicial de persona que llama se clasificaron antes de la generación de los clasificadores de solicitud inicial de persona que llama. Si los clasificadores no clasifican el grupo de entrenamiento para que no satisfagan algún criterio de validación (por ejemplo, los clasificadores deben clasificar al menos 95% de las expresiones de solicitud inicial de persona que llama en el grupo de entrenamiento en su grupo apropiado), después el desarrollador de aplicación ajusta 366 dos grupos originales y reconstruye los clasificadores de solicitud inicial de persona que llama 358. Una vez que se satisface el criterio de validación. El grupo de prueba de las llamadas se anota 368 con los clasificadores de solicitud de inicial de persona que llama y después se revisan y marcan 370 por el desarrollador de aplicación. Si los clasificadores de solicitud inicial no resultan en una marca aceptable, el desarrollador de aplicación ajusta los grupos y reconstruye los clasificadores. (Se nota que si los grupos se ajustan basándose en información reunida del grupo de prueba, después la valoración de la construcción de SDMs de los grupos ajustados debe probarse en un nuevo grupo de datos de prueba). Una vez que los clasificadores de solicitud inicial resultan en una marca aceptable, se forma un grupo preliminar 374 de clasificadores de solicitud inicial de persona que llama. Haciendo referencia a la Figura 16D, se ilustra un procedimiento para construir un grupo de respuesta de persona que llama o inicial para solicitudes de agente para información. El procedimiento ilustrado en la Figura 16D es similar al procedimiento ilustrado en la Figura 16C. Similar al procedimiento mostrado en la Figura 16C, el procedimiento mostrado 16D utiliza los clasificadores de agente "dorado" para localizar expresiones de persona que llama. Sin embargo, en el procedimiento mostrado en la Figura 16D, las expresiones de persona que llama que se clasifican son aquellas expresiones que corresponden a solicitudes de agente para información de solicitud no inicial (es decir, expresiones de persona que llama en las cuales la persona que llama respondió a las solicitudes de agente para información diferente a la solicitud de agente para el propósito de la llamada de la persona que llama). La respuesta de la persona que llama a las solicitudes de agente para el nombre de la persona que llama, dirección, número de seguro social, y datos de nacimiento son ejemplos de expresiones de persona que llama que corresponden a solicitudes de agente para información de solicitud no inicial. Como se muestra en la Figura 16D, las expresiones de agente del grupo de entrenamiento de llamadas se anotan 376 con los clasificadores de agentes "dorados" que utilizan la herramienta de software. La herramienta de software después agrupa 378 respuestas de persona que llama con clasificadores de agente que corresponden a una solicitud de agente para información diferente a la solicitud inicial de persona que llama (por ejemplo, un clasificador que corresponde a "¿cuál es su número de seguro social?"). Las respuestas de la persona que llama agrupada a solicitudes de información no iniciales del agente después se utilizan para construir 380 un grupo de clasificadores para respuestas no iniciales de la persona que llama (por ejemplo, que utilizan máquinas de vector de soporte). Una vez que se construyó un grupo de clasificadores de respuesta no inicial, los clasificadores se validan 384 al alimentar el grupo de entrenamiento de llamadas a través de los clasificadores y al comparar los grupos en los cuales los clasificadores atribuidos a las expresiones de respuesta no inicial de persona que llama del grupo de entrenamiento a los grupos en los cuales las expresiones de respuesta no inicial de persona que llama se clasificaron antes de la generación de clasificadores de respuesta no inicial. Si los clasificadores no clasifican el grupo de entrenamiento para que no satisfagan algunos criterios de validación (por ejemplo, los clasificadores deben clasificar al menos 98% de las expresiones de persona que llama en el grupo de entrenamiento en su grupo apropiado), después el desarrollador de aplicación ajusta 386 los grupos originales y reconstruye los clasificadores de respuesta no inicial. Una vez que se satisface el criterio de validación, el grupo de prueba de llamadas se anota 388 con los clasificadores de respuesta no inicial de persona que llama y después se revisan y marcan 390 por el desarrollador de aplicación. Si los clasificadores de respuesta no inicial no resultan en una marca aceptable, el desarrollador de aplicación ajusta 386 los grupos y reconstruye los clasificadores. Una vez que los clasificadores de respuesta no inicial resultan en una marca aceptable, se forma un grupo preliminar 394 de clasificadores de respuesta no inicial de persona que llama. El grupo preliminar de clasificadores de respuesta de persona que llama no inicial y los clasificadores de solicitud de persona que llama inicial se combinan 396 para formar un grupo combinado de clasificadores de persona que llama preliminares. Haciendo referencia a la Figura 16E, se ilustra un procedimiento para aumentar los clasificadores de persona que llama preliminares. En este procedimiento, un número (N) de muestras aleatorias de grupos de entrenamiento y de prueba de llamadas de agente humano-persona que llama transcritas se utilizan para mejorar el desempeño de los clasificadores. Un primer grupo de entrenamiento de muestras aleatorias (por ejemplo, 1000 muestras aleatoriamente seleccionadas) se anota 400 con los clasificadores de agente "dorado" y los clasificadores de persona que llama preliminares que utilizan la herramienta de software. La herramienta de software después agrega los datos (es decir, las características semánticas) de las expresiones de persona que llama que corresponden a solicitudes de agente por información (ya sea solicitudes para la razón de la persona que llama para llamadas o solicitudes de agente por otra información) a los grupos de persona que llama del clasificador correspondiente. Por ejemplo, si una expresión de la persona que llama es "si, es 123-45-6789" se da en respuesta a una solicitud de agente para el número de seguro social de la persona que llama, las características semánticas de la expresión de la persona que llama se agrega al grupo de persona que llama que corresponde a una respuesta de un número de seguro social. Una vez que todos los datos de las expresiones de la persona que llama en el grupo de muestra se agregan a los grupos correspondientes, los clasificadores de persona que llama (tanto solicitud inicial de persona que llama como clasificadores de respuesta no inicial) se reconstruyen 404 utilizando, por ejemplo, una máquina de vector de soporte. Los grupos de reconstrucción después se validan 408 al alimentar el grupo de entrenamiento de llamadas a través de los clasificadores recientemente construidos y comparar los grupos en los cuales los clasificadores atribuidos a las expresiones de persona que llama del grupo de entrenamiento a los grupos en los cuales las expresiones de la persona que llama se clasifican antes de la generación de los clasificadores de la persona que llama. Si los clasificadores recientemente construidos no clasifican el grupo de entrenamiento para que no satisfagan algún criterio de validación (por ejemplo, los nuevos clasificadores deben clasificar correctamente un porcentaje superior de expresiones de persona que llama que los clasificadores previos), después el desarrollador de aplicación ajusta 410 los grupos y reconstruye los clasificadores de persona que llama. Una vez que se satisface el criterio de validación, el grupo de prueba de llamadas se vuelve a anotar 410 con los clasificadores de persona que llama y después se revisa y marca 412 por el desarrollador de aplicación con el fin de mejorar los clasificadores. (No ocurre ningún ajuste de grupos, como se asume que los nuevos datos mejorarán los clasificadores). El procedimiento ilustrado en la Figura 16E puede continuar hasta que las marcas de los nuevos clasificadores se acercan como un asímpota en cuyo punto se establece un grupo final de agente y clasificadores de persona que llama. El grupo final de clasificadores de agente y de persona que llama puede utilizarse para identificar patrones de conversación de agente canónico, que un desarrollador de aplicación puede utilizar para desarrollar una red de estado finito para el sistema. Por ejemplo, como se muestra en la Figura 16F, un grupo de muestras de agente-persona que llama aleatoriamente seleccionadas 420 se anota 422 con etiquetas de clasificador que utilizan los clasificadores de agente final y de persona que llama. Las llamadas después se caracterizan 424 por tipo de llamada. Este paso puede realizarse manualmente por un desarrollador de aplicación que revisa las muestras de agente-persona que llama anotadas o pueden realizarse automáticamente por un procedimiento de software que optimiza la trayectoria(s) de red asociada con cada solicitud inicial de persona que llama. Un procedimiento de software después puede identificar 426 patrones de solicitud de agente común para cada tipo de llamada al comparar la secuencia de solicitudes de agente para cada tipo de llamada. Por ejemplo, si un tipo de llamada es una solicitud de balance de cuenta, el procedimiento de software puede examinar cada secuencia de solicitudes de agente para responder a solicitud de balances de cuenta para identificar uno o más patrones de solicitud comunes (por ejemplo, un gran número de agentes que hicieron la solicitud "A" seguida por la solicitud "B" seguida por la solicitud "C"). El procedimiento de software después utiliza los patrones de solicitud comunes identificados (por ejemplo, el patrón de solicitud más común para cada tipo de llamada) para generar 428 automáticamente una red de estado finito preliminar. Un desarrollador de aplicación típicamente agregaría nodos a la red de estado finito preliminar, por ejemplo, para permitir otro impulsor a respuestas no entendidas por el sistema o para pedir a la persona que llama que espere que el sistema revise la información, etc. Además de utilizar los patrones de solicitud de agente común para generar una red de estado finito preliminar, un desarrollador de aplicación también puede utilizar los patrones de solicitud de agente para identificar tipos de llamada. Por ejemplo, una vez que se identificó un grupo de patrones de solicitud de agente común para diferentes tipos de llamada, los clasificadores de agente pueden aplicarse a una persona que llama-agente de grupo no analizado de conversaciones para identificar patrones de solicitud de agente en el grupo no analizado. Si un patrón de solicitud de agente en una conversación de persona que llama-agente en el grupo no analizado se acopla a uno de los patrones de solicitud comunes para un tipo de llamada conocido, el desarrollador de aplicación (o herramienta de software utilizada por el desarrollador de aplicación) puede asumir que la conversación de la persona que llama-agente es del tipo de llamada que corresponde al patrón de solicitud de persona que llama-agente común. El tipo de llamada de la conversación de persona que llama-agente puede determinarse basándose en el grupo de clasificadores de agente presentes en una conversación, independiente de cualquier orden particular de los clasificadores. Alternativamente, el tipo de llamada puede determinarse basándose en una secuencia de clasificadores de agente presentes en una conversación. Los pares de expresiones de agente y persona que llama clasificadas en conversaciones transcritas pueden utilizarse para identificar solicitudes de agente exitosas de información. La distribución de respuestas de persona que llama para poner en diferentes palabras preguntas de agente que se pretendían para elegir la misma información (y a partir de allí estuvieran en el mismo grupo) pueden revelar que la única forma de pedir información es más efectiva que otras formas. Por ejemplo, una primera solicitud de agente con palabras "¿Puede darme su número de seguro social?" puede tener un número significante de respuestas de persona que llama de "si" sin, proporcionar el número de seguro social de persona que llama. Sin embargo, otro clasificador de agente que clasifica una solicitud de agente con palabras "¿Cuál es su número de seguro social?" puede generar una distribución en la cual un porcentaje muy alto de las respuestas de persona que llama a la pregunta proporcionó la información solicitada (es decir, el número de seguro social). Al identificar que tipos de respuesta de persona que llama son en respuesta y cuales no son en respuesta, después es posible observar las expresiones de persona que llama asociadas y determinar si las palabras de estas expresiones de agente fueron en respuesta a la responsiva de las expresiones de la persona que llama. Haciendo referencia de nuevo a la Figura 12, un vez que se desarrollo la descripción de aplicación de CML inicial 184 (por ejemplo, al utilizar el procedimiento de desarrollo inicial ilustrado en las Figuras 16A-16F), se despliega 186 a un servidor de conversación (por ejemplo, el servidor de conversación 30 mostrado en las Figuras 5-6). El servidor de conversación preferiblemente soporta "despliegue caliente" de aplicaciones CML, que significa que nuevas versiones de la descripción de aplicación CML pueden volverse a desplegar cuando ya funcionan en el servidor de conversación. El despliegue caliente preferiblemente asegura que: (i) las sesiones de aplicación ya activas se permitirá que corran para término; (ii) todos los recursos empleados por una versión de una aplicación (por ejemplo, archivos de impulso, etc.) no se removerá o reemplazará hasta que ya no se requiera; (iii) todas las nuevas sesiones de aplicación harán uso de la versión más nueva de la aplicación; y (iv) todas las versiones obsoletas de la aplicación, y recursos de soporte, se removerán del servidor de conversación cuando ya no se necesitan por sesiones se aplicación activas. Después que se desplegó la descripción de aplicación de CML en un servidor de conversación y comienzan las llamadas de control, el servidor de conversación registra todos los diálogos de sistema- persona que llama en un depósito de medios 187 y produce un registro de los diálogos en un registro de conversación 188. El depósito de medios 187 incluye los datos incompletos de las conversaciones del sistema-persona que llama (por ejemplo, archivos de audio de una conversación de teléfono de persona que llama-sistema registrada, archivos de texto de una conversación de envío de mensajes instantáneos de persona que llama-sistema). Un subsistema de registro de audio (no mostrado) registra todas las llamadas de clientes del tiempo de origen (cuando el sistema comienza a controlar la llamada) hasta el término de la llamada. Para llamadas de toma de mando de agente, el subsistema de audio continúa registrando la interacción del agente/cliente hasta su conclusión. En una ¡mplementación preferida, el subsistema de registro de audio registra todo lo que dice una persona que llama en una conversación en un archivo de audio y todo lo que dice el agente(s) (software y/o agente humano) en un archivo separado. Además, el subsistema de registro de audio preferiblemente elimina silencios en la conversación registrada. El registro de conversación 188 se genera por el subsistema de registro 64 (mostrado en la Figura 5). El subsistema de registro genera el registro de conversación 64 al crear un objeto de sesión para cada llamada que se procesa por el servidor de conversación. El objeto de sesión incluye los siguientes datos: • La aplicación comienza a correr (pueden existir múltiples aplicaciones de conversación en uso en un servidor de conversación). • Una etiqueta que indica cómo la interacción de proceso por el sistema (por ejemplo, conversación automática, mezclada, o de toma de mando de agente) « Un indicador de canal (teléfono, Web, Chat/IM, correo electrónico) • Enlaces al archivo de audio asociado en el depósito de audio. • Una representación de la conversación completa en orden cronológico que incluye: o (i) la entrada de cliente reconocida por el motor de diálogo (entrada reconocida); o (ii) para interacciones completamente automáticas (es decir, interacciones que se controlan completamente por los agentes de software), la representación también incluye: m Las respuestas dadas a cada pregunta y sus marcas de acoplamiento di la interacción o (iii) para interacciones mezcladas (es decir, interacciones en las cuales un agente humano seleccionó una respuesta de una lista de respuestas presentadas por el sistema), la representación también incluye: a La respuesta(s) sugerida superior y marcas de acoplamiento relacionadas; a La respuesta seleccionada por el agente y su marca de acoplamiento y clasificación entre la lista de respuestas sugerida o (iv) para interacciones de toma de mando, la representación también incluye: a El diálogo de audio entre agente humano y cliente. • Estampas de tiempo que indican el tiempo de origen de llamada, tiempo en que se escaló la llamada a un agente humano (si es aplicable), y tiempo de término de llamada. • La secuencia de estados que las conversaciones que el agente y persona que llama atraviesan y los eventos que causaron las transiciones de estado; por ejemplo, el agente humano que selecciona una respuesta particular o un agente de software que selecciona una respuesta. • Identidad de un agente humano que ayudó en una llamada o toma de mando de una llamada (si es aplicable). • Un registro de todas las solicitudes para los sistemas de extremo trasero (por ejemplo, sistemas que contienen información en respuesta a solicitudes de persona que llama) y los resultados de estas solicitudes. Por ejemplo, si la aplicación necesita recuperar un balance de cuenta de cliente, que requiere una llamada al sistema de extremo trasero. El depósito de medios 187 y registro de conversación 188 están disponibles para el procedimiento de aprendizaje de tiempo de funcionamiento 190 para facilitar ajustes a la aplicación de CML. El procedimiento de aprendizaje de tiempo de funcionamiento 190 utiliza un giro de aprendizaje adaptable en el cual un historial de ejecución del sistema (capturado en el registro de correspondencia 188 y el depósito de medios 187) se utiliza para evolucionar la aplicación CML para mejorar la capacidad del sistema a la conversación automática. Más particularmente, el procedimiento de aprendizaje de tiempo de funcionamiento selecciona ciertas interacciones de agente-persona que llama del historial de conversaciones de agente-persona que llama que se determinan para ser "buenas" oportunidades de aprendizaje para el sistema. Las interacciones de agente-persona que llama seleccionadas no necesitan ser la conversación del agente-persona que llama completa, pero puede ser sólo una porción de una conversación de agente-persona que llama. Los siguientes son ejemplos de interacciones de persona que llama-agente que pueden seleccionarse por un procedimiento de aprendizaje de tiempo de funcionamiento para mejorar el sistema: 1. En una conversación en la cual un agente humano seleccionó una respuesta de una lista clasificada de respuestas a una expresión de persona que llama generada por el sistema, el significado de la expresión de persona que llama puede discernirse por el sistema de la respuesta seleccionada por el agente humano. Por consiguiente, la expresión de persona que llama puede seleccionarse como una oportunidad de aprendizaje para mejorar los clasificadores utilizados por el sistema. De esa forma, si una persona que llama hace una expresión similar en el futuro, el sistema es más probable que sea capaz de responder sin ayuda de un agente humano. También, el diálogo reconocido de la expresión de persona que llama (que puede reconocerse por un ASR en línea, un ASR fuera de línea o por transcripción manual) puede utilizarse para mejorar los modelos de lenguaje utilizados por el ASR en línea. De esa forma, si una persona que llama hace una expresión que utiliza diálogo similar en el futuro, el ASR en línea será más probable que reconozca de forma exacta el diálogo. 2. En una conversación en la cual el sistema dio una respuesta automática a una expresión de la persona que llama, la expresión de la persona que llama que precede a la respuesta automática puede seleccionarse como una oportunidad de aprendizaje por el sistema para reforzar el comportamiento del sistema. En este caso, el idioma reconocido de la expresión de la persona que llama (que puede reconocerse por un ASR en línea, un ASR fuera de línea o por transcripción manual) puede utilizarse para mejorar los modelos de lenguaje utilizador por el ASR en línea y/o mejorar los clasificadores utilizados para discernir el significado de las expresiones de la persona que llama. 3. En una conversación en la cual un agente humano toma el mando de la conversación, las interacciones del agente humano-persona que llama pueden seleccionarse como oportunidades de aprendizaje. En este caso, un administrador de sistema puede analizar el intercambio de agente humano-persona que llama para conversaciones que no se anticipan por el sistema (y de esa forma no son parte de la red de estado finito del sistema). El administrador de sistema puede utilizar el intercambio de agente humano-persona que llama para agregar nodos a la red de estado finito del sistema y construir clasificadores para que si una persona que llama contacta al centro de llamado en el futuro, el sistema se prepara para tomar la llamada. Por ejemplo, si un error de impresión lleva a envió por correo de cuentas en blanco a clientes en un mes particular, el sistema puede recibir un número de llamadas de preguntas de persona que llama sobre la cuenta en blanco. Esto es probablemente una conversación que no se anticipó por el sistema. Después de recibir algunas de estas preguntas, el administrador de sistema puede construir un grupo de clasificadores y actualizar la red de estado finito (por ejemplo, que utilizan el procedimiento en la Figura 15 anteriormente) para que el sistema pueda controlar llamadas similares en el futuro. El procedimiento de aprendizaje de tiempo de funcionamiento alimenta interacciones de agente-persona que llama seleccionadas al estudio de conversación 32 (mostrado en las Figuras 4-5), en donde se utilizan para reconstruir clasificadores, mejorar los modelos de lenguaje utilizados para reconocimiento de diálogo de tiempo de funcionamiento, y/o modificar la red de transición de estado. En una implementación, un procedimiento de aprendizaje de tiempo de funcionamiento revisa conversaciones de sistema-persona que llama para las siguientes oportunidades de aprendizaje; 1. Ayudas- en conversaciones en donde un agente humano informó al agente de software de las interpretaciones apropiadas de una declaración de persona que llama cuando el agente de software era incierto, la interpretación del agente de la declaración de la persona que llama se utiliza para mejorar los clasificadores utilizados por el motor de reconocimiento de concepto para entender el diálogo de persona que llama. Otras implementaciones utilizan la interpretación del agente de la declaración de la persona que llama para mejorar los modelos de lenguaje utilizados por el ASR en línea. 2. Tomas de Mando- en conversaciones en las cuales un agente humano toma el mando de conversaciones de un agente de software, el intercambio de agente humano-persona que llama se analiza por un administrador de sistema para identificar nuevas conversaciones. Si se identifica una nueva conversación, un nuevo grupo de clasificadores de persona que llama y red de estado finito actualizada puede desarrollarse (por ejemplo, al utilizar el procedimiento descrito en la Figura 15 anteriormente) para agregar esa nueva conversación a la aplicación. 3.- Refuerzos- en conversaciones en donde un agente de software reconoció exitosamente una o más expresiones de persona que llama, la expresión(es) de persona que llama se utiliza para mejorar los modelos de lenguaje utilizados por el ASR en línea (que es un componente del motor de reconocimiento de diálogo) para reconocer el diálogo de persona que llama. Otras implementaciones, utilizan estas conversaciones para mejorar los clasificadores utilizados por el motor de reconocimiento de concepto para entender el significado del diálogo de persona que llama. Cuando el procedimiento de aprendizaje de tiempo de funcionamiento 190 utiliza una interacción de agente-persona que llama como una oportunidad de aprendizaje, existe el riesgo que la interacción de la oportunidad de aprendizaje no sea correcta. Procesar interacciones "malas" (por ejemplo, interacciones en las cuales el sistema mal interpretó una pregunta de persona que llama y dio una respuesta incorrecta) presenta un daño de degradar la exactitud y grado de automatización del sistema. Por consiguiente, un procedimiento de aprendizaje de tiempo de funcionamiento preferiblemente incluye uno o más guardias que ayudan a asegurar que sólo seleccione interacciones "buenas" de las cuales aprender. En una modalidad preferida, el procedimiento de aprendizaje de tiempo de funcionamiento es configurable por un administrador de sistema u otro usuario a través de una interfase de usuario gráfica en el estudio de conversación 32 (mostrado en las Figuras 4-5) para requerir que las interacciones seleccionadas satisfagan ciertos criterios de selección en una implementación, un administrador de sistema puede seleccionar uno o más de los siguientes criterios de selección para elegir oportunidades de aprendizaje: 1. Seleccionar interacciones de agente-persona que , llama como una oportunidad de aprendizaje de refuerzo si n (por ejemplo, n = 2, 3, 4, etc.) interacciones de agente-persona que llama subsecuentes fueron exitosas (por ejemplo, interacciones que no resultaron en la persona que llama que cuelga o que pide ayuda o que habla a un agente humano). 2. Seleccionar interacciones de agente-persona que llama como refuerzo y/o oportunidades de aprendizaje de ayuda sólo si la persona que llama respondió positivamente a una pregunta de satisfacción formulada por el agente de software o agente humano (por ejemplo, "¿Eso responde su pregunta?", "¿Está satisfecho con el servició que recibió?"). 3. Seleccionar interacciones de agente-persona que llama como refuerzo y/o oportunidades de aprendizaje de ayuda que se confirman por m (por ejemplo, m = 2, 3, 4, etc.) de otros ejemplos.
Esto evita que el sistema se extrapole de un número limitado de ejemplos. 4. Seleccionar interacciones de ayuda de agente como oportunidades de aprendizaje si se confirman por algún número de diferentes agentes. 5. Seleccionar interacciones de ayuda de agente si la ayuda se realiza por un agente "confiable". Un agente confiable puede determinarse de acuerdo con alguna medida de "confianza", tal como la longitud de posesión de la persona como un agente o una marca acumulativa en ejemplos de aprendizaje de ayuda previos atribuidos al agente. 6. Seleccionar interacciones de ayuda de agente como oportunidades de aprendizaje sólo si estuvieran entre las n elecciones superiores (por ejemplo, n = 1, 2, 3, etc.) propuestas por el sistema. 7. Evitar seleccionar interacciones como oportunidades de aprendizaje si agregan nuevos ejemplos a un grupo cambiaría un número predeterminado de ejemplos previos del grupo. Por ejemplo, supongamos un grupo existente que contiene 100 expresiones ilustrativas que todas significan "quiero mi cuenta de balance" y una nueva expresión de la persona que llama de una interacción seleccionada se agrega al grupo y un nuevo grupo de clasificadores se regenera al utilizar el nuevo grupo de entrenamiento de 101 expresiones (las 100 originales más la nueva). Las 101 expresiones pueden aplicarse a los nuevos clasificadores de grupo para'ver cómo el nuevo grupo de clasificadores los clasificó. Idealmente los nuevos clasificadores deben clasificarlos todos como perteneciendo al grupo de "quiero mi cuenta de balance" ya que así es cómo los clasificadores se entrenaron. Sin embargo, se descubrió que un cierto número (por ejemplo, 1, 2, 3, etc.) de las expresiones originales ahora se clasifican mal como perteneciendo a algún otro grupo, o ahora se clasificaron ambiguamente, después está es una indicación que la nueva expresión aprendida degradó la exactitud de los clasificadores y no debe agregarse a este grupo en el primer lugar. Este criterio de selección podría combinarse con el criterio de selección 3 anterior para requerir evidencia más fuerte para agregar un nuevo ejemplo a un grupo que causa que se elimine un número predeterminado de ejemplos previos.
Además del riesgo de degradación de sistema de aprendizaje de "malos" ejemplos, también puede ser ventajoso limitar oportunidades de aprendizaje con el fin de conservar el procesamiento y/o recursos administrativos humanos. Por ejemplo, el centro de llamado norte americano promedio controla aproximadamente 3 millones de llamadas por año, y, asumiendo que 10 intercambios de persona que llama-agente por llamada, esto significa que un centro de llamado promedio genera 120,000 eventos de aprendizaje potenciales por día. Muchas organizaciones no permitirán (o legalmente no puede permitir) que el sistema cambie su comportamiento sin la aprobación de algún humano responsable. Incluso en esos casos en donde se desea la evolución del sistema automático, el volumen de compartimiento de ejemplos puede hacerse eventualmente una carga en recursos de procesamiento. De esa forma, puede ser ventajoso para el procedimiento de aprendizaje de tiempo de funcionamiento asegurar que sólo ejemplos relevantes o útiles se procesen y/o presenten para revisión humana. En una modalidad preferida, el procedimiento de aprendizaje de tiempo de funcionamiento es configurable por un administrador de sistema y otro usuario a través de una interfase de usuario gráfica en el estudio de conversación 32 (mostrado en las Figuras 4-5) para requerir que las interacciones seleccionadas satisfagan uno o más criterios de selección para ayudar a evitar que el sistema y/o usuario se sobrecarguen: 1. No seleccionar una interacción que no clasifica al menos n (por ejemplo, n = 1, 2, 3, etc ) otras interacciones debido a que una interacción cuenta su propio entendimiento típicamente no es útil 2 Clasificar interacciones por el número de otras interacciones que clasifican Agregar sólo n = 1,2,3 superior, de estos ejemplos más productivos como oportunidades de aprendizaje 3 No agregar una interacción que no cambia el grupo definitivo por al menos algún umbral Como se explicó anteriormente, los clasificadores se crean de un grupo de entrenamiento de ejemplos Algunos ejemplos en el grupo de entrenamiento importan y algunos no Es decir, si uno eliminara los ejemplos que no importan y recrean el clasificador, obtiene el mismo clasificador como antes. Los ejemplos que importan se llaman el grupo definitivo (procedimientos de software conocidos para determinar el grupo definitivo de un clasificador SVM) El criterio de selección significa que si se agrega una interacción al grupo de entrenamiento para el clasificador a través de un procedimiento de aprendizaje y un nuevo clasificador se construye al utilizar el nuevo grupo de entrenamiento, pero el grupo definitivo del clasificador no cambia por algún umbral (por ejemplo, la mayoría de sus miembros son los mismos que antes), después el clasificador aprendió mucho de la interacción adicional, y puede desconsiderarse (en cuyo caso los clasificadores originales permanecerían en su lugar) Las interacciones útiles para aprendizaje son aquellas interacciones que tienen un impacto notable en el grupo definitivo 4 Limitar el número o variedad de ejemplos que el sistema retiene al colocar un umbral numérico o relacionado con edad en los ejemplos en un grupo. Un umbral relacionado con la edad es el último momento en que se utilizó el ejemplo para clasificar algún número de otros. Esto puede ser especialmente importante en el inicio cuando un sistema entrenado en datos de humano-humano aprende el diferente estilo que los humanos pueden adoptar cuando le hablan a una máquina. Mientras los criterios de selección anteriores aplican a cualquier forma de comunicación de sistema-persona que llama (por ejemplo, diálogo, envío de mensaje instantáneo, etc.), problemas especiales surgen cuando el medio de interacción es diálogo o escrito a mano o cualquier otra modalidad en donde una oportunidad significante de mal reconocimiento puede ocurrir en el ASR en línea (o un sistema de reconocimiento de carácter óptico (OCR) en línea en el caso de reconocer escritura a mano). En algunos casos, el reconocimiento del diálogo de persona que llama (o escrito a mano) que se captura en el registro de conversación puede no ser exacto lo suficiente para servir como un ejemplo útil. Este es especialmente un problema al ayudar o tomar el mando de aprendizaje en donde el agente humano suministra la interpretación correcta cuando el sistema no entendería lo que la persona que llama dijo o escribió. El aprendizaje del diálogo no reconocido exactamente o escrito a mano podría degradar el desempeño de sistema o, en un mínimo, desperdiciar recursos de sistema. El sistema de aprendizaje de tiempo de funcionamiento preferiblemente cuida el aprendizaje de datos no reconocidos exactamente al requerir que el agente seleccione una respuesta de entre el grupo de n superior (por ejemplo, n = 1,2,3...) de'hipótesis presentadas por el sistema. El sistema también puede requerir que alguna medida de confianza interna de los datos reconocidos (producidos por un ASR en línea o fuera de línea) exceda un umbral para evitar aprendizaje de ejemplos mal reconocidos. El argumento de datos inexactamente reconocidos en un registro de conversación es substancial porque, cuando el sistema opera, típicamente se afronta a una limitación de tiempo en la que las personas que llaman no desead esperar más de algunos segundos para una respuesta. Esto limita la cantidad de procesamiento que el ASR en línea puede utilizar para reconocer y clasificar una solicitud de usuario. Sin embargo, un procedimiento de aprendizaje de tiempo de funcionamiento puede reconocer la entrada de persona que llama para el propósito de aprendizaje sin tal limitación de tiempo estricta. Este reconocimiento fuera de línea puede utilizar algoritmos o modelos o parámetros diferentes para lograr mejores resultados al utilizar más recursos e incluso hacer pases múltiples de la misma y/o entrada de usuario relacionada. Por ejemplo, la conversación de persona que llama completa (todos los 10 turnos) podría utilizarse como entrenamiento para volver a reconocer cada turno. El procedimiento de aprendizaje de tiempo de funcionamiento puede diseñarse para utilizar capacidad de periodo pico durante horas extra para realizar esta tarea. El procedimiento de tiempo e funcionamiento también podría utilizar recursos de computación en una red (por ejemplo, Internet) para volver a reconocer la entrada de la persona que llama Reconocer que la entrada de persona que llama (por ejemplo, diálogo) es un procedimiento de calculo intensivo, y, como tal, un procedimiento de aprendizaje de tiempo de funcionamiento puede no tener recursos de procesamiento disponibles para procesar para volver a reconocer cada expresión de usuario. Una forma de un procesamiento de aprendizaje de tiempo de funcionamiento puede limitar los recursos de procesamiento sólo es para seleccionar esas interacciones de sistema-persona que llama que se seleccionaron como oportunidades de aprendizaje que utilizan uno o más criterios de selección fuera de línea anteriores Además de las técnicas anteriores, el procedimiento puede utilizar un nivel de confianza de la interacción como un filtro Las interacciones de alta confianza pueden presumirse correctas, y las interacciones de baja confianza pueden asumirse para ser tan problemáticas para ser no valiosas de confianza (demasiado ruido externo por ejemplo) Los umbrales "altos" y "bajos" pueden calcularse por el sistema de ejemplos de entrenamiento Además, las técnicas de reconocimiento frecuentemente asumen que conocen la extensión del vocabulario del sistema Un problema particular es cuando y cómo expandir el inventario básico del sistema de unidades primitivas Un procedimiento de aprendizaje de tiempo de funcionamiento puede utilizar un reconocimiento fuera de línea puede utilizar un vocabulario diferente (usualmente más grande) para determinar cuando expandir el vocabulario del sistema de reconocimiento de concepto. Si el vocabulario más grande produce mejores marcas internas y externas, el procedimiento de aprendizaje de tiempo de funcionamiento puede asumirlo para ser un "mejor" vocabulario para el motor de reconocimiento de concepto. El procedimiento de aprendizaje de tiempo de funcionamiento puede construir dinámicamente un nuevo vocabulario de, por ejemplo, nuevas alimentaciones para que contenga nuevos artículos y combinaciones. La medida de confianza de bajo nivel puede identificar regiones de artículos posiblemente nuevos. Cuando la similitud agrupo nuevos artículos que excedieron algún umbral, a un humano se le puede pedir ayuda al identificar los nuevos artículos. Finalmente, muchos sistemas de reconocimiento tienen modelos separados para diferentes niveles de tarea. Por ejemplo, un sistema de respuesta por voz puede tener modelos acústicos de Gaussian para clasificar unidades de nivel fonético, diccionarios para delinear secuencias fonéticas a palabras, modelos de lenguaje estadístico para medir secuencias de palabra, y SVM para clasificar expresiones completas en grupos semánticos equivalentes. Un procedimiento de aprendizaje de tiempo de funcionamiento puede utilizar los ejemplos de aprendizaje seleccionados para entrenar los modelos en varios niveles ya sea independiente o conjuntamente en varias combinaciones. Haciendo referencia a la Figura 17, un servidor de aprendizaje 450 ¡mplementa un procedimiento de aprendizaje de tiempo de funcionamiento. En esta implementación particular, el servidor de aprendizaje incluye un título de registro 456, módulos de aprendizaje 458, una base de datos de aprendizaje 460, un buscador de audio 462, una aplicación de reconocimiento de diálogo automático fuera de línea 464, y un almacenamiento de aplicación 466. En operación, los registros de las conversaciones de sistema-persona que llama se empujan al título de registro 456 del registro de conversación 452 mientras los registros se generan por el servidor de conversación. El servidor de conversación (por ejemplo, servidor de conversación 30 mostrado en las Figuras 4-5) u otro mecanismo (por ejemplo, otro servidor) pueden configurarse para empujar los registros al otro título de registro. Mientras el título de registro recibe registros de conversación, dirige los logotipos a uno de los módulos de aprendizaje 458a, 458b para análisis. Los módulos de aprendizaje son un acercamiento modular para introducir capacidades de aprendizaje al servidor de aprendizaje. Por ejemplo, en una implementación, un módulo de aprendizaje se dedica a identificar oportunidades de aprendizaje de ayudas de agente, un segundo módulo de aprendizaje se dedica a identificar oportunidades de aprendizaje de refuerzo, y un tercer módulo se dedica a identificar oportunidades de aprendizaje de toma de mando. Si existen nuevas capacidades para agregarse al servidor, se desarrolla un nuevo módulo de aprendizaje e introduce en el servidor de aprendizaje. Así, por ejemplo, un módulo de aprendizaje de vocabulario podría agregarse al servidor de aprendizaje para examinar palabras utilizadas en expresiones de persona que llama para expandir el vocabulario del sistema. Los módulos de aprendizaje también funcionan para seleccionar eventos capturados en los registros de conversación y archivos de audio como oportunidades de aprendizaje. Los módulos de aprendizaje de sistema seleccionan eventos capturados en los registros de conversación/archivos de audio de acuerdo con el criterio de selección (discutido anteriormente) que se especificaron por un administrador de sistema. Para algunos criterios de selección, tal como seleccionar una interacción de sistema-usuario para aprender si un cierto número de interacciones de sistema-persona que llama subsecuentes fueron exitosas, puede determinarse del registro de conversación que corresponde a la interacción de sistema-persona que llama candidata. Sin embargo, otros criterios de selección requieren que los módulos de aprendizaje examinen registros de conversación múltiples para determinar si se debe seleccionar una interacción de sistema-persona que llama. Por ejemplo, si un criterio de selección específica que una interacción de agente-persona que llama no debe seleccionarse a menos que si se confirme por un cierto número de otros ejemplos, el módulo de aprendizaje multiplicará los pases en las interacciones de agente-persona que llama. En un primer pase, el módulo de aprendizaje identifica y ahorra interacciones de agente-persona que llama como posibles oportunidades de aprendizaje. Después de que se ahorra cierta cantidad de interacciones de candidato o después de una cierta cantidad de tiempo, el módulo de aprendizaje analiza las interacciones de candidato ahorradas para elegir las interacciones para seleccionar finalmente como oportunidades de aprendizaje. Mientras los módulos de aprendizaje seleccionan interacciones de sistema-persona que llama como oportunidades de aprendizaje, la interacción de sistema-persona que llama seleccionada se almacena en la base de datos de aprendizaje 460. Además de los criterios de selección para filtrar las interacciones de sistema-persona que llama, los módulos de aprendizaje también se configuran para examinar el nivel de marcas de acoplamiento reportado por el motor de reconocimiento de concepto (que se incluye en los registros de conversación) para determinar si envía la interacción de sistema-persona que llama seleccionada para ASR fuera de línea 464 o transcripción manual 468. Una escala de umbral de marcas de acoplamiento puede ser configurable por un usuario (por ejemplo, el administrador de sistema) o puede programarse. La escala de umbral de marcas de acoplamiento preferiblemente excluye marcas de confianza muy baja (que indica que la expresión es demasiado problemática para ser valiosa de confianza) y marcas de muy alta confianza (que indica que el reconocimiento original es correcto). Si la transcripción se dirige al ASR Fuera de Línea 464, el procedimiento ASR Fuera de línea 464 accede a la definición de aplicación dentro de la Marca de Aplicación 466 para recuperar el modelo de lenguaje ASR utilizado para el estado de reconocimiento particular (cada estado de reconocimiento utiliza un modelo de lenguaje separado). Los módulos de aprendizaje se configuran para dirigir todas las interacciones de toma de mando del agente al ASR fuera de línea o transcripción manual ya que el motor de reconocimiento de concepto no reconoce las expresiones de la persona que llama o el agente durante una toma de mando de agente. En algunas configuraciones, los módulos de aprendizaje se configuran para dirigir tomas de mando de agente para transcripción manual como opuesto a una transcripción automática por el ASR fuera de línea para obtener una transcripción de alta calidad de la interacción de la persona que llama-agente humano. Finalmente, el desarrollador de aplicación utiliza una interfase de usuario gráfica en el estudio de conversación 32 para recuperar las oportunidades de aprendizaje que están listas para consideración. El desarrollador de aplicación opcionalmente aprueba las oportunidades de aprendizaje (por ejemplo, a través de una interfase de usuario gráfica) y actualiza la aplicación con las oportunidades de aprendizaje aprobadas. Una vez que la aplicación se actualizó, la nueva versión se coloca en el almacenamiento de aplicación 466 y se despliega al servidor de conversación. Las oportunidades de aprendizaje generar nuevas expresiones que se agregan a los grupos conceptuales apropiados, que después se utilizan para regenerar el clasificador utilizado para reconocimiento de concepto. La aplicación actualizada después será capaz de clasificar expresiones similares apropiadamente la siguiente vez que se hablen por las personas que llaman. Las oportunidades de aprendizaje de refuerzo generan nuevas expresiones que se agregan a los modelos de lenguaje utilizados para reconocimiento de diálogo para mejorar la exactitud del ASR en línea. Las oportunidades de toma de mando se extienden a la red de estado finito para controlar nuevos temas y nuevas interacciones alrededor de los temas existentes. La Figura 13 ilustra la interfase de usuario gráfica 208 que es un componente del escritorio de agente genérico que permite a un agente humano registrarse en grupos de trabajo, manejar su estado de trabajo, y recibir y colocar llamadas; todo a través de interacciones con el servidor CTI. La interfase de usuario 208 es el panel de control a través del cual el agente lanza aplicaciones que emplean el servidor CTI que incluye la aplicación de escritorio. La interfase 208 se modela en el escritorio de Agente IP Avaya.
Las funciones más comunes del escritorio se exponen a través de las barras de herramienta. Las barras de herramienta mostradas en la Figura 13 son: Teléfono 200 (proporciona control en la llamada seleccionada), Marcación 202 (proporciona un medio de colocar una llamada), Agente 204 (proporciona medios de establecer el estado de trabajo de agente con respecto al ACD), y aplicación 206 (proporciona un medio de lanzar aplicaciones que se cargaron en la interfase 208). Con un registro de agente humano, una configuración para el escritorio se carga del servidor. Parte de esta configuración es una definición de las aplicaciones que pueden lanzarse del escritorio. La configuración de aplicación incluye las clases que ¡mplementan la aplicación y la ubicación neta de la cual se carga la aplicación. Además, la configuración incluirá los datos de aplicación que indican que una llamada se pone en objetivo en la aplicación. La Figura 14 ilustra la aplicación de resolución o interfase de usuario gráfica 210. Esta aplicación se detona cada vez que llega una llamada con los datos de aplicación que indican que la llamada es una llamada de resolución. La interfase de usuario de aplicación se divide en tres secciones principales. La información presentada es como sigue: Aplicación 212 (La aplicación CML se corre), Contexto 214 (El estado actual dentro de la aplicación), Canal 216 (El canal a través del cual el cliente contactó el centro), Umbral 218 (La configuración de umbral para el contexto), Sobre/Bajo 220 (La razón con la resolución se presentó al agente; es decir, ya sea que hay demasiadas respuestas en el umbral o no las suficientes respuestas en el umbral), Ayudas 222 (El número de veces que se ayudó al cliente en esta sesión), y Tiempo 224 (La duración de tiempo que el cliente ha estado en esta sesión). Dentro del panel de resolución de pregunta 226, el agente humano es capaz de seleccionar una respuesta apropiada a la pregunta de cliente. Las acciones que el agente puede realizar en este panel son: Buscar KB 228 (modificar una consulta y buscar la base de conocimiento para las respuestas), Responder 230 (instruir al agente de software cómo responder al cliente con la respuesta seleccionada. Las respuestas 232 que se acoplan a una consulta se presentan en el cuadro en el fondo del panel. Cada respuesta 232 indica si está sobre o bajo el umbral de confianza de contexto, su clasificación de acoplamiento, y un resumen de su pregunta), Toma de Mando 234 (Tomar el mando de la llamada del agente de software), Murmullo 236 (Escuchar la grabación de la solicitud del cliente), y Enviar la Pregunta Original 238 (Enviar la pregunta original del cliente como una consulta a la base de conocimiento. Está es la acción inicial realizada por la aplicación). La interfase de usuario gráfica 212 también permite al agente humano ingresar en texto substituto para la comunicación del cliente en el cuadro titulado "Pregunta Substituía". Si los niveles de confianza de las respuestas generadas por computadora son bajos, el agente humano puede decidir volver a decir la comunicación del cliente de tal forma que el agente humano sabe que el sistema se acoplará mejor. Existen dos grupos de controles en el fondo de la interfase de usuario: transcripción y datos. Botón de transcripción 240 impulsa una página web que muestra la transcripción del diálogo del agente de software con el cliente en una transcripción de estilo de Chat. Esta página web se genera de la transcripción de funcionamiento del agente de software de la conversación a través de la misma infraestructura de Capullo utilizada en los canales de interacción. El botón de datos 242 impulsa una página web que muestra los datos de aplicación que se reunieron hasta la fecha por el agente de software.
Está página web se genera de la aplicación del agente de software y las propiedades de red a través de la misma infraestructura de capullo utilizada en los canales de interacción. Como con los canales de interacción, es posible definir la presentación de estos datos en un nivel de aplicación, nivel de red, y/o nivel de contexto con la definición en el nivel más específico que lleva la definición a nivel más general; por ejemplo, una definición en el nivel de contexto llevará la definición en la red o el nivel de aplicación. Los Controles de Resumen permiten a un agente humano proporcionar la guía que se coloca en el registro de conversación. El botón de Unir Nota 244 permite al agente humano unir una nota a esta interacción en el registro de conversación. Cuadro de revisión de Marcar para Revisión 246 se utiliza para indicar que esta interacción debe marcarse para revisión en el registro de conversación. El botón de Hecho 248 indica que el agente está listo con esta resolución. El sistema indexa proactivamente, clasifica y verifica conversaciones a base de voz y de texto archivadas para aseguramiento de calidad, propósitos de resolución de disputa y búsqueda de mercado. Debido a que es completamente automático, el sistema puede verificar proactivamente los archivos de llamada para desviaciones en patrones de llamada de cliente, alterar supervisores a través de mecanismos de reporte regulares. Por ejemplo, en la categoría de detalles de conversación, el sistema transcribe audio de cliente para detalles de datos posteriores (por ejemplo, control de calidad para servicios financieros). Esto involucra tomar conversaciones transcritas del procedimiento de reconocimiento de grupo, CRE utilizado para registros de grupo, y proporciona la capacidad de buscar dentro de grupos por temas específicos (es decir, promociones, áreas de problema, etc.). El sistema también puede agrupar la llamada por tema específico (sub-grupo), localizar y marcar desviaciones en patrones de llamada dentro de sub-grupos, y permitir al administrador acceder al punto específico dentro de la corriente de audio en donde ocurre la desviación. Esta funcionalidad proporciona un rastro de audiencia de lo que el agente dice. Por ejemplo, un grupo sobre devolución de producto puede indicar que agentes diferentes dirigen a los clientes a regresar productos a diferentes ubicaciones. Para hacer esto, los grupos retienen datos asociados con el registro antes de ASR de pases múltiples. Para otro ejemplo, los grupos pueden mostrar que algunos agentes asocian la respuesta existente en la base de conocimiento con una pregunta de cliente (flujo de trabajo mezclado), mientras el otro agente contesta la llamada (tomar el mando de flujo de trabajo) t proporcionan su propia respuesta. Aunque se describieron ciertas implementaciones de la invención, que incluyen una aplicación particular para el manejo del centro de contacto, una amplia variedad de otras implementaciones está dentro del alcance de las siguientes reivindicaciones.
APÉNDICE 1 Archivo abd 2app.ucmla <?versión xml = "1.0" que codifica = "UTF-8"?> <!DOCTIPO ucmIApp SISTEMA "http://dtd.unveil.com/dtd/ucmlApp.dtd"> <nombre ucmlApp = "abc12App" versión = "1.1 "Red inicial = "texto/pri nci pal"> <versión>1.0</versión> <grupoArchivo src = "abc12grupos.ucmlc"/> <documentos> <documento src = "abc12ucml.ucm 7> </documentos> <propiedades/> <bObjetos/> <canales> <típo de canal = "VXML"> <salida predeterminada src = "predeterminado.xsp"/> < p la nt i 11 a predeterminada src = "predeterminado.xsl"/> </canal> </canales> <Servicio de resolución dnis = " http: //agent. unveil.com/resolutionservice "/> </ucmlApp> Archivo abd 2qrupos.ucmla <?versión xml = "1.0" que codifica = "UTF-8"?> <!DOCTIPO grupos SISTEMA "http://dtd.unveil.com/dtd/cluster.dtd"> <radio de grupo = "0.85"> <nombre de grupo = "cO"> <expresión> muy bien se lo agradezco mucho </expresión> <expresión> muy bien muchas gracias </expresión> <expresión> muy bien gracias </expresión> <expresión> muy bien eh eso es todo gracias </expresión> <expresión> muy bien muchas gracias </expresión> <expresión>muy bien gracias </expresión> <grupo similar="c4" similitud = "0.7685892367350193" /> </expresión> <nombre de grupo = "d> <expresión> adiós </expresión> <expresión> hasta luego </expresión> <expresión> muy bien adiós </expresión> <expresión> muy bien hasta luego </expresión> <expresión> muy bien adiós </expresión> <expresión> eh adiós </expresión> </grupo> <nombre de grupo = "c2"> <variables> <nombre de variable = tipo "apropiado" = "Nombreapropiado" requerido = "verdadero"/> <nombre de variable = tipo de "número = "Fila de dígito" requerida = "falso"/> </variables> <expresión> <variable de caso = "apropiado">rick blaine </caso> </expresión> <expresión> <variable de caso = "apropiado">blaine </caso> </expresión> <expresión> si <variable de caso = "apropiado">victor lazlo </caso> <variable de caso = "número">cero siete cuatro dos ocho cinco cinco dos seis </caso> </expresión> <expresión> si es Louis Renault en cinco o uno cinco cuatro cero dos seis seis </expresión> <expresión> claro ilsa lund uno seis tres nueve Casablanca way berkley California nueve cuatro siete uno tres </expresión> <expresión> dos cuatro cinco cuatro uno blaine es decir blaine </expresión> </grupo> <nombre de grupo = "c3"> <expresión> dieciocho quince </expresión> <expresión> ocho dos ocho cuatro siete ocho uno u ocho o </expresión> <expresión> tres uno seis dos ocho seis dos uno cuatro </expresión> <expresión> cuatro uno tres ocho tres ocho uno seis tres </expresión> <expresión> dos cinco cero seis seis ocho siete tres cuatro </expresión> </grupo> <nombre de grupo = "c4"> <expresión> muy bien </expresión> <expresión> eh </expresión> <expresión> si </expresión> <grupo similar="cO" similitud = "0.7685892367350193" /> </grupo> <nombre de grupo = "c5"> <expresión> muy bien ocho cero cero dos uno siete cero cinco dos nueve </expresión> <expresión> si es ocho cero cero cero ocho dos cuatro nueve cinco ocho </expresión> </grupo> <nombre de grupo = "c6"> <expresión> así es </expresión> <expresión> eh </expresión> </grupo> <nombre de grupo = "c7"> <expresión> si me gustaría revisar mi balance de cuenta por favor </expresión> </grupo> <nombre de grupo = "c8"> <expresión> me gustaría </expresión> </grupo> <nombre de grupo = "c9"> <expresión> gracias </expresión> </grupo> <nombre de grupo = "c10"> <expresión> hola me gustaría revisar un balance de cuenta mi seguro es tres siete siete cinco seis uno cuatro uno tres </expresión> </grupo> <nombre de grupo = "c11"> <expresión> y el valor de participación participación número de participación </expresión> </grupo> <nombre de grupo = "c12"> <expresión> adiós ahora </expresión> </grupo> <nombre de grupo = "c13"> <expresión> hola me gustaría revisar un balance de cuenta mi cuenta es ochocientos siete diecinueve ochenta dos cincuenta cinco </expresión> </grupo> <nombre de grupo = "c14"> <expresión> y cuánto fue eso </expresión> </grupo> <nombre de grupo = "c15"> <expresión> eso sería </expresión> </grupo> <nombre de grupo = "c16"> <variables> <nombre de variable = tipo de "fondo" = "Fondo"/> <nombre de variable = tipo de "navFecha" = "fecha" predeterminada = "ayer()"/> </variables> <expresión> me gustaría saber el precio de cierre de <variable de caso = "fondo">ingreso de equidad casablanca </caso> en <variable de caso = "navFecha">enero treinta y uno </caso> </expresión> </grupo> <nombre de grupo = "c17"> <expresión> seguro </expresión> </grupo> <nombre de grupo = "c18"> <expresión> gracias esa era la información que necesitaba </expresión> </grupo> <nombre de grupo = "c19"> <expresión> no hoy </expresión> </grupo> <nombre de grupo = "c20"> <expresión> lo haré muchas gracias adiós </expresión> </grupo> <nombre de grupo = "c21"> <expresión> si no tenemos nuestros 1099 de la Casablanca aún encontrados </expresión> </grupo> <nombre de grupo = "c22"> <expresión> está bajo louis renault </expresión> </grupo> <nombre de grupo = "c23"> <expresión> muy bien entonces espere unos cuántos días más antes de que grite de nuevo </expresión> </grupo> <nombre de grupo = "c24"> <expresión> hola me podría dar un cusip para su Casablanca encontrada uno uno cero </expresión> </grupo> <nombre de grupo = "c25"> <expresión> muchas gracias </expresión> </grupo> <nombre de grupo = "c26"> <expresión> hola sólo me gustaría revisar si la selección sigue cerrada </expresión> </grupo> <nombre de grupo = "c27"> <expresión> hola john mi nombre es rick blaine sólo estaba haciendo una transferencia ira de otro fondo y quería sí ya había llegado </expresión> </grupo> <nombre de grupo = "c28"> <expresión> ah si tiene una sección cinco veinte nueve plano </expresión> </grupo> <nombre de grupo = "c29"> <expresión> no tiene </expresión> </grupo> <nombre de grupo = "c30"> <expresión> si tengo una pregunta el pequeño fondo de cubierta pagó alguna distribución en el dos mil y una de esta es para mis impuestos </expresión> </grupo> <nombre de grupo = "c31"> <expresión> hola estoy interesado en Casablanca un fondo me gustaría un prospecto y tal vez una aplicación </expresión> </grupo> <nombre de grupo = "c32"> <expresión> blaine y el código postal es cuatro ocho seis tres siete </expresión> </grupo> <nombre de grupo = "c33"> <expresión> no solo simple blaine y ese es Casablanca michigan </expresión> </grupo> <nombre de grupo = "c34"> <expresión>cuenta regular </expresión> </grupo> <nombre de grupo = "c35"> <expresión>de kiplinger </expresión> </grupo> <nombre de grupo = "c36"> <expresión> es todo por ahora gracias </expresión> </grupo> <nombre de grupo = "c37"> <expresión> solo quiero encontrar el valor total de mi cuenta </expresión> </grupo> <nombre de grupo = "c38"> <expresión> ocho triple cero ocho dos nueve dos seis cuatro </expresión> </grupo> <nombre de grupo = "c39"> <expresión> victor lazlo </expresión> </grupo> <nombre de grupo = "c40"> <expresión> uno cero ocho tres ocho tres dos nueve dos </expresión> </grupo> <nombre de grupo = "c41"> <expresión> muy bien gracias </expresión> </grupos> </grupos> Archivo absl 2ucml.ucml <?versión xml = "1.0" que codifica = "UTF-8"?> <!DOCTIPO ucml SISTEMA "http://dtd.unveil.com/dtd/ucml.dtd"> <nombre de ucml = versión de "texto" = "1.1 "> <nombre de red = "principal" inicial = "verdadero" mre_campo = umbral de "entrada" = "0.75"> <nombre de Transición inicial = "inicial" a = "sO"> <salida> Gracias por llamar a Fondo Casablanca. Habla Natalie, su representante de servicio al cliente automático. ¿En qué puede ayudarle hoy? </salida> </Transición inicial> <contextos> <nombre de contexto = "sO" final = "falso" ir con el Agente = "falso"> <transiciones> <nombre de transiciones = "tO" a = "s1"> >grupo de entrada = "c7"> si me gustaría revisar mi balance de cuenta por favor </entrada> <salida> tiene su número de cuenta señor </salida> </transición> <nombre de transición = "t1" a = "s8"> <grupo de entrada = "c10"> hola me gustaría revisar un balance de cuenta mi seguro es tres siete siete cinco dos uno cuatro uno tres </entrada> <salida> gracias y podría verificar su nombre y dirección postal </salida> </transición> <nombre de transición = "t2" a = "s15"> <grupo de entrada = "c13"> hola me gustaría revisar un balance de cuenta mi cuenta es ochocientos siete diecisiete ochenta nueve cincuenta cinco </entrada> <salida> por favor verifique su nombre y número de seguro social para mi </salida> </transición> <nombre de transición = "t3" a = "s23"> <grupo de entrada = "c16"> me gustaría saber el precio de cierre del ingreso de equidad de Casablanca el treinta y uno de enero </entrada> <salida> muy bien un momento señor </salida> </transición> <nombre de transición = "t4" a = "s29"> <grupo de entrada = "c21 "> si no tenemos nuestros 1099 en el fondo Casablanca aún </entrada> <salida> muy bien me podría dar su número de cuenta </salida> </transición> <nombre de transición = "t5" a = "s36"> <grupo de entrada = "c24"> hola me podría dar un cusip para su fondo Casablanca uno uno cero </entrada> <salida> claro el cusip es cuatro uno tres ocho tres ocho uno cero tres </salida> </transición> <nombre de transición = "t6" a = "s33"> <grupo de entrada = "c26"> hola sólo me gustaría revisar se la selección todavía está cerrada </entrada> <salida> si señor así es </salida> </transición> <nombre de transición = "t7" a = "s42"> <grupo de entrada = "c27"> hola john mi nombre es rick blaine estaba haciendo una transferencia ira de otro fondo y quisiera ver si ya llegó </entrada> <salida> muy bien un momento por favor y cuál es su número de seguro social señor </salida> </transición> <nombre de transición = "t8" a = "s48"> <grupo de entrada = "c28"> ah sí tiene una sección cinco veinte nueve plan </entrada> <salida> no </salida> </transición> <nombre de transición = "t9" a = "s33"> <grupo de entrada = "c30"> si tengo una pregunta el fondo pequeño de cubierta pagó alguna distribución en el dos mil y una es por mis impuestos </entrada> <salida> no señor </salida> </transición> <nombre de transición = "t10" a = "s56"> <grupo de entrada = "c31 "> hola estoy interesado es un fondo Casablanca me gustaría un prospecto y tal vez una aplicación </entrada> <salida> podría darme su apellido por favor </salida> </transición> <nombre de transición = "t11" a = "s64"> <grupo de entrada = "c37"> sólo quiero encontrar el valor total de mi cuenta </entrada> <salida> cuál es su número de cuenta por favor </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s1 " final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t12" a = "s2"> <grupo de entrada = "c5" tamaño = "2"> si es ocho cero cero cero ocho dos cuatro nueve cinco ocho </entrada> <salida> y podría por favor verificar el nombre y número de seguro social señor</salida> </transición> </transiciones> </contexto> <nombre de contexto = "s2" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t13" a = "s3"> <grupo de entrada = "c2" tamaño = "6"> si rick blaine cero siete cuatro dos ocho cinco ocho tres seis </entrada> <salida> gracias señor un momento </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s3" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t14" a = "s4"> <grupo de entrada = "c4" tamaño = "3"> si </entrada> <sa I id a> muy bien como el cierre de anoche el balance en su fondo de equidad e ingreso tradicional ira cuarenta doscientos seiscientos cuarenta y un dólares y treinta y dos centavos </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s4" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t15" a = "s5"> <grupo de entrada = "cO" tamaño = "6"> muy bien muchas gracias </entrada> <salida> de nada hay algo más que necesite </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s5" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t16" a = "s6"> <grupo de entrada = "c8"> eso es </entrada> <salida> llame de nuevo cuando lo necesite </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s6" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t17" a = "s7"> <grupo de entrada = "c9"> gracias </entrada> <salida> de nada hasta luego </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s7" final = "verdadero" ir con Agente = "falso"> <transiciones/> </contexto> <nombre de contexto = "s8" final = "falso" ir con Agente = "falso"> <transiciones> <nombre de transición = "t18" a = "s9"> <grupo de entrada = "c2" tamaño = "6"> seguro isa lund uno seis cuatro nueve Casablanca way berkley California nueve cuatro siete cero tres </entrada> <salida> gracias </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s9" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t19" a = "s10"> <grupo de entrada = "c4" tamaño = "3"> eh </entrada> <salida> muy bien como el cierre de anoche el valor de su cuenta fue quince mil doscientos sesenta y siete dólares y treinta y ocho centavos </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s10" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t20" a = "s11"> <grupo de entrada = "c11 "> y el valor de participación participación número de participación </entrada> <salida> el número de participaciones fue quinientos cincuenta y uno punto tres seis ocho </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s11 " final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t21 " a = "s12"> <grupo de entrada = "cO" tamaño = "6"> bien eh eso es todo gracias </entrada> <salida> muy bien de nada </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s12" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t22" a = "s13"> <grupo de entrada = "d 2"> adiós ahora </entrada> <salida> llame de nuevo cuando quiera </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s13" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t23" a = "s7"> <grupo de entrada = "c6" tamaño = "2"> eh </entrada> <salida> hasta luego </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s15" final = "fals?" ir con Agente = "falso"> </transiciones> <nombre de transición = "t24" a = "s16"> <grupo de entrada = "c2" tamaño = "6"> si es louis renault en cinco o uno cinco cinco cero cero seis seis </entrada> <salida> gracias </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s16" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t25" a = "s17"> <grupo de entrada = "c4" tamaño = "3"> eh </entrada> <salida> estoy mostrando esta cuenta tiene balance cero señor </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s17" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t26" a = "s18"> <grupo de entrada = "c4" tamaño"3"> bien </entrada> <salida> hubo una transferencia de valores que ocurrió ayer </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s18" final = "falso" ir con Agente = "falso"> <transiciones> <nombre de transición = "t27" a = "s19"> <grupo de entrada = "c14"> y cuánto fue eso </entrada> <salida> la cantidad de dólar real en la revisión quince mil ciento veinticuatro dólares </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s19" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t28" a = "s20"> <grupo de entrada = "cO" tamaño = "6"> muy bien gracias </entrada> <salida> algo más </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s20" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t29" a = "s6"> <grupo de entrada = "d 5"> eso es </entrada> <salida> si necesita algo en el futuro por favor llame de nuevo señor </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s23" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t30" a = "s24"> <grupo de entrada = "d 7"> seguro </entrada> <salida> muy bien el treinta y uno de enero del dos mil el precio de cierre de equidad e ingreso fue dieciocho cincuenta </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s24" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t31 " a = "s25"> <grupo de entrada = "c3" tamaño = "5"> dieciocho cincuenta </entrada> <salida> si señor </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s25" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t32" a = "s26"> <grupo de entrada = "d 8"> gracias es la información que necesito </entrada> <salida> muy bien señor algo más que necesite hoy </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s26" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t33" a = "s27"> <grupo de entrada = "d 9"> no hoy </entrada> <salida> muy bien señor por favor llame de nuevo sí podemos ayudarle con cualquier cosa en el futuro </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s27" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t34" a = "s7"> <grupo de entrada = "c20"> lo haré muchas gracias hasta luego </entrada> <salida> hasta luego </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s29" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t35" a = "s30"> <grupo de entrada = "c5" tamaño = "2"> muy bien ocho cero cero dos uno siete cero seis tres nueve </entrada> <salida> y su nombre por favor </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s30" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t36" a = "s31"> <grupo de entrada = "c22"> está bajo victor lazlo </entrada> <salida> si quiere verificar el número de seguro social en la cuenta </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s31 " final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t37" a = "s32"> <grupo de entrada = "c3" tamaño = "5"> dos cinco cero seis seis ocho seis cero cuatro </entrada> <salida> muy bien recibirá en 1099 en esta cuenta la última salió al inicio de la última semana y debe recibirlo dentro del siguiente día o dos y si no siempre podemos volverle a emitir otra </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s32" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t38" a = "s33"> <grupo de entrada = "c23"> muy bien espere unos cuantos días más antes de gritar de nuevo </entrada> <salida> definitivamente podríamos volverle a emitir otra </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s33" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t39" a = "s34"> <grupo de entrada = "cO" tamaño = "6"> muy bien muchas gracias </entrada> <salida> de nada </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s34" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t40" a = "s7"> <grupo de entrada = "c1" tamaño = "6"> adiós </entrada> <salida> y tenga un buen día </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s36" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t41" a = "s37"> <grupo de entrada = "c3" tamaño = "5"> cuatro uno tres ocho tres ocho cuatro cero tres </entrada> <salida> correcto </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s37" final = "falso" ir con Agente = "falso"> </transíciones> <nombre de transición = "t42" a = "s7"> <grupo de entrada = "c25"> grandioso muchas gracias </entrada> <salida> de nada hasta luego </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s42" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t43" a = "s43"> <grupo de entrada = "c3" tamaño = "5"> tres uno seis dos ocho seis cinco uno cuatro </entrada> <salida> y su nombre por favor </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s43" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t44" a = "s44"> <grupo de entrada = "c2" tamaño = "6"> rick blaine </entrada> <salida> y su número telefónico actual por favor primero código de área </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s44" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t45" a = "s33"> <grupo de entrada = "c3" tamaño = "5"> ocho dos ocho cuatro siete ocho dos cero ocho cero </entrada> <salida> veamos ni la cantidad ni el dinero se recibieron aún </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s48" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t46" a = "s49"> <grupo de entrada = "c29"> no </entrada> <salida> desafortunadamente no </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s49" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t47" a = "s50"> <grupo de entrada = "cO" tamaño = "6"> muy bien muchas gracias </entrada> <salida> de nada </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s50" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t48" a = "s34"> <grupo de entrada = "d" tamaño = "6"> eh adiós </entrada> <salida> si tiene cualquier otra pregunta por favor no dude en llamarnos </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s56" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t49" a = "s57"> <grupo de entrada = "c2" tamaño = "6"> blaine </entrada> <salida> por favor me proporciona su apellido y código postal </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s57" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t50" a = "s58"> <grupo de entrada = "c32"> blaine y el código postal es cuatro ocho dos dos siete </entrada> <salida> por favor me proporciona su dirección </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s58" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t51 " a = "s59"> <grupo de entrada = "c2" tamaño = "6"> dos cuatro cuatro uno Casablanca es decir casablanca </entrada> <salida> unidad </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s59" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t52" a = "s60"> <grupo de entrada = "c33"> no sólo simple blaine y eso es vichy michigan </entrada> <salida> esto es por ira una cuenta regular o ambas </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s60" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t53" a = "s61"> <grupo de entrada = "c34"> cuenta regular </entrada> <salida> cómo escuchó sobre Casablanca señor </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s61" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t54" a = "s62"> <grupo de entrada = "c35"> de kiplinger </entrada> <salida> muy bien debe recibir la información en el correo electrónico dentro de los siguientes cinco a siete días hábiles hay algo más en lo que pueda ayudarle </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s62" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t55" a = "s7"> <grupo de entrada = "c36"> es todo por ahora gracias </entrada> <salida> de nada señor que tenga un buen día </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s64" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t56" a = "s65"> <grupo de entrada = "c38"> ocho triple cero ocho dos nueve seis ocho cuatro </entrada> <salida> su nombre </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s65" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t57" a = "s66"> <grupo de entrada = "c39"> rick blaine </entrada> <salida> su número de seguro social </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s66" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t58" a = "s67"> <grupo de entrada = "c40"> uno cero ocho tres ocho tres tres cinco dos </entrada> <salida> el balance en su cuenta como el cierre de anoche fue dos mil ochocientos setenta y seis dólares y ochenta y un centavos </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s67" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t59" a = "s68"> <grupo de entrada = "c41 "> muy bien gracias </entrada> <salida> algo más </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s68" final = "falso" ir con Agente = "falso"> </transic¡ones> <nombre de transición = "t60" a = "s34"> <grupo de entrada = "c6" tamaño = "2"> es todo </entrada> <salida> llame de nuevo si tiene otras preguntas </salida> </transición> </transiciones> </contexto> </contextos> </red> </ucml>

Claims (83)

REIVINDICACIONES
1.- Un método que comprende: recibir un grupo de conversaciones entre un miembro de un tipo de primera parte y un miembro de un tipo de segunda parte, en donde cada una de las conversaciones incluye una comunicación de un miembro del tipo de primera parte y una comunicación de un miembro del tipo de segunda parte que responde a la comunicación del miembro del tipo de primera parte; agrupar las comunicaciones de miembros del tipo de primera parte en un primer grupo de grupos; agrupar las comunicaciones de respuesta de miembros del tipo de segunda parte en un segundo grupo de grupos basado en el agrupamiento de las comunicaciones de miembros del tipo de primera parte; y a través de la máquina, generar un grupo de clasificadores de tipo de segunda parte para uno o más grupos en el segundo grupo de grupos.
2.- El método de acuerdo con la reivindicación 1, en donde las comunicaciones comprenden expresiones.
3.- El método de acuerdo con la reivindicación 1, en donde las comunicaciones comprenden mensajes de texto.
4.- El método de acuerdo con la reivindicación 1, en donde las comunicaciones de miembros del tipo de primera parte comprenden comunicaciones de agentes de servicio de cliente humano en un centro de llamado.
5.- El método de acuerdo con la reivindicación 1, en donde las comunicaciones de miembros del tipo de primera parte comprenden comunicaciones de agentes de software configurados para comunicarse con humanos que contactan un centro de llamado.
6.- El método de acuerdo con la reivindicación 1, en donde las comunicaciones de miembros de la segunda parte comprenden comunicaciones de humanos que contactaron un centro de llamado.
7.- El método de acuerdo con la reivindicación 1, en donde los clasificadores comprenden máquinas de vector de soporte.
8.- El método de acuerdo con la reivindicación 1, en donde los clasificadores comprenden árboles de decisión.
9.- El método de acuerdo con la reivindicación 1, en donde las comunicaciones de miembros de un tipo de primera parte se agrupan en un primer grupo de grupos utilizando una computadora.
10.- El método de acuerdo con la reivindicación 9, en donde el agrupar las comunicaciones de miembros de un tipo de primera parte en un primer grupo de grupos comprende determinar características semánticas de las comunicaciones.
11.- El método de acuerdo con la reivindicación 1, en donde el agrupar las comunicaciones de miembros del tipo de primera parte en un primer grupo de grupos está basado en un significado de las comunicaciones de miembros del tipo de primera parte.
12.- El método de acuerdo con la reivindicación 1, que además comprende: a través de la máquina, generar un grupo de clasificadores de tipo de primera parte para uno o más de los grupos en el primer grupo de grupos.
13.- El método de acuerdo con la reivindicación 1, en donde el agrupar comunicaciones de miembros del tipo de primera parte en un primer grupo comprende: agrupar comunicaciones que corresponden a solicitudes de información de miembros del tipo de primera parte en un primer grupo de grupos.
14.- El método de acuerdo con la reivindicación 13, en donde el agrupar comunicaciones en respuesta de miembros del tipo de segunda parte en un segundo grupo de grupos está basado en el agrupamiento de las comunicaciones de miembros del tipo de primera parte comprende: agrupar comunicaciones de miembros del tipo de segunda parte en grupos que corresponden a respuestas a las solicitudes de información de miembros del primer tipo de parte.
15.- El método de acuerdo con la reivindicación 13, en donde el agrupar comunicaciones de respuesta de miembros del tipo de segunda parte en un segundo grupo de grupos basándose en el agrupamiento de las comunicaciones de miembros del tipo de primera parte comprende: utilizar los clasificadores de tipo de primera parte para clasificar una comunicación de un miembro del tipo de primera parte en un grupo del tipo de primera parte; agrupar una comunicación de un miembro del tipo de segunda parte que es subsecuente a la comunicación clasificada del miembro del tipo de primera parte en un grupo del tipo de segunda parte al grupo del tipo de primera parte.
16.- El método de acuerdo con la reivindicación 15, en donde el grupo del tipo de primera parte se refiere a una solicitud de información hecha por un miembro del tipo de primera parte y el grupo del tipo de segunda parte se refiere a una respuesta a la solicitud de información dada por un miembro del tipo de segunda parte.
17.- El método de acuerdo con la reivindicación 1, que además comprende: recibir un segundo grupo de conversaciones entre miembros del tipo de primera parte y miembros del tipo de segunda parte, en donde cada una de las conversaciones incluye una comunicación de un miembro del tipo de primera parte y una comunicación de un miembro del tipo de segunda parte que responde a la comunicación del miembro del tipo de primera parte; aplicar clasificadores para agrupar comunicaciones de miembros del tipo de segunda parte; a través de la máquina, regenerar clasificadores de un tipo de segunda parte para un grupo en el segundo grupo de grupos utilizando datos que se relacionan a las comunicaciones agrupadas en el grupo.
18.- Un método que comprende: a través de la máquina, aplicar un grupo de clasificadores para clasificar comunicaciones que inician que son parte de conversaciones que también incluyen comunicaciones en respuesta; y a través de la máquina, utilizar la comunicación de inicio clasificada para identificar patrones de comunicación comunes.
19.- El método de acuerdo con la reivindicación 18, que además comprende: agrupar conversaciones en un grupo de conversaciones.
20.- El método de acuerdo con la reivindicación 19, que además comprende: asociar un patrón de comunicación común identificado con un grupo de conversaciones.
21.- El método de acuerdo con la reivindicación 20, en donde las conversaciones se agrupan por el asunto sujeto de la conversación.
22.- El método de acuerdo con la reivindicación 18, en donde las comunicaciones comprenden expresiones.
23.- El método de acuerdo con la reivindicación 22, en donde las conversaciones incluyen comunicaciones de agentes asociados con un centro de llamado de servicio al cliente y comunicaciones de clientes que contactaron el centro de llamado.
24.- El método de acuerdo con la reivindicación 23, en donde los agentes son agentes humanos.
25.- El método de acuerdo con la reivindicación 23, que además comprende: agrupar la conversación en el grupo de conversaciones de acuerdo con una razón para el contacto de cliente con el centro de llamado.
26.- Un método que comprende: a través de la máquina, aplicar clasificadores para identificar un grupo de comunicaciones clasificadas hechas por un miembro de un tipo de primera parte en una conversación que también incluye comunicaciones en respuesta hechas por un miembro de un tipo de segunda parte; y a través de la máquina, determinar un asunto sujeto de cada una de las conversaciones basadas en las comunicaciones clasificadas de grupo del miembro del tipo de primera parte en una conversación.
27.- El método de acuerdo con la reivindicación 26, en donde los clasificadores clasifican las comunicaciones de acuerdo con una representación de los conceptos modalizados en la comunicación.
28.- El método de acuerdo con la reivindicación 27, en donde el determinar un asunto sujeto de la conversación basada en la combinación de comunicaciones clasificadas del miembro del tipo de primera parte comprende: acoplar el grupo de comunicaciones clasificadas con un grupo de comunicaciones clasificadas asociadas con una conversación que tiene un asunto sujeto conocido.
29.- El método de acuerdo con la reivindicación 26, en donde el determinar el asunto sujeto de la conversación basándose en el grupo de comunicaciones clasificadas se hace independiente de cualquier orden particular de las comunicaciones clasificadas en el grupo.
30.- El método de acuerdo con la reivindicación 26, en donde las comunicaciones comprenden expresiones.
31.- El método de acuerdo con la reivindicación 26, en donde las comunicaciones de miembros del tipo de primera parte comprenden comunicaciones de agentes de servicio de cliente en un centro de llamado.
32.- El método de acuerdo con la reivindicación 26, en donde la secuencia de comunicaciones clasificadas comprende una secuencia de solicitudes hechas por el agente de servicio de cliente.
33.- El método de acuerdo con la reivindicación 31, en donde los agentes de servicio de cliente comprenden seres humanos.
34.- El método de acuerdo con la reivindicación 31, en donde los agentes de servicio de cliente comprenden software configurado para comunicarse con personas que llaman humanas.
35.- El método de acuerdo con la reivindicación 26, en donde el grupo de clasificadores comprende una máquina de vector de soporte.
36.- Un método implementado por computadora que comprende: recibir representaciones digitales de conversaciones al menos de alguna de las cuales comprende una serie de comunicaciones entre una persona y un agente asociado con un centro de contacto; y seleccionar una comunicación como una oportunidad de aprendizaje si se satisfacen uno o más criterios de selección.
37.- El método de acuerdo con la reivindicación 36, en donde las comunicaciones comprenden expresiones.
38.- El método de acuerdo con la reivindicación 36, en donde las comunicaciones comprenden mensajes de texto.
39.- El método de acuerdo con la reivindicación 36, en donde el agente asociado con el centro de contacto comprende un agente de software configurado para comunicarse con las personas.
40.- El método de acuerdo con la reivindicación 36, en donde los agentes asociados con el centro de contacto comprenden un agente humano que se comunica con las personas.
41.- El método de acuerdo con la reivindicación 36, en donde los criterios de selección comprenden: un requerimiento que una comunicación se siga por intercambios de comunicación entre la persona y uno o más agentes.
42.- El método de acuerdo con la reivindicación 36, en donde los criterios de selección comprenden: un requerimiento que una comunicación se siga por un número predefinido de intercambios de comunicación subsecuente exitosos entre la persona y uno o más agentes.
43.- El método de acuerdo con la reivindicación 36, en donde los criterios de selección comprenden: un requerimiento que una comunicación se incluya dentro de una conversación en la cual la persona respondió positivamente a una pregunta de satisfacción formulada por el sistema.
44.- El método de acuerdo con la reivindicación 36, en donde los criterios de selección comprenden: un requerimiento que una comunicación en una primera conversación se confirme por comunicaciones similares que ocurren en un número de otras conversaciones.
45.- El método de acuerdo con la reivindicación 44, en donde los criterios de selección comprenden: un requerimiento que al menos una de las conversaciones en la cual toma lugar comunicaciones similares incluye una indicación que una persona respondió positivamente a una pregunta de satisfacción formulada por el sistema.
46.- El método de acuerdo con la reivindicación 36, en donde al menos algunas de las comunicaciones entre las personas y agentes incluyen interacciones de ayuda en las cuales un agente humano seleccionó una respuesta a una comunicación de persona de una lista clasificada de respuestas propuestas generadas por el sistema de respuesta automático.
47.- El método de acuerdo con la reivindicación 46, en donde los criterios de selección comprenden: un requerimiento que una respuesta seleccionada en una interacción de ayuda se clasifica sobre un umbral.
48.- El método de acuerdo con la reivindicación 46, en donde los criterios de selección comprenden: un requerimiento que una respuesta seleccionada en una interacción de ayuda se seleccione de un agente humano confiable.
49.- El método de acuerdo con la reivindicación 48, en donde un agente humano confiable es una gente que se empleó en el centro de contacto durante más de una duración predeterminada de tiempo.
50.- El método de acuerdo con la reivindicación 36, en donde los criterios de selección comprenden: un requerimiento que una comunicación no causa un grupo de construcción de clasificadores utilizando la comunicación para clasificar mal las comunicaciones que un grupo previo de clasificadores clasificó correctamente.
51.- El método de acuerdo con la reivindicación 36, que además comprende: recibir uno o más de los criterios de selección de un usuario.
52.- El método de acuerdo con la reivindicación 51, que además comprende: proporcionar una interfase de usuario gráfica a través de la cual se pueden ingresar los criterios de selección.
53.- El método de acuerdo con la reivindicación 36, que además comprende: utilizar una comunicación seleccionada para generar un clasificador.
54.- El método de acuerdo con la reivindicación 53, en donde el clasificador comprende una máquina de vector de soporte.
55.- El método de acuerdo con la reivindicación 36, que además comprende: utilizar una comunicación seleccionada para generar un modelo de lenguaje para un motor de reconocimiento de diálogo automático.
56.- El método de acuerdo con la reivindicación 36, que además comprende: utilizar una comunicación seleccionada para producir una red de estado finito.
57.- El método de acuerdo con la reivindicación 37, que además comprende: realizar reconocimiento de diálogo en una expresión seleccionada como una oportunidad de aprendizaje.
58.- El método de acuerdo con la reivindicación 57, que además comprende: antes de realizar el reconocimiento de diálogo, determinar si.se realiza reconocimiento de diálogo en la expresión seleccionada basada en un nivel de confianza del significado de la expresión asociada con la representación digital de la comunicación.
59.- Un método implementado por computadora que comprende: recibir una representación digital de una conversación que incluye una serie de expresiones entre una persona que llama y un agente asociado con un centro de contacto; y después de recibir representación digital, seleccionar la expresión para transcripción basándose en uno o más criterios de selección.
60.- El método de acuerdo con la reivindicación 59, en donde los criterios de selección comprenden: u? requerimiento que un nivel de confianza de una respuesta por el sistema de respuesta de voz automático está dentro de una escala de valores.
61.- El método de acuerdo con la reivindicación 60 que además comprende: recibir la escala de valores de un usuario a través de una interfase de usuario gráfica.
62.- El método de acuerdo con la reivindicación 59, en donde los criterios de selección comprenden: un requerimiento que un nivel de confianza de procedimiento de reconocimiento de diálogo realizado en la expresión durante la conversación está dentro de la escala de valores.
63.- El método de acuerdo con la reivindicación 62, que además comprende: recibir la escala de valores de un usuario a través de una interfase de usuario gráfica.
64.- El método de acuerdo con la reivindicación 59, que además comprende: realizar un procedimiento de reconocimiento de diálogo implementado por computadora en la expresión seleccionada.
65.- El método de acuerdo con la reivindicación 59, que además comprende: agregar palabras reconocidas en la expresión seleccionada a un vocabulario de palabras utilizadas por un procedimiento de reconocimiento de diálogo utilizado por el sistema para reconocer expresiones durante conversaciones.
66.- Un método que comprende: basándose en una interacción entre una persona y un agente humano asociado con un sistema de respuesta automático en el cual el agente seleccionó una respuesta para una comunicación de una persona de entre respuestas propuestas por el sistema de respuesta automático; y seleccionar la comunicación como un ejemplo para entrenar el sistema de respuesta automático.
67.- El método de acuerdo con la reivindicación 66, en donde el seleccionar la comunicación comprende: seleccionar la comunicación basándose en un nivel de confianza de la respuesta seleccionada.
68.- El método de acuerdo con la reivindicación 66, que además comprende: utilizar la comunicación seleccionada para entrenar un clasificador.
69.- El método de acuerdo con la reivindicación 66 que además comprende: agregar la comunicación seleccionara a un modelo de lenguaje de un procedimiento de reconocimiento de diálogo automático de modelo de lenguaje estadístico.
70.- El método de acuerdo con la reivindicación 66, en donde el seleccionar la comunicación comprende: seleccionar la comunicación basándose en un nivel de confianza de un agente humano que seleccionó la respuesta.
71.- El método de acuerdo con la reivindicación 66, en donde la comunicación comprende una expresión.
72.- Un método que comprende: a través de la máquina, identificar una comunicación entre una persona que contacta un sistema de respuesta y un agente humano; y modificar el sistema de respuesta automática para responder a comunicaciones futuras similares de personas que contactan el sistema.
73.- El sistema de acuerdo con la reivindicación 72, en donde el modificar el sistema de respuesta automática para responder a comunicaciones futuras similares de personas que contactan el sistema comprende: modificar una red de transición de estado finito asociado con el sistema.
74.- Un método implementado por computadora que comprende: agregar una comunicación a un grupo de ejemplos de entrenamiento para un clasificador en un motor de reconocimiento de concepto; generar un nuevo clasificador que utiliza el grupo de ejemplos de entrenamiento que incluye la comunicación agregada; y no considerar el nuevo clasificador basándose en un requerimiento de desempeño para un nuevo clasificador.
75.- El método de acuerdo con la reivindicación 74, en donde el requerimiento de desempeño comprende: un requerimiento que un nuevo clasificador clasifique correctamente al menos un número predeterminado de otros ejemplos.
76.- El método de acuerdo con la reivindicación 74, en donde el requerimiento de desempeño comprende: un requerimiento que un nuevo clasificador tenga un nuevo grupo definitivo de ejemplos que es diferente del grupo definitivo de ejemplos del clasificador previo por una cantidad predeterminada.
77.- El método que comprende: generar un grupo de clasificadores para al menos un grupo de comunicaciones en respuesta, el grupo se basa en uno o más grupos de comunicaciones que inician con las cuales las comunicaciones en respuesta están asociadas dentro de conversaciones.
78.- El método de acuerdo con la reivindicación 77, en donde las conversaciones que inician son de un miembro de un tipo de primera parte.
79.- El método de acuerdo con la reivindicación 77, en donde las comunicaciones en respuesta son de un miembro de un tipo de segunda parte.
80.- El método de acuerdo con la reivindicación 78, en donde el tipo de primera parte comprende agentes asociados con un centro de contacto de cliente.
81.- El método de acuerdo con la reivindicación 79, en donde el tipo de segunda parte comprende clientes que contactaron un centro de contacto de cliente.
82.- El método de acuerdo con la reivindicación 77, que además comprende recibir un grupo de conversaciones al menos en algunos de los cuales incluyen una comunicación de inicio y comunicaciones en respuesta asociadas.
83.- El método de acuerdo con la reivindicación 77, en donde el grupo de comunicación en respuesta comprende comunicaciones en respuesta asociadas con una comunicación que inicia.
MX2007002880A 2004-09-10 2005-09-07 Maquina de aprendizaje. MX2007002880A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/939,288 US7606714B2 (en) 2003-02-11 2004-09-10 Natural language classification within an automated response system
PCT/US2005/032039 WO2006031609A2 (en) 2004-09-10 2005-09-07 Machine learning

Publications (1)

Publication Number Publication Date
MX2007002880A true MX2007002880A (es) 2007-04-23

Family

ID=36060554

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2007002880A MX2007002880A (es) 2004-09-10 2005-09-07 Maquina de aprendizaje.

Country Status (11)

Country Link
US (2) US7606714B2 (es)
EP (1) EP1787458A4 (es)
JP (1) JP4901738B2 (es)
KR (1) KR101169113B1 (es)
CN (1) CN101010934B (es)
AU (1) AU2005285108B2 (es)
BR (1) BRPI0515169A (es)
CA (2) CA2826116C (es)
MX (1) MX2007002880A (es)
RU (1) RU2391791C2 (es)
WO (1) WO2006031609A2 (es)

Families Citing this family (628)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US7623648B1 (en) * 2004-12-01 2009-11-24 Tellme Networks, Inc. Method and system of generating reference variations for directory assistance data
US7606714B2 (en) * 2003-02-11 2009-10-20 Microsoft Corporation Natural language classification within an automated response system
US8223944B2 (en) * 2003-05-05 2012-07-17 Interactions Corporation Conference call management system
US9710819B2 (en) * 2003-05-05 2017-07-18 Interactions Llc Real-time transcription system utilizing divided audio chunks
US7606718B2 (en) * 2003-05-05 2009-10-20 Interactions, Llc Apparatus and method for processing service interactions
US7503070B1 (en) * 2003-09-19 2009-03-10 Marshall Van Alstyne Methods and systems for enabling analysis of communication content while preserving confidentiality
US8010357B2 (en) * 2004-03-02 2011-08-30 At&T Intellectual Property Ii, L.P. Combining active and semi-supervised learning for spoken language understanding
US20050278189A1 (en) * 2004-05-27 2005-12-15 Isense Technology, Inc. Process & methods for content adaptive learning
US8949134B2 (en) * 2004-09-13 2015-02-03 Avaya Inc. Method and apparatus for recording/replaying application execution with recorded voice recognition utterances
US7457751B2 (en) * 2004-11-30 2008-11-25 Vocera Communications, Inc. System and method for improving recognition accuracy in speech recognition applications
US8498865B1 (en) * 2004-11-30 2013-07-30 Vocera Communications, Inc. Speech recognition system and method using group call statistics
US8185399B2 (en) 2005-01-05 2012-05-22 At&T Intellectual Property Ii, L.P. System and method of providing an automated data-collection in spoken dialog systems
US20060149553A1 (en) * 2005-01-05 2006-07-06 At&T Corp. System and method for using a library to interactively design natural language spoken dialog systems
US8478589B2 (en) 2005-01-05 2013-07-02 At&T Intellectual Property Ii, L.P. Library of existing spoken dialog data for use in generating new natural language spoken dialog systems
EP1851755A4 (en) * 2005-02-15 2010-01-20 Celf Corp USER DIALOGUE CONNECTION
US20060218110A1 (en) * 2005-03-28 2006-09-28 Simske Steven J Method for deploying additional classifiers
US7756878B2 (en) * 2005-03-31 2010-07-13 At&T Intellectual Property I, L.P. E-mail response system
US7720684B2 (en) * 2005-04-29 2010-05-18 Nuance Communications, Inc. Method, apparatus, and computer program product for one-step correction of voice interaction
US7995717B2 (en) * 2005-05-18 2011-08-09 Mattersight Corporation Method and system for analyzing separated voice data of a telephonic communication between a customer and a contact center by applying a psychological behavioral model thereto
US20100324908A1 (en) * 2005-05-23 2010-12-23 Roy Rosser Learning Playbot
US20070016399A1 (en) * 2005-07-12 2007-01-18 International Business Machines Corporation Method and apparatus for detecting data anomalies in statistical natural language applications
US8265260B2 (en) * 2005-07-28 2012-09-11 At&T Intellectual Property I, L.P. Methods, systems, and computer program products for providing human-assisted natural language call routing
US8225231B2 (en) 2005-08-30 2012-07-17 Microsoft Corporation Aggregation of PC settings
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US20070115920A1 (en) * 2005-10-18 2007-05-24 Microsoft Corporation Dialog authoring and execution framework
US10332071B2 (en) 2005-12-08 2019-06-25 International Business Machines Corporation Solution for adding context to a text exchange modality during interactions with a composite services application
US11093898B2 (en) 2005-12-08 2021-08-17 International Business Machines Corporation Solution for adding context to a text exchange modality during interactions with a composite services application
US8315874B2 (en) * 2005-12-30 2012-11-20 Microsoft Corporation Voice user interface authoring tool
US8117196B2 (en) * 2006-01-23 2012-02-14 Chacha Search, Inc. Search tool providing optional use of human search guides
US8266130B2 (en) * 2006-01-23 2012-09-11 Chacha Search, Inc. Search tool providing optional use of human search guides
US7962466B2 (en) * 2006-01-23 2011-06-14 Chacha Search, Inc Automated tool for human assisted mining and capturing of precise results
US8065286B2 (en) * 2006-01-23 2011-11-22 Chacha Search, Inc. Scalable search system using human searchers
US20070174258A1 (en) * 2006-01-23 2007-07-26 Jones Scott A Targeted mobile device advertisements
US8229733B2 (en) * 2006-02-09 2012-07-24 John Harney Method and apparatus for linguistic independent parsing in a natural language systems
JP2007219880A (ja) * 2006-02-17 2007-08-30 Fujitsu Ltd 評判情報処理プログラム、方法及び装置
JP4197344B2 (ja) * 2006-02-20 2008-12-17 インターナショナル・ビジネス・マシーンズ・コーポレーション 音声対話システム
US7599861B2 (en) 2006-03-02 2009-10-06 Convergys Customer Management Group, Inc. System and method for closed loop decisionmaking in an automated care system
US8379830B1 (en) 2006-05-22 2013-02-19 Convergys Customer Management Delaware Llc System and method for automated customer service with contingent live interaction
US7809663B1 (en) 2006-05-22 2010-10-05 Convergys Cmg Utah, Inc. System and method for supporting the utilization of machine language
WO2007149216A2 (en) * 2006-06-21 2007-12-27 Information Extraction Systems An apparatus, system and method for developing tools to process natural language text
US8495147B1 (en) 2006-07-13 2013-07-23 Avaya Inc. Threading of mixed media
US7792967B2 (en) * 2006-07-14 2010-09-07 Chacha Search, Inc. Method and system for sharing and accessing resources
US8280921B2 (en) 2006-07-18 2012-10-02 Chacha Search, Inc. Anonymous search system using human searchers
WO2008011526A2 (en) * 2006-07-19 2008-01-24 Chacha Search, Inc. Method, apparatus, and computer readable storage for training human searchers
WO2008011537A2 (en) * 2006-07-19 2008-01-24 Chacha Search, Inc. Method, system, and computer readable medium useful in managing a computer-based system for servicing user initiated tasks
KR20090046862A (ko) 2006-07-24 2009-05-11 차차 써치 인코포레이티드 정보 검색 시스템에서 팟캐스팅 및 비디오 훈련에 대한 방법, 시스템 및 컴퓨터 판독가능한 저장부
US20080021885A1 (en) * 2006-07-24 2008-01-24 Chacha Search, Inc. System for substantially immediate payment for search related tasks
US20080033744A1 (en) * 2006-08-07 2008-02-07 Chacha Search, Inc. Method, system, and computer program product for multi-level marketing
BRPI0714273A2 (pt) 2006-08-07 2014-10-29 Chacha Search Inc "método para prover uma busca de grupo de interesse, mídia de armazenamento que pode ser lida por computador, sistema de busca de informações para prover a busca de informações para prover a busca do grupo de interesse executado por buscadores humanos, mídia de armazenamento que pode ser lida por computador para controlar para controlar um computador que inclui um registro do grupo de interesse, mídia de armazenamento que pode ser lida por computador para controlar um computador que inclui um registro do buscador do grupo de interesse, mídia de armazenamento que pode ser lida por computador para controlar um computador que inclui um registro da autorização do grupo de interesse e interface"
US8024308B2 (en) * 2006-08-07 2011-09-20 Chacha Search, Inc Electronic previous search results log
EP1895745B1 (de) * 2006-08-31 2015-04-22 Swisscom AG Verfahren und Kommunikationssystem zum kontinuierlichen Aufnehmen von Umgebungsdaten
US7937687B2 (en) * 2006-09-01 2011-05-03 Verizon Patent And Licensing Inc. Generating voice extensible markup language (VXML) documents
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8280360B2 (en) 2006-12-08 2012-10-02 Nuance Communications, Inc. Software program and method for offering promotions on a phone
US8363807B2 (en) 2006-09-28 2013-01-29 Nuance Communications, Inc. System and method for performing an action on a phone in response to a user initiating an outbound call to one or more select phone numbers
US7752043B2 (en) 2006-09-29 2010-07-06 Verint Americas Inc. Multi-pass speech analytics
US8027839B2 (en) * 2006-12-19 2011-09-27 Nuance Communications, Inc. Using an automated speech application environment to automatically provide text exchange services
US20080154579A1 (en) * 2006-12-21 2008-06-26 Krishna Kummamuru Method of analyzing conversational transcripts
US8594305B2 (en) * 2006-12-22 2013-11-26 International Business Machines Corporation Enhancing contact centers with dialog contracts
WO2008086345A2 (en) * 2007-01-08 2008-07-17 Chacha Search, Inc. Method and system for promotion of a search service
WO2008087934A1 (ja) * 2007-01-16 2008-07-24 Nec Corporation 拡張認識辞書学習装置と音声認識システム
WO2008093315A2 (en) * 2007-02-01 2008-08-07 Nice Systems Ltd. Method and apparatus for call categorization
US9055150B2 (en) 2007-02-28 2015-06-09 International Business Machines Corporation Skills based routing in a standards based contact center using a presence server and expertise specific watchers
US20080205625A1 (en) * 2007-02-28 2008-08-28 International Business Machines Corporation Extending a standardized presence document to include contact center specific elements
US9247056B2 (en) 2007-02-28 2016-01-26 International Business Machines Corporation Identifying contact center agents based upon biometric characteristics of an agent's speech
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8200663B2 (en) 2007-04-25 2012-06-12 Chacha Search, Inc. Method and system for improvement of relevance of search results
US8811596B2 (en) * 2007-06-25 2014-08-19 The Boeing Company Apparatus including associative memory for evaluating audio communications
US8260619B1 (en) 2008-08-22 2012-09-04 Convergys Cmg Utah, Inc. Method and system for creating natural language understanding grammars
US20090100032A1 (en) * 2007-10-12 2009-04-16 Chacha Search, Inc. Method and system for creation of user/guide profile in a human-aided search system
US7904399B2 (en) * 2007-11-15 2011-03-08 International Business Machines Corporation Method and apparatus for determining decision points for streaming conversational data
US9386154B2 (en) * 2007-12-21 2016-07-05 Nuance Communications, Inc. System, method and software program for enabling communications between customer service agents and users of communication devices
US9092733B2 (en) 2007-12-28 2015-07-28 Genesys Telecommunications Laboratories, Inc. Recursive adaptive interaction management system
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US10176827B2 (en) 2008-01-15 2019-01-08 Verint Americas Inc. Active lab
WO2009094633A1 (en) 2008-01-25 2009-07-30 Chacha Search, Inc. Method and system for access to restricted resource(s)
WO2009111631A1 (en) * 2008-03-05 2009-09-11 Chacha Search, Inc. Method and system for triggering a search request
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
CA2665009C (en) * 2008-05-23 2018-11-27 Accenture Global Services Gmbh System for handling a plurality of streaming voice signals for determination of responsive action thereto
CA2665055C (en) * 2008-05-23 2018-03-06 Accenture Global Services Gmbh Treatment processing of a plurality of streaming voice signals for determination of responsive action thereto
CA2665014C (en) 2008-05-23 2020-05-26 Accenture Global Services Gmbh Recognition processing of a plurality of streaming voice signals for determination of responsive action thereto
US8489399B2 (en) 2008-06-23 2013-07-16 John Nicholas and Kristin Gross Trust System and method for verifying origin of input through spoken language analysis
US8752141B2 (en) * 2008-06-27 2014-06-10 John Nicholas Methods for presenting and determining the efficacy of progressive pictorial and motion-based CAPTCHAs
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8788476B2 (en) * 2008-08-15 2014-07-22 Chacha Search, Inc. Method and system of triggering a search request
JP5897240B2 (ja) * 2008-08-20 2016-03-30 株式会社ユニバーサルエンターテインメント 顧客対応システム、並びに会話サーバ
US8374859B2 (en) * 2008-08-20 2013-02-12 Universal Entertainment Corporation Automatic answering device, automatic answering system, conversation scenario editing device, conversation server, and automatic answering method
US8874443B2 (en) * 2008-08-27 2014-10-28 Robert Bosch Gmbh System and method for generating natural language phrases from user utterances in dialog systems
US8285550B2 (en) * 2008-09-09 2012-10-09 Industrial Technology Research Institute Method and system for generating dialogue managers with diversified dialogue acts
US8949124B1 (en) 2008-09-11 2015-02-03 Next It Corporation Automated learning for speech-based applications
US20100087169A1 (en) * 2008-10-02 2010-04-08 Microsoft Corporation Threading together messages with multiple common participants
US8762161B2 (en) * 2008-10-06 2014-06-24 Nice Systems Ltd. Method and apparatus for visualization of interaction categorization
US8411046B2 (en) 2008-10-23 2013-04-02 Microsoft Corporation Column organization of content
US20100107100A1 (en) 2008-10-23 2010-04-29 Schneekloth Jason S Mobile Device Style Abstraction
US8385952B2 (en) 2008-10-23 2013-02-26 Microsoft Corporation Mobile communications device user interface
US20100125450A1 (en) * 2008-10-27 2010-05-20 Spheris Inc. Synchronized transcription rules handling
US8943394B2 (en) 2008-11-19 2015-01-27 Robert Bosch Gmbh System and method for interacting with live agents in an automated call center
CN101414307A (zh) * 2008-11-26 2009-04-22 阿里巴巴集团控股有限公司 提供图片搜索的方法和服务器
JP5412096B2 (ja) * 2008-12-03 2014-02-12 株式会社やまびこ 携帯式チェンソーの動力ユニット構造
US10489434B2 (en) * 2008-12-12 2019-11-26 Verint Americas Inc. Leveraging concepts with information retrieval techniques and knowledge bases
US9191476B1 (en) 2009-01-08 2015-11-17 Amdocs Software Systems Limited System, method, and computer program for speech recognition assisted call center and self service interface
US8515762B2 (en) * 2009-01-22 2013-08-20 Microsoft Corporation Markup language-based selection and utilization of recognizers for utterance processing
CN102239517B (zh) * 2009-01-28 2013-05-08 三菱电机株式会社 声音识别装置
FR2943159B1 (fr) * 2009-03-16 2016-10-21 Alcatel Lucent Procede d'assistance a un operateur d'un centre d'appels
US20100241755A1 (en) * 2009-03-18 2010-09-23 Microsoft Corporation Permission model for feed content
US9342508B2 (en) * 2009-03-19 2016-05-17 Microsoft Technology Licensing, Llc Data localization templates and parsing
US20100241579A1 (en) * 2009-03-19 2010-09-23 Microsoft Corporation Feed Content Presentation
US8175653B2 (en) 2009-03-30 2012-05-08 Microsoft Corporation Chromeless user interface
US8238876B2 (en) 2009-03-30 2012-08-07 Microsoft Corporation Notifications
US8355698B2 (en) 2009-03-30 2013-01-15 Microsoft Corporation Unlock screen
US8719016B1 (en) 2009-04-07 2014-05-06 Verint Americas Inc. Speech analytics system and system and method for determining structured speech
US8331919B1 (en) 2009-04-24 2012-12-11 Nuance Communications, Inc. System, method, and software program product for tracking call failures on a wireless phone
US8836648B2 (en) 2009-05-27 2014-09-16 Microsoft Corporation Touch pull-in gesture
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US20100324961A1 (en) * 2009-06-23 2010-12-23 Verizon Patent And Licensing Inc. Method and system of providing service assistance using a hierarchical order of communication channels
US20100332224A1 (en) * 2009-06-30 2010-12-30 Nokia Corporation Method and apparatus for converting text to audio and tactile output
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US9172803B2 (en) * 2009-08-23 2015-10-27 Aspect Software, Inc. System and method for integrating runtime usage statistics with developing environment
US8943094B2 (en) 2009-09-22 2015-01-27 Next It Corporation Apparatus, system, and method for natural language processing
US9400790B2 (en) * 2009-12-09 2016-07-26 At&T Intellectual Property I, L.P. Methods and systems for customized content services with unified messaging systems
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US8645914B2 (en) 2010-01-22 2014-02-04 AgentSheets, Inc. Conversational programming
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US8694304B2 (en) * 2010-03-26 2014-04-08 Virtuoz Sa Semantic clustering and user interfaces
US9378202B2 (en) 2010-03-26 2016-06-28 Virtuoz Sa Semantic clustering
US8676565B2 (en) * 2010-03-26 2014-03-18 Virtuoz Sa Semantic clustering and conversational agents
WO2011119171A2 (en) * 2010-03-26 2011-09-29 Virtuoz, Inc. Semantic clustering
US8762939B1 (en) 2010-07-02 2014-06-24 Nuance Communications, Inc. System and method for displaying key performance indicators in an application design tool
US8645136B2 (en) 2010-07-20 2014-02-04 Intellisist, Inc. System and method for efficiently reducing transcription error using hybrid voice transcription
TWI431563B (zh) 2010-08-03 2014-03-21 Ind Tech Res Inst 語言學習系統、語言學習方法及其程式產品
US9792640B2 (en) 2010-08-18 2017-10-17 Jinni Media Ltd. Generating and providing content recommendations to a group of users
CN102376182B (zh) * 2010-08-26 2014-08-27 财团法人工业技术研究院 语言学习系统、语言学习方法及其程序产品
US20120076283A1 (en) 2010-09-23 2012-03-29 Ajmera Dinesh Predictive Customer Service Environment
US20120084112A1 (en) * 2010-09-24 2012-04-05 International Business Machines Corporation Providing community for customer questions
CN103221952B (zh) 2010-09-24 2016-01-20 国际商业机器公司 词法答案类型置信度估计和应用的方法和系统
US9524291B2 (en) * 2010-10-06 2016-12-20 Virtuoz Sa Visual display of semantic information
US9083561B2 (en) 2010-10-06 2015-07-14 At&T Intellectual Property I, L.P. Automated assistance for customer care chats
US9122744B2 (en) 2010-10-11 2015-09-01 Next It Corporation System and method for providing distributed intelligent assistance
US20120159395A1 (en) 2010-12-20 2012-06-21 Microsoft Corporation Application-launching interface for multiple modes
US20120159383A1 (en) 2010-12-20 2012-06-21 Microsoft Corporation Customization of an immersive environment
US8666726B2 (en) * 2010-12-21 2014-03-04 Nuance Communications, Inc. Sample clustering to reduce manual transcriptions in speech recognition system
US8612874B2 (en) 2010-12-23 2013-12-17 Microsoft Corporation Presenting an application change through a tile
US8689123B2 (en) 2010-12-23 2014-04-01 Microsoft Corporation Application reporting in an application-selectable user interface
US9423951B2 (en) 2010-12-31 2016-08-23 Microsoft Technology Licensing, Llc Content-based snap point
US9472185B1 (en) 2011-01-05 2016-10-18 Interactions Llc Automated recognition system for natural language understanding
US8560321B1 (en) 2011-01-05 2013-10-15 Interactions Corportion Automated speech recognition system for natural language understanding
US8484031B1 (en) 2011-01-05 2013-07-09 Interactions Corporation Automated speech recognition proxy system for natural language understanding
US9245525B2 (en) 2011-01-05 2016-01-26 Interactions Llc Automated speech recognition proxy system for natural language understanding
US9536269B2 (en) 2011-01-19 2017-01-03 24/7 Customer, Inc. Method and apparatus for analyzing and applying data related to customer interactions with social media
US8688453B1 (en) * 2011-02-28 2014-04-01 Nuance Communications, Inc. Intent mining via analysis of utterances
JP5610059B2 (ja) * 2011-03-17 2014-10-22 富士通株式会社 通話管理装置、通話管理方法、及びプログラム
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US20120246081A1 (en) * 2011-03-25 2012-09-27 Next It Corporation Systems and Methods for Automated Itinerary Modification
US9383917B2 (en) 2011-03-28 2016-07-05 Microsoft Technology Licensing, Llc Predictive tiling
US9015030B2 (en) * 2011-04-15 2015-04-21 International Business Machines Corporation Translating prompt and user input
US20120290509A1 (en) * 2011-05-13 2012-11-15 Microsoft Corporation Training Statistical Dialog Managers in Spoken Dialog Systems With Web Data
US9158445B2 (en) 2011-05-27 2015-10-13 Microsoft Technology Licensing, Llc Managing an immersive interface in a multi-application immersive environment
US8893033B2 (en) 2011-05-27 2014-11-18 Microsoft Corporation Application notifications
US9104307B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US9104440B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US20120304132A1 (en) 2011-05-27 2012-11-29 Chaitanya Dev Sareen Switching back to a previously-interacted-with application
US9658766B2 (en) 2011-05-27 2017-05-23 Microsoft Technology Licensing, Llc Edge gesture
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US8862537B1 (en) * 2011-06-30 2014-10-14 Sumo Logic Selective structure preserving obfuscation
US9060062B1 (en) * 2011-07-06 2015-06-16 Google Inc. Clustering and classification of recent customer support inquiries
CN102868717A (zh) * 2011-07-08 2013-01-09 华为软件技术有限公司 语音扩展标记语言脚本编辑与调试的方法、装置及系统
US8687023B2 (en) 2011-08-02 2014-04-01 Microsoft Corporation Cross-slide gesture to select and rearrange
US9401884B2 (en) * 2011-08-26 2016-07-26 Sap Se Conversation explorer with split navigation user interface
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US20130057587A1 (en) 2011-09-01 2013-03-07 Microsoft Corporation Arranging tiles
US8601030B2 (en) * 2011-09-09 2013-12-03 International Business Machines Corporation Method for a natural language question-answering system to complement decision-support in a real-time command center
US9557909B2 (en) 2011-09-09 2017-01-31 Microsoft Technology Licensing, Llc Semantic zoom linguistic helpers
US8922575B2 (en) 2011-09-09 2014-12-30 Microsoft Corporation Tile cache
US10353566B2 (en) 2011-09-09 2019-07-16 Microsoft Technology Licensing, Llc Semantic zoom animations
US9244802B2 (en) 2011-09-10 2016-01-26 Microsoft Technology Licensing, Llc Resource user interface
US8933952B2 (en) 2011-09-10 2015-01-13 Microsoft Corporation Pre-rendering new content for an application-selectable user interface
US9146670B2 (en) 2011-09-10 2015-09-29 Microsoft Technology Licensing, Llc Progressively indicating new content in an application-selectable user interface
US9992334B2 (en) * 2011-10-13 2018-06-05 Nuance Communications, Inc. Multi-modal customer care system
WO2013059199A1 (en) 2011-10-17 2013-04-25 Disintermediation Services, Inc. Two-way real time communication allowing asymmetric participation across multiple electronic platforms
US9117194B2 (en) 2011-12-06 2015-08-25 Nuance Communications, Inc. Method and apparatus for operating a frequently asked questions (FAQ)-based system
US9223472B2 (en) 2011-12-22 2015-12-29 Microsoft Technology Licensing, Llc Closing applications
US9836177B2 (en) 2011-12-30 2017-12-05 Next IT Innovation Labs, LLC Providing variable responses in a virtual-assistant environment
US9503349B2 (en) * 2012-01-26 2016-11-22 Zoom International S.R.O. Complex interaction recording
US9128605B2 (en) 2012-02-16 2015-09-08 Microsoft Technology Licensing, Llc Thumbnail-image selection of applications
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9111248B2 (en) * 2012-03-28 2015-08-18 Global Eprocure Procurement system
US9223537B2 (en) 2012-04-18 2015-12-29 Next It Corporation Conversation user interface
US11080721B2 (en) 2012-04-20 2021-08-03 7.ai, Inc. Method and apparatus for an intuitive customer experience
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
CN102737350A (zh) * 2012-06-08 2012-10-17 南方电网科学研究院有限责任公司 一种基于机器学习算法的输变电设备缺陷数据机器自主聚类工具
US8983840B2 (en) * 2012-06-19 2015-03-17 International Business Machines Corporation Intent discovery in audio or text-based conversation
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9471872B2 (en) 2012-06-29 2016-10-18 International Business Machines Corporation Extension to the expert conversation builder
US8990091B2 (en) * 2012-07-27 2015-03-24 Nuance Communications, Inc. Parsimonious protection of sensitive data in enterprise dialog systems
US9786281B1 (en) * 2012-08-02 2017-10-10 Amazon Technologies, Inc. Household agent learning
US9135244B2 (en) 2012-08-30 2015-09-15 Arria Data2Text Limited Method and apparatus for configurable microplanning
US9405448B2 (en) 2012-08-30 2016-08-02 Arria Data2Text Limited Method and apparatus for annotating a graphical output
US8762134B2 (en) 2012-08-30 2014-06-24 Arria Data2Text Limited Method and apparatus for situational analysis text generation
US9336193B2 (en) 2012-08-30 2016-05-10 Arria Data2Text Limited Method and apparatus for updating a previously generated text
US8762133B2 (en) 2012-08-30 2014-06-24 Arria Data2Text Limited Method and apparatus for alert validation
US9536049B2 (en) 2012-09-07 2017-01-03 Next It Corporation Conversational virtual healthcare assistant
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US8700396B1 (en) * 2012-09-11 2014-04-15 Google Inc. Generating speech data collection prompts
US9105268B2 (en) * 2012-09-19 2015-08-11 24/7 Customer, Inc. Method and apparatus for predicting intent in IVR using natural language queries
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
US9600471B2 (en) 2012-11-02 2017-03-21 Arria Data2Text Limited Method and apparatus for aggregating with information generalization
WO2014076525A1 (en) 2012-11-16 2014-05-22 Data2Text Limited Method and apparatus for expressing time in an output text
WO2014076524A1 (en) 2012-11-16 2014-05-22 Data2Text Limited Method and apparatus for spatial descriptions in an output text
US9015097B2 (en) 2012-12-19 2015-04-21 Nuance Communications, Inc. System and method for learning answers to frequently asked questions from a semi-structured data source
WO2014102569A1 (en) 2012-12-27 2014-07-03 Arria Data2Text Limited Method and apparatus for motion description
WO2014102568A1 (en) 2012-12-27 2014-07-03 Arria Data2Text Limited Method and apparatus for motion detection
US8494853B1 (en) * 2013-01-04 2013-07-23 Google Inc. Methods and systems for providing speech recognition systems based on speech recordings logs
US10467854B2 (en) 2013-01-10 2019-11-05 [24]7.ai, Inc. Method and apparatus for engaging users on enterprise interaction channels
WO2014111753A1 (en) 2013-01-15 2014-07-24 Arria Data2Text Limited Method and apparatus for document planning
US9075619B2 (en) * 2013-01-15 2015-07-07 Nuance Corporation, Inc. Method and apparatus for supporting multi-modal dialog applications
CN103971244B (zh) 2013-01-30 2018-08-17 阿里巴巴集团控股有限公司 一种商品信息的发布与浏览方法、装置及系统
US9092818B2 (en) * 2013-01-31 2015-07-28 Wal-Mart Stores, Inc. Method and system for answering a query from a consumer in a retail store
US9123335B2 (en) * 2013-02-20 2015-09-01 Jinni Media Limited System apparatus circuit method and associated computer executable code for natural language understanding and semantic content discovery
US10157228B2 (en) * 2013-02-22 2018-12-18 Mitel Networks Corporation Communication system including a confidence level for a contact type and method of using same
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
US9247061B2 (en) 2013-03-15 2016-01-26 Avaya Inc. Answer based agent routing and display method
US9064001B2 (en) * 2013-03-15 2015-06-23 Nuance Communications, Inc. Method and apparatus for a frequently-asked questions portal workflow
CN105027197B (zh) 2013-03-15 2018-12-14 苹果公司 训练至少部分语音命令系统
US9450952B2 (en) 2013-05-29 2016-09-20 Microsoft Technology Licensing, Llc Live tiles without application-code execution
US10445115B2 (en) 2013-04-18 2019-10-15 Verint Americas Inc. Virtual assistant focused user interfaces
US9058805B2 (en) * 2013-05-13 2015-06-16 Google Inc. Multiple recognizer speech recognition
US9548957B2 (en) 2013-05-24 2017-01-17 Instaply, Inc. System and method for facilitating transactions as conversations between participants
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
EP3008641A1 (en) 2013-06-09 2016-04-20 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
AU2014278595B2 (en) 2013-06-13 2017-04-06 Apple Inc. System and method for emergency calls initiated by voice command
JP6206840B2 (ja) * 2013-06-19 2017-10-04 国立研究開発法人情報通信研究機構 テキストマッチング装置、テキスト分類装置及びそれらのためのコンピュータプログラム
US10599765B2 (en) * 2013-06-27 2020-03-24 Avaya Inc. Semantic translation model training
US9348815B1 (en) 2013-06-28 2016-05-24 Digital Reasoning Systems, Inc. Systems and methods for construction, maintenance, and improvement of knowledge representations
WO2015028844A1 (en) 2013-08-29 2015-03-05 Arria Data2Text Limited Text generation from correlated alerts
US9396181B1 (en) 2013-09-16 2016-07-19 Arria Data2Text Limited Method, apparatus, and computer program product for user-directed reporting
US9244894B1 (en) 2013-09-16 2016-01-26 Arria Data2Text Limited Method and apparatus for interactive reports
US10262268B2 (en) 2013-10-04 2019-04-16 Mattersight Corporation Predictive analytic systems and methods
US9384731B2 (en) * 2013-11-06 2016-07-05 Microsoft Technology Licensing, Llc Detecting speech input phrase confusion risk
US9558176B2 (en) 2013-12-06 2017-01-31 Microsoft Technology Licensing, Llc Discriminating between natural language and keyword language items
US20150181039A1 (en) * 2013-12-19 2015-06-25 Avaya, Inc. Escalation detection and monitoring
US10088972B2 (en) 2013-12-31 2018-10-02 Verint Americas Inc. Virtual assistant conversations
JP2014102513A (ja) * 2014-01-06 2014-06-05 Fujitsu Ltd 対話選別プログラム、対話選別装置、および対話選別方法
KR20150081981A (ko) * 2014-01-07 2015-07-15 삼성전자주식회사 회의 내용 구조화 장치 및 방법
JP6248677B2 (ja) * 2014-02-17 2017-12-20 富士通株式会社 会話補助プログラム、会話補助方法、及び会話システム
US9524289B2 (en) * 2014-02-24 2016-12-20 Nuance Communications, Inc. Automated text annotation for construction of natural language understanding grammars
US9454787B1 (en) * 2014-03-04 2016-09-27 Stephen M. Dorr Secure membership data sharing system and associated methods
JP2015176099A (ja) * 2014-03-18 2015-10-05 株式会社東芝 対話システム構築支援装置、方法、及びプログラム
US9401143B2 (en) * 2014-03-24 2016-07-26 Google Inc. Cluster specific speech model
EP3126969A4 (en) 2014-04-04 2017-04-12 Microsoft Technology Licensing, LLC Expandable application representation
EP3129847A4 (en) 2014-04-10 2017-04-19 Microsoft Technology Licensing, LLC Slider cover for computing device
WO2015154273A1 (en) 2014-04-10 2015-10-15 Microsoft Technology Licensing, Llc Collapsible shell cover for computing device
US10664558B2 (en) 2014-04-18 2020-05-26 Arria Data2Text Limited Method and apparatus for document planning
US9213941B2 (en) 2014-04-22 2015-12-15 Google Inc. Automatic actions based on contextual replies
CN105095292B (zh) * 2014-05-15 2019-08-09 中兴通讯股份有限公司 语音邮箱系统的信息获取方法及装置
US20150331853A1 (en) * 2014-05-15 2015-11-19 Marco Palmonari Automated multi-grammar language processing system to optimize request handling in contact centers
US9508360B2 (en) * 2014-05-28 2016-11-29 International Business Machines Corporation Semantic-free text analysis for identifying traits
US9569751B2 (en) * 2014-05-29 2017-02-14 Avaya Inc. Mechanism for creation and utilization of an attribute tree in a contact center
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
TWI566107B (zh) 2014-05-30 2017-01-11 蘋果公司 用於處理多部分語音命令之方法、非暫時性電腦可讀儲存媒體及電子裝置
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US10318882B2 (en) 2014-09-11 2019-06-11 Amazon Technologies, Inc. Optimized training of linear machine learning models
US10339465B2 (en) 2014-06-30 2019-07-02 Amazon Technologies, Inc. Optimized decision tree based models
US10169715B2 (en) 2014-06-30 2019-01-01 Amazon Technologies, Inc. Feature processing tradeoff management
US9886670B2 (en) 2014-06-30 2018-02-06 Amazon Technologies, Inc. Feature processing recipes for machine learning
US9672474B2 (en) 2014-06-30 2017-06-06 Amazon Technologies, Inc. Concurrent binning of machine learning data
US10963810B2 (en) 2014-06-30 2021-03-30 Amazon Technologies, Inc. Efficient duplicate detection for machine learning data sets
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US10452992B2 (en) 2014-06-30 2019-10-22 Amazon Technologies, Inc. Interactive interfaces for machine learning model evaluations
US10540606B2 (en) 2014-06-30 2020-01-21 Amazon Technologies, Inc. Consistent filtering of machine learning data
US11100420B2 (en) 2014-06-30 2021-08-24 Amazon Technologies, Inc. Input processing for machine learning
US10102480B2 (en) 2014-06-30 2018-10-16 Amazon Technologies, Inc. Machine learning service
US9547471B2 (en) * 2014-07-03 2017-01-17 Microsoft Technology Licensing, Llc Generating computer responses to social conversational inputs
US9436507B2 (en) 2014-07-12 2016-09-06 Microsoft Technology Licensing, Llc Composing and executing workflows made up of functional pluggable building blocks
US10678412B2 (en) 2014-07-31 2020-06-09 Microsoft Technology Licensing, Llc Dynamic joint dividers for application windows
US10254942B2 (en) 2014-07-31 2019-04-09 Microsoft Technology Licensing, Llc Adaptive sizing and positioning of application windows
US10592080B2 (en) 2014-07-31 2020-03-17 Microsoft Technology Licensing, Llc Assisted presentation of application windows
US10291597B2 (en) 2014-08-14 2019-05-14 Cisco Technology, Inc. Sharing resources across multiple devices in online meetings
US11182691B1 (en) 2014-08-14 2021-11-23 Amazon Technologies, Inc. Category-based sampling of machine learning data
US10019680B2 (en) * 2014-08-15 2018-07-10 Nice Ltd. System and method for distributed rule-based sequencing engine
US10515151B2 (en) * 2014-08-18 2019-12-24 Nuance Communications, Inc. Concept identification and capture
US11651242B2 (en) 2014-08-27 2023-05-16 International Business Machines Corporation Generating answers to text input in an electronic communication tool with a question answering system
US10019672B2 (en) * 2014-08-27 2018-07-10 International Business Machines Corporation Generating responses to electronic communications with a question answering system
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US20160071517A1 (en) 2014-09-09 2016-03-10 Next It Corporation Evaluating Conversation Data based on Risk Factors
US10642365B2 (en) 2014-09-09 2020-05-05 Microsoft Technology Licensing, Llc Parametric inertia and APIs
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US9667786B1 (en) * 2014-10-07 2017-05-30 Ipsoft, Inc. Distributed coordinated system and process which transforms data into useful information to help a user with resolving issues
WO2016065568A1 (en) 2014-10-30 2016-05-06 Microsoft Technology Licensing, Llc Multi-configuration input device
US11621932B2 (en) * 2014-10-31 2023-04-04 Avaya Inc. System and method for managing resources of an enterprise
US10775996B2 (en) * 2014-11-26 2020-09-15 Snap Inc. Hybridization of voice notes and calling
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9710613B2 (en) 2014-12-16 2017-07-18 The Affinity Project, Inc. Guided personal companion
US9704103B2 (en) 2014-12-16 2017-07-11 The Affinity Project, Inc. Digital companions for human users
US10417345B1 (en) * 2014-12-22 2019-09-17 Amazon Technologies, Inc. Providing customer service agents with customer-personalized result of spoken language intent
US11094320B1 (en) * 2014-12-22 2021-08-17 Amazon Technologies, Inc. Dialog visualization
US10542126B2 (en) 2014-12-22 2020-01-21 Cisco Technology, Inc. Offline virtual participation in an online conference meeting
US10460720B2 (en) 2015-01-03 2019-10-29 Microsoft Technology Licensing, Llc. Generation of language understanding systems and methods
US10572810B2 (en) 2015-01-07 2020-02-25 Microsoft Technology Licensing, Llc Managing user interaction for input understanding determinations
US11042910B2 (en) * 2015-01-23 2021-06-22 Conversica, Inc. Systems and methods for processing message exchanges using artificial intelligence
US11106871B2 (en) 2015-01-23 2021-08-31 Conversica, Inc. Systems and methods for configurable messaging response-action engine
US11301632B2 (en) 2015-01-23 2022-04-12 Conversica, Inc. Systems and methods for natural language processing and classification
US11551188B2 (en) 2015-01-23 2023-01-10 Conversica, Inc. Systems and methods for improved automated conversations with attendant actions
US11100285B2 (en) 2015-01-23 2021-08-24 Conversica, Inc. Systems and methods for configurable messaging with feature extraction
US11663409B2 (en) 2015-01-23 2023-05-30 Conversica, Inc. Systems and methods for training machine learning models using active learning
US9420106B1 (en) 2015-03-05 2016-08-16 Xerox Corporation Methods and systems for assigning priority to incoming message from customer
US9911412B2 (en) * 2015-03-06 2018-03-06 Nuance Communications, Inc. Evidence-based natural language input recognition
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9431003B1 (en) 2015-03-27 2016-08-30 International Business Machines Corporation Imbuing artificial intelligence systems with idiomatic traits
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US9948786B2 (en) 2015-04-17 2018-04-17 Cisco Technology, Inc. Handling conferences using highly-distributed agents
US10218651B2 (en) * 2015-04-20 2019-02-26 Oracle International Corporation Virtual assistance for chat agents
US10540608B1 (en) 2015-05-22 2020-01-21 Amazon Technologies, Inc. Dynamically scaled training fleets for machine learning
US9509846B1 (en) * 2015-05-27 2016-11-29 Ingenio, Llc Systems and methods of natural language processing to rank users of real time communications connections
US9838540B2 (en) 2015-05-27 2017-12-05 Ingenio, Llc Systems and methods to enroll users for real time communications connections
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10249297B2 (en) 2015-07-13 2019-04-02 Microsoft Technology Licensing, Llc Propagating conversational alternatives using delayed hypothesis binding
US20170032027A1 (en) * 2015-07-31 2017-02-02 Nuance Communications, Inc. Contact Center Virtual Assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10621602B2 (en) * 2015-09-22 2020-04-14 Adobe Inc. Reinforcement machine learning for personalized intelligent alerting
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
RU2632133C2 (ru) 2015-09-29 2017-10-02 Общество С Ограниченной Ответственностью "Яндекс" Способ (варианты) и система (варианты) создания модели прогнозирования и определения точности модели прогнозирования
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10409913B2 (en) * 2015-10-01 2019-09-10 Conduent Business Services, Llc Methods and systems to train classification models to classify conversations
US9697198B2 (en) 2015-10-05 2017-07-04 International Business Machines Corporation Guiding a conversation based on cognitive analytics
US9723151B2 (en) * 2015-10-19 2017-08-01 Genesys Telecommunications Laboratories, Inc. Optimized routing of interactions to contact center agents based on forecast agent availability and customer patience
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10366053B1 (en) 2015-11-24 2019-07-30 Amazon Technologies, Inc. Consistent randomized record-level splitting of machine learning data
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
CN105657201B (zh) * 2016-01-26 2019-06-04 北京京东尚科信息技术有限公司 一种基于决策树模型的呼叫处理方法和系统
US9923931B1 (en) 2016-02-05 2018-03-20 Digital Reasoning Systems, Inc. Systems and methods for identifying violation conditions from electronic communications
US20170243134A1 (en) * 2016-02-10 2017-08-24 RapportBoost.ai Optimization System and Method for Chat-Based Conversations
US10140988B2 (en) 2016-03-01 2018-11-27 Microsoft Technology Licensing, Llc Speech recognition
US10192550B2 (en) 2016-03-01 2019-01-29 Microsoft Technology Licensing, Llc Conversational software agent
US10140986B2 (en) 2016-03-01 2018-11-27 Microsoft Technology Licensing, Llc Speech recognition
US10713589B1 (en) 2016-03-03 2020-07-14 Amazon Technologies, Inc. Consistent sort-based record-level shuffling of machine learning data
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US10224026B2 (en) * 2016-03-15 2019-03-05 Sony Corporation Electronic device, system, method and computer program
US9978367B2 (en) * 2016-03-16 2018-05-22 Google Llc Determining dialog states for language models
US10198433B2 (en) * 2016-03-22 2019-02-05 Facebook, Inc. Techniques to predictively respond to user requests using natural language processing
US11030207B1 (en) * 2016-04-12 2021-06-08 Tableau Software, Inc. Updating displayed data visualizations according to identified conversation centers in natural language commands
US10817527B1 (en) * 2016-04-12 2020-10-27 Tableau Software, Inc. Systems and methods of using natural language processing for visual analysis of a data set
US10515121B1 (en) 2016-04-12 2019-12-24 Tableau Software, Inc. Systems and methods of using natural language processing for visual analysis of a data set
US10795902B1 (en) * 2016-04-12 2020-10-06 Tableau Software, Inc. Applying natural language pragmatics in a data visualization user interface
US10778707B1 (en) 2016-05-12 2020-09-15 Amazon Technologies, Inc. Outlier detection for streaming data using locality sensitive hashing
US10949748B2 (en) * 2016-05-13 2021-03-16 Microsoft Technology Licensing, Llc Deep learning of bots through examples and experience
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9802125B1 (en) 2016-05-27 2017-10-31 The Affinity Project, Inc. On demand guided virtual companion
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179588B1 (en) 2016-06-09 2019-02-22 Apple Inc. INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
US10417065B2 (en) * 2016-06-13 2019-09-17 Dynatrace Llc Method and system for automated agent injection in container environments
US11449744B2 (en) 2016-06-23 2022-09-20 Microsoft Technology Licensing, Llc End-to-end memory networks for contextual language understanding
US9876909B1 (en) 2016-07-01 2018-01-23 At&T Intellectual Property I, L.P. System and method for analytics with automated whisper mode
US10200536B2 (en) 2016-07-01 2019-02-05 At&T Intellectual Property I, L.P. Omni channel customer care system and method
US20180007102A1 (en) * 2016-07-01 2018-01-04 At&T Intellectual Property I, Lp System and method for transition between customer care resource modes
US9871922B1 (en) 2016-07-01 2018-01-16 At&T Intellectual Property I, L.P. Customer care database creation system and method
US10083451B2 (en) 2016-07-08 2018-09-25 Asapp, Inc. Using semantic processing for customer support
US10453074B2 (en) 2016-07-08 2019-10-22 Asapp, Inc. Automatically suggesting resources for responding to a request
WO2018010635A1 (zh) * 2016-07-14 2018-01-18 腾讯科技(深圳)有限公司 随机性交互数据的处理方法、网络服务器及智能对话系统
US10726356B1 (en) 2016-08-01 2020-07-28 Amazon Technologies, Inc. Target variable distribution-based acceptance of machine learning test data sets
US10445432B1 (en) 2016-08-31 2019-10-15 Arria Data2Text Limited Method and apparatus for lightweight multilingual natural language realizer
JP6849964B2 (ja) * 2016-09-05 2021-03-31 株式会社Nextremer 対話制御装置、対話エンジン、管理端末、対話装置、対話制御方法、対話方法、およびプログラム
US10446137B2 (en) 2016-09-07 2019-10-15 Microsoft Technology Licensing, Llc Ambiguity resolving conversational understanding system
US10366163B2 (en) * 2016-09-07 2019-07-30 Microsoft Technology Licensing, Llc Knowledge-guided structural attention processing
JP6677614B2 (ja) * 2016-09-16 2020-04-08 株式会社東芝 会議支援システム、会議支援方法及びプログラム
US10846618B2 (en) * 2016-09-23 2020-11-24 Google Llc Smart replies using an on-device model
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
JP2018054850A (ja) 2016-09-28 2018-04-05 株式会社東芝 情報処理システム、情報処理装置、情報処理方法、及びプログラム
US11093711B2 (en) * 2016-09-28 2021-08-17 Microsoft Technology Licensing, Llc Entity-specific conversational artificial intelligence
CN107885756B (zh) 2016-09-30 2020-05-08 华为技术有限公司 基于深度学习的对话方法、装置及设备
US20180097940A1 (en) * 2016-09-30 2018-04-05 Genesys Telecommunications Laboratories, Inc. System and method for dynamic generation and optimization of process flows for a customer contact center
US10268734B2 (en) 2016-09-30 2019-04-23 International Business Machines Corporation Providing search results based on natural language classification confidence information
US10984034B1 (en) * 2016-10-05 2021-04-20 Cyrano.ai, Inc. Dialogue management system with hierarchical classification and progression
US10467347B1 (en) 2016-10-31 2019-11-05 Arria Data2Text Limited Method and apparatus for natural language document orchestrator
US10824798B2 (en) 2016-11-04 2020-11-03 Semantic Machines, Inc. Data collection for a new conversational dialogue system
US10592867B2 (en) 2016-11-11 2020-03-17 Cisco Technology, Inc. In-meeting graphical user interface display using calendar information and system
US10275539B2 (en) * 2016-11-21 2019-04-30 Accenture Global Solutions Limited Closed-loop natural language query pre-processor and response synthesizer architecture
US10516707B2 (en) 2016-12-15 2019-12-24 Cisco Technology, Inc. Initiating a conferencing meeting using a conference room device
US10650311B2 (en) 2016-12-19 2020-05-12 Asaap, Inc. Suggesting resources using context hashing
US10109275B2 (en) 2016-12-19 2018-10-23 Asapp, Inc. Word hash language model
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
CN110249326B (zh) * 2017-02-08 2023-07-14 微软技术许可有限责任公司 自然语言内容生成器
WO2018148441A1 (en) * 2017-02-08 2018-08-16 Semantic Machines, Inc. Natural language content generator
US10643601B2 (en) * 2017-02-09 2020-05-05 Semantic Machines, Inc. Detection mechanism for automated dialog systems
JP6219009B1 (ja) * 2017-02-14 2017-10-25 三菱電機株式会社 やり取り型攻撃シミュレーション装置、やり取り型攻撃シミュレーション方法およびやり取り型攻撃シミュレーションプログラム
US10762892B2 (en) 2017-02-23 2020-09-01 Semantic Machines, Inc. Rapid deployment of dialogue system
WO2018156978A1 (en) 2017-02-23 2018-08-30 Semantic Machines, Inc. Expandable dialogue system
US11069340B2 (en) 2017-02-23 2021-07-20 Microsoft Technology Licensing, Llc Flexible and expandable dialogue system
CN110291539A (zh) * 2017-02-24 2019-09-27 欧姆龙株式会社 用于生成学习数据的处理方法、系统、程序和存储介质、以及生成学习数据的方法和系统
US10687178B2 (en) 2017-03-03 2020-06-16 Orion Labs, Inc. Phone-less member of group communication constellations
US10922734B2 (en) * 2017-03-13 2021-02-16 Fmr Llc Automatic identification of issues in text-based transcripts
US11005997B1 (en) * 2017-03-23 2021-05-11 Wells Fargo Bank, N.A. Automated chatbot transfer to live agent
RU2676949C2 (ru) * 2017-04-05 2019-01-11 Общество С Ограниченной Ответственностью "Яндекс" Система и способ определения дохода пользователя мобильного устройства
US10440073B2 (en) 2017-04-11 2019-10-08 Cisco Technology, Inc. User interface for proximity based teleconference transfer
US10360908B2 (en) * 2017-04-19 2019-07-23 International Business Machines Corporation Recommending a dialog act using model-based textual analysis
US10224032B2 (en) * 2017-04-19 2019-03-05 International Business Machines Corporation Determining an impact of a proposed dialog act using model-based textual analysis
CN110546603A (zh) * 2017-04-25 2019-12-06 惠普发展公司,有限责任合伙企业 机器学习命令交互
US10375125B2 (en) 2017-04-27 2019-08-06 Cisco Technology, Inc. Automatically joining devices to a video conference
IL252037B (en) 2017-04-30 2021-12-01 Verint Systems Ltd System and method for identifying relationships between computer application users
JP6794921B2 (ja) * 2017-05-01 2020-12-02 トヨタ自動車株式会社 興味判定装置、興味判定方法、及びプログラム
SG11201909643RA (en) * 2017-05-05 2019-11-28 Liveperson Inc Dynamic response prediction for improved bot task processing
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
US11048995B2 (en) 2017-05-16 2021-06-29 Google Llc Delayed responses by computational assistant
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US10909441B2 (en) 2017-06-02 2021-02-02 Microsoft Technology Licensing, Llc Modeling an action completion conversation using a knowledge graph
US10628754B2 (en) 2017-06-06 2020-04-21 At&T Intellectual Property I, L.P. Personal assistant for facilitating interaction routines
US10375474B2 (en) 2017-06-12 2019-08-06 Cisco Technology, Inc. Hybrid horn microphone
US10810273B2 (en) 2017-06-13 2020-10-20 Bank Of America Corporation Auto identification and mapping of functional attributes from visual representation
US20180367480A1 (en) * 2017-06-18 2018-12-20 Rapportboost.Ai, Inc. Optimizing chat-based communications
US10176808B1 (en) * 2017-06-20 2019-01-08 Microsoft Technology Licensing, Llc Utilizing spoken cues to influence response rendering for virtual assistants
US10477148B2 (en) 2017-06-23 2019-11-12 Cisco Technology, Inc. Speaker anticipation
US10694038B2 (en) * 2017-06-23 2020-06-23 Replicant Solutions, Inc. System and method for managing calls of an automated call management system
US10762423B2 (en) 2017-06-27 2020-09-01 Asapp, Inc. Using a neural network to optimize processing of user requests
US10516709B2 (en) 2017-06-29 2019-12-24 Cisco Technology, Inc. Files automatically shared at conference initiation
US10706391B2 (en) 2017-07-13 2020-07-07 Cisco Technology, Inc. Protecting scheduled meeting in physical room
JP6218057B1 (ja) 2017-07-14 2017-10-25 Jeインターナショナル株式会社 自動応答サーバー装置、端末装置、応答システム、応答方法、およびプログラム
JP6787269B2 (ja) * 2017-07-21 2020-11-18 トヨタ自動車株式会社 音声認識システム及び音声認識方法
US10091348B1 (en) 2017-07-25 2018-10-02 Cisco Technology, Inc. Predictive model for voice/video over IP calls
US10311872B2 (en) 2017-07-25 2019-06-04 Google Llc Utterance classifier
JP6480987B2 (ja) * 2017-08-01 2019-03-13 株式会社大和総研 電話自動応答補助システムおよびプログラム
JPWO2019026716A1 (ja) * 2017-08-04 2020-08-20 ソニー株式会社 情報処理装置、及び情報処理方法
US11132499B2 (en) 2017-08-28 2021-09-28 Microsoft Technology Licensing, Llc Robust expandable dialogue system
US11475488B2 (en) 2017-09-11 2022-10-18 Accenture Global Solutions Limited Dynamic scripts for tele-agents
US10762424B2 (en) 2017-09-11 2020-09-01 Sas Institute Inc. Methods and systems for reinforcement learning
JP6857581B2 (ja) * 2017-09-13 2021-04-14 株式会社日立製作所 成長型対話装置
US11783243B2 (en) * 2017-09-20 2023-10-10 International Business Machines Corporation Targeted prioritization within a network based on user-defined factors and success rates
WO2019084321A1 (en) * 2017-10-26 2019-05-02 Conversica, Inc. SYSTEMS AND METHODS FOR CONFIGURABLE MESSAGE RESPONSE-ACTION ENGINE
US10574824B2 (en) 2017-11-02 2020-02-25 [24]7.ai, Inc. Method and apparatus for facilitating agent conversations with customers of an enterprise
US10832658B2 (en) 2017-11-15 2020-11-10 International Business Machines Corporation Quantized dialog language model for dialog systems
WO2019099894A1 (en) * 2017-11-16 2019-05-23 [24]7.ai, Inc. Method and system for facilitating collaboration among enterprise agents
US10503834B2 (en) 2017-11-17 2019-12-10 Digital Genius Limited Template generation for a conversational agent
RU2693324C2 (ru) 2017-11-24 2019-07-02 Общество С Ограниченной Ответственностью "Яндекс" Способ и сервер преобразования значения категориального фактора в его числовое представление
RU2692048C2 (ru) * 2017-11-24 2019-06-19 Общество С Ограниченной Ответственностью "Яндекс" Способ и сервер для преобразования значения категориального фактора в его числовое представление и для создания разделяющего значения категориального фактора
WO2019113122A1 (en) * 2017-12-04 2019-06-13 Conversica, Inc. Systems and methods for improved machine learning for conversations
US11507756B2 (en) * 2017-12-05 2022-11-22 discourse.ai, Inc. System and method for estimation of interlocutor intents and goals in turn-based electronic conversational flow
US10497004B2 (en) 2017-12-08 2019-12-03 Asapp, Inc. Automating communications using an intent classifier
US20190180206A1 (en) * 2017-12-13 2019-06-13 International Business Machines Corporation Conversation-driven workflow
US11853930B2 (en) 2017-12-15 2023-12-26 Accenture Global Solutions Limited Dynamic lead generation
WO2019133919A1 (en) * 2017-12-29 2019-07-04 Conversica, Inc. Systems and methods for human to ai cooperation in association with machine learning conversations
IL256690B (en) * 2018-01-01 2022-02-01 Cognyte Tech Israel Ltd System and method for identifying pairs of related application users
US11170762B2 (en) 2018-01-04 2021-11-09 Google Llc Learning offline voice commands based on usage of online voice commands
US10489792B2 (en) 2018-01-05 2019-11-26 Asapp, Inc. Maintaining quality of customer support messages
US10812417B2 (en) * 2018-01-09 2020-10-20 International Business Machines Corporation Auto-incorrect in chatbot human-machine interfaces
US10656775B2 (en) 2018-01-23 2020-05-19 Bank Of America Corporation Real-time processing of data and dynamic delivery via an interactive interface
KR102609430B1 (ko) * 2018-01-23 2023-12-04 구글 엘엘씨 호출 구문 검출에서 노이즈 감소 기술의 선택적 적응 및 활용
US11133010B1 (en) * 2018-01-23 2021-09-28 United Services Automobile Association (Usaa) Intelligent agent for interactive service environments
US11327826B1 (en) 2018-02-01 2022-05-10 Amdocs Development Limited System, method, and computer program for automated resolution of free-text incidents, based on machine learning
US11886823B2 (en) 2018-02-01 2024-01-30 International Business Machines Corporation Dynamically constructing and configuring a conversational agent learning model
US10152970B1 (en) 2018-02-08 2018-12-11 Capital One Services, Llc Adversarial learning and generation of dialogue responses
US10515155B2 (en) 2018-02-09 2019-12-24 Digital Genius Limited Conversational agent
EP3525107A1 (en) * 2018-02-09 2019-08-14 Digital Genius Limited Conversational agent
US10210244B1 (en) 2018-02-12 2019-02-19 Asapp, Inc. Updating natural language interfaces by processing usage data
US11080489B2 (en) * 2018-03-19 2021-08-03 Verint Americas Inc. Model-agnostic visualizations using linear programming approximation
US20190297120A1 (en) * 2018-03-22 2019-09-26 Carrier Corporation Anonymous chat method and system incorporating machine-learning capabilities
US11289070B2 (en) 2018-03-23 2022-03-29 Rankin Labs, Llc System and method for identifying a speaker's community of origin from a sound sample
JP6550603B1 (ja) * 2018-04-25 2019-07-31 メドケア株式会社 指導支援システム、指導支援方法及び指導支援サーバ
CA3041356A1 (en) * 2018-04-25 2019-10-25 James Lewis Conversation system
US10169315B1 (en) 2018-04-27 2019-01-01 Asapp, Inc. Removing personal information from text using a neural network
EP3576084B1 (de) * 2018-05-29 2020-09-30 Christoph Neumann Effiziente dialoggestaltung
US11100140B2 (en) 2018-06-04 2021-08-24 International Business Machines Corporation Generation of domain specific type system
US11005786B2 (en) * 2018-06-28 2021-05-11 Microsoft Technology Licensing, Llc Knowledge-driven dialog support conversation system
WO2020014354A1 (en) 2018-07-10 2020-01-16 John Rankin System and method for indexing sound fragments containing speech
US11347966B2 (en) * 2018-07-20 2022-05-31 Samsung Electronics Co., Ltd. Electronic apparatus and learning method of electronic apparatus
US11170770B2 (en) * 2018-08-03 2021-11-09 International Business Machines Corporation Dynamic adjustment of response thresholds in a dialogue system
US11216510B2 (en) 2018-08-03 2022-01-04 Asapp, Inc. Processing an incomplete message with a neural network to generate suggested messages
US11568175B2 (en) 2018-09-07 2023-01-31 Verint Americas Inc. Dynamic intent classification based on environment variables
US11048871B2 (en) * 2018-09-18 2021-06-29 Tableau Software, Inc. Analyzing natural language expressions in a data visualization user interface
US11468882B2 (en) * 2018-10-09 2022-10-11 Accenture Global Solutions Limited Semantic call notes
US10923114B2 (en) 2018-10-10 2021-02-16 N3, Llc Semantic jargon
US11232264B2 (en) 2018-10-19 2022-01-25 Verint Americas Inc. Natural language processing with non-ontological hierarchy models
DE102018218097A1 (de) * 2018-10-23 2020-04-23 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung, Zentraleinrichtung und System zum Erkennen einer Verteilungsverschiebung in einer Daten- und/oder Merkmalsverteilung von Eingangsdaten
US11196863B2 (en) 2018-10-24 2021-12-07 Verint Americas Inc. Method and system for virtual assistant conversations
US12001972B2 (en) * 2018-10-31 2024-06-04 Accenture Global Solutions Limited Semantic inferencing in customer relationship management
US11132695B2 (en) 2018-11-07 2021-09-28 N3, Llc Semantic CRM mobile communications sessions
US10742813B2 (en) 2018-11-08 2020-08-11 N3, Llc Semantic artificial intelligence agent
US10972608B2 (en) 2018-11-08 2021-04-06 N3, Llc Asynchronous multi-dimensional platform for customer and tele-agent communications
US20200153965A1 (en) 2018-11-10 2020-05-14 Nuance Communications, Inc. Caller deflection and response system and method
US10972609B2 (en) * 2018-11-10 2021-04-06 Nuance Communications, Inc. Caller deflection and response system and method
US11551004B2 (en) 2018-11-13 2023-01-10 Asapp, Inc. Intent discovery with a prototype classifier
US10747957B2 (en) 2018-11-13 2020-08-18 Asapp, Inc. Processing communications using a prototype classifier
WO2020118422A1 (en) * 2018-12-11 2020-06-18 Sinitic Inc. System and method for structuring chat history using machine-learning-based natural language processing
US10740371B1 (en) 2018-12-14 2020-08-11 Clinc, Inc. Systems and methods for intelligently configuring and deploying a machine learning-based dialogue system
US10805465B1 (en) 2018-12-20 2020-10-13 United Services Automobile Association (Usaa) Predictive customer service support system and method
US11151578B2 (en) * 2018-12-31 2021-10-19 Beijing Didi Infinity Technology And Development Co., Ltd. Methods and systems for processing customer inquiries
CN109660680A (zh) * 2019-02-06 2019-04-19 刘兴丹 一种选择性接入语音通话的方法、装置
US11449197B2 (en) * 2019-03-08 2022-09-20 [24]7.ai, Inc. Agent console for facilitating chat interactions with customers
US10944869B2 (en) 2019-03-08 2021-03-09 International Business Machines Corporation Automating actions of a mobile device during calls with an automated phone system
US10897508B2 (en) 2019-03-08 2021-01-19 International Business Machines Corporation Personal call center assistant
US11748422B2 (en) * 2019-03-15 2023-09-05 ContactEngine Limited Digital content security and communications system using artificial intelligence (AI) based machine learning and predictive analysis
US11790176B2 (en) * 2019-03-19 2023-10-17 Servicenow, Inc. Systems and methods for a virtual agent in a cloud computing environment
US10861022B2 (en) 2019-03-25 2020-12-08 Fmr Llc Computer systems and methods to discover questions and answers from conversations
US11948582B2 (en) 2019-03-25 2024-04-02 Omilia Natural Language Solutions Ltd. Systems and methods for speaker verification
US11170167B2 (en) * 2019-03-26 2021-11-09 Tencent America LLC Automatic lexical sememe prediction system using lexical dictionaries
US10445745B1 (en) 2019-03-26 2019-10-15 Fmr Llc Computer systems and methods for efficient query resolution by customer representatives
US10750019B1 (en) * 2019-03-29 2020-08-18 Genesys Telecommunications Laboratories, Inc. System and method for assisting agents via artificial intelligence
US11588759B2 (en) 2019-04-12 2023-02-21 Asapp, Inc. Automated communications over multiple channels
US11521114B2 (en) 2019-04-18 2022-12-06 Microsoft Technology Licensing, Llc Visualization of training dialogs for a conversational bot
US11558339B2 (en) * 2019-05-21 2023-01-17 International Business Machines Corporation Stepwise relationship cadence management
US10671941B1 (en) * 2019-05-23 2020-06-02 Capital One Services, Llc Managing multifaceted, implicit goals through dialogue
JP7332690B2 (ja) * 2019-05-31 2023-08-23 株式会社東芝 コミュニケーション管理装置
US11966697B2 (en) 2019-06-11 2024-04-23 Bank Of America Corporation Systems and methods for automated degradation-resistant tuning of machine-learning language processing models
CA3142939A1 (en) 2019-06-12 2020-12-17 Liveperson, Inc. Systems and methods for external system integration
US11211049B2 (en) 2019-07-03 2021-12-28 International Business Machines Corporation Program dialog by example
US20210004818A1 (en) 2019-07-05 2021-01-07 Talkdesk, Inc. System and method for automated agent assistance within a cloud-based contact center
US11138212B2 (en) 2019-07-23 2021-10-05 International Business Machines Corporation Natural language response recommendation clustering for rapid retrieval
CN110377716B (zh) 2019-07-23 2022-07-12 百度在线网络技术(北京)有限公司 对话的交互方法、装置及计算机可读存储介质
KR20190098928A (ko) * 2019-08-05 2019-08-23 엘지전자 주식회사 음성 인식 방법 및 장치
US11715112B2 (en) * 2019-08-21 2023-08-01 Avaya Inc. Automatic message generation and presentation to a communication node engaged in a communication
US11711465B2 (en) * 2019-08-22 2023-07-25 [24]7.ai, Inc. Method and apparatus for providing assistance to calling customers
US11328205B2 (en) 2019-08-23 2022-05-10 Talkdesk, Inc. Generating featureless service provider matches
US11184298B2 (en) * 2019-08-28 2021-11-23 International Business Machines Corporation Methods and systems for improving chatbot intent training by correlating user feedback provided subsequent to a failed response to an initial user intent
US11455339B1 (en) 2019-09-06 2022-09-27 Tableau Software, LLC Incremental updates to natural language expressions in a data visualization user interface
US11699435B2 (en) * 2019-09-18 2023-07-11 Wizergos Software Solutions Private Limited System and method to interpret natural language requests and handle natural language responses in conversation
US11373045B2 (en) * 2019-09-24 2022-06-28 ContactEngine Limited Determining context and intent in omnichannel communications using machine learning based artificial intelligence (AI) techniques
US20210097330A1 (en) * 2019-09-27 2021-04-01 International Business Machines Corporation Notification content message via artificial intelligence voice response system
US11126793B2 (en) * 2019-10-04 2021-09-21 Omilia Natural Language Solutions Ltd. Unsupervised induction of user intents from conversational customer service corpora
US11501033B2 (en) * 2019-10-07 2022-11-15 The Boeing Company Model-based systems engineering model conversion with text requirements
US20210117882A1 (en) 2019-10-16 2021-04-22 Talkdesk, Inc Systems and methods for workforce management system deployment
US11425064B2 (en) 2019-10-25 2022-08-23 Asapp, Inc. Customized message suggestion with user embedding vectors
US20210136220A1 (en) 2019-10-31 2021-05-06 Talkdesk, Inc. Monitoring and listening tools across omni-channel inputs in a graphically interactive voice response system
WO2021084439A1 (en) 2019-11-03 2021-05-06 Verint Systems Ltd. System and method for identifying exchanges of encrypted communication traffic
US11316980B2 (en) * 2019-11-26 2022-04-26 International Business Machines Corporation Agent to bot transfer
CN111159379B (zh) * 2019-12-30 2022-12-20 苏宁云计算有限公司 一种自动出题方法、装置及系统
US11303753B2 (en) * 2019-12-31 2022-04-12 InContact Inc. Enhancing agent's efficiency in a contact center by using a multi-agent to multi-contact routing orchestration
US11736615B2 (en) 2020-01-16 2023-08-22 Talkdesk, Inc. Method, apparatus, and computer-readable medium for managing concurrent communications in a networked call center
US11443264B2 (en) 2020-01-29 2022-09-13 Accenture Global Solutions Limited Agnostic augmentation of a customer relationship management application
JP7473346B2 (ja) * 2020-01-31 2024-04-23 エヌ・ティ・ティ・コミュニケーションズ株式会社 サービス解約方法、コンピュータプログラム及びサービス解約システム
US11699037B2 (en) 2020-03-09 2023-07-11 Rankin Labs, Llc Systems and methods for morpheme reflective engagement response for revision and transmission of a recording to a target individual
US11892939B2 (en) 2020-03-21 2024-02-06 Dynatrace Llc Automatic injection of agents into processes executing statically linked binaries
US11039013B1 (en) * 2020-04-10 2021-06-15 Medallia, Inc. Real-time contact center speech analytics, with critical call alerts, deployed across multiple security zones
USD996462S1 (en) * 2020-04-15 2023-08-22 Sublink, Llc Display screen or portion thereof with animated graphical user interface
US11392960B2 (en) 2020-04-24 2022-07-19 Accenture Global Solutions Limited Agnostic customer relationship management with agent hub and browser overlay
US11481785B2 (en) 2020-04-24 2022-10-25 Accenture Global Solutions Limited Agnostic customer relationship management with browser overlay and campaign management portal
US11146512B1 (en) 2020-05-12 2021-10-12 ZenDesk, Inc. Handing off customer-support conversations between a human agent and a bot without requiring code changes
US11393462B1 (en) * 2020-05-13 2022-07-19 Amazon Technologies, Inc. System to characterize vocal presentation
RU2755781C1 (ru) * 2020-06-04 2021-09-21 Публичное Акционерное Общество "Сбербанк России" (Пао Сбербанк) Интеллектуальное рабочее место оператора и способ его взаимодействия для осуществления интерактивной поддержки сессии обслуживания клиента
US11330105B2 (en) 2020-06-12 2022-05-10 Optum, Inc. Performance metric recommendations for handling multi-party electronic communications
US11500608B2 (en) 2020-06-17 2022-11-15 Avaya Management L.P. Smart audio playback
JP7322830B2 (ja) * 2020-07-28 2023-08-08 トヨタ自動車株式会社 情報出力システムおよび情報出力方法
US11190643B1 (en) 2020-07-30 2021-11-30 Bank Of America Corporation Automated redistribution of queries to underutilized channels
DE102021109265A1 (de) 2020-08-31 2022-03-03 Cognigy Gmbh Verfahren zur Optimierung
US11526550B2 (en) 2020-09-15 2022-12-13 Bank Of America Corporation System for building data communications using data extracted via frequency-based data extraction technique
US11698933B1 (en) 2020-09-18 2023-07-11 Tableau Software, LLC Using dynamic entity search during entry of natural language commands for visual data analysis
US11568135B1 (en) * 2020-09-23 2023-01-31 Amazon Technologies, Inc. Identifying chat correction pairs for training models to automatically correct chat inputs
US11514897B2 (en) * 2020-09-25 2022-11-29 Genesys Telecommunications Laboratories, Inc. Systems and methods relating to bot authoring by mining intents from natural language conversations
US11580959B2 (en) 2020-09-28 2023-02-14 International Business Machines Corporation Improving speech recognition transcriptions
US11507903B2 (en) 2020-10-01 2022-11-22 Accenture Global Solutions Limited Dynamic formation of inside sales team or expert support team
US11301631B1 (en) 2020-10-05 2022-04-12 Tableau Software, LLC Visually correlating individual terms in natural language input to respective structured phrases representing the natural language input
US11636269B2 (en) 2020-10-15 2023-04-25 Fmr Llc Content creation and prioritization
US11769018B2 (en) * 2020-11-24 2023-09-26 Openstream Inc. System and method for temporal attention behavioral analysis of multi-modal conversations in a question and answer system
US20220215324A1 (en) * 2021-01-07 2022-07-07 Gladly, Inc. Data tracking and generation for workforce management
US11797586B2 (en) 2021-01-19 2023-10-24 Accenture Global Solutions Limited Product presentation for customer relationship management
US11605375B2 (en) * 2021-03-05 2023-03-14 Capital One Services, Llc Systems and methods for dynamically updating machine learning models that provide conversational responses
US20220294903A1 (en) * 2021-03-12 2022-09-15 Avaya Management L.P. Virtual private agent for machine-based interactions with a contact center
US11782974B2 (en) * 2021-03-25 2023-10-10 Bank Of America Corporation System and method for dynamically identifying and retrieving information responsive to voice requests
US11798551B2 (en) * 2021-03-25 2023-10-24 Bank Of America Corporation System and method for voice controlled automatic information access and retrieval
US11683283B2 (en) * 2021-03-30 2023-06-20 International Business Machines Corporation Method for electronic messaging
US11816677B2 (en) 2021-05-03 2023-11-14 Accenture Global Solutions Limited Call preparation engine for customer relationship management
US11755295B2 (en) 2021-06-04 2023-09-12 Bank Of America Corporation Software development system
US20220400093A1 (en) * 2021-06-14 2022-12-15 LiveChat Software S.A. System and method for asynchronous messaging combined with a real-time communication
US11677875B2 (en) 2021-07-02 2023-06-13 Talkdesk Inc. Method and apparatus for automated quality management of communication records
US11954436B2 (en) * 2021-07-26 2024-04-09 Freshworks Inc. Automatic extraction of situations
US11409593B1 (en) 2021-08-05 2022-08-09 International Business Machines Corporation Discovering insights and/or resolutions from collaborative conversations
US11915205B2 (en) * 2021-10-15 2024-02-27 EMC IP Holding Company LLC Method and system to manage technical support sessions using ranked historical technical support sessions
US11941641B2 (en) 2021-10-15 2024-03-26 EMC IP Holding Company LLC Method and system to manage technical support sessions using historical technical support sessions
US12008025B2 (en) 2021-10-15 2024-06-11 EMC IP Holding Company LLC Method and system for augmenting a question path graph for technical support
US20230196035A1 (en) * 2021-12-17 2023-06-22 Capital One Services, Llc Identifying zones of interest in text transcripts using deep learning
US11856140B2 (en) 2022-03-07 2023-12-26 Talkdesk, Inc. Predictive communications system
US11736616B1 (en) 2022-05-27 2023-08-22 Talkdesk, Inc. Method and apparatus for automatically taking action based on the content of call center communications
US11971908B2 (en) 2022-06-17 2024-04-30 Talkdesk, Inc. Method and apparatus for detecting anomalies in communication data
US11989502B2 (en) * 2022-06-18 2024-05-21 Klaviyo, Inc Implicitly annotating textual data in conversational messaging
US11943391B1 (en) 2022-12-13 2024-03-26 Talkdesk, Inc. Method and apparatus for routing communications within a contact center

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US637944A (en) * 1896-12-15 1899-11-28 John H Quigley Churn.
JPH05324713A (ja) 1992-05-20 1993-12-07 Hitachi Ltd 自然語処理方法および自然語処理システム
US5748974A (en) * 1994-12-13 1998-05-05 International Business Machines Corporation Multimodal natural language interface for cross-application tasks
US5963940A (en) 1995-08-16 1999-10-05 Syracuse University Natural language information retrieval system and method
US6182029B1 (en) 1996-10-28 2001-01-30 The Trustees Of Columbia University In The City Of New York System and method for language extraction and encoding utilizing the parsing of text data in accordance with domain parameters
US5895466A (en) 1997-08-19 1999-04-20 At&T Corp Automated natural language understanding customer service system
US5960384A (en) 1997-09-03 1999-09-28 Brash; Douglas E. Method and device for parsing natural language sentences and other sequential symbolic expressions
US6173279B1 (en) 1998-04-09 2001-01-09 At&T Corp. Method of using a natural language interface to retrieve information from one or more data resources
US6377944B1 (en) 1998-12-11 2002-04-23 Avaya Technology Corp. Web response unit including computer network based communication
US6851115B1 (en) 1999-01-05 2005-02-01 Sri International Software-based architecture for communication and cooperation among distributed electronic agents
US6243684B1 (en) 1999-02-19 2001-06-05 Usada, Inc. Directory assistance system and method utilizing a speech recognition system and a live operator
US20050091057A1 (en) * 1999-04-12 2005-04-28 General Magic, Inc. Voice application development methodology
US6401061B1 (en) 1999-05-13 2002-06-04 Yuri L. Zieman Combinatorial computational technique for transformation phrase text-phrase meaning
US6718367B1 (en) 1999-06-01 2004-04-06 General Interactive, Inc. Filter for modeling system and method for handling and routing of text-based asynchronous communications
GB9930731D0 (en) 1999-12-22 2000-02-16 Ibm Voice processing apparatus
US6829603B1 (en) 2000-02-02 2004-12-07 International Business Machines Corp. System, method and program product for interactive natural dialog
US6604094B1 (en) 2000-05-25 2003-08-05 Symbionautics Corporation Simulating human intelligence in computers using natural language dialog
US6778951B1 (en) 2000-08-09 2004-08-17 Concerto Software, Inc. Information retrieval method with natural language interface
US7136814B1 (en) 2000-11-03 2006-11-14 The Procter & Gamble Company Syntax-driven, operator assisted voice recognition system and methods
US6941266B1 (en) 2000-11-15 2005-09-06 At&T Corp. Method and system for predicting problematic dialog situations in a task classification system
US6766316B2 (en) 2001-01-18 2004-07-20 Science Applications International Corporation Method and system of ranking and clustering for document indexing and retrieval
US6587558B2 (en) 2001-01-29 2003-07-01 Immequire, Llc System and method for virtual interactive response unit
US6901398B1 (en) * 2001-02-12 2005-05-31 Microsoft Corporation System and method for constructing and personalizing a universal information classifier
US7305345B2 (en) * 2001-02-15 2007-12-04 Livewire Acquisition, Inc. Methods, systems, and computer program products for providing automated customer service via an intelligent virtual agent that is trained using customer-agent conversations
JP2002358304A (ja) 2001-05-31 2002-12-13 P To Pa:Kk 会話制御システム
US6915246B2 (en) 2001-12-17 2005-07-05 International Business Machines Corporation Employing speech recognition and capturing customer speech to improve customer service
US6771746B2 (en) 2002-05-16 2004-08-03 Rockwell Electronic Commerce Technologies, Llc Method and apparatus for agent optimization using speech synthesis and recognition
US20040162724A1 (en) * 2003-02-11 2004-08-19 Jeffrey Hill Management of conversations
US7606714B2 (en) * 2003-02-11 2009-10-20 Microsoft Corporation Natural language classification within an automated response system
US7219054B1 (en) * 2003-04-04 2007-05-15 At&T Corp. Systems and methods for generating an annotation guide
CN100359976C (zh) * 2003-04-15 2008-01-02 华为技术有限公司 一种根据移动电话号码进行分组业务监听的方法

Also Published As

Publication number Publication date
CN101010934B (zh) 2010-09-29
RU2007108794A (ru) 2008-09-20
JP2008512789A (ja) 2008-04-24
CA2576605C (en) 2014-01-14
EP1787458A4 (en) 2014-05-21
CA2826116C (en) 2014-07-08
RU2391791C2 (ru) 2010-06-10
AU2005285108A1 (en) 2006-03-23
US7606714B2 (en) 2009-10-20
CA2826116A1 (en) 2006-03-23
WO2006031609A2 (en) 2006-03-23
WO2006031609A3 (en) 2006-06-08
BRPI0515169A (pt) 2008-07-08
KR20070055530A (ko) 2007-05-30
EP1787458A2 (en) 2007-05-23
KR101169113B1 (ko) 2012-07-27
CA2576605A1 (en) 2006-03-23
US20050105712A1 (en) 2005-05-19
US20090228264A1 (en) 2009-09-10
US8000973B2 (en) 2011-08-16
JP4901738B2 (ja) 2012-03-21
CN101010934A (zh) 2007-08-01
AU2005285108B2 (en) 2010-07-22

Similar Documents

Publication Publication Date Title
CA2576605C (en) Natural language classification within an automated response system
EP1602102B1 (en) Management of conversations
US8694324B2 (en) System and method of providing an automated data-collection in spoken dialog systems
US8644488B2 (en) System and method for automatically generating adaptive interaction logs from customer interaction text
US20110106527A1 (en) Method and Apparatus for Adapting a Voice Extensible Markup Language-enabled Voice System for Natural Speech Recognition and System Response
WO2021135534A1 (zh) 基于语音识别的对话管理处理方法、装置、设备及介质
CN113228606A (zh) 来自移动通信会话的语义crm副本
CN114328867A (zh) 一种人机对话中智能打断的方法及装置
WO2002089113A1 (en) System for generating the grammar of a spoken dialogue system
Lee et al. A study on natural language call routing
Suendermann et al. Crowdsourcing for industrial spoken dialog systems
Karat et al. Speech and language interfaces, applications, and technologies
Di Fabbrizio et al. Bootstrapping spoken dialogue systems by exploiting reusable libraries
Gergely et al. Semantics driven intelligent front-end
AU2022215180A1 (en) Mobile intelligent outside sales assistant
CA3181446A1 (en) Unified, cross-channel, multidimensional insight generation
CN111324702A (zh) 人机对话方法及模拟人声进行人机对话的耳麦
Park Your call may be recorded for automatic quality-control
Meng MULTILINGUAL DIALOG SYSTEMS

Legal Events

Date Code Title Description
FG Grant or registration