MX2007002880A - Maquina de aprendizaje. - Google Patents
Maquina de aprendizaje.Info
- Publication number
- MX2007002880A MX2007002880A MX2007002880A MX2007002880A MX2007002880A MX 2007002880 A MX2007002880 A MX 2007002880A MX 2007002880 A MX2007002880 A MX 2007002880A MX 2007002880 A MX2007002880 A MX 2007002880A MX 2007002880 A MX2007002880 A MX 2007002880A
- Authority
- MX
- Mexico
- Prior art keywords
- group
- communications
- agent
- communication
- conversation
- Prior art date
Links
- 238000010801 machine learning Methods 0.000 title description 6
- 238000004891 communication Methods 0.000 claims abstract description 207
- 230000004044 response Effects 0.000 claims abstract description 182
- 239000003795 chemical substances by application Substances 0.000 claims description 425
- 230000007704 transition Effects 0.000 claims description 318
- 230000014509 gene expression Effects 0.000 claims description 274
- 238000000034 method Methods 0.000 claims description 193
- 230000003993 interaction Effects 0.000 claims description 124
- 241000282414 Homo sapiens Species 0.000 claims description 119
- 238000012549 training Methods 0.000 claims description 39
- 230000008878 coupling Effects 0.000 claims description 25
- 238000010168 coupling process Methods 0.000 claims description 25
- 238000005859 coupling reaction Methods 0.000 claims description 25
- 238000012706 support-vector machine Methods 0.000 claims description 17
- 238000013518 transcription Methods 0.000 claims description 12
- 230000035897 transcription Effects 0.000 claims description 12
- 238000010276 construction Methods 0.000 claims description 6
- 238000003066 decision tree Methods 0.000 claims description 4
- 241000282412 Homo Species 0.000 claims description 3
- 230000000977 initiatory effect Effects 0.000 claims description 3
- 238000012552 review Methods 0.000 description 25
- 238000012545 processing Methods 0.000 description 22
- 238000009826 distribution Methods 0.000 description 21
- 238000005516 engineering process Methods 0.000 description 20
- 238000011161 development Methods 0.000 description 16
- 238000012360 testing method Methods 0.000 description 15
- 238000007726 management method Methods 0.000 description 14
- 238000004458 analytical method Methods 0.000 description 12
- 230000008859 change Effects 0.000 description 11
- 230000009471 action Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 8
- 238000010200 validation analysis Methods 0.000 description 8
- 230000009118 appropriate response Effects 0.000 description 6
- 230000008520 organization Effects 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 238000003058 natural language processing Methods 0.000 description 5
- 230000002787 reinforcement Effects 0.000 description 5
- 230000006399 behavior Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 230000003466 anti-cipated effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- 231100000735 select agent Toxicity 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 102100025957 Interleukin-1 receptor-associated kinase 1-binding protein 1 Human genes 0.000 description 2
- 108050002038 Interleukin-1 receptor-associated kinase 1-binding protein 1 Proteins 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000000275 quality assurance Methods 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 230000029305 taxis Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 1
- 235000010627 Phaseolus vulgaris Nutrition 0.000 description 1
- 244000046052 Phaseolus vulgaris Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000012508 change request Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005538 encapsulation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000010931 gold Substances 0.000 description 1
- 229910052737 gold Inorganic materials 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000008774 maternal effect Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 238000003908 quality control method Methods 0.000 description 1
- 230000007115 recruitment Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000012368 scale-down model Methods 0.000 description 1
- 241000894007 species Species 0.000 description 1
- 230000007474 system interaction Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M7/00—Arrangements for interconnection between switching centres
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/487—Arrangements for providing information services, e.g. recorded voice services or time announcements
- H04M3/493—Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/027—Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/51—Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
- H04M3/5166—Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing in combination with interactive voice response systems or voice portals, e.g. as front-ends
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Marketing (AREA)
- Data Mining & Analysis (AREA)
- Telephonic Communication Services (AREA)
- Machine Translation (AREA)
- Information Transfer Between Computers (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Computer And Data Communications (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
Un sistema de respuesta automatico (por ejemplo, un sistema de respuesta por voz automatico) puede emplear estrategia de aprendizaje para desarrollar o mejorar capacidades de respuesta automatica. Las estrategias de aprendizaje puede incluir utilizar comunicaciones (por ejemplo, expresiones, mensajes de texto, etc.) de una parte en una conversacion (por ejemplo, un agente de servicio al cliente) para identificar y clasificar comunicaciones de otra parte en la conversacion (por ejemplo, un persona que llama). Los clasificadores pueden construirse a partir de las comunicaciones clasificadas. Los clasificadores pueden utilizarse para identificar patrones de comunicaciones comunes de un parte en una conversacion (por ejemplo, un agente). Las estrategias de aprendizaje tambien pueden incluir seleccionar comunicaciones como oportunidades de aprendizaje en criterios de seleccion (por ejemplo, criterios de seleccion elegidos para asegurar que el sistema no aprende de ejemplos no confiables o insignificantes).
Description
MAQUINA DE APRENDIZAJE
ANTECEDENTES
Está descripción se refiere a una máquina de aprendizaje en un sistema de respuesta automático. Una aplicación en la cual se manejan conversaciones es en centros de contacto de cliente. Los centros de contacto de cliente, por ejemplo centros de llamada, han surgido como una de las áreas más importantes y dinámicas de la empresa en la nueva economía. El ambiente económico rígido de hoy en día, los clientes de servicio de retención de costo de efectivo es de importancia estratégica. La mayoría de las compañías se dan cuenta que mantener clientes satisfechos es menos costoso que adquirir nuevos. Como el punto de toque de empresa para más de la mitad de todas las interacciones de cliente, el centro de contacto se ha convertido en una piedra angular para una estrategia de negocios exitosa. La importancia en crecimiento del centro de contacto es un fenómeno reciente. Históricamente, el servicio de clientes se ha observado por la mayoría de organizaciones como un costo caro pero necesario de hacer negocios, lleno de problemas e ineficiencias. Los volúmenes de llamadas altos regularmente se abruman bajo el equipo entrenado, lo que resulta en consultas ocupadas largas para los clientes. Los sistemas de información inadecuados requieren que la mayoría de las personas que llaman repitan la información básica varias veces. Debido a esto, un estimado de veinte por ciento de los compradores abandonan los sitios web cuando se enfrentan a tener que llamar a un centro de contacto de la organización, y muchos más abandonan las llamadas cuando se encuentran con consultas en espera o elecciones de un menú frustrantes. Además, los centros de contacto de cliente representan un costo operativo extraordinario, que consume casi diez por ciento de los ingresos para los negocios promedio. El costo de trabajo domina este gasto, y la velocidad de giro extraordinariamente alto de la industria resulta en el reclutamiento directo y el entrenamiento de nuevos agentes. Desafortunadamente para los negocios, la meta de asegurar el servicio de cliente de costo efectivo se hace más difícil. El Internet se ha conducido a una explosión en comunicación entre organizaciones y sus clientes. Los clientes unen un alto valor al servicio en la economía de Internet debido a que los productos y servicios comprados en línea generan un número superior de preguntas que aquellos comprados a través de canales de ventas tradicionales. El papel de centro de contacto se expandió para incluir nuevas audiencias de servicio, tal como compañeros de negocio, inversionistas e incluso empleados de la compañía. Las nuevas iniciativas de publicidad y de mercadeo altamente efectivas dirigen a los clientes a interactuar con centros de contacto ya abrumados para obtener información. Además de las llamadas telefónicas, las preguntas ahora se hacen en nuevos canales de texto a base de web, que incluyen correo electrónico, correo de web y chat, que colocan una enorme raza en operaciones de servicio de cliente. La combinación de la importancia en crecimiento del buen servicio a cliente y los obstáculos para entregarla conforman un reto de servicio a cliente.
BREVE DESCRIPCIÓN DE LA INVENCIÓN
En un aspecto, las características de la invención que utilizan comunicaciones de agente (por ejemplo, expresiones, mensajes de texto, etc.) capturados en un grupo de conversaciones de agente-persona que llama previamente registradas (por ejemplo, conversaciones de agente humano-persona que llama) para entrenar un grupo de clasificadores de agente. A partir de los clasificadores de agente, las expresiones de persona que llama pueden localizarse y agruparse. Las expresiones de persona que llama agrupadas pueden utilizarse para entrenar un grupo de grupos de persona que llama. En otro aspecto, las características de la invención que aumentan los grupos de persona que llama al utilizar clasificadores (por ejemplo, clasificadores de agente o persona que llama) para clasificar comunicaciones en conversaciones de agente-persona que llama previamente registradas, que agregan las comunicaciones clasificadas a un grupo de entrenamiento a un clasificador asociado, y que reconstruyen clasificador. En otro aspecto, las características de invención que utilizan clasificadores de agente para identificar patrones de solicitud de agente común en un grupo de conversaciones previamente registradas entre agentes y personas que llaman. Estos patrones de solicitud de agente comunes pueden asociarse con ciertos tipos de llamada (por ejemplo, llamadas que se relacionan a la misma solicitud de persona llama inicial). Estos patrones de solicitud agente pueden utilizarse, por ejemplo, por un desarrollador de aplicación para diseñar el flujo de conversación de un sistema de respuesta automático. En otro aspecto, las características de invención que utilizan distribuciones de respuestas de persona que llaman para preguntas de agente con frases diferentes que piden la misma información para determinar una palabra de una pregunta para un sistema de respuesta automático que es muy probable que produzcan la respuesta deseada de una persona que llama. En otro aspecto, las características de la invención, un método que incluye recibir un grupo de conversaciones entre miembros de un primer tipo de parte (por ejemplo, agentes humanos o agentes de software) y un miembro de un segundo tipo de parte (por ejemplo, personas que llaman humanas), en donde cada una de las conversaciones incluyen la comunicación de un miembro del primer tipo de parte y en la comunicación (por ejemplo, una solicitud hablada) de un miembro del segundo tipo de parte que es en respuesta a la comunicación del miembro del primer tipo de parte (por ejemplo, una respuesta hablada a la solicitud). El método también incluye agrupar las comunicaciones de miembros de primer tipo de parte en un primer grupo de grupos, y después agrupar las comunicaciones en respuesta de miembros del segundo tipo de parte en un segundo grupo de grupos basado en el agrupamiento de las comunicaciones de miembros del primer tipo de parte. Un método también incluye generar, a máquina, un segundo grupo de clasificadores de segundo tipo de parte (por ejemplo, una máquina de vector de soporte o árbol de decisión) para uno ó más grupos en el segundo grupo de grupos. Las implementaciones de este aspecto de la invención incluyen una ó más de las siguientes características. El método puede utilizarse para desarrollar una aplicación inicial para un sistema de respuesta automático, tal como un sistema de respuesta de voz automático o un sistema de respuesta de envío de mensaje de texto automático. Las comunicaciones de miembros de un primer tipo de parte pueden agruparse en un primer grupo de grupos que utilizan en la computadora. Por ejemplo, un procedimiento de computadora puede determinar primero características semánticas de las comunicaciones y después agrupar las comunicaciones en grupos basados en las características semánticas. Los grupos de comunicaciones de miembros del primer grupo pueden agruparse basándose en el significado de sus comunicaciones. En otras palabras, las comunicaciones pueden agruparse para que las comunicaciones en un grupo todas tengan el mismo significado, pero pueden tener diferentes palabras. Los grupos de las comunicaciones de miembros del segundo tipo de parte en grupos que corresponden a las respuestas para solicitar la información de los miembros del primer tipo de parte. El método además incluye recibir un segundo grupo de grupos de conversaciones entre un miembro del primer tipo de parte y miembros del segundo tipo de parte, que aplican los clasificadores de segundo tipo de parte al grupo de comunicaciones de miembros del segundo tipo de parte, y a máquina, que regenera clasificadores de un segundo tipo de parte para un grupo en el segundo grupo de grupos que utilizan datos que se relacionan a las comunicaciones agrupadas en el grupo. En otro aspecto las características de la invención, que aplican un grupo de clasificadores para clasificar comunicaciones iniciales (por ejemplo, solicitudes de información de un agente) que son parte de conversaciones que también incluyen comunicaciones en respuesta y que utilizan las comunicaciones clasificadas para identificar patrones de comunicación comunes. Las implementaciones de la invención pueden incluir una o más de las siguientes características. El método además puede incluir agrupar conversaciones en el grupo de conversaciones por asunto sujeto (por ejemplo, el asunto sujeto del propósito de la persona que llama para formar a un centro de llamado), y asociar patrones de comunicación comunes identificados con los grupos. En otro aspecto, las características de la invención que aplican un grupo de clasificadores (por ejemplo, una máquina de vector de soporte) para clasificar comunicaciones de un miembro de un primer tipo de parte en una conversación entre los miembros del primer tipo de parte y un miembro de un segundo tipo de parte y que determinan un asunto sujeto en la conversación basándose en la combinación o secuencia de las comunicaciones clasificadas del miembro del primer tipo de parte. Las implementaciones de la invención pueden incluir uno o más de las siguientes características. En el método también puede incluir acoplar la secuencia de las comunicaciones clasificadas con una secuencia de comunicaciones clasificadas asociadas con una conversación que tiene un asunto sujeto conocido. En otro aspecto las características de la invención que utilizan ejemplos de comunicaciones que ocurrieron entre personas que llaman y un sistema de respuesta automático (por ejemplo, un sistema de respuesta de envío de mensaje de texto automático o un sistema de respuesta de voz automática) para mejorar el desempeño del sistema. En otro aspecto las características de la invención que seleccionan ejemplos para oportunidades de aprendizaje para un sistema de respuesta automático basándose en algunos criterios de selección. Los criterios de selección pueden elegirse (por ejemplo, por un usuario a través de una interfase de usuario gráfica) para ayudar a asegurar que los ejemplos de los cuales el sistema aprende son confiables. Los criterios de selección también pueden elegirse para asegurar que el sistema selecciona solo ejemplos que resultan en una mejora significativa al sistema. Al descartar los ejemplos que no resultan en una mejora significativa al sistema, el sistema ayuda a minimizar la carga en los recursos (por ejemplo, procesar recursos contrarios de implementar la mejora o recursos administrativos sumados con tareas de revisar o aprobar ejemplos de aprendizaje). En otro aspecto, las características de la invención de un método para seleccionar oportunidades de aprendizaje para un sistema de respuesta automático asociado con un centro de compacto que incluye recibir representaciones digitales de conversaciones al menos algunas de las cuales comprenden una serie de comunicaciones (por ejemplo, expresiones, mensajes de texto, etc.) entre una persona y un agente (por ejemplo, un agente humano o un agente de software) asociado con un centro de contacto y que selecciona la comunicación como una oportunidad de aprendizaje si se satisface uno o más criterios de selección. Las implementaciones pueden incluir una o más de las siguientes características. Los criterios de selección pueden ser un requerimiento que una comunicación se siga por un intercambio de comunicación entre la persona y un agente, un requerimiento que luna comunicación se siga por un número de intercambios de comunicación subsecuentes exitosos entre la persona y un agente, un requerimiento que una comunicación puede estar incluida dentro de una conversación en la cual la persona se responde positivamente a una pregunta de satisfacción preguntada por un agente, un requerimiento que una comunicación en una primera conversación se confirme por comunicaciones similares que ocurren en un número de otras conversaciones o un requerimiento que una comunicación no cause un grupo de construcción de clasificadores que utiliza la comunicación para clasificar erróneamente las comunicaciones que un grupo previene clasificadores ya clasificó correctamente. En algunas implementaciones, las comunicaciones entre las personas y agentes pueden incluir interacciones de ayuda en las cuales un agente humano selecciono una respuesta a una comunicación de persona de una lista clasificada de respuestas propuestas generadas por el sistema de respuesta automático. Para estas interacciones de ayuda el titulo de selección puede incluir un requerimiento que no respeta seleccionada en una interacción de ayuda se clasifique sobre un umbral, o un requerimiento que una respuesta seleccionada en una interacción de ayuda se seleccione de un agente humano confiable. Las comunicaciones seleccionadas pueden utilizarse para mejorar el desempeño de sistema al reconstruir clasificadores que utilizan comunicación seleccionada, que generan un modelo de lenguaje para un motor de reconocimiento de dialogo automático que utiliza la comunicación seleccionada, o que modifica una red de estado finito que utiliza la comunicación seleccionada. En implementaciones de respuesta por voz, el método también puede incluir realizar reconocimiento de dialogo en motor de reconocimiento de dialogo fuera de línea en una expresión seleccionada como una oportunidad de aprendizaje. El método también puede incluir, antes de realizar el reconocimiento de dialogo, determinar si desempeñar el reconocimiento de dialogo en la expresión seleccionada basándose en el nivel de confianza del significado de la expresión asociada con la representación digital de la comunicación. En otro aspecto, las características de invención de un método para seleccionar oportunidades de aprendizaje para un sistema de respuesta por voz automática asociado con un centro de contacto que incluye presidir una representación digital de una conversación que toma lugar entre una persona que llama y uno o más agentes asociados con el centro de contacto y que seleccionan una expresión capturada en la representación digital de la conversación para trascripción basándose en uno o más criterios de selección. Las implementaciones pueden incluir uno o más de las siguientes características. Los criterios de selección puede incluir un requerimiento que un nivel de confianza de una respuesta por el sistema de respuesta de voz automática este dentro de una escala de valores o un requerimiento que un nivel de confianza de un procedimiento de reconocimiento de dialogo realizado en la expresión durante la conversación este dentro de una escala de valores. El método también puede incluir realizar reconocimiento de lenguaje en la expresión y agregar palabras reconocidas en la expresión a un vocabulario de palabras utilizadas por un procedimiento de reconocimiento de dialogo utilizado por el sistema para reconocer expresiones durante conversaciones.
En otro aspecto, la invención modaliza un método que incluye, basándose en una interacción entre una persona y un agente humano asociado con un sistema de respuesta automático en el cual el agente selecciono una respuesta a una comunicación de la persona de entre respuestas propuestas por el sistema de respuesta automático, seleccionar la comunicación como un ejemplo para entrenar el sistema de respuesta automático. Las implementaciones de la invención pueden incluir una o más de las siguientes características. La selección de la comunicación puede basarse en un nivel de confianza de la respuesta seleccionada por el agente o en un nivel de confianza del agente humano que selecciono la respuesta. En otro aspecto, la invención modaliza un método que identifica una comunicación entre la persona que contacta un sistema de respuesta automático que resulto en la respuesta que se controlo por un agente humano y que modifica el sistema de respuesta automático para responder a comunicaciones futuras similares de personas que contactan el sistema. En una implementación particular, la modificación del sistema de respuesta automático puede comprender modificar una red de transición de estado finito asociada con el sistema. En otro aspecto la invención modaliza un método para seleccionar oportunidades de aprendizaje para un sistema de respuesta automático que incluye agregar una comunicación a un grupo de entrenamiento ilustrativo para un clasificador en un motor de reconocimiento de concepto, que genera un nuevo clasificador que utiliza el grupo de ejemplo de entrenamiento que incluye la comunicación agregada, y desconsiderar el nuevo clasificador basándose en el requerimiento de desempeño para un nuevo clasificador. Las implementaciones pueden incluir una o más de las siguientes características. El requerimiento de desempeño puede ser un requerimiento que un nuevo clasificador clasifique correctamente al menos un número predeterminado de otros ejemplos o un requerimiento que un nuevo clasificador tenga un nuevo grupo definitivo de ejemplos que diferente del grupo definitivo de ejemplos de clasificador previo por una cantidad predeterminada. En otro aspecto las características de la invención que generan un grupo de clasificadores para al menos un grupo de comunicaciones en respuesta, el grupo que está basado en uno o más grupos de comunicaciones en inicio con las cuales las comunicaciones en respuesta están asociadas dentro de las conversaciones. Las implementaciones pueden incluir una o más de las siguientes características. Las conversaciones de inicio pueden ser de un miembro de un primer tipo de parte (por ejemplo, un agente en un centro de servicio de cliente) y las conversaciones en respuesta pueden ser de un miembro de un segundo tipo de parte (por ejemplo, un cliente que contacta un centro de servicio de cliente). El método también puede incluir recibir un grupo de conversaciones al menos algunas de las cuales incluyen una comunicación en inicio y una comunicación en respuesta asociada. El grupo de comunicaciones de respuesta pueden comprender comunicaciones de respuesta asociadas con una comunicación en inicio. Otras ventajas, características, e implementaciones serán evidentes a partir de la siguiente descripción, y de las reivindicaciones.
DESCRIPCIÓN DE LOS DIBUJOS
La Figura 1 muestra un diagrama de línea de transición de estado y la Figura 1A muestra una gráfica de transición de estado. La Figura 2 muestra interacciones entre cliente, el sistema, y el agente humano. La Figura 3 es un cuadro de flujo. La Figura 4 es una revisión de un sistema de arquitectura de software. La Figura 5 es una vista más detallada de la arquitectura de software de la Figura 4. La Figura 6 es un diagrama de bloque de sistema de componentes de flujo de trabajo. La Figura 7 es un diagrama de bloque de componentes de canal de interacción. La Figura 8 es un diagrama de bloque de un reconocedor de dialogo.
La Figura 9 es un diagrama de bloque de un motor de reconocimiento de concepto. La Figura 10 es una vista de una organización de documentos de lenguaje de marcación. La Figura 11 es una vista de un subgrupo de la gráfica de transición de estado de una gráfica ilustrativa. La Figura 12 es una vista de un procedimiento de desarrollo de aplicación iterativo. La Figura 13 es una diapositiva. La Figura 14 es otra diapositiva. La Figura 15 es una vista de un procedimiento de desarrollo de aplicación inicial. Las Figuras 16A-16F son vistas de un procedimiento de desarrollo de aplicación inicial. La Figura 17 es un diagrama de bloques de un servidor de aprendizaje.
DESCRIPCIÓN DE LA INVENCIÓN
La tecnología de procesamiento de lenguaje natural basándose en conceptos o significado, tal como la tecnología descrita en la patente de los Estados Unidos 6,401,061, incorporada por referencia en su totalidad, puede elevarse para interactuar inteligentemente con información basándose en el significado de información, o contexto semántico, más que en sus palabras literales. Un sistema después puede construirse para manejar comunicaciones, por ejemplo, comunicaciones en las cuales un usuario hace una pregunta, y el sistema proporciona una respuesta. Tal sistema es latamente efectivo, condescendiente con el usuario, y tolerante a fallas debido a que automáticamente extrae los conceptos clave de la pregunta del usuario independientemente de las palabras literales. El motor de reconocimiento de concepto (del tipo descrito en la patente de Estados Unidos 6,401,061) permite la formación de respuestas apropiadas basándose en lo que los clientes están preguntando cuando se comprometen con el sistema base en la conversación con los canales de comunicación a base de voz o de texto. La conversación puede ser una comunicación sincrónica con el cliente (tal como un diálogo de tiempo real que utiliza envío de mensaje por voz o instantáneo u otra comunicación a través de la página web) o comunicaciones sincrónicas (tal como correos electrónicos o mensajes de correo por voz). En las conversaciones que utilizan el modo de comunicaciones sincrónico, la respuesta se proporcionan a un tiempo posterior relativo a las preguntas del cliente. En el ejemplo del centro de contacto de cliente, antes del tiempo de funcionamiento, el sistema de manejo de comunicación crea una base de conocimiento que utiliza conversaciones reales registradas entre clientes y agentes humanos en un centro de contacto de cliente. Al utilizar las conversaciones registradas de está forma en vez de intentar programar el sistema para cada interacción de cliente posible hace la configuración simple, rápida, y dentro de la capacidad de una gran escala de administradores de sistema. Diferente a los sistemas de autoservicio tradicionales que son incapaces de adaptarse rápidamente a cada una de las condiciones de negocio cambiantes, el sistema aquí descrito puede modelar rápidamente preguntas típicas y responder pares y conversaciones futuras automáticas. Cada conversación que se procesa por el sistema (ya sea para construir la base de conocimiento antes del tiempo de funcionamiento, o para procesar comunicaciones en vivo en tiempo de funcionamiento) se moldea como un grupo ordenado de estados y transiciones a otros estados en los cuales la transición de cada estado incluye una pregunta o declaración por el cliente y una respuesta por el agente humano (o en algunos casos, una acción para tomarse en respuesta a la pregunta, tal como formular una pregunta de nuevo al usuario). Una secuencia de estado de transición de estado simbólico para una pregunta que se está procesando de una interacción registrada se ilustra en la Figura 1. En algunas implementaciones, El limitador para cada declaración o comunicación por el cliente o respuesta por el agente humano es un período de silencio o una interrupción hablada. El texto para cada una de estas declaraciones o respuestas se extrae de cualquier modo de comunicación que se utilizo en la conversación, por ejemplo, texto o diálogo. Por ejemplo, un motor de reconocimiento de diálogo automático (ASR) en línea puede utilizarse para convertir la conversación hablada en texto. Después, el sistema extrae conceptos clave de la pregunta de cliente o declaración o la respuesta del agente humano. Esta extracción se hace como se describió en la patente de E. U. A. 6,401,061 al crear una biblioteca de elementos de texto (S-Morfos) y su significado en términos de un grupo de conceptos (factores semánticos) como una base de conocimiento para utilizarse por un motor de reconocimiento de concepto. El motor de reconocimiento en concepto analiza el texto del cliente o agente en estos S-Morfo y después los conceptos que se acoplan a estos S-Morfo se reúnen. Estos conceptos claves para una comunicación (pregunta o respuesta, en el ejemplo que se discute) pueden almacenarse como un grupo no ordenado y pueden iluminarse como una "bolsa de conceptosP Las organizaciones de nivel superior de los conceptos en varias estructuras que reflejan la sintaxis o la cercanía también es posible. Después de que se procesa este grupo completo de conversaciones registradas (es decir, diálogos), cada conversación se expresa como una secuencia de estado-transición-estado. El sistema acumula todas las secuencias de transición de estado de conversación en un gráfico individual para que el estado inicial pueda hacer transición a cualquiera de las conversaciones. Este gráfico de transición agregado después se comprime al utilizar las técnicas de teoría de gráfico que reemplazan estados duplicados y transiciones. El sistema determina de forma recursiva que transiciones de un estado dado se duplican, el comparar las transiciones con sus "conceptosP Los estados de sucesor de transiciones duplicadas del mismo estado se fusionan en un estado con todas las transiciones de los estados sucesores. El texto de uno de las respuestas de las transiciones duplicadas se conserva en la base de conocimiento como una respuesta estándar. Este texto puede regresarse al cliente como parte de un intercambio de conversación en la forma de texto o convertido en voz. Un ejemplo de un gráfico de transición de estado comprimido se ilustra en la Figura 1A. En algunas implementaciones, toda la información en la base de conocimiento se almacena al utilizar una gramática XML bien definida. Ejemplos de lenguajes de marcación incluyen lenguaje de Marcación de Hiper Texto (HTML) y Lenguaje de Marcación Extensible de Voz (VozXML). En este caso, un Lenguaje de Marcación de Conversación (CML) se utiliza para almacenar la información para la base de conocimiento. Una vez que la base de conocimiento se formó, el sistema puede proceder a un modo de operación (tiempo de funcionamiento), el cual se utiliza para manejar comunicaciones en, por ejemplo, un centro de contacto de cliente. Los registros que se utilizan para construir la base de conocimiento para un centro de contacto de cliente dado serían, en algunas ¡mplementaciones, registradas de conversaciones que ocurren en el mismo centro de contacto de cliente o una que se caracteriza por tipos similares de conversaciones. Al utilizar la base de conocimiento, el sistema puede mantener el rastro del estado actual de conversaciones de tiempo real basándose en el gráfico de transición de estado para el centro de contacto de cliente. Por ejemplo, después de un cliente hace su primera comunicación (convertido a texto) con un centro de compacto de cliente (por ejemplo, el usuario puede tomar una consulta hablada de lenguaje natural arbitrario), el sistema utilizan motor de reconocimiento de concepto para extraer los conceptos del texto. Después, el sistema intenta acoplar los conceptos del texto con las transiciones del estado inicial en la gráfica de transición de estado del centro de contacto. Este acoplamiento se hace al comparar el grupo de conceptos asociados con la comunicación actual con grupos de conceptos almacenados en la base de conocimiento. Entre más cerca estén los dos grupos, más confianza existe en la exactitud del acoplamiento. Si la mejor transición de acoplamiento en la base de conocimiento se acopla al texto de cliente con una confianza sobre algún umbral, entonces el sistema asume que identificó la transición correcta, localiza la respuesta correspondiente en la base de conocimiento, y comunica esa respuesta correspondiente a clientes. El sistema procede al siguiente estado en el gráfico de transición de estado y espera la siguiente comunicación del cliente. Esta transversal de una secuencia de estados y transiciones puede continuar hasta que el cliente termina la conversación o hasta que el gráfico de transición de estado alcanza un estado final. Sin embargo, los errores en le texto recibido por el motor de reconocimiento de concepto y las preguntas o declaraciones no estándares (o no esperadas) por el cliente puedan requerir intervención por un agente humano. Cuando la comunicación de cliente está en la forma de diálogo, la conversación del diálogo al texto puede tener tales errores. Debido a la responsabilidad de tales errores, en algunas implementaciones, el sistema no confía en la automatización completa de las respuestas al cliente pero tiene una transición suave a intervención manual por el agente humano cuando la automatización no es exitosa. En general, este tipo de automatización gradual se sugiere por la Figura 2 que muestra interacciones entre el cliente o no. El sistema 3, y el agente humano 5. (en otras implementaciones del sistema, las respuestas automáticas pueden darse en caso de alta confianza, mientras no hay respuesta (diferente a lo indicado que el sistema es incapaz de responder se da al usuario). En algunos ejemplos, el sistema utiliza tecnología de reconocimiento de diálogo para acoplar a clientes en conversaciones en el teléfono. La tecnología de reconocimiento de diálogo convierte el diálogo del cliente en texto que entra al motor de reconocimiento de concepto. Al integrar el motor de reconocimiento de concepto con reconocimiento de diálogo, el sistema base reconoce lo que el cliente dice al entender conceptualmente lo que significa lo que dijo el cliente. Está combinación permite nuevos niveles de automatización en el centro de servicio de cliente al comprometer a usuarios en interacción intuitiva, inteligente, y constructiva a través de múltiples canales. Y que permite a organizaciones descargar volúmenes significantes de transacciones de cliente de rutina a través de todos los canales de contacto, ahorrando gastos considerables y mejorando los niveles de servicio. En otras implantaciones, estas conversaciones con el cliente pueden ocurrir en interfases de audio que utilizan, por ejemplo, un navegador de VozXML, la web que utiliza un navegador HTML, Envío de Mensaje instantáneo que utiliza una aplicación IM, correo electrónico que utiliza una aplicación de correo así como otros canales que todavía no están en uso. Se debe notar que este sistema permite que la respuesta de centro de contacto utilicé un modo diferente de comunicación que la comunicación de cliente. Por ejemplo, el cliente puede comunicarse al utilizar la voz y el centro de contacto puede responder con texto o el cliente puede comunicarse al utilizar texto y el centro de contacto puede responder con voz generada por computadora. Esto se realiza ya sea al utilizar el texto de respuesta al guardado directamente o al convertir el texto de respuesta guardado en diálogo generado por computadora. En algunas implementaciones, el sistema proporciona tres tipos o niveles de manejo de conversación y el sistema puede cambiar entre estos durante una conversación dada. 1. Automático-el sistema es capaz de producir respuestas apropiadas a las solicitudes de cliente y automatizar la transacción completamente de forma independiente de un agente humano. Por ejemplo, el cliente A llama a un centro de contacto de cliente de la compañía para preguntar sobre sus garantías de nuevos productos. Al dienta A se le da la bienvenida por un sistema automático que lo introduce y le da una breve explicación de cómo trabaja el sistema automático, lo que incluye preguntas de muestra. Después se le impulsa a mencionar su pregunta con sus propias palabras. El cliente A menciona su pregunta en una forma de conversación. El sistema automático informa al cliente de la política de garantía comprensiva de la compañía. El sistema pregunta al cliente A y la resolución fue útil y sí tiene cualquier pregunta adicional. Con su pregunta respondida, el cliente A termina la llamada. 2. Ayuda de agente mezclada. En este modo, el sistema involucra un agente humano al presentarlo con la pregunta de cliente y un número de respuestas sugeridas clasificadas por confianza/similitud ("marca de acoplamiento"). El agente humano selecciona una de las respuestas sugeridas, lo que permite al sistema completar la llamada. El agente humano también puede buscar la base de conocimiento de sistema para una respuesta alternativa al ingresar una pregunta en el sistema. En le modo de ayuda de agente mezclada, el agente no contesta la llamada o interactúa directamente con el cliente. Se espera que el modelo mezclado reduzca el tiempo del agente en una llamada al permitirle "dirigir" rápidamente el sistema a al resolución correcta. El agente humano después puede moverse en una nueva transacción. Por ejemplo, el cliente B llama a una organización de servicio de cliente de la compañía para preguntar una dirección en donde puede pagar durante la noche los servicios. El cliente B se le da la bienvenida con un sistema automático que lo introduce y lo confirma el nombre del cliente. Después de confirmar su nombre, al cliente B se le da una breve explicación de cómo trabaja el sistema automático, que incluye preguntas de muestra. Después se le impulsa al mencionar su pregunta en sus propias palabras. El cliente B menciona su pregunta en una forma de conversación. El sistema automático le pide la cliente que por favor espere momentáneamente mientras encuentra una respuesta a su pregunta. El sistema coloca una llamada al siguiente agente disponible. Mientras el cliente está esperando, el sistema lo conecta a un agente humano disponible y reproduce la pregunta del cliente B. El agente humano recibe una pantalla de aparición instantánea con varias respuestas sugeridas a la pregunta del cliente. El agente humano selecciona una respuesta sugerida apropiada y teclea las "respuestas", lo que permite al sistema completar la interacción. El sistema resume su interacción con el cliente B al proporcionar una dirección de noche. El sistema pregunta al cliente B si la resolución fue útil y si tiene alguna pregunta adicional. Con su pregunta respondida, el cliente B termina la llamada sin saber que un agente humano selecciono cualquiera de las respuestas. 3. Toma de mando de ayuda de agente - en el modelo de toma de mando, el sistema escala a un agente humano y el agente humano toma la llamada completamente, comprometiendo a la persona que llama en conversación directa. El modelo de toma de mandó se espera que mejore la productividad del agente al pre-recolectar información de conversación de la llamada para el agente de servicio de cliente y permitir al agente revisar información en la base de conocimiento de sistema durante la llamada, al reducir la cantidad de tiempo que después se necesita para gastar en una llamada. Por ejemplo, el cliente C llama a una organización de servicio de cliente de la compañía para cerrar su cuenta. Al cliente C se le da bienvenida con un sistema automático que le introduce y confirma el nombre del cliente. Después de confirmar su nombre, al cliente C se le da una breve explicación de cómo trabaja el sistema automático, incluyendo preguntas de muestra. Después se le impulsa a mencionar su pregunta en sus propias palabras. El cliente C menciona que desearía cerrar su cuenta con la compañía. El sistema automático permite al cliente confirmar su número de cuenta. El cliente C oprime su número de cuenta en el teclado del teléfono. El sistema le dice al cliente C que espere mientras se transfiere a un agente. El sistema pasa la llamada a la compañía de agente apropiada para transacción. El siguiente agente disponible recibe un registro de la pregunta del cliente C y recibe una pantalla aparición instantánea con su información de cuenta. El agente toma el mandó de la llamada al preguntar cuando el cliente C desearía cerrar su cuenta. El sistema cambia entre esos tres modelos de manejo de conversación basándose en la capacidad del sistema de controlar la situación. Por ejemplo, en un modo de conversación automático, sí el sistema es incapaz de acoplar la pregunta del cliente con un par de pregunta/respuesta estándar con suficiente confianza, después el sistema puede cambiar al modo de ayuda de agente mezclado. Además, en un modo de ayuda de agente mezclado, si el agente humano determina que ninguna de las especies generadas por la computadora son apropiadas dado la pregunta del cliente, después el sistema puede cambiar al modo de conversación de toma de mandó de ayuda de agente y el agente humano termina la conversación. En una modalidad preferida de está invención, el cliente también tiene la capacidad de cambiar modos de conversación. Por ejemplo, el cliente puede desear cambiar del modo de conversación automático. En otra modalidad, el sistema puede ajustar el umbral de confianza la interpretar la comunicación del cliente basándose en que tan ocupados están los agentes humanos. Esto puede dar a los clientes la opción de intentar repuestas automáticas más que esperar a agentes humanos ocupados. Un modo adicional de manejo de conversación ocurre cuando el agente humano tiene suficiente experiencia con los patrones de comunicación del sistema. En ese caso, si la comunicación del cliente se acopla con transiciones con un nivel bajo de confianza, el agente humano puede decidir volver a mencionar la pregunta de cliente con texto substituto que pueda resultar en un acoplamiento más exitoso. Sí es así, después la conversación puede continuar en el modo automático. Las conversaciones entre un cliente y un centro de contacto que se manejan por el sistema que utilizan estos tres modos de conversación se modelan por el cuadro de flujo ilustrado en la Figura 3. En este flujo, primero un usuario inicia una conversación al comunicar una pregunta o declaración al centro de contacto (2). Después, la comunicación se convierte en texto (4). La transición identificada puede contener datos variables que son pertinentes a la respuesta subsecuente por el sistema. Los datos variables pueden ser el nombre del tiempo o número de identificación y tienen un tipo de datos específico {fila, número, fecha, etc.}. Los datos variables (cuando están presentes) se extraen del texto de la comunicación del cliente (6). Las reglas especiales pueden utilizarse para identificar los datos variables. Después, el motor de reconocimiento de concepto analiza el texto restante en S-Morfos y recolecta una "bolsa de conceptos" que se acopla a estos S-Morfos (8). Después, el sistema identifica la transición del estado actual cuyos conceptos se acoplan a los conceptos extraídos de la comunicación del cliente con el nivel más lato de confianza (10). Si las variables de datos se esperan en la transición, después el acoplamiento de tipo de datos de las variables esperadas con el tipo de datos de las variables extraídas se incluye en la comparación. Si la confianza del acoplamiento es superior que un umbral establecido (12), después el sistema asume que el cliente está en la transición identificada. En este caso, el sistema puede tener que revisar los datos por la respuesta que se acopla a la transición identificada (14). Por ejemplo, si la comunicación del cliente es una pregunta que solicita sobre horas de operación de negocio, después el sistema puede revisar las horas de operación en una base de datos. Después, el sistema envía la respuesta de acoplamiento al usuario con los datos extra si es parte de la respuesta (16). Está respuesta puede ser una o muchas formas de comunicación. Sí la conversación está en el teléfono, después la respuesta de sistema puede ser diálogo generado por computadora. Sí la conversación está basada en texto, después la respuesta puede ser texto. De la respuesta puede estar en texto incluso aunque la pregunta este en diálogo, o viceversa. El sistema identifica una transición con suficiente confianza (12), después un agente humano en el centro de contacto se impulsa para ayuda. El agente humano de una interfase de usuario gráfica con una presentación de la conversación también (18). El sistema también muestra al agente humano una lista de transiciones esperadas del estado actual clasificadas en el orden de la transición con el mejor acoplamiento con la comunicación del cliente al peor acoplamiento. El agente humano determina si una de las transiciones esperadas es apropiada para el contexto de la conversación (20). Sí una transición es apropiada, después el agente humano indica la transición al sistema y el sistema continúa a la conversación en el modo automático (14). De otra forma, si el agente humano determina que ninguna transición es apropiada para el contexto de la conversación, después el agente humano directamente toma el mandó de la conversación hasta su termino (28). El sistema puede continuar expandiendo su base de conocimiento mientras está en modo operacional (tiempo de funcionamiento). El sistema registra conversaciones entre el agente humano y el cliente cuando el sistema está en el modo de toma de mando de ayuda de agente. En intervalos regulares, estas conversaciones se procesan como en la creación inicial de la base de conocimiento y las nuevas secuencias de transición de estado se agregan a la base de conocimiento. Una diferencia es que el modo de toma de mando de ayuda de agente típicamente comience en un estado después del estado inicial. De esa forma, una de las nuevas secuencias de transición de estado típicamente se agrega a la gráfica de transición de estado agregado como una transición de un estado no inicial. Cada vez que se agrega una nueva secuencia de transición de estado a la gráfica de transición de estado agregado en la base de conocimiento, el gráfico de transición de estado agregado se comprime como se describió previamente. Una implementación ilustrativa del sistema se ilustra en la Figura 4. El servidor de conversación 30 es el motor de tiempo de funcionamiento del sistema. El servidor de conversación 30 es una aplicación de Edición de Empresa Java 2 (J2EE) desplegada en un servidor de aplicación J2EE. Está aplicación se desarrolla y despliega al servidor de conversación utilizando al estudio de conversación 32. La Figura 4 muestra la relación entre el servidor de conversación 30 y el estudio de conversación 32. El sistema es una aplicación de conversación de canales múltiples. Dentro del servidor de conversación 30, los grupos de los agentes de software automáticos ejecutan la aplicación de sistema. Por el canal múltiple, queremos decir, por ejemplo, que los agentes de software son capaces de interactuar con personas que llaman en múltiples canales de interacción: teléfonos, web, Envío de Mensajes Instantáneos, y correo electrónico. Por conversación, queremos decir que los agentes de software tienen conversaciones interactivas con personas que llaman similares a las conversaciones que los agentes humanos tienen con las personas que llaman. El sistema utiliza un desarrollo de aplicación iterativo y paradigma de ejecución. Como se explicó anteriormente, los diálogos de la persona que llaman y agente que soportan la aplicación de sistema están basados en los diálogos reales entre las personas que llaman y el cliente humano soporta a los agentes dentro del centro de contacto. La Figura 4 también muestra la relación entre el servidor de conversación y otros elementos del sistema. El servidor de conversación 30 interactúa con un servidor de información de empresa (34) que acepta datos que se originan de clientes y proporcionan datos para respuestas a preguntas de cliente. La estación de trabajo de agente 36 ejecuta software con una interfase de usuario gráfica que permite a un agente humano seleccionar transiciones para el sistema cuando una conversación está en le modo de ayuda de agente mezclado. El teléfono de agente 38 permite al agente humano ingresar en una conversación oral en vivo en un cliente cuando la conversación está en le modo de toma de mandó de ayuda de agente. El sistema también incluye un servidor de aprendizaje 31 que implementa procedimientos para ayudar al sistema aprender de llamadas después de que se despliega el sistema. El servidor de aprendizaje 31 se describe en más detalle más adelante con respecto a la Figura 17. La arquitectura interna del servidor de conversación 30 se ¡lustra en la Figura 5. El servidor de conversación 30 tiene un grupo central de cuatro uniones que soportan la lógica de la aplicación del sistema. Estás uniones son las cuatro uniones que se encuentran tradicionalmente en servidores de aplicación web. Son la presentación 40, flujo de trabajo 42, negocio 44, e integración 46. La unión de presentación 40 es responsable de presentar información a usuarios finales. Los servidores tal como Página de Servidor Java (JSPs) son las tecnologías J2EE tradicionalmente enviadas en está unión. La unión de presentación se compone de dos subsistemas: el subsistema de canal de interacción 48 y el subsistema de interacción de agente 50. El subsistema de canal de interacción 48 controla la interacción del servidor de conversación 30 con clientes en cada uno de los canales de interacción: web 52, VozXML 54, chat de Messenger Instantáneo 58, y correo electrónico 58. El subsistema de interacción de agente controla la interacción del servidor de conversación 30 con los agentes humanos dentro del centro de contacto. La unión de flujo de trabajo 42 controla la secuencia de acciones. Estás acciones incluyen transacción contra los objetos de negocio dentro de la unión de negocio y las interacciones con usuarios finales. En el servidor de conversación 30 la unión de flujo de trabajo 42 se llena por agentes de software 60 que entienden las conversaciones que se controlan con clientes. Además, estos agentes interactúan con los objetos de negocio dentro de la unión de negocio 44. Los agentes de software 60 son los interpretes de lenguaje de marcación producido por el estudio de conversación 32 (el sistema de despliegue de aplicación 40). La unión de negocio 44 sostienen los objetos de negocio para el dominio de aplicación. Java Beans de empresa (EJBs) son la tecnología tradicionalmente empleada en la unión de negocio. El servidor de conversación no introduce tecnología especifica de sistema en está unión. Más que eso, emplea el mismo grupo de componente disponible para otras aplicaciones desplegadas en el servidor de aplicación J2EE. La unión de integración 46 es responsable de la interfase del servidor de aplicación a bases de datos y sistemas externos. Los Conectores J2EE y Servicios Web son las tecnologías tradicionales empleadas en está unión. Similar a la unión de negocio 44, el servidor de conversación 30 no introduce la tecnología especifica de sistema en está unión. Más que eso, emplea los componentes J2EE tradicionales. El valor de una unión de integración común es que cualquier trabajo que integre sistemas externos está disponible para otras aplicaciones desplegadas en el servidor J2EE. Rodeando el grupo de núcleo de cuatro uniones está un grupo de subsistemas que facilitan las operaciones del servidor de conversación 30. Estos subsistemas son el despliegue 62, registro 64, interfase de servidor de contacto 66, estadística 68, y manejo 70. El subsistema de despliegue soporta el despliegue iterativo, caliente de las aplicaciones de sistema. Esto se ajusta dentro del despliegue de aplicación iterativa en donde las conversaciones se registran y se realimentan al estudio de conversación 32 en donde el personal dentro del centro de contacto puede aumentar la aplicación con frases que la aplicación de sistema no entiende. El subsistema de registro 64 mantiene un registro de las conversaciones que los agentes de software 60 tienen con los clientes y los agentes de soporte de clientes. Este registro es la entrada al procedimiento de desarrollo de aplicación iterativa soportado por el estudio de conversación 32. El servidor de aprendizaje 31 utiliza estas llamadas registradas para generar un grupo de oportunidades de aprendizaje para el motor de reconocimiento de concepto (CRE) 74. La interfase de servidor de contacto (CTI) 66 proporciona una interfase unificada a un número de CTI y servidores de contacto 72.
El subsistema de estadística 68 mantienen las estadísticas de control de llamada para los agentes humanos. Estas estadísticas son equivalentes a las estadísticas proporcionadas por ACD y/o servidores de contacto 72. El agente de operaciones del centro de llamado puede utilizar estas estadísticas para asegurar que el centro tiene suficiente fuerza de trabajo de agentes humanos para servir el tráfico del centro que se anticipa. El subsistema de manejo 70 permite al servidor de conversación 30 manejarse por el personal de manejo de red dentro de la empresa. El subsistema 70 soporta un protocolo de manejo de red de estándar tal como SNMP para que el servidor de conversación 30 pueda manejarse por los sistemas de manejo de red tal como Vista Abierta HP. La Figura 6 muestra los componentes de la unión de flujo de trabajo 40 del sistema. Los agentes de software 60 son la entidad primaria dentro de la unión de flujo de trabajo 40. Los agentes de software 60 son las entidades automáticas que soportan las conversaciones con los clientes, agentes humanos dentro del centro de contacto, y los sistemas de final. Todas estas conversaciones se mantienen de acuerdo con las aplicaciones desarrolladas y desplegadas por el estudio de conversación 32. Los requerimientos funcionales en la unión de flujo de trabajo 40 son: Distribuir, agrupar, y hacer disponibles los agentes de software capaces de controlar cualquiera de las aplicaciones desplegadas al servidor de conversación 30. Esta capacidad de agrupamiento de agente es similar a la capacidad de agrupamiento de caso de EJBs. Esto también se ajusta dentro del modelo de manejo de fuerza de trabajo de los centros de contacto. El canal de interacción distribuye un agente de software 60 y solicita que el agente de software 60 controla una aplicación particular. La unión de flujo de trabajo 40 interactúa con un administrador de aplicación que maneja las aplicaciones. El administrador de aplicación seleccionara a la versión de la aplicación para emplear (como se instruye por el desarrollador de aplicación). El agente de software 60 revisa con el administrador de licencia para asegurar que las interacciones se permite sobre dos canales de solicitud. Si no es así, el agente de software 60 regresa a una respuesta apropiada. Los agentes de software son capaces de mantener múltiples diálogos una vez. Los agentes de software pueden sostener una conversación con al menos un cliente mientras conversan con un agente humano con la resolución de una respuesta. Está capacidad puede extenderse para tener a los agentes hablando con los clientes en múltiples canales a la vez. Los agentes de software 60 mantienen la conversación de acuerdo con la aplicación desarrollada en el estudio de conversación 32. Los agentes de software 60 llaman al motor de reconocimiento de concepto (CRE) 74 para interpretar la entrada de cliente en el contexto que se recibió y actúa con los resultados regresados. Cada agente de software 60 mantiene una trascripción de la conversación que está teniendo. Está trascripción finalmente se registra a través del subsistema de registro de conversación. La trascripción contiene la siguiente información toda apropiadamente registrada a tiempo: • La aplicación que se corre. • La ruta a través del dialogo con el cliente que incluye: o La entrada de cliente como reconocida por texto así como la frase hablada. o El estado del dialogo (contexto, transiciones, etc.) o Los resultados de reconocimiento de significado, o Las acciones de agente de software tomadas basándose en los resultados de reconocimiento de significado, o La salida enviada al cliente. Una de las acciones que el agente de software 60 puede tomar es para solicitar la ayuda de un agente humano. Esto resultará en una sub-transcripción para el diálogo con el agente humano. Está trascripción contiene: • Estadísticas de consulta para el grupo de agente al inicio de la llamada. • Cuando la llamada se coloca y se contesta. • Una sub-transcripción de las acciones de agente con la llamada que incluyen: o Sí el agente ayuda a tomar el mando, o Acciones que el agente toma al ayudar; por ejemplo, seleccionar de la lista de reapuestas presentadas por el agente de software 60, ajustar la pregunta y buscar la base de conocimiento, crear una respuesta de costumbre. o Sí el agente marca una respuesta particular para revisión y las notas del agente coloca en la respuesta.
o Las instrucciones del agente al agente de software 60. • La unión de flujo de trabajo 42 producirá las estadísticas para el grupo(s) de agentes de software 60. Estas estadísticas se publicaran a través del subsistema de estadísticas 68. • Los parámetros de operación que rigen la unión de flujo de trabajo 42 (por ejemplo, agentes mínimos y máximos/aplicación, incrementos de crecimiento) se recuperarán de la base de datos de configuración manejada a través del subsistema de manejo 70. La Figura 6 muestra los componentes que forman la unión de flujo de trabajo 42, el administrador de agente 76 y el caso de agente. El administrador de agente 76 controla el grupo de casos de agente en la distribución de estos casos para aplicación particular. El administrador de agente 76 es en respuesta para interactuar con otros administradores/subsistemas que conforman el servidor de conversación 32 (no mostrado esta la interacción de administrador de agente 76 con el subsistema de Estadísticas 68). Cada caso de agente 60 registra una trascripción de conversación con el Administrador de Registro 78. La unión de presentación consiste de dos subsistemas: canales de interacción 48 y el subsistema de interacción de agente 50. Existe un canal de interacción asociado con cada uno de los modos de interacciones soportados por el servidor de conversación: HTML 80, VozXML 82, Messenger Instantáneo 84, y correo electrónico 86. El subsistema de canal de interacción 48 se construye con la infraestructura de procesamiento Cocoon XSP. El canal de interacción 48 de procesamiento se ilustra en la Figura 7. Los requerimientos funcionales de los canales de interacción son: • Iniciar, mantener, y terminar una sesión de interacción para cada conversación con un cliente (usuario final). Como parte de esa sesión, el canal de interacción mantendrá el caso del agente que maneja el estado del diálogo con el cliente. • Determinar el tipo de canal y aplicación del localizador de Recurso Uniforme (URL). El URL puede tomar la forma de http:://hostadress/applicationname.minetype?parameters en donde la dirección de alojamiento = dirección IP y puerto; nombre de apl¡cación = nombre desplegado de la aplicación; tipo MIME = indica tipo de canal (por ejemplo, html, vxml, etc.); parámetros = parámetros de solicitud. • Para los canales HTML y VozXML, para pasar la solicitud http a la gente para procesamiento. Para el canal IM y de correo electrónico, para realizar un paso de procesamiento de solicitud equivalente. • Para traducir la respuesta independiente de canal a una respuesta específica de canal que utiliza el lenguaje de definición de documento apropiado (HTML, VozXML, SIMPL, SMTP, etc.). Está traducción se rige por las hojas de estilo XSL. La definición de las respuestas y las hojas de estilo de procesamiento es parte de la definición de aplicación y se regresa por el agente en respuesta a cada una de las invocaciones de procesamiento de solicitud. La definición de las respuestas y las hojas de estilo XSL caen en tres casos de uso. El canal de interacción no está particularmente consiente de estos casos de uso. El documento de respuesta y una hoja de estilo XSL se definen en una base de canal para la aplicación. El documento de respuesta solicita los contenidos de la etiqueta <salida> CML así como otros artefactos generados del CML (por ejemplo, archivo gramático). En el caso de uso "archivo", el usuario define el documento de respuesta dentro de la aplicación. El documento de respuesta se procesa al utilizar la hoja de estilo XSL definida en el canal. El documento de respuesta debe adherirse al DTD que rige los documentos de respuesta. Este DTD permite que se definan formas de campo múltiples. En el caso de uso "abierto", el usuario define el documento de respuesta así como la hoja de estilo XSL. No se coloca ninguna restricción en el documento o el servidor de conversación 30 y es responsable de ninguno de los resultados con respecto al procesamiento de la respuesta. Esta traducción controla tanto la transformación del lenguaje de documento específico de canal como la marca de una respuesta de un cliente particular. Para el canal de VozXML 54, el canal de interacción 82 es responsable de registrar la solicitud de cliente registrada e informara a la gente de la ubicación del registro para la intrusión del registro de conversación y/o pasar en el murmullo a un agente humano. Como se mencionó previamente, el subsistema de canal de interacción 84 se implementa al utilizar la infraestructura Cocoon. La infraestructura Cocoon proporciona un paradigma de controlador de vista de modelo en la unión de presentación 40 de una infraestructura de servidor de aplicación web. Un servidor 90 (el controlador) maneja la solicitudes HTTP e ínteractúa con el caso de agente 60 para procesar la solicitud. El caso de agente 60 regresa el documento XSL de respuesta y la hoja de estilo XSL para aplicar a la salida del documento. El documento XSP (el modelo) se cumple y ejecuta como un servidor 92. El documento solicita parámetros del caso de agente para producir su salida, una corriente XML. Un documento XSP es el equivalente de un documento JSP. Similar al procesamiento JSP, la recopilación XSP solamente ocurre si el documento XSP cambió desde la última vez que se recopilo. La corriente XML se transforma de acuerdo con la hoja de estilo XSL (la Vista) al lenguaje específico al canal de interacción (por ejemplo HTML, VXML). El subsistema de interacción de agente humano (AIS) es responsable de establecer un diálogo con un agente humano dentro del centro de contacto manejar la colaboración entre el agente de software y el agente humano para resolver una respuesta que es incierta. El subsistema también se utiliza cuando una transferencia y una aplicación se solicita en una aplicación. El subsistema de interacción de agente interactúa con la Interfase de Servidor CTI para ejecutar la conexión dentro del centro de contacto. La Interfase de Servidor CTI también proporciona al subsistema de interacción de agente estadísticas de consulta que pueden alterar su comportamiento con respecto a la conexión del grupo de agente. Es un sistema de interacción de agente (AIS) hace las siguientes acciones: • Iniciar, mantener, y terminar un diálogo con un agente humano dentro del centro de contacto para resolver una respuesta que esta en pregunta. El agente humano es un miembro de un grupo de agente específico designado para controlar resoluciones para está aplicación particular. • Como parte de inicio en un diálogo con un agente, el AIS distribuye y pasa un control a la sesión de agente que permite a la aplicación descrita de agente humano colaborar en la resolución de la respuesta. • El AIS proporciona una ¡nterfase de programa siendo aplicación (API) a través del cual la aplicación de escritorio de agente humano es capaz de recuperar lo siguiente: la solicitud de cliente y las respuestas sugeridas que actualmente requieren resolución; configuraciones de umbral que llevan a la solicitud de resolución y si la solicitud de resolución es debido a demasiadas respuestas buenas o muy pocas respuestas buenas; el tipo de canal de interacción de cliente; la trascripción de la conversación a la fecha; el estado actual del flujo de trabajo asociado con está conversación de cliente, por ejemplo, el número de tiempos que los agentes humanos ayudaron en está conversación, a longitud de tiempo que el cliente habla a un agente de software, el estado (contexto) que el cliente está con respecto a la conversación y potencialmente, alguna medida de progreso basándose en el estado y tiempo de la conversación; y las propiedades de aplicación (si es red) actuales. • La API de AIS también permite al agente humano: seleccionar la respuesta para regresar al cliente, modificar la solicitud y buscar la base de datos MRE, y potencialmente seleccionar la respuesta para regresar al cliente, tomar un mando de la llamada del agente de software; y marcar una interacción de solicitud/respuesta para revisión en el registro de conversación y asociar una nota con la interacción. • La API de AIS también expone la interfase JTAPI para permitir al agente humano registrar la entrada/salida del servidor de contacto 72 y manejar su estado de trabajo con respecto a las consultas de centro de contacto. • La API de AIS emplea un formato independiente del lenguaje que permite que se acceda desde un número de tecnologías de implementación. • La AIS soporta la dirección de llamados de voz del servidor de VozXML 54 al centro de contacto y la asociación subsecuente de esas llamadas de voz con una sesión de agente particular.
• La AIS permite a un diseñador de aplicación definir la presentación de datos de aplicación al agente humano. Esta presentación debe utilizar el mismo procesamiento XSL empleado en el canal de interacción (82, 84, 86, u 88). La parte del subsistema de interacción de agente humano es una aplicación de escritorio de agente que permite a la gente de centro de contacto controlar una llamada de resolución. Está aplicación toma dos formas: • Escritorio de Agente Humano Genérico. El escritorio opera en ambiente de Manejo de relaciones de Cliente (CRM) no integradas y funciona como un procedimiento separado en el escritorio de agente conectado al CTI y servidor CS. • Componente CRM. Este escritorio se empaca como un componente (componente activo X o Applet(aplicación pequeña)) que corre dentro del contexto de un paquete CRM. El reconocimiento de diálogo es la técnica de convertir automáticamente lenguaje hablado por humano en texto. Existen muchos ejemplos de sistemas de reconocimiento de diálogo. En implementaciones del sistema en el cual el cliente conversa en el teléfono, el reconocimiento de diálogo (realizado por un ASR en línea) es el primer paso en acoplar la comunicación del cliente con respuestas apropiadas. El reconocimiento de diálogo típico ocasiona aplicar técnicas de procesamiento de señal al diálogo para extraer fonemas significativos. Después, un motor de búsqueda de software se utiliza para buscar palabras de un diccionario que pueden interpretarse de estos fonemas. La porción de reconocimiento de diálogo del sistema guía está búsqueda por el conocimiento del contexto probable de la comunicación. El diagrama de bloque de está porción de reconocimiento de diálogo del sistema se ilustra en la Figura 8. Como se describió previamente, el sistema tiene acceso a una base de cono cimiento que consiste de un lenguaje de marcación, EML, que define un gráfico de transición de estado de conversaciones estándar entre el cliente y el centro de llamado de contacto. Debido a que el agente de software mantiene el rastro del estado actual de la conversación, puede revisar todas las transiciones probables de este estado. Cada una de estas transiciones tiene una "bolsa de conceptos" o una "bolsa S-Morfos" 104. Estos S-Morfos 104 pueden convertirse en texto de acoplamiento 112. La agregación del texto de acoplamiento de todas las transiciones probables es un subgrupo de todas las palabras en un diccionario. En general, es más eficiente buscar acoplar un subgrupo de un grupo más que el grupo completo. De esa forma, el motor de búsqueda 102 para este reconocedor de diálogo primero intenta acoplar los fonemas de la comunicación de cliente, contra el texto 112 de todas las transiciones probables. El motor de búsqueda 102 busca en el diccionario cualquier combinación restante de fonemas no acoplados con este texto. El motor de reconocimiento de concepto 74 (mostrado en la Figura 5) utilizado en algunas implementaciones del sistema es una tecnología de procesamiento de lenguaje natural avanzado que proporciona una forma independiente del lenguaje voluminosa de preguntas de lenguaje natural de usuarios de entendimiento tanto de fuentes textuales como de audio. La tecnología automáticamente indexa e interactúa con información basándose en el significado, o contexto semántico, de la información más que en las palabras literales. El motor de reconocimiento de contexto entiende la forma en que la gente realmente habla y escribe, lo que permite al sistema a acoplar inteligentemente a los usuarios en conversaciones complejas independientes de frases o lenguaje, para facilitar el acceso a la información deseada. El motor de reconocimiento de concepto está basado en un análisis de nivel de morfema de frases, que le permiten producir un "entendimiento"de los componentes mayores del significado encapsulado. Está técnica es computacionalmente eficiente, más rápido que las tecnologías naturales tradicionales e independiente del lenguaje además de ser extremadamente exacta y voluminosa. La mayoría de los otros sistemas que aplican procesamiento de lenguaje natural utilizan análisis sintáctico para encontrar frases sinónimas para la entrada de usuario. El análisis primero identifica cada palabra, o componente de una palabra, en la frase que utiliza diccionarios lingüísticos extremadamente grandes. Después, los sistemas intentan acoplar estos elementos a entradas especificas en una lista rígida (es decir, palabra o índices de palabras clave). Como resultado. Estos sistemas utilizan acoplamiento basado en el nivel de filas de carácter; sí al menos un carácter es diferente de la entrada de índice objetivo, el acoplamiento falla. Con le motor de concepto utilizado en algunas implementaciones del sistema, el delineado no está basado en un grupo fijo de palabras, frases o elementos de palabra, pero en un grupo fijo de conceptos. Como resultado de su énfasis en procesamiento semántico, el procedimiento de reconocimiento de concepto es intrínsicamente voluminoso, trabaja extremadamente bien con datos de entrada "ruidoso". Esto es útil para la capacidad del sistema para reconocer la palabra hablada que utiliza software de reconocimiento de diálogo. El sistema emplea un procedimiento para reconocer exactamente el significado en interacción de conversación de mundo real, a pesar de los errores tipográficos comunes, errores generados por el software de reconocimiento de diálogo, o palabras fuera de contexto. Los usuarios pueden decir cualquier combinación de palabras, y el sistema es flexible y lo suficiente para entender la intención de los usuarios. El motor de reconocimiento de concepto está basado en algoritmos que crean y comparan etiquetas semánticas. Una etiqueta semántica para una pieza de texto de cualquier longitud es una codificación corta que captura los componentes más importantes de este significado. Cuando los artículos en el almacenamiento (s) de datos de fuentes se etiquetan con etiquetas semánticas, pueden recuperarse, o manejarse en otras formas, al delinearlos selectivamente a consultas de voz o de texto de forma libre u otras fuentes de texto de entrada, independientes de las palabras reales y la puntuación utilizada en estás fuentes de texto de entrada. Por ejemplo, un usuario puede preguntar al sistema "¿cómo puedo regresar pantalones que no me quedan?" se proporcionará con información relevante de una base de datos de política de regreso de la organización, incluso si la información correcta no contiene las palabras "pantalones" o "regresar" en cualquier lugar dentro de estas. Alternativamente las consultas de usuario con palabras que buscan la misma información se delinean conceptualmente a las mismas políticas de regreso, independientes de las palabras reales utilizadas en la fila de entrada. Este acercamiento une el espacio entre las ventajas de la red del software de reconocimiento de diálogo automático de modelo de lenguaje estadístico (SLM ASR) y ASR gramático de estado finito. Está tecnología se llama el motor de reconocimiento de concepto (CRE), un algoritmo de procesamiento de lenguaje natural. El motor de reconocimiento de concepto (CRE) proporciona una forma independiente de lenguaje, voluminosa de preguntas de lenguaje naturales de usuario de entendimiento tanto de fuentes textuales como de audio. La tecnología es una tecnología de procesamiento de lenguaje natural avanzada para indexar, delinear e interactuar con información basada en el significado, o contexto semántico, de la información más que en palabras literales. Como opuesto a la mayoría de otros esfuerzos de lenguaje naturales, la tecnología no confía en un análisis lingüístico formal completo de frases en un intento de producir un "entendimiento" completo del texto. En vez de eso, la tecnología está basada en un análisis de nivel de morfema de frases que le permiten producir un "entendimiento" de los componentes mayores del significado de encapsulado. Los morfemas se definen como la unidad más pequeña de lenguaje que contiene significado, o contexto semántico. Una palabra puede contener uno o varios morfemas, cada uno que puede tener un significado individual o múltiple. Un ejemplo relativamente simple de esto se ¡lustra utilizando la geografía de palabra que está compuesta de geografía de morfemas, lo que significa el globo, y gráfico que significa ilustración. Estos dos distintos morfemas cuando se combinan, forman un concepto que significa el estudio del globo. De esa forma, las unidades individuales de significado pueden combinarse para formar nuevos conceptos que se entienden fácilmente en comunicación normal. La tecnología está basada en algoritmos para crear y comparar etiquetas semánticas. La etiqueta semántica para una pieza dada de texto de cualquier longitud es una codificación corta que captura los componentes más importantes de este significado. Cuando los artículos en una "base de datos" se etiquetan con etiquetas semánticas, pueden recuperarse o delinearse selectivamente al analizar consultas de texto de forma libre generadas por usuario u otros tipos de filas de texto de entrada, independientes de las palabras reales y puntuación utilizadas en las filas de entrada. CRE determina el contexto en doble con el SLM ASR al analizar la salida de motor resultante y asignado etiquetas semánticas que después pueden compararse con una base de datos indexada de la información de compañía. Además, el CRE ayuda a suprimir los defectos de errores de reconocimiento de diálogo al ignorar a aquellas palabras muy comúnmente mal reconocidas (las palabras pequeñas) y utilizar las palabras de contexto más pesado en su análisis. El efecto, por lo tanto, del CRE es permitir a los sistemas de autoservicio que exactamente reconocen el significado en interacción de conversación de mundo real, a pesar de errores tipo gráficos comunes o errores generados por el software de reconocimiento de diálogo. Más simplemente poner, la combinación de estas dos tecnologías permite a los sistemas reconocer lo que dijo al entender lo que quiso decir. En tiempo de diseño, el CRE automáticamente indexa a los datos que se buscarán y recuperaran por usuarios. En aplicaciones de conversación, estos datos son los registros transcritos de conversaciones de cliente con agentes de centro de llamado, pero cualquier grupo de información textual (documentos, listas de Preguntas Frecuentemente Hechas (FAQ), información de texto libre dentro de una base de datos, argumentos de plática, correos electrónicos, etc.) pueden indexarse al utilizar CRE. Indexar es el procedimiento por el cual los grupos de CRE o datos de "grupos" de acuerdo con su similitud conceptual. Diferente a los índices alfabéticos tradicionales, los grupos creados por el CRE son referencias conceptuales especiales que se almacenan en un espacio de dimensiones múltiples llamado espacio de concepto. Se "etiquetan" utilizando un grupo de conceptos atómicos primarios (los bloques de construcción básicos de significado) que pueden combinarse para generar la descripción de cualquier concepto sin tener que crear manualmente y mantener una base de datos especializada y muy grande de conceptos. Debido a que el índice de conceptos permite que la información se busque maneje basándose en su significado en vez de palabras, puede desarrollarse una aplicación de manejo de diálogo tolerante a error e inteligente mucho más eficiente. A través de este procedimiento de agrupamiento, el CRE también extrae las transiciones entre grupos (es decir, el flujo de llamado) y genera indexa que posteriormente delineara preguntas de cliente de forma libre a respeto de agente encontradas en el registro de llamado. En tiempo de funcionamiento en algunos ejemplos, el CRE realiza este mismo procedimiento en preguntas del cliente en tiempo real. Como a la salida del motor de reconocimiento de diálogo y la descompone en su grupo de morfema asociado que utiliza técnicas de análisis morfológicos. El sistema controla también datos de entrada agrupados, que incluyen malos deletreos, amarrados de puntuación, y fuera de contexto o palabras fuera de orden, y no hay limitaciones preestablecidas en la longitud de la frase de entrada. El CRE después utiliza análisis de concepto para convertir morfemas en los conceptos atómicos primarios descritos anteriormente, ensambla este grupo de conceptos atómicos en un código de concepto individual para la entrada completa y después delinea el código a su código equivalente dentro de los datos indexados. En una aplicación de conversación, este procedimiento esencialmente "señala" la entrada de usuario a un estado de diálogo de sistema que puede ser una respuesta de sistema, árbol de menú de respuesta de voz interactivo (IVR) existente, o instrucción para consultar sistemas de transacción de información de cuenta de cliente. Este procedimiento genera un medio voluminoso para reconocer y "entender" automáticamente consultas de usuario de conversación altamente ambiguas dentro del contexto de una aplicación de autoservicio de centro de contacto. El efecto de está combinación de reconocimiento de diálogo CRE y SLM es mejorar la capacidad de poner la información disponible para los clientes a través de la automatización. La información corporativa que no se ajusta bien a un menú IVR de cinco opciones o gramática de diálogo predefinido puede ponerse disponible a través de una interfase de conversación. Debido a que la entrada de cliente resultante tiene un contexto asociado con ella, más opciones se hacen disponibles para como los sistemas inteligentemente controlan interacciones complejas. La aplicación de un acercamiento de modelo de vector espacio de factores semánticos en vez de espacio de palabras proporciona los siguientes beneficios: 1. La transición de si misma de palabras a conceptos mueven de ser más estadístico a ser más semántico. 2. El modelo de vector tradicional frecuentemente se llama un "modelo de bolsa de palabras" para subrayar el carácter combinatorio del modelo ignorando cualquier relación sintáctica o semántica entre palabras. Por analogía podemos llamar al modelo de vector un "modelo de bolsa de conceptos". En un modelo de vector tradicional calculamos algunos parámetros externos (palabras) estadísticamente asociados con parámetros internos de nuestro interés, concepto. En el modelo de vector calculamos conceptos directamente. 3. Mientras el número de factores semánticos es tan pequeño que el número de palabras incluso en un lenguaje básico de la intensidad de cálculo en el modelo de vectores considerablemente inferior. Otras técnicas de aprendizaje de máquina pueden utilizarse para formar una confianza basada en clasificación de concordancia. Por ejemplo, uno podría utilizar la inducción de árbol de decisión o construcción de máquinas de vector de soporte. Las combinaciones de técnicas de aprendizaje que utilizan amplificación también podría ser posible. Se han descrito anteriormente partes separadas del ciclo completo de dos pasos del trabajo de modelo: Objeto de Texto de Lenguaje de Entrada > Etiqueta Semántica > Objeto de Texto de Lenguaje de Salida. Es importante ver que los dos pasos en el ciclo son claramente independientes. Están conectados solamente a través de la etiqueta semántica la cual es un "lenguaje" interno no asociado con ninguno de los lenguajes humanos. Está característica hace posible y relativamente fácil en cualquier aplicación cambiar el lenguaje tanto en el lado de entrada como en el lado de salida. El primer paso es esencialmente dependiente del lenguaje. Esto significa que cambiar un lenguaje diferente requiere generación automática de la etiqueta semántica para una frase en un lenguaje dado. Más adelante describimos dos formas posibles de resolver este problema. El segundo paso está basado en el índice semántico. El índice por sí mismo no cuida el lenguaje de los objetos, solo lo señala y las etiquetas semánticas asociadas con los apuntadores son independientes del lenguaje. No hay información especifica del lenguaje en le índice semántico. Un primer acercamiento es recopilar nuevos diccionarios S-Morfos para el nuevo lenguaje. Para cada lenguaje escrito por humano un grupo de S-Morfos puede recopilarse. El procedimiento de recopilación puede estar basado en un análisis de un vocabulario ya sea de un cuerpo grande de texto o de un gran diccionario en este lenguaje. Al tener tal grupo completo de S-Morfos en un lenguaje (inglés) es útil para crear un grupo similar de S-Morfos en otro lenguaje. Como un punto de partida podemos intentar observar solo los equivalentes morfémicos en el segundo lenguaje. Esto reduce el esfuerzo de un análisis de cuerpo de trabajo intenso de otra forma en el segundo lenguaje. Es especialmente verdadero cuando movemos de lenguaje a lenguaje en le mismo grupo de lenguajes debido a que los lenguajes comparten mucho del "material" léxico. El grupo de S-Morfos en español es aproximadamente del mismo tamaño que el de Inglés. Los ejemplos de los S-Morfos en español son: LENGU, FRAS, MULTI, ESPAN, SIGUÍ. Después de hacer esto podemos necesitar hacer algún cambio del algoritmo de identificación de S-Morfo. Las buenas noticias sobre este algoritmo es que la mayoría de su trabajo es común para los lenguajes del mismo grupo. Incluso aunque cambie de ingreso a español sin ningún cambio de algoritmo, los resultados son satisfactorios. Si se necesitan se hacen pocos cambios de la mayoría de los lenguajes indo-europeos. El experimento de español demostró la energía de las capacidades del lenguaje de cruce de sistema: después recopilamos morfemas de español en español como un lenguaje de entrada se hace posible para todas las aplicaciones previamente desarrolladas para inglés. La base del conocimiento del lenguaje se utiliza para almacenar la información necesaria para el motor de reconocimiento de concepto. Está base de conocimiento tiene tres componentes mayores: diccionario de factor semántico, S-Morfo y diccionario de sinónimos. Cada entrada en el diccionario de factor semántico incluye: a) Nombre de factor semántico; b) Definición/descripción de factor semántico; c) Ejemplo de un código de concepto de palabra que utiliza este factor semántico. Cada entrada en los diccionarios S-Morfo incluyen: a) Texto S-Morfo; b) Código de concepto de factor semántico con partes separadas, sememas para significados alternativos de morfemas polisémicos; c) En etiquetas de códigos de factores múltiples para factores de cabeza a los cuales puede aplicarse modificación. Un diagrama de bloque funcional del motor de reconocimiento del concepto se ilustra una Figura 9. Los bloques de este diagrama se describen como siguen. El diccionario S-Morfo 122 y el Diccionario de Factor Semántico 124 se utilizan por el analizador 128 para producir un grupo de códigos de concepto. Después, el archivo CML se genera en la base de ejemplos 142.
Esto resulta en un archivo CML que se conoce por datos en la base de un diccionario ideológico. El siguiente paso es pasar revisión y editar el archivo CML. Está revisión y edición consiste en los siguientes pasos: a) Presentar ocurrencias de fila con criterios de búsqueda diferentes; b) Agregar una nueva paráfrasis; c) Agregar un nuevo par de pregunta-respuesta; d) Remover una paráfrasis de algunas paráfrasis; e) Remover un par de pregunta-respuesta (con todas las paráfrasis) o pocos pares; f) Fusionar dos pares de pregunta-respuesta (con la elección de frases de entrada y salida);
g) Dividir el par en dos pares con ayuda de frases de entrada y salida; h) Editar frases (que incluyen edición de grupo). Después, el archivo CML se toma como información de entrada en cualquier punto de edición y se construye un índice. Subsecuentemente, se acoplan dos enfadas y se hace un cálculo de similitud con CML/índice específico. Esto puede hacerse para dos frases; para dos códigos de concepto; para una frase y un código de concepto; para dos frases, para dos códigos de concepto, o para una frase y un código de concepto en un modo cíclico con una de las entradas llegando a cada momento del archivo de alimentación; y para acoplamiento automático y calculo de similitud con una de las entradas que llagan cada momento desde el archivo de alimentación y los resultados almacenados en un archivo de salida. Después, el análisis de pre-análisis se hace al crear seudo factores por nombres; procesar nombres de palabra individual y personales de palabras múltiples; procesar nombres de palabra individual y de palabras múltiples para negocios y productos; y generar etiquetas de parte de diálogo. En este punto el control de aplicación y pruebas se realiza.
Esto consiste de los siguientes pasos: a) Analizar un archivo de conversaciones de entrada ambas por los ciclos y automáticamente con diferencias con el procesamiento previo del mismo archivo ya sea presentado o enviado al archivo de salida.
b) Control de umbral de similitud; c) intervalo delta (espacio en similitud entre el primer y segundo acoplamiento); d) Control del número de acoplamientos regresados. La meta principal del lenguaje de marcación de conversación
(CML) es especificar un grupo de instrucciones al servidor de conversación para controlar "conversaciones" con clientes en una forma automática o semiautomática. Las conversaciones automáticas son aquellas que se controlan completamente por el servidor de conversación desde el inicio hasta el fin. Las conversaciones semiautomáticas primero se controlaran por el servidor de conversación, y después se pasan a un agente humano, junto con cualquier otra información que se haya recolectado. CML es un lenguaje de marcación que específica lo siguiente: • Entradas de cliente, que incluyen paráfrasis que puede procesar el servidor de conversación. • Salidas de servidor de conversación (por ejemplo TTS y/o archivos de audio) para responder. • El flujo de una conversación. Este flujo se describe al utilizar un grupo de redes de transición de estado que incluyen: o Contextos en los cuales puede ocurrir cada entrada y salida, o Transiciones a otros contextos, basándose en la entrada de cliente y los resultados de objetos Java. o Llamada para regresar objetos de unión de negocio de fin o Lógica de aplicación en línea.
Además del lenguaje CML para describir las conversaciones entre el servidor de conversación y usuario, el lenguaje CMLApp permite a las aplicaciones construirse de los componentes reutilizables. En algunos ejemplos, el CML describe las interacciones de solicitud/respuesta típicamente encontradas en centros de contacto de soporte de cliente particulares que incluyen lo siguiente: • Solicitudes de información general tal como cuotas en existencia, solicitudes de prospecto de fondo, etc. • Solicitud específica de cliente tal como balances de cuenta, historial de transacción, etc. • Transacción iniciada por cliente tal como existencia/comercio de fondo, etc. • Interacciones iniciadas por el centro tal como telemercadeo, etc. CML se diseña para interpretarse y ejecutarse por un servidor de conversación (CS). Como se explico anteriormente, el CS tiene el grupo de agentes de software que interpreta CML basándose en aplicaciones. Estos agentes se afrontan por un grupo de canales de interacción que traducen entre lenguaje de documento específico de canal tal como HTML, VozXML, SIMPL, SMTP y representación independiente de canal de CML, y viceversa. Un documento CML (o un grupo de documentos llamado a una aplicación) forma la red de transición de estado de conversación que escribe el diálogo de la gente de software con el usuario. El usuario siempre está en un estado de conversación o contexto, en un momento. Un grupo de transiciones define las condiciones bajo los cuales se mueve el diálogo a un nuevo contexto. Estas condiciones incluyen una nueva solicitud del usuario, un estado particular dentro del diálogo, o una combinación de los dos. La ejecución se termina cuando se alcanza un contexto final. Se utilizan cuatro elementos para definir las redes de transición de estado que son los diálogos entre la gente de software y el usuario: Redes, Contexto, Subcontexto, y Transiciones. Una red es una colección de contextos (estados) y transiciones que definen el diálogo que un agente software tiene con un usuario. Puede haber una o más redes por documento CML con un nombre único por el cual se hace referencia. Además de definir la sintaxis de un diálogo con el usuario, una red define un grupo de propiedades que están activas mientras la red se ejecuta activamente. Estás propiedades mantienen los datos que se presentan en la salida al usuario así como datos que rigen la ejecución de la red. Por ejemplo, las precondiciones de transiciones y pos condiciones de texto se definen en término de propiedades. Los contextos representan los estados dentro del diálogo entre agentes de software y usuarios. Cada contexto tiene un grupo de transiciones definidas que toman la aplicación a otro contexto (o giros al mismo contexto). Un contexto representa un estado en donde una solicitud de usuario se espera y se interpretará. Se marcan ciertos contextos como finales. Un contexto final representa el fin del diálogo representado por la red. Un subcontexto es un contexto especial en el cual otra red se llama dentro del contexto de la red de contenido. Los subcontextos son llamados de subrutina enlazadas y existe un enlace de propiedades de la llamada y la red llamada. Los subcontextos pueden ser modales o no modales. En un subcontexto modal, las transiciones de subred de contenido (o ancestros) no están activas. En un subcontexto de no modal, las transiciones de subred de contenido (y ancestros) están activos. Una transición define un cambio de un contexto a otro. Una transición se toma si se satisface una precondición y/o la solicitud de usuario se acopla al grupo de expresiones asociados con la transición. Si una transición no define una precondición, después solo un acoplamiento entre la solicitud de usuario y las expresiones de transición se requieren para detonar la transición. Si una transición no define un grupo de expresiones después la transición se detonará en cualquier momento que su precondición sea verdadera. Sí no se define ni una precondición ni un grupo de expresiones, la transición se detona automáticamente. La denotación de una transición resulta en la ejecución del escrito de transición y la transición al contexto señalado por la transición. En algunos ejemplos, una aplicación CML requiere un documento CMLApp individual, un documento CML individual, y un documento de grupo. Una aplicación de documentos múltiples ocasiona un documento CMLApp individual, un documento de grupo individual, y documentos CML múltiples. La Figura 10 muestra la relación de un documento CMLApp 150, documentos CML 154, un documento de grupo 152, documentos de salida 156, archivos de datos referenciados 158, y objetos de negocio 160. El Apéndice 1 menciona el texto de un ejemplo de un documento CMLApp llamado "abd 2app.ucmla", un documento de grupo CML llamado "abd 2clusters.ucmlc", y un documento CML llamado "abd 2ucml.ucml". El documento CMLApp específica el archivo de grupo que utiliza la marcación "Archivo de Grupo" y el archivo CML que utiliza el "documento" de marcación. El documento CMLApp también específica un canal de comunicación con el cliente que utiliza marcación "tipo de canal", en este caso, el tipo de canal es "VXML". Primero, el documento de grupo almacena el texto de todas las comunicaciones registradas de clientes que se agruparon en un grupo por una transición dada de un estado o contexto dado. En el documento de grupo ilustrativo, los grupos se nombran d a c41. Las variables de datos asociados con los grupos especifican utilizar la marcación "variables" y tienen tales tipos como "Nombre Propio, y fila de Dígitos". Estos grupos se denominan en el documento CML ilustrativo. Un documento CML define el gráfico de transición de estado (o red). El documento CML ilustrativo define un grupo de estados (denotados por la marcación "nombre de contexto") y transiciones (denotado por marcación "Nombre de Transición"). Por ejemplo, las líneas 11-16 del documento CML son como siguen: "<nombre de contexto = "s0" final = "falso"ir con agente = "falso">.
<transiciones> <nombre de transición = "tO" a = "s1">. <grupo de entrada = "c7"> si me gustaría revisar mi balance de cuenta por favor</entrada> <salida> tiene su número de cuenta señor </salida> </transición> Las líneas 11-16 especifican que existe un estado (o contacto) sO que tiene una transición tO a estado (o contexto) s1. La transición tO tiene una comunicación de cliente "si me gustaría revisar mi balance de cuenta por favor" y una respuesta de centro de contacto "tiene su número de cuenta señor". La Figura 11 ilustra un subgrupo del gráfico de transición de estado total definido por el documento CML ilustrativo. Este subgrupo incluye las transiciones del estado inicial a sO (162) a s1 (164) a s2 (166) a s3 (168) a s4 (170) a s5 (172) a s6 (174) y finalmente a s7 (176). Haciendo referencia a la Figura 12, un procedimiento 180 para desarrollo de una aplicación CML para un sistema de respuesta de voz automático incluye dos procedimientos de aprendizaje de máquina primarios, un procedimiento de desarrollo de aplicación inicial 182 y un procedimiento de aprendizaje de tiempo de funcionamiento 190. El procedimiento de desarrollo y aplicación inicial 182 genera una aplicación CML inicial que utiliza muestras de agente humano-persona que llama registrada. El procedimiento de aprendizaje de tiempo de funcionamiento 190 utiliza muestras de las conversaciones del sistema-persona que llama registradas para mejorar continuamente la aplicación CML. Un grupo de conversaciones de agente humano-personas que llaman transcritas 181 se ingresan en el procedimiento de desarrollo de aplicación inicial 182. La conversación de agente-persona que llama transcrita 181 son conversaciones registradas entre agente de soporte de cliente humanos y personas que llaman que transcribieron en texto al utilizar transcripción manual o un procedimiento de trascripción automático (por ejemplo, el procedimiento de reconocimiento por voz convencional). En centros de contacto en los cuales los agentes humanos y personas que llaman comunicados por teléfono, muestras de conversaciones de agente-persona que llama pueden obtenerse de las instalaciones de grabación de audio de aseguramiento de calidad el centro de contacto. En una implementación, las transcripciones de agente humano-persona que llama muestras están en la forma de archivos de Lenguaje de Marcación de Importación (IML) cuando se suministra al procedimiento de desarrollo de aplicación inicial 182. El procedimiento de desarrollo de aplicación inicial 182 utiliza las transcripciones de muestra para construir una aplicación CML inicial. El procedimiento de desarrollo de aplicación inicial (un ejemplo del cual se describen en más detalle en las Figuras 15-16) involucra las siguientes tres frases: 1. Clasificadores de construcción. En esta frase, los grupos de clasificadores para expresiones de agente y expresiones de persona que llama se construyen utilizando ejemplos de conversaciones de agente humano-persona que llama registrada. Cuando la aplicación se despliega y va en línea, estos clasificadores se utilizan para clasificar expresiones de persona que llama. Después de que se clasifica una expresión de persona que llama, el agente de software puede determinar la respuesta apropiada al utilizar la red de estado finito. Antes del despliegue de la aplicación, los dos grupos de clasificadores pueden utilizarse también para generar las redes de estado finito e identificar y desarrollar solicitudes de agente efectivas para información. 2. Generar Redes de Estado Finito. En está fase, los diálogos se capturan como redes de estado finito o redes libres de contexto que utilizan subcontextos. El elemento CML, contexto (o estado), es la construcción de definición de estado principal. 3. fase de inserción de Código. En está fase, las redes de estado se incorporan en la aplicación para realizar la automatización asociada con el diálogo. Con respecto a la fase en la cual se construyen los clasificadores, puede ser ventajoso, especialmente en una aplicación de centro de llamado, primero agrupar expresiones de agente en un grupo de clasificadores y después utilizar esos clasificadores de agente a localizar y clasificar expresiones de persona que llama. En una aplicación de centro de llamado, los diálogos entre una persona que llama y un agente humano típicamente se controlan para el agente. De hecho, frecuentemente se instruye a los agentes para seguir escritos estandarizados durante conversaciones con personas que llaman. Estos escritos pretenden dirigir y limitar conversaciones de agente-persona que llama para que las respuestas sean preguntas de la persona que llama que se proporciona de una forma confiable y eficiente. Un arreglo común para los agentes humanos es que nunca deben perder el control del flujo de la conversación. Si las expresiones de la persona que llama y agentes se agrupan basándose en el significado de la expresión que utiliza, por ejemplo, un algoritmo de frecuencia de Documento de Término-frecuencia-inversa (TF-IDF), las distribuciones de grupos de agente y persona que llama aparecen un poco diferentes. La distribución de los grupo de expresión de persona que llama tiende a tener grupos de respuesta muy poco comunes (por ejemplo, un grupo de expresiones en las cuales la persona que llama dice un número o se identifica así mismo) seguido por una disminución rápida de frecuencias de grupo para un número relativamente pequeño de respuestas menos comunes, y después un extremo muy largo de grupos de semifallo. Los grupos de semifallo típicamente cuentan la mitad de las expresiones de persona que llaman totales, y continúan aproximadamente a 90-95% de los grupos totales. Las expresiones que representan la solicitud inicial de la persona que llaman por información (por ejemplo, "¿cuál es mi balance de cuenta?"), que representan uno de los tipos más importantes de expresiones de persona que llama para diseño de un sistema de respuesta de voz automático, típicamente de un porcentaje muy pequeño de las expresiones totales (aproximadamente 1 de cada 20- 30 expresiones, dependiendo de la duración de llamadas). Debido a que existen muchas formas en las cuales una solicitud particular puede mencionarse, estos tipos de expresiones de solicitud de persona que llama iniciales es usualmente se ordenan en la distribución completa, con muchas expresiones que caen en sus propias categorías de semifallo. La distribución de grupos de expresión de agente típicamente es mucho más diferente que la distribución de grupos de expresión de persona que llama ampliamente debido a la naturaleza escrita de las expresiones de agente. En particular, la distribución de grupos de expresión de agente (que utilizan un algoritmo TF-IDF para agrupar las expresiones de agente) es mucho más plana que la distribución observada para las personas que llaman, con frecuencias totales inferiores para la mayoría de grupos de expresión común y una disminución mucho más gradual en frecuencias de grupos. Debido a que los agentes frecuentemente se acoplan a conversaciones con personas que llaman, la distribución de los grupos de expresión de agente también tiene un gran extremo de semifallos. Otra diferencia entre las distribuciones de agente de grupos de agente y persona que llama en el ambiente de centro de llamado es que los grupos de agente de alta frecuencia tienden a contener la información que reúne preguntas (por ejemplo, "¿me podría dar su número de seguro social, por favor?"), que son las expresiones más importantes para el diseño de un sistema de respuesta por voz automático. De hecho, es posible caracterizar casi todo el comportamiento de agente importante (por ejemplo solicitudes de agente por información) a analizar el 20% más frecuente de los grupos. Haciendo referencia a la Figura 15, un procedimiento de desarrollo de aplicación inicial 182 utiliza una técnica de detalle de datos céntrico de agente que primero genera un grupo de clasificadores de agente y después utiliza el grupo de clasificadores de agente para identificar y generar un grupo de clasificadores de persona que llama. El procedimiento de aplicación inicial 182 recibe como entrada un número estadísticamente significante de conversaciones de persona que llama-agente prerregistradas 181 que se transcribieron en texto. Todas las expresiones de agente en las conversaciones de persona que llama-agente prerregistrada se agrupan 302 en un grupo de grupos de agente, y los grupos de agente significantes (por ejemplo, aquellos grupos con expresiones en las cuales el agente produce información de una persona que llama) después se identifican. Estos grupos de agentes significantes después se utilizan para entrenar (es decir, se ingresan a) 304 un procedimiento de aprendizaje por máquina, por ejemplo, una Máquina de vector de soporte (SVM), del cual un grupo de clasificadores de agente se genera. Una vez que se generan los clasificadores de agente, estos clasificadores se utilizan para localizar 306 respuestas de persona que llama dentro de las conversaciones transcritas. Estas expresiones de persona que llama después se agrupan 307 en un grupo de grupos de persona que llama. Estas expresiones de persona que llama agrupadas después se utilizan para entrenar 308 (es decir, se ingresan a) un procedimiento de aprendizaje de máquina, por ejemplo, una Máquina de Vector de Soporte, del cual se genera un grupo de clasificadores de persona que llama. Después de que los grupos de clasificadores de agente y persona que llama se determinan, o pueden utilizarse para clasificar expresiones de agente y persona que llama en nuevas transcripciones de conversación. Las respuestas de persona que llama apropiadas para preguntas de agente importantes después se extraen automáticamente de las nuevas transcripciones y se agregan a los grupos de persona que llama. Estos grupos de persona que llama aumentados después se utilizan para construir un nuevo grupo mejorado de clasificadores de persona que llama 310. Dado un grupo de conversaciones transcritas, las expresiones de las cuales se clasificaron al utilizar un grupo de clasificadores de agente y persona que llama, pueden identificarse los patrones de conversación de agente canónico 312. Los patrones de conversación canónicos son patrones comunes de solicitudes de información y respuestas utilizadas para agente al responder tipos particulares de solicitudes de persona que llama. Por ejemplo, si una persona que llama contacta un agente y solicita su balance de cuenta, un patrón de respuesta común entre agentes es para hacer la pregunta X (por ejemplo, "¿cuál es su nombre?"), seguido por la pregunta Y (por ejemplo "¿cuál es su número de seguro social?"), seguido por la pregunta Z (por ejemplo, "¿cuál es su apellido materno?"). Por otro lado, si la persona que llama solicita literatura, la pregunta de la gente X puede seguirse por la pregunta A (por ejemplo "¿cuál es su código postal?") y la pregunta B (por ejemplo, "¿cuál es su dirección?"). Estos patrones de conversación canónicos pueden utilizarse en general 314 una red de estado finito para la aplicación.
Además, los pares de las expresiones de agente y persona que llama clasificadas en las conversaciones transcritas pueden utilizarse para identificar 316 solicitudes de agente exitosas por información. Examinar las distribuciones de los tipos de respuestas de persona que llama para poner en diferentes palabras las preguntas de la gente que se pretenden para producir la misma información pueden revelar que una forma de preguntar la información es más efectivo que otras formas. Por ejemplo, una primera solicitud de agente con palabras "¿puede darme su número de seguro social?" puede tener un número significante de respuestas de persona que llama de "si" sin proporcionar el número de seguro social de la persona que llama. Sin embargo, otro clasificador de agente que clasifica una solicitud de agente con palabras "¿cuál es su número de seguro social?" puede generar una distribución en la cual un alto porcentaje de las personas que llaman responde a la pregunta proporcionándole información solicitada (es decir, el número de seguro social de la persona que llama). Un ejemplo de un procedimiento de desarrollo de aplicación inicial se muestra en más detalle en las Figuras 16A-16E.
Como se muestra en la Figura 16A, una herramienta de software de desarrollo de aplicación inicial recolecta 322 dos muestras aleatoriamente seleccionadas de igual tamaño de conversiones de agente humana-persona que llama registradas 318, un grupo de entrenamiento y un grupo de pruebas. El desarrollador de aplicación después clasifica 324a, 324b las llamadas de cada muestra en un grupo de baldes de acuerdo con la solicitud de persona que llama inicial de la persona que llama. Por ejemplo, las llamadas en las cuales la persona que llama solicito su balance de cuenta pueden colocarse en un balde, mientras las llamadas en las cuales la persona que llama solicito un cambio dé dirección puede colocarse en un balde separado. Después de que un desarrollador de aplicación clasifique las llamadas en baldes, el desarrollador de aplicación utiliza la herramienta de software para examinar las distribuciones 326 de solicitudes de persona que llama iniciales de cada grupo de llamadas. Sí las distribuciones de los grupos de entrenamiento y prueba de las llamadas no son similares, el desarrollador de aplicación no tiene una muestra más grande de llamadas aleatoriamente seleccionadas 330 y repite el procedimiento de colocación en baldes hasta que los grupos de entrenamiento de prueba generan distribuciones de tipo de llamada similares. Una vez que los grupos de entrenamiento y de prueba se determinan para tener distribuciones de tipo de llamada similares, el desarrollador de aplicación utiliza una herramienta de software a grupos 332 las expresiones de agente de las llamadas en el grupo de entrenamiento. Para agrupar las expresiones de agente, la herramienta de software corre las expresiones a través del motor de reconocimiento de concepto (descrito en más detalle anteriormente) para determinar una lista de características semánticas para cada expresión, y después utiliza el algoritmo TF-IDF para agrupar las expresiones basándose en su lista de características semánticas. Haciendo referencia a la Figura 16B, el desarrollador de aplicaciones examina los grupos de agente, fusiona 334 cualquiera de los grupos que se traslapan, y aprueba 336 los grupos de agente que tienen más de un cierto número de expresiones (por ejemplo, más de cuatro expresiones) para uso en clasificación. Un desarrollo de reaplicación típicamente no clasificaría cada grupo de agente ya que los grupos que tiene una baja frecuencia de ocurrencias son menos probables que las expresiones de gente en las cuales el agente produce información substantiva de la persona que llama (por ejemplo, "me podría dar su nombre, por favor"). Más que eso, los grupos de baja frecuencia (por ejemplo, grupos de semifallos) son probables que contengan expresiones de agente en las cuales el agente acoplo a la persona que llama en la conversación (por ejemplo, "¿cómo está el clima por allá hoy?"). Después de que el desarrollador de aplicación aprueba los grupos (por ejemplo, al utilizar una interfase de usuario gráfica para la herramienta de software), en el desarrollo de aplicación ordena a la herramienta de software para generar un grupo de clasificadores basándose en las características conceptuales de las expresiones en los grupos atrapados (es decir, los datos de entrenamiento). Un grupo de clasificadores es la salida de un procesamiento de aprendizaje por máquina (por ejemplo, árbol de decisión máquina de vector y soporte). Los clasificadores se utilizan para determinar que grupo del grupo de entrenamiento de cada nueva expresión es más similar. En una implementación preferida, la herramienta de software construye un grupo de clasificadores al utilizar un procedimiento de aprendizaje de máquina por máquina de vector de soporte (SVM). Este procedimiento genera un grupo de discriminaciones por par, una para cada grupo comparado con todos los otros, que después se aplican a nuevas expresiones. El grupo que "gana" el mayor número de comparaciones se determina para hacer el grupo en el cual se debe atribuir la nueva expresión. Por ejemplo, si un clasificador se construye al utilizar un SVM para todos los tres grupos, el clasificador tendrá un grupo de tres discriminaciones en par para comparar el grupo 1 con el grupo 2, el grupo 1 con el grupo 3, y el grupo 2 con el grupo 3. Cuando se presenta una nueva expresión a los clasificadores, cada uno de las tres comparaciones se aplica a los factores semánticos (determinado por el motor de reconocimiento de conversación) de la expresión. Cualquier grupo que "gane" el mayor número de comparaciones, se considera que es el grupo en el cual se debe atribuir la expresión. Una vez que un grupo de clasificadores de agente se construye, el grupo de entrenamiento de llamadas se alimenta en los clasificadores para verificar 340 la integridad de los clasificadores. La integridad de los clasificadores se revisa la comparar los grupos en los cuales los clasificadores atribuyeron las expresiones de agente del grupo de entrenamiento a los grupos en los cuales las expresiones de agente se clasificaron antes de la generación de los clasificadores de agentes. Si los clasificadores no clasifican el grupo de entrenamiento para que no se satisfagan algún criterio de validación (por ejemplo, los clasificadores deben clasificar al menos 98% de las expresiones de agente en el grupo de entrenamiento en su grupo apropiado), después el desarrollador de aplicación ajusta 344 dos grupos originales y reconstruye los clasificadores de agente 338. Una vez que los clasificadores satisfacen los criterios de validación, las expresiones de agente en el grupo de llamadas se anotan 346 al utilizar los clasificadores. Esto significa que las expresiones de agente se clasificaron y una etiqueta que identifico el grupo al cual se decía que pertenecía en la expresión más similar se asocio con cada expresión de agente. Por ejemplo, una expresión de agente "¿cuál su número de seguro social?" puede anotarse con la etiqueta "REQ_SSN" que indica que la expresión de agente se clasifico en un grupo que corresponde a una solicitud de agente para el número de seguro social de las personas que llaman. Después de anotar la expresión de agente en el grupo de prueba, el desarrollador de aplicación revisa 348 las anotaciones y marca el grupo de prueba anotado de acuerdo con si la expresión de agente se clasifico correctamente. Por ejemplo, si una expresión de agente "¿cuál es su número de seguro social?" se clasifico como "REQ_DIRECCIÓN", el desarrollador de aplicación debe marcar está clasificación como incorrecta. Si el desarrollador de aplicación no satisface la marca (por ejemplo, el porcentaje de clasificaciones correctas) es aceptable 350, el desarrollador de aplicación ajusta 344 los grupos originales y reconstruye los clasificadores de agente 338. Una vez que el desarrollador en la aplicación está satisfecho que el grupo de prueba obtuvo una marca aceptable, los clasificadores de agente actuales se establecen como los clasificadores de agente "dorados". Haciendo referencia a la Figura 16C, se ilustra un procedimiento para desarrollar un grupo de clasificadores de solicitud inicial de persona que llama. Las solicitudes iniciales de persona qua llama se refieren a la expresión que identifica la razón (es) primaria de la persona que llama para hacer la llamada (por ejemplo, una solicitud del balance de cuenta actual de la persona que llama, una solicitud del cambio de dirección, etc.). Como se muestra en la Figura 16C, las expresiones de agente del grupo de entrenamiento de llamadas se anotan 354 con los clasificadores de agente "dorado" que utilizan la herramienta de software. La herramienta de software después agrupa 356 las respuestas de la persona que llama a clasificadores de agente que corresponden a una solicitud de agente para la solicitud inicial de la persona que llama (por ejemplo, un clasificador que corresponde a "¿cómo le puedo ayudar?"). Las solicitudes iniciales de la persona que llama agrupadas después se utilizan para construir 358 un grupo de clasificadores para solicitudes iniciales de una persona que llama (por ejemplo, que utiliza una máquina de vector de soporte). Debido a que el número de expresiones de persona que llama que corresponden a la solicitud inicial de persona que llama es pequeña (usualmente solamente una solicitud inicial por llamada), un desarrollador de aplicación puede producir para identificar manualmente 360 las expresiones de solicitud de persona que llama al, por ejemplo, leer el texto de las llamadas y colocar la solicitud (es) inicial para cada llamada en un grupo. Una vez que un grupo inicial de los clasificadores de solicitud inicial de persona que llama se construye, los clasificadores se validan 362 al alimentar el grupo de entrenamiento de llamadas a través de los clasificadores y comparar los grupos en los cuales los clasificadores atribuyeron las expresiones de solicitud inicial de persona que llama del grupo de entrenamiento a los grupos en los cuales las expresiones de solicitud inicial de persona que llama se clasificaron antes de la generación de los clasificadores de solicitud inicial de persona que llama. Si los clasificadores no clasifican el grupo de entrenamiento para que no satisfagan algún criterio de validación (por ejemplo, los clasificadores deben clasificar al menos 95% de las expresiones de solicitud inicial de persona que llama en el grupo de entrenamiento en su grupo apropiado), después el desarrollador de aplicación ajusta 366 dos grupos originales y reconstruye los clasificadores de solicitud inicial de persona que llama 358. Una vez que se satisface el criterio de validación. El grupo de prueba de las llamadas se anota 368 con los clasificadores de solicitud de inicial de persona que llama y después se revisan y marcan 370 por el desarrollador de aplicación. Si los clasificadores de solicitud inicial no resultan en una marca aceptable, el desarrollador de aplicación ajusta los grupos y reconstruye los clasificadores. (Se nota que si los grupos se ajustan basándose en información reunida del grupo de prueba, después la valoración de la construcción de SDMs de los grupos ajustados debe probarse en un nuevo grupo de datos de prueba). Una vez que los clasificadores de solicitud inicial resultan en una marca aceptable, se forma un grupo preliminar 374 de clasificadores de solicitud inicial de persona que llama. Haciendo referencia a la Figura 16D, se ilustra un procedimiento para construir un grupo de respuesta de persona que llama o inicial para solicitudes de agente para información. El procedimiento ilustrado en la Figura 16D es similar al procedimiento ilustrado en la Figura 16C. Similar al procedimiento mostrado en la Figura 16C, el procedimiento mostrado 16D utiliza los clasificadores de agente "dorado" para localizar expresiones de persona que llama. Sin embargo, en el procedimiento mostrado en la Figura 16D, las expresiones de persona que llama que se clasifican son aquellas expresiones que corresponden a solicitudes de agente para información de solicitud no inicial (es decir, expresiones de persona que llama en las cuales la persona que llama respondió a las solicitudes de agente para información diferente a la solicitud de agente para el propósito de la llamada de la persona que llama). La respuesta de la persona que llama a las solicitudes de agente para el nombre de la persona que llama, dirección, número de seguro social, y datos de nacimiento son ejemplos de expresiones de persona que llama que corresponden a solicitudes de agente para información de solicitud no inicial. Como se muestra en la Figura 16D, las expresiones de agente del grupo de entrenamiento de llamadas se anotan 376 con los clasificadores de agentes "dorados" que utilizan la herramienta de software. La herramienta de software después agrupa 378 respuestas de persona que llama con clasificadores de agente que corresponden a una solicitud de agente para información diferente a la solicitud inicial de persona que llama (por ejemplo, un clasificador que corresponde a "¿cuál es su número de seguro social?"). Las respuestas de la persona que llama agrupada a solicitudes de información no iniciales del agente después se utilizan para construir 380 un grupo de clasificadores para respuestas no iniciales de la persona que llama (por ejemplo, que utilizan máquinas de vector de soporte). Una vez que se construyó un grupo de clasificadores de respuesta no inicial, los clasificadores se validan 384 al alimentar el grupo de entrenamiento de llamadas a través de los clasificadores y al comparar los grupos en los cuales los clasificadores atribuidos a las expresiones de respuesta no inicial de persona que llama del grupo de entrenamiento a los grupos en los cuales las expresiones de respuesta no inicial de persona que llama se clasificaron antes de la generación de clasificadores de respuesta no inicial. Si los clasificadores no clasifican el grupo de entrenamiento para que no satisfagan algunos criterios de validación (por ejemplo, los clasificadores deben clasificar al menos 98% de las expresiones de persona que llama en el grupo de entrenamiento en su grupo apropiado), después el desarrollador de aplicación ajusta 386 los grupos originales y reconstruye los clasificadores de respuesta no inicial. Una vez que se satisface el criterio de validación, el grupo de prueba de llamadas se anota 388 con los clasificadores de respuesta no inicial de persona que llama y después se revisan y marcan 390 por el desarrollador de aplicación. Si los clasificadores de respuesta no inicial no resultan en una marca aceptable, el desarrollador de aplicación ajusta 386 los grupos y reconstruye los clasificadores. Una vez que los clasificadores de respuesta no inicial resultan en una marca aceptable, se forma un grupo preliminar 394 de clasificadores de respuesta no inicial de persona que llama. El grupo preliminar de clasificadores de respuesta de persona que llama no inicial y los clasificadores de solicitud de persona que llama inicial se combinan 396 para formar un grupo combinado de clasificadores de persona que llama preliminares. Haciendo referencia a la Figura 16E, se ilustra un procedimiento para aumentar los clasificadores de persona que llama preliminares. En este procedimiento, un número (N) de muestras aleatorias de grupos de entrenamiento y de prueba de llamadas de agente humano-persona que llama transcritas se utilizan para mejorar el desempeño de los clasificadores. Un primer grupo de entrenamiento de muestras aleatorias (por ejemplo, 1000 muestras aleatoriamente seleccionadas) se anota 400 con los clasificadores de agente "dorado" y los clasificadores de persona que llama preliminares que utilizan la herramienta de software. La herramienta de software después agrega los datos (es decir, las características semánticas) de las expresiones de persona que llama que corresponden a solicitudes de agente por información (ya sea solicitudes para la razón de la persona que llama para llamadas o solicitudes de agente por otra información) a los grupos de persona que llama del clasificador correspondiente. Por ejemplo, si una expresión de la persona que llama es "si, es 123-45-6789" se da en respuesta a una solicitud de agente para el número de seguro social de la persona que llama, las características semánticas de la expresión de la persona que llama se agrega al grupo de persona que llama que corresponde a una respuesta de un número de seguro social. Una vez que todos los datos de las expresiones de la persona que llama en el grupo de muestra se agregan a los grupos correspondientes, los clasificadores de persona que llama (tanto solicitud inicial de persona que llama como clasificadores de respuesta no inicial) se reconstruyen 404 utilizando, por ejemplo, una máquina de vector de soporte. Los grupos de reconstrucción después se validan 408 al alimentar el grupo de entrenamiento de llamadas a través de los clasificadores recientemente construidos y comparar los grupos en los cuales los clasificadores atribuidos a las expresiones de persona que llama del grupo de entrenamiento a los grupos en los cuales las expresiones de la persona que llama se clasifican antes de la generación de los clasificadores de la persona que llama. Si los clasificadores recientemente construidos no clasifican el grupo de entrenamiento para que no satisfagan algún criterio de validación (por ejemplo, los nuevos clasificadores deben clasificar correctamente un porcentaje superior de expresiones de persona que llama que los clasificadores previos), después el desarrollador de aplicación ajusta 410 los grupos y reconstruye los clasificadores de persona que llama. Una vez que se satisface el criterio de validación, el grupo de prueba de llamadas se vuelve a anotar 410 con los clasificadores de persona que llama y después se revisa y marca 412 por el desarrollador de aplicación con el fin de mejorar los clasificadores. (No ocurre ningún ajuste de grupos, como se asume que los nuevos datos mejorarán los clasificadores). El procedimiento ilustrado en la Figura 16E puede continuar hasta que las marcas de los nuevos clasificadores se acercan como un asímpota en cuyo punto se establece un grupo final de agente y clasificadores de persona que llama. El grupo final de clasificadores de agente y de persona que llama puede utilizarse para identificar patrones de conversación de agente canónico, que un desarrollador de aplicación puede utilizar para desarrollar una red de estado finito para el sistema. Por ejemplo, como se muestra en la Figura 16F, un grupo de muestras de agente-persona que llama aleatoriamente seleccionadas 420 se anota 422 con etiquetas de clasificador que utilizan los clasificadores de agente final y de persona que llama. Las llamadas después se caracterizan 424 por tipo de llamada. Este paso puede realizarse manualmente por un desarrollador de aplicación que revisa las muestras de agente-persona que llama anotadas o pueden realizarse automáticamente por un procedimiento de software que optimiza la trayectoria(s) de red asociada con cada solicitud inicial de persona que llama. Un procedimiento de software después puede identificar 426 patrones de solicitud de agente común para cada tipo de llamada al comparar la secuencia de solicitudes de agente para cada tipo de llamada. Por ejemplo, si un tipo de llamada es una solicitud de balance de cuenta, el procedimiento de software puede examinar cada secuencia de solicitudes de agente para responder a solicitud de balances de cuenta para identificar uno o más patrones de solicitud comunes (por ejemplo, un gran número de agentes que hicieron la solicitud "A" seguida por la solicitud "B" seguida por la solicitud "C"). El procedimiento de software después utiliza los patrones de solicitud comunes identificados (por ejemplo, el patrón de solicitud más común para cada tipo de llamada) para generar 428 automáticamente una red de estado finito preliminar. Un desarrollador de aplicación típicamente agregaría nodos a la red de estado finito preliminar, por ejemplo, para permitir otro impulsor a respuestas no entendidas por el sistema o para pedir a la persona que llama que espere que el sistema revise la información, etc. Además de utilizar los patrones de solicitud de agente común para generar una red de estado finito preliminar, un desarrollador de aplicación también puede utilizar los patrones de solicitud de agente para identificar tipos de llamada. Por ejemplo, una vez que se identificó un grupo de patrones de solicitud de agente común para diferentes tipos de llamada, los clasificadores de agente pueden aplicarse a una persona que llama-agente de grupo no analizado de conversaciones para identificar patrones de solicitud de agente en el grupo no analizado. Si un patrón de solicitud de agente en una conversación de persona que llama-agente en el grupo no analizado se acopla a uno de los patrones de solicitud comunes para un tipo de llamada conocido, el desarrollador de aplicación (o herramienta de software utilizada por el desarrollador de aplicación) puede asumir que la conversación de la persona que llama-agente es del tipo de llamada que corresponde al patrón de solicitud de persona que llama-agente común. El tipo de llamada de la conversación de persona que llama-agente puede determinarse basándose en el grupo de clasificadores de agente presentes en una conversación, independiente de cualquier orden particular de los clasificadores. Alternativamente, el tipo de llamada puede determinarse basándose en una secuencia de clasificadores de agente presentes en una conversación. Los pares de expresiones de agente y persona que llama clasificadas en conversaciones transcritas pueden utilizarse para identificar solicitudes de agente exitosas de información. La distribución de respuestas de persona que llama para poner en diferentes palabras preguntas de agente que se pretendían para elegir la misma información (y a partir de allí estuvieran en el mismo grupo) pueden revelar que la única forma de pedir información es más efectiva que otras formas. Por ejemplo, una primera solicitud de agente con palabras "¿Puede darme su número de seguro social?" puede tener un número significante de respuestas de persona que llama de "si" sin, proporcionar el número de seguro social de persona que llama. Sin embargo, otro clasificador de agente que clasifica una solicitud de agente con palabras "¿Cuál es su número de seguro social?" puede generar una distribución en la cual un porcentaje muy alto de las respuestas de persona que llama a la pregunta proporcionó la información solicitada (es decir, el número de seguro social). Al identificar que tipos de respuesta de persona que llama son en respuesta y cuales no son en respuesta, después es posible observar las expresiones de persona que llama asociadas y determinar si las palabras de estas expresiones de agente fueron en respuesta a la responsiva de las expresiones de la persona que llama. Haciendo referencia de nuevo a la Figura 12, un vez que se desarrollo la descripción de aplicación de CML inicial 184 (por ejemplo, al utilizar el procedimiento de desarrollo inicial ilustrado en las Figuras 16A-16F), se despliega 186 a un servidor de conversación (por ejemplo, el servidor de conversación 30 mostrado en las Figuras 5-6). El servidor de conversación preferiblemente soporta "despliegue caliente" de aplicaciones CML, que significa que nuevas versiones de la descripción de aplicación CML pueden volverse a desplegar cuando ya funcionan en el servidor de conversación. El despliegue caliente preferiblemente asegura que: (i) las sesiones de aplicación ya activas se permitirá que corran para término; (ii) todos los recursos empleados por una versión de una aplicación (por ejemplo, archivos de impulso, etc.) no se removerá o reemplazará hasta que ya no se requiera; (iii) todas las nuevas sesiones de aplicación harán uso de la versión más nueva de la aplicación; y (iv) todas las versiones obsoletas de la aplicación, y recursos de soporte, se removerán del servidor de conversación cuando ya no se necesitan por sesiones se aplicación activas. Después que se desplegó la descripción de aplicación de CML en un servidor de conversación y comienzan las llamadas de control, el servidor de conversación registra todos los diálogos de sistema- persona que llama en un depósito de medios 187 y produce un registro de los diálogos en un registro de conversación 188. El depósito de medios 187 incluye los datos incompletos de las conversaciones del sistema-persona que llama (por ejemplo, archivos de audio de una conversación de teléfono de persona que llama-sistema registrada, archivos de texto de una conversación de envío de mensajes instantáneos de persona que llama-sistema). Un subsistema de registro de audio (no mostrado) registra todas las llamadas de clientes del tiempo de origen (cuando el sistema comienza a controlar la llamada) hasta el término de la llamada. Para llamadas de toma de mando de agente, el subsistema de audio continúa registrando la interacción del agente/cliente hasta su conclusión. En una ¡mplementación preferida, el subsistema de registro de audio registra todo lo que dice una persona que llama en una conversación en un archivo de audio y todo lo que dice el agente(s) (software y/o agente humano) en un archivo separado. Además, el subsistema de registro de audio preferiblemente elimina silencios en la conversación registrada. El registro de conversación 188 se genera por el subsistema de registro 64 (mostrado en la Figura 5). El subsistema de registro genera el registro de conversación 64 al crear un objeto de sesión para cada llamada que se procesa por el servidor de conversación. El objeto de sesión incluye los siguientes datos: • La aplicación comienza a correr (pueden existir múltiples aplicaciones de conversación en uso en un servidor de conversación). • Una etiqueta que indica cómo la interacción de proceso por el sistema (por ejemplo, conversación automática, mezclada, o de toma de mando de agente) « Un indicador de canal (teléfono, Web, Chat/IM, correo electrónico) • Enlaces al archivo de audio asociado en el depósito de audio. • Una representación de la conversación completa en orden cronológico que incluye: o (i) la entrada de cliente reconocida por el motor de diálogo (entrada reconocida); o (ii) para interacciones completamente automáticas (es decir, interacciones que se controlan completamente por los agentes de software), la representación también incluye: m Las respuestas dadas a cada pregunta y sus marcas de acoplamiento di la interacción o (iii) para interacciones mezcladas (es decir, interacciones en las cuales un agente humano seleccionó una respuesta de una lista de respuestas presentadas por el sistema), la representación también incluye: a La respuesta(s) sugerida superior y marcas de acoplamiento relacionadas;
a La respuesta seleccionada por el agente y su marca de acoplamiento y clasificación entre la lista de respuestas sugerida o (iv) para interacciones de toma de mando, la representación también incluye: a El diálogo de audio entre agente humano y cliente. • Estampas de tiempo que indican el tiempo de origen de llamada, tiempo en que se escaló la llamada a un agente humano (si es aplicable), y tiempo de término de llamada. • La secuencia de estados que las conversaciones que el agente y persona que llama atraviesan y los eventos que causaron las transiciones de estado; por ejemplo, el agente humano que selecciona una respuesta particular o un agente de software que selecciona una respuesta. • Identidad de un agente humano que ayudó en una llamada o toma de mando de una llamada (si es aplicable). • Un registro de todas las solicitudes para los sistemas de extremo trasero (por ejemplo, sistemas que contienen información en respuesta a solicitudes de persona que llama) y los resultados de estas solicitudes. Por ejemplo, si la aplicación necesita recuperar un balance de cuenta de cliente, que requiere una llamada al sistema de extremo trasero. El depósito de medios 187 y registro de conversación 188 están disponibles para el procedimiento de aprendizaje de tiempo de funcionamiento 190 para facilitar ajustes a la aplicación de CML. El procedimiento de aprendizaje de tiempo de funcionamiento 190 utiliza un giro de aprendizaje adaptable en el cual un historial de ejecución del sistema (capturado en el registro de correspondencia 188 y el depósito de medios 187) se utiliza para evolucionar la aplicación CML para mejorar la capacidad del sistema a la conversación automática. Más particularmente, el procedimiento de aprendizaje de tiempo de funcionamiento selecciona ciertas interacciones de agente-persona que llama del historial de conversaciones de agente-persona que llama que se determinan para ser "buenas" oportunidades de aprendizaje para el sistema. Las interacciones de agente-persona que llama seleccionadas no necesitan ser la conversación del agente-persona que llama completa, pero puede ser sólo una porción de una conversación de agente-persona que llama. Los siguientes son ejemplos de interacciones de persona que llama-agente que pueden seleccionarse por un procedimiento de aprendizaje de tiempo de funcionamiento para mejorar el sistema: 1. En una conversación en la cual un agente humano seleccionó una respuesta de una lista clasificada de respuestas a una expresión de persona que llama generada por el sistema, el significado de la expresión de persona que llama puede discernirse por el sistema de la respuesta seleccionada por el agente humano. Por consiguiente, la expresión de persona que llama puede seleccionarse como una oportunidad de aprendizaje para mejorar los clasificadores utilizados por el sistema. De esa forma, si una persona que llama hace una expresión similar en el futuro, el sistema es más probable que sea capaz de responder sin ayuda de un agente humano. También, el diálogo reconocido de la expresión de persona que llama (que puede reconocerse por un ASR en línea, un ASR fuera de línea o por transcripción manual) puede utilizarse para mejorar los modelos de lenguaje utilizados por el ASR en línea. De esa forma, si una persona que llama hace una expresión que utiliza diálogo similar en el futuro, el ASR en línea será más probable que reconozca de forma exacta el diálogo. 2. En una conversación en la cual el sistema dio una respuesta automática a una expresión de la persona que llama, la expresión de la persona que llama que precede a la respuesta automática puede seleccionarse como una oportunidad de aprendizaje por el sistema para reforzar el comportamiento del sistema. En este caso, el idioma reconocido de la expresión de la persona que llama (que puede reconocerse por un ASR en línea, un ASR fuera de línea o por transcripción manual) puede utilizarse para mejorar los modelos de lenguaje utilizador por el ASR en línea y/o mejorar los clasificadores utilizados para discernir el significado de las expresiones de la persona que llama. 3. En una conversación en la cual un agente humano toma el mando de la conversación, las interacciones del agente humano-persona que llama pueden seleccionarse como oportunidades de aprendizaje. En este caso, un administrador de sistema puede analizar el intercambio de agente humano-persona que llama para conversaciones que no se anticipan por el sistema (y de esa forma no son parte de la red de estado finito del sistema). El administrador de sistema puede utilizar el intercambio de agente humano-persona que llama para agregar nodos a la red de estado finito del sistema y construir clasificadores para que si una persona que llama contacta al centro de llamado en el futuro, el sistema se prepara para tomar la llamada. Por ejemplo, si un error de impresión lleva a envió por correo de cuentas en blanco a clientes en un mes particular, el sistema puede recibir un número de llamadas de preguntas de persona que llama sobre la cuenta en blanco. Esto es probablemente una conversación que no se anticipó por el sistema. Después de recibir algunas de estas preguntas, el administrador de sistema puede construir un grupo de clasificadores y actualizar la red de estado finito (por ejemplo, que utilizan el procedimiento en la Figura 15 anteriormente) para que el sistema pueda controlar llamadas similares en el futuro. El procedimiento de aprendizaje de tiempo de funcionamiento alimenta interacciones de agente-persona que llama seleccionadas al estudio de conversación 32 (mostrado en las Figuras 4-5), en donde se utilizan para reconstruir clasificadores, mejorar los modelos de lenguaje utilizados para reconocimiento de diálogo de tiempo de funcionamiento, y/o modificar la red de transición de estado. En una implementación, un procedimiento de aprendizaje de tiempo de funcionamiento revisa conversaciones de sistema-persona que llama para las siguientes oportunidades de aprendizaje; 1. Ayudas- en conversaciones en donde un agente humano informó al agente de software de las interpretaciones apropiadas de una declaración de persona que llama cuando el agente de software era incierto, la interpretación del agente de la declaración de la persona que llama se utiliza para mejorar los clasificadores utilizados por el motor de reconocimiento de concepto para entender el diálogo de persona que llama. Otras implementaciones utilizan la interpretación del agente de la declaración de la persona que llama para mejorar los modelos de lenguaje utilizados por el ASR en línea.
2. Tomas de Mando- en conversaciones en las cuales un agente humano toma el mando de conversaciones de un agente de software, el intercambio de agente humano-persona que llama se analiza por un administrador de sistema para identificar nuevas conversaciones. Si se identifica una nueva conversación, un nuevo grupo de clasificadores de persona que llama y red de estado finito actualizada puede desarrollarse (por ejemplo, al utilizar el procedimiento descrito en la Figura 15 anteriormente) para agregar esa nueva conversación a la aplicación. 3.- Refuerzos- en conversaciones en donde un agente de software reconoció exitosamente una o más expresiones de persona que llama, la expresión(es) de persona que llama se utiliza para mejorar los modelos de lenguaje utilizados por el ASR en línea (que es un componente del motor de reconocimiento de diálogo) para reconocer el diálogo de persona que llama. Otras implementaciones, utilizan estas conversaciones para mejorar los clasificadores utilizados por el motor de reconocimiento de concepto para entender el significado del diálogo de persona que llama. Cuando el procedimiento de aprendizaje de tiempo de funcionamiento 190 utiliza una interacción de agente-persona que llama como una oportunidad de aprendizaje, existe el riesgo que la interacción de la oportunidad de aprendizaje no sea correcta. Procesar interacciones "malas" (por ejemplo, interacciones en las cuales el sistema mal interpretó una pregunta de persona que llama y dio una respuesta incorrecta) presenta un daño de degradar la exactitud y grado de automatización del sistema. Por consiguiente, un procedimiento de aprendizaje de tiempo de funcionamiento preferiblemente incluye uno o más guardias que ayudan a asegurar que sólo seleccione interacciones "buenas" de las cuales aprender. En una modalidad preferida, el procedimiento de aprendizaje de tiempo de funcionamiento es configurable por un administrador de sistema u otro usuario a través de una interfase de usuario gráfica en el estudio de conversación 32 (mostrado en las Figuras 4-5) para requerir que las interacciones seleccionadas satisfagan ciertos criterios de selección en una implementación, un administrador de sistema puede seleccionar uno o más de los siguientes criterios de selección para elegir oportunidades de aprendizaje: 1. Seleccionar interacciones de agente-persona que , llama como una oportunidad de aprendizaje de refuerzo si n (por ejemplo, n = 2, 3, 4, etc.) interacciones de agente-persona que llama subsecuentes fueron exitosas (por ejemplo, interacciones que no resultaron en la persona que llama que cuelga o que pide ayuda o que habla a un agente humano). 2. Seleccionar interacciones de agente-persona que llama como refuerzo y/o oportunidades de aprendizaje de ayuda sólo si la persona que llama respondió positivamente a una pregunta de satisfacción formulada por el agente de software o agente humano
(por ejemplo, "¿Eso responde su pregunta?", "¿Está satisfecho con el servició que recibió?"). 3. Seleccionar interacciones de agente-persona que llama como refuerzo y/o oportunidades de aprendizaje de ayuda que se confirman por m (por ejemplo, m = 2, 3, 4, etc.) de otros ejemplos.
Esto evita que el sistema se extrapole de un número limitado de ejemplos. 4. Seleccionar interacciones de ayuda de agente como oportunidades de aprendizaje si se confirman por algún número de diferentes agentes. 5. Seleccionar interacciones de ayuda de agente si la ayuda se realiza por un agente "confiable". Un agente confiable puede determinarse de acuerdo con alguna medida de "confianza", tal como la longitud de posesión de la persona como un agente o una marca acumulativa en ejemplos de aprendizaje de ayuda previos atribuidos al agente. 6. Seleccionar interacciones de ayuda de agente como oportunidades de aprendizaje sólo si estuvieran entre las n elecciones superiores (por ejemplo, n = 1, 2, 3, etc.) propuestas por el sistema. 7. Evitar seleccionar interacciones como oportunidades de aprendizaje si agregan nuevos ejemplos a un grupo cambiaría un número predeterminado de ejemplos previos del grupo. Por ejemplo, supongamos un grupo existente que contiene 100 expresiones ilustrativas que todas significan "quiero mi cuenta de balance" y una nueva expresión de la persona que llama de una interacción seleccionada se agrega al grupo y un nuevo grupo de clasificadores se regenera al utilizar el nuevo grupo de entrenamiento de 101 expresiones (las 100 originales más la nueva). Las 101 expresiones pueden aplicarse a los nuevos clasificadores de grupo para'ver cómo el nuevo grupo de clasificadores los clasificó. Idealmente los nuevos clasificadores deben clasificarlos todos como perteneciendo al grupo de "quiero mi cuenta de balance" ya que así es cómo los clasificadores se entrenaron. Sin embargo, se descubrió que un cierto número (por ejemplo, 1, 2, 3, etc.) de las expresiones originales ahora se clasifican mal como perteneciendo a algún otro grupo, o ahora se clasificaron ambiguamente, después está es una indicación que la nueva expresión aprendida degradó la exactitud de los clasificadores y no debe agregarse a este grupo en el primer lugar. Este criterio de selección podría combinarse con el criterio de selección 3 anterior para requerir evidencia más fuerte para agregar un nuevo ejemplo a un grupo que causa que se elimine un número predeterminado de ejemplos previos.
Además del riesgo de degradación de sistema de aprendizaje de "malos" ejemplos, también puede ser ventajoso limitar oportunidades de aprendizaje con el fin de conservar el procesamiento y/o recursos administrativos humanos. Por ejemplo, el centro de llamado norte americano promedio controla aproximadamente 3 millones de llamadas por año, y, asumiendo que 10 intercambios de persona que llama-agente por llamada, esto significa que un centro de llamado promedio genera 120,000 eventos de aprendizaje potenciales por día. Muchas organizaciones no permitirán (o legalmente no puede permitir) que el sistema cambie su comportamiento sin la aprobación de algún humano responsable. Incluso en esos casos en donde se desea la evolución del sistema automático, el volumen de compartimiento de ejemplos puede hacerse eventualmente una carga en recursos de procesamiento. De esa forma, puede ser ventajoso para el procedimiento de aprendizaje de tiempo de funcionamiento asegurar que sólo ejemplos relevantes o útiles se procesen y/o presenten para revisión humana. En una modalidad preferida, el procedimiento de aprendizaje de tiempo de funcionamiento es configurable por un administrador de sistema y otro usuario a través de una interfase de usuario gráfica en el estudio de conversación 32 (mostrado en las Figuras 4-5) para requerir que las interacciones seleccionadas satisfagan uno o más criterios de selección para ayudar a evitar que el sistema y/o usuario se sobrecarguen: 1. No seleccionar una interacción que no clasifica al menos n (por ejemplo, n = 1, 2, 3, etc ) otras interacciones debido a que una interacción cuenta su propio entendimiento típicamente no es útil 2 Clasificar interacciones por el número de otras interacciones que clasifican Agregar sólo n = 1,2,3 superior, de estos ejemplos más productivos como oportunidades de aprendizaje 3 No agregar una interacción que no cambia el grupo definitivo por al menos algún umbral Como se explicó anteriormente, los clasificadores se crean de un grupo de entrenamiento de ejemplos Algunos ejemplos en el grupo de entrenamiento importan y algunos no Es decir, si uno eliminara los ejemplos que no importan y recrean el clasificador, obtiene el mismo clasificador como antes. Los ejemplos que importan se llaman el grupo definitivo (procedimientos de software conocidos para determinar el grupo definitivo de un clasificador SVM) El criterio de selección significa que si se agrega una interacción al grupo de entrenamiento para el clasificador a través de un procedimiento de aprendizaje y un nuevo clasificador se construye al utilizar el nuevo grupo de entrenamiento, pero el grupo definitivo del clasificador no cambia por algún umbral (por ejemplo, la mayoría de sus miembros son los mismos que antes), después el clasificador aprendió mucho de la interacción adicional, y puede desconsiderarse (en cuyo caso los clasificadores originales permanecerían en su lugar) Las interacciones útiles para aprendizaje son aquellas interacciones que tienen un impacto notable en el grupo definitivo 4 Limitar el número o variedad de ejemplos que el sistema retiene al colocar un umbral numérico o relacionado con edad en los ejemplos en un grupo. Un umbral relacionado con la edad es el último momento en que se utilizó el ejemplo para clasificar algún número de otros. Esto puede ser especialmente importante en el inicio cuando un sistema entrenado en datos de humano-humano aprende el diferente estilo que los humanos pueden adoptar cuando le hablan a una máquina. Mientras los criterios de selección anteriores aplican a cualquier forma de comunicación de sistema-persona que llama (por ejemplo, diálogo, envío de mensaje instantáneo, etc.), problemas especiales surgen cuando el medio de interacción es diálogo o escrito a mano o cualquier otra modalidad en donde una oportunidad significante de mal reconocimiento puede ocurrir en el ASR en línea (o un sistema de reconocimiento de carácter óptico (OCR) en línea en el caso de reconocer escritura a mano). En algunos casos, el reconocimiento del diálogo de persona que llama (o escrito a mano) que se captura en el registro de conversación puede no ser exacto lo suficiente para servir como un ejemplo útil. Este es especialmente un problema al ayudar o tomar el mando de aprendizaje en donde el agente humano suministra la interpretación correcta cuando el sistema no entendería lo que la persona que llama dijo o escribió. El aprendizaje del diálogo no reconocido exactamente o escrito a mano podría degradar el desempeño de sistema o, en un mínimo, desperdiciar recursos de sistema. El sistema de aprendizaje de tiempo de funcionamiento preferiblemente cuida el aprendizaje de datos no reconocidos exactamente al requerir que el agente seleccione una respuesta de entre el grupo de n superior (por ejemplo, n = 1,2,3...) de'hipótesis presentadas por el sistema. El sistema también puede requerir que alguna medida de confianza interna de los datos reconocidos (producidos por un ASR en línea o fuera de línea) exceda un umbral para evitar aprendizaje de ejemplos mal reconocidos. El argumento de datos inexactamente reconocidos en un registro de conversación es substancial porque, cuando el sistema opera, típicamente se afronta a una limitación de tiempo en la que las personas que llaman no desead esperar más de algunos segundos para una respuesta. Esto limita la cantidad de procesamiento que el ASR en línea puede utilizar para reconocer y clasificar una solicitud de usuario. Sin embargo, un procedimiento de aprendizaje de tiempo de funcionamiento puede reconocer la entrada de persona que llama para el propósito de aprendizaje sin tal limitación de tiempo estricta. Este reconocimiento fuera de línea puede utilizar algoritmos o modelos o parámetros diferentes para lograr mejores resultados al utilizar más recursos e incluso hacer pases múltiples de la misma y/o entrada de usuario relacionada. Por ejemplo, la conversación de persona que llama completa (todos los 10 turnos) podría utilizarse como entrenamiento para volver a reconocer cada turno. El procedimiento de aprendizaje de tiempo de funcionamiento puede diseñarse para utilizar capacidad de periodo pico durante horas extra para realizar esta tarea. El procedimiento de tiempo e funcionamiento también podría utilizar recursos de computación en una red (por ejemplo, Internet) para volver a reconocer la entrada de la persona que llama Reconocer que la entrada de persona que llama (por ejemplo, diálogo) es un procedimiento de calculo intensivo, y, como tal, un procedimiento de aprendizaje de tiempo de funcionamiento puede no tener recursos de procesamiento disponibles para procesar para volver a reconocer cada expresión de usuario. Una forma de un procesamiento de aprendizaje de tiempo de funcionamiento puede limitar los recursos de procesamiento sólo es para seleccionar esas interacciones de sistema-persona que llama que se seleccionaron como oportunidades de aprendizaje que utilizan uno o más criterios de selección fuera de línea anteriores Además de las técnicas anteriores, el procedimiento puede utilizar un nivel de confianza de la interacción como un filtro Las interacciones de alta confianza pueden presumirse correctas, y las interacciones de baja confianza pueden asumirse para ser tan problemáticas para ser no valiosas de confianza (demasiado ruido externo por ejemplo) Los umbrales "altos" y "bajos" pueden calcularse por el sistema de ejemplos de entrenamiento Además, las técnicas de reconocimiento frecuentemente asumen que conocen la extensión del vocabulario del sistema Un problema particular es cuando y cómo expandir el inventario básico del sistema de unidades primitivas Un procedimiento de aprendizaje de tiempo de funcionamiento puede utilizar un reconocimiento fuera de línea puede utilizar un vocabulario diferente (usualmente más grande) para determinar cuando expandir el vocabulario del sistema de reconocimiento de concepto. Si el vocabulario más grande produce mejores marcas internas y externas, el procedimiento de aprendizaje de tiempo de funcionamiento puede asumirlo para ser un "mejor" vocabulario para el motor de reconocimiento de concepto. El procedimiento de aprendizaje de tiempo de funcionamiento puede construir dinámicamente un nuevo vocabulario de, por ejemplo, nuevas alimentaciones para que contenga nuevos artículos y combinaciones. La medida de confianza de bajo nivel puede identificar regiones de artículos posiblemente nuevos. Cuando la similitud agrupo nuevos artículos que excedieron algún umbral, a un humano se le puede pedir ayuda al identificar los nuevos artículos. Finalmente, muchos sistemas de reconocimiento tienen modelos separados para diferentes niveles de tarea. Por ejemplo, un sistema de respuesta por voz puede tener modelos acústicos de Gaussian para clasificar unidades de nivel fonético, diccionarios para delinear secuencias fonéticas a palabras, modelos de lenguaje estadístico para medir secuencias de palabra, y SVM para clasificar expresiones completas en grupos semánticos equivalentes. Un procedimiento de aprendizaje de tiempo de funcionamiento puede utilizar los ejemplos de aprendizaje seleccionados para entrenar los modelos en varios niveles ya sea independiente o conjuntamente en varias combinaciones. Haciendo referencia a la Figura 17, un servidor de aprendizaje 450 ¡mplementa un procedimiento de aprendizaje de tiempo de funcionamiento. En esta implementación particular, el servidor de aprendizaje incluye un título de registro 456, módulos de aprendizaje 458, una base de datos de aprendizaje 460, un buscador de audio 462, una aplicación de reconocimiento de diálogo automático fuera de línea 464, y un almacenamiento de aplicación 466. En operación, los registros de las conversaciones de sistema-persona que llama se empujan al título de registro 456 del registro de conversación 452 mientras los registros se generan por el servidor de conversación. El servidor de conversación (por ejemplo, servidor de conversación 30 mostrado en las Figuras 4-5) u otro mecanismo (por ejemplo, otro servidor) pueden configurarse para empujar los registros al otro título de registro. Mientras el título de registro recibe registros de conversación, dirige los logotipos a uno de los módulos de aprendizaje 458a, 458b para análisis. Los módulos de aprendizaje son un acercamiento modular para introducir capacidades de aprendizaje al servidor de aprendizaje. Por ejemplo, en una implementación, un módulo de aprendizaje se dedica a identificar oportunidades de aprendizaje de ayudas de agente, un segundo módulo de aprendizaje se dedica a identificar oportunidades de aprendizaje de refuerzo, y un tercer módulo se dedica a identificar oportunidades de aprendizaje de toma de mando. Si existen nuevas capacidades para agregarse al servidor, se desarrolla un nuevo módulo de aprendizaje e introduce en el servidor de aprendizaje. Así, por ejemplo, un módulo de aprendizaje de vocabulario podría agregarse al servidor de aprendizaje para examinar palabras utilizadas en expresiones de persona que llama para expandir el vocabulario del sistema. Los módulos de aprendizaje también funcionan para seleccionar eventos capturados en los registros de conversación y archivos de audio como oportunidades de aprendizaje. Los módulos de aprendizaje de sistema seleccionan eventos capturados en los registros de conversación/archivos de audio de acuerdo con el criterio de selección (discutido anteriormente) que se especificaron por un administrador de sistema. Para algunos criterios de selección, tal como seleccionar una interacción de sistema-usuario para aprender si un cierto número de interacciones de sistema-persona que llama subsecuentes fueron exitosas, puede determinarse del registro de conversación que corresponde a la interacción de sistema-persona que llama candidata. Sin embargo, otros criterios de selección requieren que los módulos de aprendizaje examinen registros de conversación múltiples para determinar si se debe seleccionar una interacción de sistema-persona que llama. Por ejemplo, si un criterio de selección específica que una interacción de agente-persona que llama no debe seleccionarse a menos que si se confirme por un cierto número de otros ejemplos, el módulo de aprendizaje multiplicará los pases en las interacciones de agente-persona que llama. En un primer pase, el módulo de aprendizaje identifica y ahorra interacciones de agente-persona que llama como posibles oportunidades de aprendizaje. Después de que se ahorra cierta cantidad de interacciones de candidato o después de una cierta cantidad de tiempo, el módulo de aprendizaje analiza las interacciones de candidato ahorradas para elegir las interacciones para seleccionar finalmente como oportunidades de aprendizaje. Mientras los módulos de aprendizaje seleccionan interacciones de sistema-persona que llama como oportunidades de aprendizaje, la interacción de sistema-persona que llama seleccionada se almacena en la base de datos de aprendizaje 460. Además de los criterios de selección para filtrar las interacciones de sistema-persona que llama, los módulos de aprendizaje también se configuran para examinar el nivel de marcas de acoplamiento reportado por el motor de reconocimiento de concepto (que se incluye en los registros de conversación) para determinar si envía la interacción de sistema-persona que llama seleccionada para ASR fuera de línea 464 o transcripción manual 468. Una escala de umbral de marcas de acoplamiento puede ser configurable por un usuario (por ejemplo, el administrador de sistema) o puede programarse. La escala de umbral de marcas de acoplamiento preferiblemente excluye marcas de confianza muy baja (que indica que la expresión es demasiado problemática para ser valiosa de confianza) y marcas de muy alta confianza (que indica que el reconocimiento original es correcto). Si la transcripción se dirige al ASR Fuera de Línea 464, el procedimiento ASR Fuera de línea 464 accede a la definición de aplicación dentro de la Marca de Aplicación 466 para recuperar el modelo de lenguaje ASR utilizado para el estado de reconocimiento particular (cada estado de reconocimiento utiliza un modelo de lenguaje separado). Los módulos de aprendizaje se configuran para dirigir todas las interacciones de toma de mando del agente al ASR fuera de línea o transcripción manual ya que el motor de reconocimiento de concepto no reconoce las expresiones de la persona que llama o el agente durante una toma de mando de agente. En algunas configuraciones, los módulos de aprendizaje se configuran para dirigir tomas de mando de agente para transcripción manual como opuesto a una transcripción automática por el ASR fuera de línea para obtener una transcripción de alta calidad de la interacción de la persona que llama-agente humano. Finalmente, el desarrollador de aplicación utiliza una interfase de usuario gráfica en el estudio de conversación 32 para recuperar las oportunidades de aprendizaje que están listas para consideración. El desarrollador de aplicación opcionalmente aprueba las oportunidades de aprendizaje (por ejemplo, a través de una interfase de usuario gráfica) y actualiza la aplicación con las oportunidades de aprendizaje aprobadas. Una vez que la aplicación se actualizó, la nueva versión se coloca en el almacenamiento de aplicación 466 y se despliega al servidor de conversación. Las oportunidades de aprendizaje generar nuevas expresiones que se agregan a los grupos conceptuales apropiados, que después se utilizan para regenerar el clasificador utilizado para reconocimiento de concepto. La aplicación actualizada después será capaz de clasificar expresiones similares apropiadamente la siguiente vez que se hablen por las personas que llaman. Las oportunidades de aprendizaje de refuerzo generan nuevas expresiones que se agregan a los modelos de lenguaje utilizados para reconocimiento de diálogo para mejorar la exactitud del ASR en línea. Las oportunidades de toma de mando se extienden a la red de estado finito para controlar nuevos temas y nuevas interacciones alrededor de los temas existentes. La Figura 13 ilustra la interfase de usuario gráfica 208 que es un componente del escritorio de agente genérico que permite a un agente humano registrarse en grupos de trabajo, manejar su estado de trabajo, y recibir y colocar llamadas; todo a través de interacciones con el servidor CTI. La interfase de usuario 208 es el panel de control a través del cual el agente lanza aplicaciones que emplean el servidor CTI que incluye la aplicación de escritorio. La interfase 208 se modela en el escritorio de Agente IP Avaya.
Las funciones más comunes del escritorio se exponen a través de las barras de herramienta. Las barras de herramienta mostradas en la Figura 13 son: Teléfono 200 (proporciona control en la llamada seleccionada), Marcación 202 (proporciona un medio de colocar una llamada), Agente 204 (proporciona medios de establecer el estado de trabajo de agente con respecto al ACD), y aplicación 206 (proporciona un medio de lanzar aplicaciones que se cargaron en la interfase 208). Con un registro de agente humano, una configuración para el escritorio se carga del servidor. Parte de esta configuración es una definición de las aplicaciones que pueden lanzarse del escritorio. La configuración de aplicación incluye las clases que ¡mplementan la aplicación y la ubicación neta de la cual se carga la aplicación. Además, la configuración incluirá los datos de aplicación que indican que una llamada se pone en objetivo en la aplicación. La Figura 14 ilustra la aplicación de resolución o interfase de usuario gráfica 210. Esta aplicación se detona cada vez que llega una llamada con los datos de aplicación que indican que la llamada es una llamada de resolución. La interfase de usuario de aplicación se divide en tres secciones principales. La información presentada es como sigue: Aplicación 212 (La aplicación CML se corre), Contexto 214 (El estado actual dentro de la aplicación), Canal 216 (El canal a través del cual el cliente contactó el centro), Umbral 218 (La configuración de umbral para el contexto), Sobre/Bajo 220 (La razón con la resolución se presentó al agente; es decir, ya sea que hay demasiadas respuestas en el umbral o no las suficientes respuestas en el umbral), Ayudas 222 (El número de veces que se ayudó al cliente en esta sesión), y Tiempo 224 (La duración de tiempo que el cliente ha estado en esta sesión). Dentro del panel de resolución de pregunta 226, el agente humano es capaz de seleccionar una respuesta apropiada a la pregunta de cliente. Las acciones que el agente puede realizar en este panel son: Buscar KB 228 (modificar una consulta y buscar la base de conocimiento para las respuestas), Responder 230 (instruir al agente de software cómo responder al cliente con la respuesta seleccionada. Las respuestas 232 que se acoplan a una consulta se presentan en el cuadro en el fondo del panel. Cada respuesta 232 indica si está sobre o bajo el umbral de confianza de contexto, su clasificación de acoplamiento, y un resumen de su pregunta), Toma de Mando 234 (Tomar el mando de la llamada del agente de software), Murmullo 236 (Escuchar la grabación de la solicitud del cliente), y Enviar la Pregunta Original 238 (Enviar la pregunta original del cliente como una consulta a la base de conocimiento. Está es la acción inicial realizada por la aplicación). La interfase de usuario gráfica 212 también permite al agente humano ingresar en texto substituto para la comunicación del cliente en el cuadro titulado "Pregunta Substituía". Si los niveles de confianza de las respuestas generadas por computadora son bajos, el agente humano puede decidir volver a decir la comunicación del cliente de tal forma que el agente humano sabe que el sistema se acoplará mejor. Existen dos grupos de controles en el fondo de la interfase de usuario: transcripción y datos. Botón de transcripción 240 impulsa una página web que muestra la transcripción del diálogo del agente de software con el cliente en una transcripción de estilo de Chat. Esta página web se genera de la transcripción de funcionamiento del agente de software de la conversación a través de la misma infraestructura de Capullo utilizada en los canales de interacción. El botón de datos 242 impulsa una página web que muestra los datos de aplicación que se reunieron hasta la fecha por el agente de software.
Está página web se genera de la aplicación del agente de software y las propiedades de red a través de la misma infraestructura de capullo utilizada en los canales de interacción. Como con los canales de interacción, es posible definir la presentación de estos datos en un nivel de aplicación, nivel de red, y/o nivel de contexto con la definición en el nivel más específico que lleva la definición a nivel más general; por ejemplo, una definición en el nivel de contexto llevará la definición en la red o el nivel de aplicación. Los Controles de Resumen permiten a un agente humano proporcionar la guía que se coloca en el registro de conversación. El botón de Unir Nota 244 permite al agente humano unir una nota a esta interacción en el registro de conversación. Cuadro de revisión de Marcar para Revisión 246 se utiliza para indicar que esta interacción debe marcarse para revisión en el registro de conversación. El botón de Hecho 248 indica que el agente está listo con esta resolución. El sistema indexa proactivamente, clasifica y verifica conversaciones a base de voz y de texto archivadas para aseguramiento de calidad, propósitos de resolución de disputa y búsqueda de mercado. Debido a que es completamente automático, el sistema puede verificar proactivamente los archivos de llamada para desviaciones en patrones de llamada de cliente, alterar supervisores a través de mecanismos de reporte regulares. Por ejemplo, en la categoría de detalles de conversación, el sistema transcribe audio de cliente para detalles de datos posteriores (por ejemplo, control de calidad para servicios financieros). Esto involucra tomar conversaciones transcritas del procedimiento de reconocimiento de grupo, CRE utilizado para registros de grupo, y proporciona la capacidad de buscar dentro de grupos por temas específicos (es decir, promociones, áreas de problema, etc.). El sistema también puede agrupar la llamada por tema específico (sub-grupo), localizar y marcar desviaciones en patrones de llamada dentro de sub-grupos, y permitir al administrador acceder al punto específico dentro de la corriente de audio en donde ocurre la desviación. Esta funcionalidad proporciona un rastro de audiencia de lo que el agente dice. Por ejemplo, un grupo sobre devolución de producto puede indicar que agentes diferentes dirigen a los clientes a regresar productos a diferentes ubicaciones. Para hacer esto, los grupos retienen datos asociados con el registro antes de ASR de pases múltiples. Para otro ejemplo, los grupos pueden mostrar que algunos agentes asocian la respuesta existente en la base de conocimiento con una pregunta de cliente (flujo de trabajo mezclado), mientras el otro agente contesta la llamada (tomar el mando de flujo de trabajo) t proporcionan su propia respuesta. Aunque se describieron ciertas implementaciones de la invención, que incluyen una aplicación particular para el manejo del centro de contacto, una amplia variedad de otras implementaciones está dentro del alcance de las siguientes reivindicaciones.
APÉNDICE 1
Archivo abd 2app.ucmla <?versión xml = "1.0" que codifica = "UTF-8"?> <!DOCTIPO ucmIApp SISTEMA
"http://dtd.unveil.com/dtd/ucmlApp.dtd"> <nombre ucmlApp = "abc12App" versión = "1.1 "Red inicial = "texto/pri nci pal"> <versión>1.0</versión> <grupoArchivo src = "abc12grupos.ucmlc"/> <documentos> <documento src = "abc12ucml.ucm 7> </documentos> <propiedades/> <bObjetos/> <canales> <típo de canal = "VXML"> <salida predeterminada src = "predeterminado.xsp"/> < p la nt i 11 a predeterminada src = "predeterminado.xsl"/> </canal> </canales> <Servicio de resolución dnis = " http: //agent. unveil.com/resolutionservice "/> </ucmlApp> Archivo abd 2qrupos.ucmla <?versión xml = "1.0" que codifica = "UTF-8"?> <!DOCTIPO grupos SISTEMA
"http://dtd.unveil.com/dtd/cluster.dtd"> <radio de grupo = "0.85"> <nombre de grupo = "cO"> <expresión> muy bien se lo agradezco mucho </expresión> <expresión> muy bien muchas gracias </expresión> <expresión> muy bien gracias </expresión> <expresión> muy bien eh eso es todo gracias </expresión> <expresión> muy bien muchas gracias </expresión> <expresión>muy bien gracias </expresión> <grupo similar="c4" similitud = "0.7685892367350193" /> </expresión> <nombre de grupo = "d> <expresión> adiós </expresión> <expresión> hasta luego </expresión> <expresión> muy bien adiós </expresión> <expresión> muy bien hasta luego </expresión> <expresión> muy bien adiós </expresión> <expresión> eh adiós </expresión> </grupo> <nombre de grupo = "c2"> <variables> <nombre de variable = tipo "apropiado" = "Nombreapropiado" requerido = "verdadero"/> <nombre de variable = tipo de "número = "Fila de dígito" requerida = "falso"/> </variables> <expresión> <variable de caso = "apropiado">rick blaine </caso>
</expresión> <expresión> <variable de caso = "apropiado">blaine </caso> </expresión> <expresión> si <variable de caso = "apropiado">victor lazlo </caso> <variable de caso = "número">cero siete cuatro dos ocho cinco cinco dos seis </caso> </expresión> <expresión> si es Louis Renault en cinco o uno cinco cuatro cero dos seis seis </expresión> <expresión> claro ilsa lund uno seis tres nueve Casablanca way berkley California nueve cuatro siete uno tres </expresión> <expresión> dos cuatro cinco cuatro uno blaine es decir blaine </expresión> </grupo> <nombre de grupo = "c3"> <expresión> dieciocho quince </expresión> <expresión> ocho dos ocho cuatro siete ocho uno u ocho o </expresión> <expresión> tres uno seis dos ocho seis dos uno cuatro </expresión> <expresión> cuatro uno tres ocho tres ocho uno seis tres </expresión> <expresión> dos cinco cero seis seis ocho siete tres cuatro </expresión> </grupo> <nombre de grupo = "c4"> <expresión> muy bien </expresión> <expresión> eh </expresión> <expresión> si </expresión> <grupo similar="cO" similitud = "0.7685892367350193" /> </grupo> <nombre de grupo = "c5"> <expresión> muy bien ocho cero cero dos uno siete cero cinco dos nueve </expresión> <expresión> si es ocho cero cero cero ocho dos cuatro nueve cinco ocho </expresión> </grupo> <nombre de grupo = "c6"> <expresión> así es </expresión> <expresión> eh </expresión> </grupo> <nombre de grupo = "c7"> <expresión> si me gustaría revisar mi balance de cuenta por favor </expresión> </grupo> <nombre de grupo = "c8"> <expresión> me gustaría </expresión> </grupo> <nombre de grupo = "c9"> <expresión> gracias </expresión> </grupo> <nombre de grupo = "c10"> <expresión> hola me gustaría revisar un balance de cuenta mi seguro es tres siete siete cinco seis uno cuatro uno tres </expresión> </grupo> <nombre de grupo = "c11"> <expresión> y el valor de participación participación número de participación </expresión> </grupo> <nombre de grupo = "c12"> <expresión> adiós ahora </expresión> </grupo> <nombre de grupo = "c13"> <expresión> hola me gustaría revisar un balance de cuenta mi cuenta es ochocientos siete diecinueve ochenta dos cincuenta cinco </expresión> </grupo> <nombre de grupo = "c14"> <expresión> y cuánto fue eso </expresión> </grupo> <nombre de grupo = "c15"> <expresión> eso sería </expresión> </grupo> <nombre de grupo = "c16"> <variables> <nombre de variable = tipo de "fondo" = "Fondo"/> <nombre de variable = tipo de "navFecha" = "fecha" predeterminada = "ayer()"/> </variables> <expresión> me gustaría saber el precio de cierre de <variable de caso = "fondo">ingreso de equidad casablanca </caso> en <variable de caso = "navFecha">enero treinta y uno </caso> </expresión> </grupo> <nombre de grupo = "c17"> <expresión> seguro </expresión> </grupo> <nombre de grupo = "c18"> <expresión> gracias esa era la información que necesitaba </expresión> </grupo> <nombre de grupo = "c19"> <expresión> no hoy </expresión> </grupo> <nombre de grupo = "c20"> <expresión> lo haré muchas gracias adiós </expresión> </grupo> <nombre de grupo = "c21"> <expresión> si no tenemos nuestros 1099 de la Casablanca aún encontrados </expresión> </grupo> <nombre de grupo = "c22"> <expresión> está bajo louis renault </expresión> </grupo> <nombre de grupo = "c23"> <expresión> muy bien entonces espere unos cuántos días más antes de que grite de nuevo </expresión> </grupo> <nombre de grupo = "c24"> <expresión> hola me podría dar un cusip para su Casablanca encontrada uno uno cero </expresión> </grupo> <nombre de grupo = "c25"> <expresión> muchas gracias </expresión> </grupo> <nombre de grupo = "c26"> <expresión> hola sólo me gustaría revisar si la selección sigue cerrada </expresión> </grupo> <nombre de grupo = "c27"> <expresión> hola john mi nombre es rick blaine sólo estaba haciendo una transferencia ira de otro fondo y quería sí ya había llegado </expresión> </grupo> <nombre de grupo = "c28"> <expresión> ah si tiene una sección cinco veinte nueve plano
</expresión> </grupo> <nombre de grupo = "c29"> <expresión> no tiene </expresión> </grupo> <nombre de grupo = "c30"> <expresión> si tengo una pregunta el pequeño fondo de cubierta pagó alguna distribución en el dos mil y una de esta es para mis impuestos </expresión> </grupo> <nombre de grupo = "c31"> <expresión> hola estoy interesado en Casablanca un fondo me gustaría un prospecto y tal vez una aplicación </expresión> </grupo> <nombre de grupo = "c32"> <expresión> blaine y el código postal es cuatro ocho seis tres siete </expresión> </grupo> <nombre de grupo = "c33"> <expresión> no solo simple blaine y ese es Casablanca michigan </expresión> </grupo> <nombre de grupo = "c34"> <expresión>cuenta regular </expresión> </grupo> <nombre de grupo = "c35"> <expresión>de kiplinger </expresión> </grupo> <nombre de grupo = "c36"> <expresión> es todo por ahora gracias </expresión> </grupo> <nombre de grupo = "c37"> <expresión> solo quiero encontrar el valor total de mi cuenta </expresión> </grupo> <nombre de grupo = "c38"> <expresión> ocho triple cero ocho dos nueve dos seis cuatro </expresión> </grupo> <nombre de grupo = "c39"> <expresión> victor lazlo </expresión> </grupo> <nombre de grupo = "c40"> <expresión> uno cero ocho tres ocho tres dos nueve dos </expresión> </grupo> <nombre de grupo = "c41"> <expresión> muy bien gracias </expresión> </grupos> </grupos>
Archivo absl 2ucml.ucml
<?versión xml = "1.0" que codifica = "UTF-8"?> <!DOCTIPO ucml SISTEMA "http://dtd.unveil.com/dtd/ucml.dtd">
<nombre de ucml = versión de "texto" = "1.1 "> <nombre de red = "principal" inicial = "verdadero" mre_campo = umbral de "entrada" = "0.75"> <nombre de Transición inicial = "inicial" a = "sO"> <salida> Gracias por llamar a Fondo Casablanca. Habla Natalie, su representante de servicio al cliente automático. ¿En qué puede ayudarle hoy? </salida> </Transición inicial> <contextos> <nombre de contexto = "sO" final = "falso" ir con el Agente = "falso"> <transiciones> <nombre de transiciones = "tO" a = "s1"> >grupo de entrada = "c7"> si me gustaría revisar mi balance de cuenta por favor </entrada> <salida> tiene su número de cuenta señor </salida> </transición> <nombre de transición = "t1" a = "s8"> <grupo de entrada = "c10"> hola me gustaría revisar un balance de cuenta mi seguro es tres siete siete cinco dos uno cuatro uno tres </entrada> <salida> gracias y podría verificar su nombre y dirección postal
</salida> </transición> <nombre de transición = "t2" a = "s15"> <grupo de entrada = "c13"> hola me gustaría revisar un balance de cuenta mi cuenta es ochocientos siete diecisiete ochenta nueve cincuenta cinco </entrada> <salida> por favor verifique su nombre y número de seguro social para mi </salida> </transición> <nombre de transición = "t3" a = "s23"> <grupo de entrada = "c16"> me gustaría saber el precio de cierre del ingreso de equidad de Casablanca el treinta y uno de enero </entrada> <salida> muy bien un momento señor </salida> </transición> <nombre de transición = "t4" a = "s29"> <grupo de entrada = "c21 "> si no tenemos nuestros 1099 en el fondo Casablanca aún </entrada> <salida> muy bien me podría dar su número de cuenta </salida> </transición> <nombre de transición = "t5" a = "s36"> <grupo de entrada = "c24"> hola me podría dar un cusip para su fondo Casablanca uno uno cero </entrada> <salida> claro el cusip es cuatro uno tres ocho tres ocho uno cero tres </salida> </transición> <nombre de transición = "t6" a = "s33"> <grupo de entrada = "c26"> hola sólo me gustaría revisar se la selección todavía está cerrada </entrada> <salida> si señor así es </salida> </transición> <nombre de transición = "t7" a = "s42"> <grupo de entrada = "c27"> hola john mi nombre es rick blaine estaba haciendo una transferencia ira de otro fondo y quisiera ver si ya llegó </entrada> <salida> muy bien un momento por favor y cuál es su número de seguro social señor </salida> </transición> <nombre de transición = "t8" a = "s48"> <grupo de entrada = "c28"> ah sí tiene una sección cinco veinte nueve plan </entrada> <salida> no </salida> </transición> <nombre de transición = "t9" a = "s33"> <grupo de entrada = "c30"> si tengo una pregunta el fondo pequeño de cubierta pagó alguna distribución en el dos mil y una es por mis impuestos </entrada> <salida> no señor </salida> </transición> <nombre de transición = "t10" a = "s56"> <grupo de entrada = "c31 "> hola estoy interesado es un fondo Casablanca me gustaría un prospecto y tal vez una aplicación </entrada> <salida> podría darme su apellido por favor </salida> </transición> <nombre de transición = "t11" a = "s64"> <grupo de entrada = "c37"> sólo quiero encontrar el valor total de mi cuenta </entrada> <salida> cuál es su número de cuenta por favor </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s1 " final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t12" a = "s2"> <grupo de entrada = "c5" tamaño = "2"> si es ocho cero cero cero ocho dos cuatro nueve cinco ocho </entrada> <salida> y podría por favor verificar el nombre y número de seguro social señor</salida> </transición> </transiciones> </contexto> <nombre de contexto = "s2" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t13" a = "s3"> <grupo de entrada = "c2" tamaño = "6"> si rick blaine cero siete cuatro dos ocho cinco ocho tres seis </entrada> <salida> gracias señor un momento </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s3" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t14" a = "s4"> <grupo de entrada = "c4" tamaño = "3"> si </entrada> <sa I id a> muy bien como el cierre de anoche el balance en su fondo de equidad e ingreso tradicional ira cuarenta doscientos seiscientos cuarenta y un dólares y treinta y dos centavos </salida>
</transición> </transiciones> </contexto> <nombre de contexto = "s4" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t15" a = "s5"> <grupo de entrada = "cO" tamaño = "6"> muy bien muchas gracias
</entrada> <salida> de nada hay algo más que necesite </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s5" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t16" a = "s6"> <grupo de entrada = "c8"> eso es </entrada> <salida> llame de nuevo cuando lo necesite </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s6" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t17" a = "s7"> <grupo de entrada = "c9"> gracias </entrada> <salida> de nada hasta luego </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s7" final = "verdadero" ir con Agente = "falso"> <transiciones/> </contexto> <nombre de contexto = "s8" final = "falso" ir con Agente = "falso"> <transiciones> <nombre de transición = "t18" a = "s9"> <grupo de entrada = "c2" tamaño = "6"> seguro isa lund uno seis cuatro nueve Casablanca way berkley California nueve cuatro siete cero tres </entrada> <salida> gracias </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s9" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t19" a = "s10"> <grupo de entrada = "c4" tamaño = "3"> eh </entrada> <salida> muy bien como el cierre de anoche el valor de su cuenta fue quince mil doscientos sesenta y siete dólares y treinta y ocho centavos </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s10" final = "falso" ir con Agente = "falso">
</transiciones> <nombre de transición = "t20" a = "s11"> <grupo de entrada = "c11 "> y el valor de participación participación número de participación </entrada> <salida> el número de participaciones fue quinientos cincuenta y uno punto tres seis ocho </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s11 " final = "falso" ir con Agente = "falso">
</transiciones> <nombre de transición = "t21 " a = "s12"> <grupo de entrada = "cO" tamaño = "6"> bien eh eso es todo gracias </entrada> <salida> muy bien de nada </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s12" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t22" a = "s13"> <grupo de entrada = "d 2"> adiós ahora </entrada> <salida> llame de nuevo cuando quiera </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s13" final = "falso" ir con Agente = "falso">
</transiciones> <nombre de transición = "t23" a = "s7"> <grupo de entrada = "c6" tamaño = "2"> eh </entrada> <salida> hasta luego </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s15" final = "fals?" ir con Agente = "falso">
</transiciones> <nombre de transición = "t24" a = "s16"> <grupo de entrada = "c2" tamaño = "6"> si es louis renault en cinco o uno cinco cinco cero cero seis seis </entrada> <salida> gracias </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s16" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t25" a = "s17"> <grupo de entrada = "c4" tamaño = "3"> eh </entrada> <salida> estoy mostrando esta cuenta tiene balance cero señor </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s17" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t26" a = "s18"> <grupo de entrada = "c4" tamaño"3"> bien </entrada> <salida> hubo una transferencia de valores que ocurrió ayer </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s18" final = "falso" ir con Agente = "falso">
<transiciones> <nombre de transición = "t27" a = "s19"> <grupo de entrada = "c14"> y cuánto fue eso </entrada> <salida> la cantidad de dólar real en la revisión quince mil ciento veinticuatro dólares </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s19" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t28" a = "s20"> <grupo de entrada = "cO" tamaño = "6"> muy bien gracias
</entrada> <salida> algo más </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s20" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t29" a = "s6"> <grupo de entrada = "d 5"> eso es </entrada> <salida> si necesita algo en el futuro por favor llame de nuevo señor </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s23" final = "falso" ir con Agente = "falso">
</transiciones> <nombre de transición = "t30" a = "s24"> <grupo de entrada = "d 7"> seguro </entrada> <salida> muy bien el treinta y uno de enero del dos mil el precio de cierre de equidad e ingreso fue dieciocho cincuenta </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s24" final = "falso" ir con Agente = "falso">
</transiciones> <nombre de transición = "t31 " a = "s25"> <grupo de entrada = "c3" tamaño = "5"> dieciocho cincuenta </entrada> <salida> si señor </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s25" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t32" a = "s26"> <grupo de entrada = "d 8"> gracias es la información que necesito </entrada> <salida> muy bien señor algo más que necesite hoy </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s26" final = "falso" ir con Agente = "falso">
</transiciones> <nombre de transición = "t33" a = "s27"> <grupo de entrada = "d 9"> no hoy </entrada> <salida> muy bien señor por favor llame de nuevo sí podemos ayudarle con cualquier cosa en el futuro </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s27" final = "falso" ir con Agente = "falso">
</transiciones> <nombre de transición = "t34" a = "s7"> <grupo de entrada = "c20"> lo haré muchas gracias hasta luego
</entrada> <salida> hasta luego </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s29" final = "falso" ir con Agente = "falso">
</transiciones> <nombre de transición = "t35" a = "s30"> <grupo de entrada = "c5" tamaño = "2"> muy bien ocho cero cero dos uno siete cero seis tres nueve </entrada> <salida> y su nombre por favor </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s30" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t36" a = "s31"> <grupo de entrada = "c22"> está bajo victor lazlo </entrada> <salida> si quiere verificar el número de seguro social en la cuenta </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s31 " final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t37" a = "s32"> <grupo de entrada = "c3" tamaño = "5"> dos cinco cero seis seis ocho seis cero cuatro </entrada> <salida> muy bien recibirá en 1099 en esta cuenta la última salió al inicio de la última semana y debe recibirlo dentro del siguiente día o dos y si no siempre podemos volverle a emitir otra </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s32" final = "falso" ir con Agente = "falso">
</transiciones> <nombre de transición = "t38" a = "s33"> <grupo de entrada = "c23"> muy bien espere unos cuantos días más antes de gritar de nuevo </entrada> <salida> definitivamente podríamos volverle a emitir otra </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s33" final = "falso" ir con Agente = "falso">
</transiciones> <nombre de transición = "t39" a = "s34"> <grupo de entrada = "cO" tamaño = "6"> muy bien muchas gracias </entrada> <salida> de nada </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s34" final = "falso" ir con Agente = "falso">
</transiciones> <nombre de transición = "t40" a = "s7"> <grupo de entrada = "c1" tamaño = "6"> adiós </entrada> <salida> y tenga un buen día </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s36" final = "falso" ir con Agente = "falso">
</transiciones> <nombre de transición = "t41" a = "s37"> <grupo de entrada = "c3" tamaño = "5"> cuatro uno tres ocho tres ocho cuatro cero tres </entrada> <salida> correcto </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s37" final = "falso" ir con Agente = "falso">
</transíciones> <nombre de transición = "t42" a = "s7"> <grupo de entrada = "c25"> grandioso muchas gracias </entrada>
<salida> de nada hasta luego </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s42" final = "falso" ir con Agente = "falso">
</transiciones> <nombre de transición = "t43" a = "s43"> <grupo de entrada = "c3" tamaño = "5"> tres uno seis dos ocho seis cinco uno cuatro </entrada> <salida> y su nombre por favor </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s43" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t44" a = "s44"> <grupo de entrada = "c2" tamaño = "6"> rick blaine </entrada> <salida> y su número telefónico actual por favor primero código de área </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s44" final = "falso" ir con Agente = "falso">
</transiciones> <nombre de transición = "t45" a = "s33"> <grupo de entrada = "c3" tamaño = "5"> ocho dos ocho cuatro siete ocho dos cero ocho cero </entrada> <salida> veamos ni la cantidad ni el dinero se recibieron aún </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s48" final = "falso" ir con Agente = "falso">
</transiciones> <nombre de transición = "t46" a = "s49"> <grupo de entrada = "c29"> no </entrada> <salida> desafortunadamente no </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s49" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t47" a = "s50"> <grupo de entrada = "cO" tamaño = "6"> muy bien muchas gracias </entrada> <salida> de nada </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s50" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t48" a = "s34"> <grupo de entrada = "d" tamaño = "6"> eh adiós </entrada> <salida> si tiene cualquier otra pregunta por favor no dude en llamarnos </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s56" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t49" a = "s57"> <grupo de entrada = "c2" tamaño = "6"> blaine </entrada> <salida> por favor me proporciona su apellido y código postal </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s57" final = "falso" ir con Agente = "falso">
</transiciones> <nombre de transición = "t50" a = "s58"> <grupo de entrada = "c32"> blaine y el código postal es cuatro ocho dos dos siete </entrada> <salida> por favor me proporciona su dirección </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s58" final = "falso" ir con Agente = "falso">
</transiciones> <nombre de transición = "t51 " a = "s59"> <grupo de entrada = "c2" tamaño = "6"> dos cuatro cuatro uno
Casablanca es decir casablanca </entrada> <salida> unidad </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s59" final = "falso" ir con Agente = "falso">
</transiciones> <nombre de transición = "t52" a = "s60"> <grupo de entrada = "c33"> no sólo simple blaine y eso es vichy michigan </entrada> <salida> esto es por ira una cuenta regular o ambas </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s60" final = "falso" ir con Agente = "falso">
</transiciones> <nombre de transición = "t53" a = "s61"> <grupo de entrada = "c34"> cuenta regular </entrada> <salida> cómo escuchó sobre Casablanca señor </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s61" final = "falso" ir con Agente = "falso">
</transiciones> <nombre de transición = "t54" a = "s62"> <grupo de entrada = "c35"> de kiplinger </entrada> <salida> muy bien debe recibir la información en el correo electrónico dentro de los siguientes cinco a siete días hábiles hay algo más en lo que pueda ayudarle </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s62" final = "falso" ir con Agente = "falso">
</transiciones> <nombre de transición = "t55" a = "s7"> <grupo de entrada = "c36"> es todo por ahora gracias </entrada>
<salida> de nada señor que tenga un buen día </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s64" final = "falso" ir con Agente = "falso">
</transiciones> <nombre de transición = "t56" a = "s65"> <grupo de entrada = "c38"> ocho triple cero ocho dos nueve seis ocho cuatro </entrada> <salida> su nombre </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s65" final = "falso" ir con Agente = "falso">
</transiciones> <nombre de transición = "t57" a = "s66"> <grupo de entrada = "c39"> rick blaine </entrada> <salida> su número de seguro social </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s66" final = "falso" ir con Agente = "falso">
</transiciones> <nombre de transición = "t58" a = "s67"> <grupo de entrada = "c40"> uno cero ocho tres ocho tres tres cinco dos </entrada> <salida> el balance en su cuenta como el cierre de anoche fue dos mil ochocientos setenta y seis dólares y ochenta y un centavos </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s67" final = "falso" ir con Agente = "falso"> </transiciones> <nombre de transición = "t59" a = "s68"> <grupo de entrada = "c41 "> muy bien gracias </entrada> <salida> algo más </salida> </transición> </transiciones> </contexto> <nombre de contexto = "s68" final = "falso" ir con Agente = "falso">
</transic¡ones> <nombre de transición = "t60" a = "s34"> <grupo de entrada = "c6" tamaño = "2"> es todo </entrada> <salida> llame de nuevo si tiene otras preguntas </salida> </transición> </transiciones> </contexto> </contextos> </red> </ucml>
Claims (83)
1.- Un método que comprende: recibir un grupo de conversaciones entre un miembro de un tipo de primera parte y un miembro de un tipo de segunda parte, en donde cada una de las conversaciones incluye una comunicación de un miembro del tipo de primera parte y una comunicación de un miembro del tipo de segunda parte que responde a la comunicación del miembro del tipo de primera parte; agrupar las comunicaciones de miembros del tipo de primera parte en un primer grupo de grupos; agrupar las comunicaciones de respuesta de miembros del tipo de segunda parte en un segundo grupo de grupos basado en el agrupamiento de las comunicaciones de miembros del tipo de primera parte; y a través de la máquina, generar un grupo de clasificadores de tipo de segunda parte para uno o más grupos en el segundo grupo de grupos.
2.- El método de acuerdo con la reivindicación 1, en donde las comunicaciones comprenden expresiones.
3.- El método de acuerdo con la reivindicación 1, en donde las comunicaciones comprenden mensajes de texto.
4.- El método de acuerdo con la reivindicación 1, en donde las comunicaciones de miembros del tipo de primera parte comprenden comunicaciones de agentes de servicio de cliente humano en un centro de llamado.
5.- El método de acuerdo con la reivindicación 1, en donde las comunicaciones de miembros del tipo de primera parte comprenden comunicaciones de agentes de software configurados para comunicarse con humanos que contactan un centro de llamado.
6.- El método de acuerdo con la reivindicación 1, en donde las comunicaciones de miembros de la segunda parte comprenden comunicaciones de humanos que contactaron un centro de llamado.
7.- El método de acuerdo con la reivindicación 1, en donde los clasificadores comprenden máquinas de vector de soporte.
8.- El método de acuerdo con la reivindicación 1, en donde los clasificadores comprenden árboles de decisión.
9.- El método de acuerdo con la reivindicación 1, en donde las comunicaciones de miembros de un tipo de primera parte se agrupan en un primer grupo de grupos utilizando una computadora.
10.- El método de acuerdo con la reivindicación 9, en donde el agrupar las comunicaciones de miembros de un tipo de primera parte en un primer grupo de grupos comprende determinar características semánticas de las comunicaciones.
11.- El método de acuerdo con la reivindicación 1, en donde el agrupar las comunicaciones de miembros del tipo de primera parte en un primer grupo de grupos está basado en un significado de las comunicaciones de miembros del tipo de primera parte.
12.- El método de acuerdo con la reivindicación 1, que además comprende: a través de la máquina, generar un grupo de clasificadores de tipo de primera parte para uno o más de los grupos en el primer grupo de grupos.
13.- El método de acuerdo con la reivindicación 1, en donde el agrupar comunicaciones de miembros del tipo de primera parte en un primer grupo comprende: agrupar comunicaciones que corresponden a solicitudes de información de miembros del tipo de primera parte en un primer grupo de grupos.
14.- El método de acuerdo con la reivindicación 13, en donde el agrupar comunicaciones en respuesta de miembros del tipo de segunda parte en un segundo grupo de grupos está basado en el agrupamiento de las comunicaciones de miembros del tipo de primera parte comprende: agrupar comunicaciones de miembros del tipo de segunda parte en grupos que corresponden a respuestas a las solicitudes de información de miembros del primer tipo de parte.
15.- El método de acuerdo con la reivindicación 13, en donde el agrupar comunicaciones de respuesta de miembros del tipo de segunda parte en un segundo grupo de grupos basándose en el agrupamiento de las comunicaciones de miembros del tipo de primera parte comprende: utilizar los clasificadores de tipo de primera parte para clasificar una comunicación de un miembro del tipo de primera parte en un grupo del tipo de primera parte; agrupar una comunicación de un miembro del tipo de segunda parte que es subsecuente a la comunicación clasificada del miembro del tipo de primera parte en un grupo del tipo de segunda parte al grupo del tipo de primera parte.
16.- El método de acuerdo con la reivindicación 15, en donde el grupo del tipo de primera parte se refiere a una solicitud de información hecha por un miembro del tipo de primera parte y el grupo del tipo de segunda parte se refiere a una respuesta a la solicitud de información dada por un miembro del tipo de segunda parte.
17.- El método de acuerdo con la reivindicación 1, que además comprende: recibir un segundo grupo de conversaciones entre miembros del tipo de primera parte y miembros del tipo de segunda parte, en donde cada una de las conversaciones incluye una comunicación de un miembro del tipo de primera parte y una comunicación de un miembro del tipo de segunda parte que responde a la comunicación del miembro del tipo de primera parte; aplicar clasificadores para agrupar comunicaciones de miembros del tipo de segunda parte; a través de la máquina, regenerar clasificadores de un tipo de segunda parte para un grupo en el segundo grupo de grupos utilizando datos que se relacionan a las comunicaciones agrupadas en el grupo.
18.- Un método que comprende: a través de la máquina, aplicar un grupo de clasificadores para clasificar comunicaciones que inician que son parte de conversaciones que también incluyen comunicaciones en respuesta; y a través de la máquina, utilizar la comunicación de inicio clasificada para identificar patrones de comunicación comunes.
19.- El método de acuerdo con la reivindicación 18, que además comprende: agrupar conversaciones en un grupo de conversaciones.
20.- El método de acuerdo con la reivindicación 19, que además comprende: asociar un patrón de comunicación común identificado con un grupo de conversaciones.
21.- El método de acuerdo con la reivindicación 20, en donde las conversaciones se agrupan por el asunto sujeto de la conversación.
22.- El método de acuerdo con la reivindicación 18, en donde las comunicaciones comprenden expresiones.
23.- El método de acuerdo con la reivindicación 22, en donde las conversaciones incluyen comunicaciones de agentes asociados con un centro de llamado de servicio al cliente y comunicaciones de clientes que contactaron el centro de llamado.
24.- El método de acuerdo con la reivindicación 23, en donde los agentes son agentes humanos.
25.- El método de acuerdo con la reivindicación 23, que además comprende: agrupar la conversación en el grupo de conversaciones de acuerdo con una razón para el contacto de cliente con el centro de llamado.
26.- Un método que comprende: a través de la máquina, aplicar clasificadores para identificar un grupo de comunicaciones clasificadas hechas por un miembro de un tipo de primera parte en una conversación que también incluye comunicaciones en respuesta hechas por un miembro de un tipo de segunda parte; y a través de la máquina, determinar un asunto sujeto de cada una de las conversaciones basadas en las comunicaciones clasificadas de grupo del miembro del tipo de primera parte en una conversación.
27.- El método de acuerdo con la reivindicación 26, en donde los clasificadores clasifican las comunicaciones de acuerdo con una representación de los conceptos modalizados en la comunicación.
28.- El método de acuerdo con la reivindicación 27, en donde el determinar un asunto sujeto de la conversación basada en la combinación de comunicaciones clasificadas del miembro del tipo de primera parte comprende: acoplar el grupo de comunicaciones clasificadas con un grupo de comunicaciones clasificadas asociadas con una conversación que tiene un asunto sujeto conocido.
29.- El método de acuerdo con la reivindicación 26, en donde el determinar el asunto sujeto de la conversación basándose en el grupo de comunicaciones clasificadas se hace independiente de cualquier orden particular de las comunicaciones clasificadas en el grupo.
30.- El método de acuerdo con la reivindicación 26, en donde las comunicaciones comprenden expresiones.
31.- El método de acuerdo con la reivindicación 26, en donde las comunicaciones de miembros del tipo de primera parte comprenden comunicaciones de agentes de servicio de cliente en un centro de llamado.
32.- El método de acuerdo con la reivindicación 26, en donde la secuencia de comunicaciones clasificadas comprende una secuencia de solicitudes hechas por el agente de servicio de cliente.
33.- El método de acuerdo con la reivindicación 31, en donde los agentes de servicio de cliente comprenden seres humanos.
34.- El método de acuerdo con la reivindicación 31, en donde los agentes de servicio de cliente comprenden software configurado para comunicarse con personas que llaman humanas.
35.- El método de acuerdo con la reivindicación 26, en donde el grupo de clasificadores comprende una máquina de vector de soporte.
36.- Un método implementado por computadora que comprende: recibir representaciones digitales de conversaciones al menos de alguna de las cuales comprende una serie de comunicaciones entre una persona y un agente asociado con un centro de contacto; y seleccionar una comunicación como una oportunidad de aprendizaje si se satisfacen uno o más criterios de selección.
37.- El método de acuerdo con la reivindicación 36, en donde las comunicaciones comprenden expresiones.
38.- El método de acuerdo con la reivindicación 36, en donde las comunicaciones comprenden mensajes de texto.
39.- El método de acuerdo con la reivindicación 36, en donde el agente asociado con el centro de contacto comprende un agente de software configurado para comunicarse con las personas.
40.- El método de acuerdo con la reivindicación 36, en donde los agentes asociados con el centro de contacto comprenden un agente humano que se comunica con las personas.
41.- El método de acuerdo con la reivindicación 36, en donde los criterios de selección comprenden: un requerimiento que una comunicación se siga por intercambios de comunicación entre la persona y uno o más agentes.
42.- El método de acuerdo con la reivindicación 36, en donde los criterios de selección comprenden: un requerimiento que una comunicación se siga por un número predefinido de intercambios de comunicación subsecuente exitosos entre la persona y uno o más agentes.
43.- El método de acuerdo con la reivindicación 36, en donde los criterios de selección comprenden: un requerimiento que una comunicación se incluya dentro de una conversación en la cual la persona respondió positivamente a una pregunta de satisfacción formulada por el sistema.
44.- El método de acuerdo con la reivindicación 36, en donde los criterios de selección comprenden: un requerimiento que una comunicación en una primera conversación se confirme por comunicaciones similares que ocurren en un número de otras conversaciones.
45.- El método de acuerdo con la reivindicación 44, en donde los criterios de selección comprenden: un requerimiento que al menos una de las conversaciones en la cual toma lugar comunicaciones similares incluye una indicación que una persona respondió positivamente a una pregunta de satisfacción formulada por el sistema.
46.- El método de acuerdo con la reivindicación 36, en donde al menos algunas de las comunicaciones entre las personas y agentes incluyen interacciones de ayuda en las cuales un agente humano seleccionó una respuesta a una comunicación de persona de una lista clasificada de respuestas propuestas generadas por el sistema de respuesta automático.
47.- El método de acuerdo con la reivindicación 46, en donde los criterios de selección comprenden: un requerimiento que una respuesta seleccionada en una interacción de ayuda se clasifica sobre un umbral.
48.- El método de acuerdo con la reivindicación 46, en donde los criterios de selección comprenden: un requerimiento que una respuesta seleccionada en una interacción de ayuda se seleccione de un agente humano confiable.
49.- El método de acuerdo con la reivindicación 48, en donde un agente humano confiable es una gente que se empleó en el centro de contacto durante más de una duración predeterminada de tiempo.
50.- El método de acuerdo con la reivindicación 36, en donde los criterios de selección comprenden: un requerimiento que una comunicación no causa un grupo de construcción de clasificadores utilizando la comunicación para clasificar mal las comunicaciones que un grupo previo de clasificadores clasificó correctamente.
51.- El método de acuerdo con la reivindicación 36, que además comprende: recibir uno o más de los criterios de selección de un usuario.
52.- El método de acuerdo con la reivindicación 51, que además comprende: proporcionar una interfase de usuario gráfica a través de la cual se pueden ingresar los criterios de selección.
53.- El método de acuerdo con la reivindicación 36, que además comprende: utilizar una comunicación seleccionada para generar un clasificador.
54.- El método de acuerdo con la reivindicación 53, en donde el clasificador comprende una máquina de vector de soporte.
55.- El método de acuerdo con la reivindicación 36, que además comprende: utilizar una comunicación seleccionada para generar un modelo de lenguaje para un motor de reconocimiento de diálogo automático.
56.- El método de acuerdo con la reivindicación 36, que además comprende: utilizar una comunicación seleccionada para producir una red de estado finito.
57.- El método de acuerdo con la reivindicación 37, que además comprende: realizar reconocimiento de diálogo en una expresión seleccionada como una oportunidad de aprendizaje.
58.- El método de acuerdo con la reivindicación 57, que además comprende: antes de realizar el reconocimiento de diálogo, determinar si.se realiza reconocimiento de diálogo en la expresión seleccionada basada en un nivel de confianza del significado de la expresión asociada con la representación digital de la comunicación.
59.- Un método implementado por computadora que comprende: recibir una representación digital de una conversación que incluye una serie de expresiones entre una persona que llama y un agente asociado con un centro de contacto; y después de recibir representación digital, seleccionar la expresión para transcripción basándose en uno o más criterios de selección.
60.- El método de acuerdo con la reivindicación 59, en donde los criterios de selección comprenden: u? requerimiento que un nivel de confianza de una respuesta por el sistema de respuesta de voz automático está dentro de una escala de valores.
61.- El método de acuerdo con la reivindicación 60 que además comprende: recibir la escala de valores de un usuario a través de una interfase de usuario gráfica.
62.- El método de acuerdo con la reivindicación 59, en donde los criterios de selección comprenden: un requerimiento que un nivel de confianza de procedimiento de reconocimiento de diálogo realizado en la expresión durante la conversación está dentro de la escala de valores.
63.- El método de acuerdo con la reivindicación 62, que además comprende: recibir la escala de valores de un usuario a través de una interfase de usuario gráfica.
64.- El método de acuerdo con la reivindicación 59, que además comprende: realizar un procedimiento de reconocimiento de diálogo implementado por computadora en la expresión seleccionada.
65.- El método de acuerdo con la reivindicación 59, que además comprende: agregar palabras reconocidas en la expresión seleccionada a un vocabulario de palabras utilizadas por un procedimiento de reconocimiento de diálogo utilizado por el sistema para reconocer expresiones durante conversaciones.
66.- Un método que comprende: basándose en una interacción entre una persona y un agente humano asociado con un sistema de respuesta automático en el cual el agente seleccionó una respuesta para una comunicación de una persona de entre respuestas propuestas por el sistema de respuesta automático; y seleccionar la comunicación como un ejemplo para entrenar el sistema de respuesta automático.
67.- El método de acuerdo con la reivindicación 66, en donde el seleccionar la comunicación comprende: seleccionar la comunicación basándose en un nivel de confianza de la respuesta seleccionada.
68.- El método de acuerdo con la reivindicación 66, que además comprende: utilizar la comunicación seleccionada para entrenar un clasificador.
69.- El método de acuerdo con la reivindicación 66 que además comprende: agregar la comunicación seleccionara a un modelo de lenguaje de un procedimiento de reconocimiento de diálogo automático de modelo de lenguaje estadístico.
70.- El método de acuerdo con la reivindicación 66, en donde el seleccionar la comunicación comprende: seleccionar la comunicación basándose en un nivel de confianza de un agente humano que seleccionó la respuesta.
71.- El método de acuerdo con la reivindicación 66, en donde la comunicación comprende una expresión.
72.- Un método que comprende: a través de la máquina, identificar una comunicación entre una persona que contacta un sistema de respuesta y un agente humano; y modificar el sistema de respuesta automática para responder a comunicaciones futuras similares de personas que contactan el sistema.
73.- El sistema de acuerdo con la reivindicación 72, en donde el modificar el sistema de respuesta automática para responder a comunicaciones futuras similares de personas que contactan el sistema comprende: modificar una red de transición de estado finito asociado con el sistema.
74.- Un método implementado por computadora que comprende: agregar una comunicación a un grupo de ejemplos de entrenamiento para un clasificador en un motor de reconocimiento de concepto; generar un nuevo clasificador que utiliza el grupo de ejemplos de entrenamiento que incluye la comunicación agregada; y no considerar el nuevo clasificador basándose en un requerimiento de desempeño para un nuevo clasificador.
75.- El método de acuerdo con la reivindicación 74, en donde el requerimiento de desempeño comprende: un requerimiento que un nuevo clasificador clasifique correctamente al menos un número predeterminado de otros ejemplos.
76.- El método de acuerdo con la reivindicación 74, en donde el requerimiento de desempeño comprende: un requerimiento que un nuevo clasificador tenga un nuevo grupo definitivo de ejemplos que es diferente del grupo definitivo de ejemplos del clasificador previo por una cantidad predeterminada.
77.- El método que comprende: generar un grupo de clasificadores para al menos un grupo de comunicaciones en respuesta, el grupo se basa en uno o más grupos de comunicaciones que inician con las cuales las comunicaciones en respuesta están asociadas dentro de conversaciones.
78.- El método de acuerdo con la reivindicación 77, en donde las conversaciones que inician son de un miembro de un tipo de primera parte.
79.- El método de acuerdo con la reivindicación 77, en donde las comunicaciones en respuesta son de un miembro de un tipo de segunda parte.
80.- El método de acuerdo con la reivindicación 78, en donde el tipo de primera parte comprende agentes asociados con un centro de contacto de cliente.
81.- El método de acuerdo con la reivindicación 79, en donde el tipo de segunda parte comprende clientes que contactaron un centro de contacto de cliente.
82.- El método de acuerdo con la reivindicación 77, que además comprende recibir un grupo de conversaciones al menos en algunos de los cuales incluyen una comunicación de inicio y comunicaciones en respuesta asociadas.
83.- El método de acuerdo con la reivindicación 77, en donde el grupo de comunicación en respuesta comprende comunicaciones en respuesta asociadas con una comunicación que inicia.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US10/939,288 US7606714B2 (en) | 2003-02-11 | 2004-09-10 | Natural language classification within an automated response system |
PCT/US2005/032039 WO2006031609A2 (en) | 2004-09-10 | 2005-09-07 | Machine learning |
Publications (1)
Publication Number | Publication Date |
---|---|
MX2007002880A true MX2007002880A (es) | 2007-04-23 |
Family
ID=36060554
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
MX2007002880A MX2007002880A (es) | 2004-09-10 | 2005-09-07 | Maquina de aprendizaje. |
Country Status (11)
Country | Link |
---|---|
US (2) | US7606714B2 (es) |
EP (1) | EP1787458A4 (es) |
JP (1) | JP4901738B2 (es) |
KR (1) | KR101169113B1 (es) |
CN (1) | CN101010934B (es) |
AU (1) | AU2005285108B2 (es) |
BR (1) | BRPI0515169A (es) |
CA (2) | CA2826116C (es) |
MX (1) | MX2007002880A (es) |
RU (1) | RU2391791C2 (es) |
WO (1) | WO2006031609A2 (es) |
Families Citing this family (628)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
US7623648B1 (en) * | 2004-12-01 | 2009-11-24 | Tellme Networks, Inc. | Method and system of generating reference variations for directory assistance data |
US7606714B2 (en) * | 2003-02-11 | 2009-10-20 | Microsoft Corporation | Natural language classification within an automated response system |
US8223944B2 (en) * | 2003-05-05 | 2012-07-17 | Interactions Corporation | Conference call management system |
US9710819B2 (en) * | 2003-05-05 | 2017-07-18 | Interactions Llc | Real-time transcription system utilizing divided audio chunks |
US7606718B2 (en) * | 2003-05-05 | 2009-10-20 | Interactions, Llc | Apparatus and method for processing service interactions |
US7503070B1 (en) * | 2003-09-19 | 2009-03-10 | Marshall Van Alstyne | Methods and systems for enabling analysis of communication content while preserving confidentiality |
US8010357B2 (en) * | 2004-03-02 | 2011-08-30 | At&T Intellectual Property Ii, L.P. | Combining active and semi-supervised learning for spoken language understanding |
US20050278189A1 (en) * | 2004-05-27 | 2005-12-15 | Isense Technology, Inc. | Process & methods for content adaptive learning |
US8949134B2 (en) * | 2004-09-13 | 2015-02-03 | Avaya Inc. | Method and apparatus for recording/replaying application execution with recorded voice recognition utterances |
US7457751B2 (en) * | 2004-11-30 | 2008-11-25 | Vocera Communications, Inc. | System and method for improving recognition accuracy in speech recognition applications |
US8498865B1 (en) * | 2004-11-30 | 2013-07-30 | Vocera Communications, Inc. | Speech recognition system and method using group call statistics |
US8185399B2 (en) | 2005-01-05 | 2012-05-22 | At&T Intellectual Property Ii, L.P. | System and method of providing an automated data-collection in spoken dialog systems |
US20060149553A1 (en) * | 2005-01-05 | 2006-07-06 | At&T Corp. | System and method for using a library to interactively design natural language spoken dialog systems |
US8478589B2 (en) | 2005-01-05 | 2013-07-02 | At&T Intellectual Property Ii, L.P. | Library of existing spoken dialog data for use in generating new natural language spoken dialog systems |
EP1851755A4 (en) * | 2005-02-15 | 2010-01-20 | Celf Corp | USER DIALOGUE CONNECTION |
US20060218110A1 (en) * | 2005-03-28 | 2006-09-28 | Simske Steven J | Method for deploying additional classifiers |
US7756878B2 (en) * | 2005-03-31 | 2010-07-13 | At&T Intellectual Property I, L.P. | E-mail response system |
US7720684B2 (en) * | 2005-04-29 | 2010-05-18 | Nuance Communications, Inc. | Method, apparatus, and computer program product for one-step correction of voice interaction |
US7995717B2 (en) * | 2005-05-18 | 2011-08-09 | Mattersight Corporation | Method and system for analyzing separated voice data of a telephonic communication between a customer and a contact center by applying a psychological behavioral model thereto |
US20100324908A1 (en) * | 2005-05-23 | 2010-12-23 | Roy Rosser | Learning Playbot |
US20070016399A1 (en) * | 2005-07-12 | 2007-01-18 | International Business Machines Corporation | Method and apparatus for detecting data anomalies in statistical natural language applications |
US8265260B2 (en) * | 2005-07-28 | 2012-09-11 | At&T Intellectual Property I, L.P. | Methods, systems, and computer program products for providing human-assisted natural language call routing |
US8225231B2 (en) | 2005-08-30 | 2012-07-17 | Microsoft Corporation | Aggregation of PC settings |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US20070115920A1 (en) * | 2005-10-18 | 2007-05-24 | Microsoft Corporation | Dialog authoring and execution framework |
US10332071B2 (en) | 2005-12-08 | 2019-06-25 | International Business Machines Corporation | Solution for adding context to a text exchange modality during interactions with a composite services application |
US11093898B2 (en) | 2005-12-08 | 2021-08-17 | International Business Machines Corporation | Solution for adding context to a text exchange modality during interactions with a composite services application |
US8315874B2 (en) * | 2005-12-30 | 2012-11-20 | Microsoft Corporation | Voice user interface authoring tool |
US8117196B2 (en) * | 2006-01-23 | 2012-02-14 | Chacha Search, Inc. | Search tool providing optional use of human search guides |
US8266130B2 (en) * | 2006-01-23 | 2012-09-11 | Chacha Search, Inc. | Search tool providing optional use of human search guides |
US7962466B2 (en) * | 2006-01-23 | 2011-06-14 | Chacha Search, Inc | Automated tool for human assisted mining and capturing of precise results |
US8065286B2 (en) * | 2006-01-23 | 2011-11-22 | Chacha Search, Inc. | Scalable search system using human searchers |
US20070174258A1 (en) * | 2006-01-23 | 2007-07-26 | Jones Scott A | Targeted mobile device advertisements |
US8229733B2 (en) * | 2006-02-09 | 2012-07-24 | John Harney | Method and apparatus for linguistic independent parsing in a natural language systems |
JP2007219880A (ja) * | 2006-02-17 | 2007-08-30 | Fujitsu Ltd | 評判情報処理プログラム、方法及び装置 |
JP4197344B2 (ja) * | 2006-02-20 | 2008-12-17 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 音声対話システム |
US7599861B2 (en) | 2006-03-02 | 2009-10-06 | Convergys Customer Management Group, Inc. | System and method for closed loop decisionmaking in an automated care system |
US8379830B1 (en) | 2006-05-22 | 2013-02-19 | Convergys Customer Management Delaware Llc | System and method for automated customer service with contingent live interaction |
US7809663B1 (en) | 2006-05-22 | 2010-10-05 | Convergys Cmg Utah, Inc. | System and method for supporting the utilization of machine language |
WO2007149216A2 (en) * | 2006-06-21 | 2007-12-27 | Information Extraction Systems | An apparatus, system and method for developing tools to process natural language text |
US8495147B1 (en) | 2006-07-13 | 2013-07-23 | Avaya Inc. | Threading of mixed media |
US7792967B2 (en) * | 2006-07-14 | 2010-09-07 | Chacha Search, Inc. | Method and system for sharing and accessing resources |
US8280921B2 (en) | 2006-07-18 | 2012-10-02 | Chacha Search, Inc. | Anonymous search system using human searchers |
WO2008011526A2 (en) * | 2006-07-19 | 2008-01-24 | Chacha Search, Inc. | Method, apparatus, and computer readable storage for training human searchers |
WO2008011537A2 (en) * | 2006-07-19 | 2008-01-24 | Chacha Search, Inc. | Method, system, and computer readable medium useful in managing a computer-based system for servicing user initiated tasks |
KR20090046862A (ko) | 2006-07-24 | 2009-05-11 | 차차 써치 인코포레이티드 | 정보 검색 시스템에서 팟캐스팅 및 비디오 훈련에 대한 방법, 시스템 및 컴퓨터 판독가능한 저장부 |
US20080021885A1 (en) * | 2006-07-24 | 2008-01-24 | Chacha Search, Inc. | System for substantially immediate payment for search related tasks |
US20080033744A1 (en) * | 2006-08-07 | 2008-02-07 | Chacha Search, Inc. | Method, system, and computer program product for multi-level marketing |
BRPI0714273A2 (pt) | 2006-08-07 | 2014-10-29 | Chacha Search Inc | "método para prover uma busca de grupo de interesse, mídia de armazenamento que pode ser lida por computador, sistema de busca de informações para prover a busca de informações para prover a busca do grupo de interesse executado por buscadores humanos, mídia de armazenamento que pode ser lida por computador para controlar para controlar um computador que inclui um registro do grupo de interesse, mídia de armazenamento que pode ser lida por computador para controlar um computador que inclui um registro do buscador do grupo de interesse, mídia de armazenamento que pode ser lida por computador para controlar um computador que inclui um registro da autorização do grupo de interesse e interface" |
US8024308B2 (en) * | 2006-08-07 | 2011-09-20 | Chacha Search, Inc | Electronic previous search results log |
EP1895745B1 (de) * | 2006-08-31 | 2015-04-22 | Swisscom AG | Verfahren und Kommunikationssystem zum kontinuierlichen Aufnehmen von Umgebungsdaten |
US7937687B2 (en) * | 2006-09-01 | 2011-05-03 | Verizon Patent And Licensing Inc. | Generating voice extensible markup language (VXML) documents |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8280360B2 (en) | 2006-12-08 | 2012-10-02 | Nuance Communications, Inc. | Software program and method for offering promotions on a phone |
US8363807B2 (en) | 2006-09-28 | 2013-01-29 | Nuance Communications, Inc. | System and method for performing an action on a phone in response to a user initiating an outbound call to one or more select phone numbers |
US7752043B2 (en) | 2006-09-29 | 2010-07-06 | Verint Americas Inc. | Multi-pass speech analytics |
US8027839B2 (en) * | 2006-12-19 | 2011-09-27 | Nuance Communications, Inc. | Using an automated speech application environment to automatically provide text exchange services |
US20080154579A1 (en) * | 2006-12-21 | 2008-06-26 | Krishna Kummamuru | Method of analyzing conversational transcripts |
US8594305B2 (en) * | 2006-12-22 | 2013-11-26 | International Business Machines Corporation | Enhancing contact centers with dialog contracts |
WO2008086345A2 (en) * | 2007-01-08 | 2008-07-17 | Chacha Search, Inc. | Method and system for promotion of a search service |
WO2008087934A1 (ja) * | 2007-01-16 | 2008-07-24 | Nec Corporation | 拡張認識辞書学習装置と音声認識システム |
WO2008093315A2 (en) * | 2007-02-01 | 2008-08-07 | Nice Systems Ltd. | Method and apparatus for call categorization |
US9055150B2 (en) | 2007-02-28 | 2015-06-09 | International Business Machines Corporation | Skills based routing in a standards based contact center using a presence server and expertise specific watchers |
US20080205625A1 (en) * | 2007-02-28 | 2008-08-28 | International Business Machines Corporation | Extending a standardized presence document to include contact center specific elements |
US9247056B2 (en) | 2007-02-28 | 2016-01-26 | International Business Machines Corporation | Identifying contact center agents based upon biometric characteristics of an agent's speech |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US8200663B2 (en) | 2007-04-25 | 2012-06-12 | Chacha Search, Inc. | Method and system for improvement of relevance of search results |
US8811596B2 (en) * | 2007-06-25 | 2014-08-19 | The Boeing Company | Apparatus including associative memory for evaluating audio communications |
US8260619B1 (en) | 2008-08-22 | 2012-09-04 | Convergys Cmg Utah, Inc. | Method and system for creating natural language understanding grammars |
US20090100032A1 (en) * | 2007-10-12 | 2009-04-16 | Chacha Search, Inc. | Method and system for creation of user/guide profile in a human-aided search system |
US7904399B2 (en) * | 2007-11-15 | 2011-03-08 | International Business Machines Corporation | Method and apparatus for determining decision points for streaming conversational data |
US9386154B2 (en) * | 2007-12-21 | 2016-07-05 | Nuance Communications, Inc. | System, method and software program for enabling communications between customer service agents and users of communication devices |
US9092733B2 (en) | 2007-12-28 | 2015-07-28 | Genesys Telecommunications Laboratories, Inc. | Recursive adaptive interaction management system |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US10176827B2 (en) | 2008-01-15 | 2019-01-08 | Verint Americas Inc. | Active lab |
WO2009094633A1 (en) | 2008-01-25 | 2009-07-30 | Chacha Search, Inc. | Method and system for access to restricted resource(s) |
WO2009111631A1 (en) * | 2008-03-05 | 2009-09-11 | Chacha Search, Inc. | Method and system for triggering a search request |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
CA2665009C (en) * | 2008-05-23 | 2018-11-27 | Accenture Global Services Gmbh | System for handling a plurality of streaming voice signals for determination of responsive action thereto |
CA2665055C (en) * | 2008-05-23 | 2018-03-06 | Accenture Global Services Gmbh | Treatment processing of a plurality of streaming voice signals for determination of responsive action thereto |
CA2665014C (en) | 2008-05-23 | 2020-05-26 | Accenture Global Services Gmbh | Recognition processing of a plurality of streaming voice signals for determination of responsive action thereto |
US8489399B2 (en) | 2008-06-23 | 2013-07-16 | John Nicholas and Kristin Gross Trust | System and method for verifying origin of input through spoken language analysis |
US8752141B2 (en) * | 2008-06-27 | 2014-06-10 | John Nicholas | Methods for presenting and determining the efficacy of progressive pictorial and motion-based CAPTCHAs |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US8788476B2 (en) * | 2008-08-15 | 2014-07-22 | Chacha Search, Inc. | Method and system of triggering a search request |
JP5897240B2 (ja) * | 2008-08-20 | 2016-03-30 | 株式会社ユニバーサルエンターテインメント | 顧客対応システム、並びに会話サーバ |
US8374859B2 (en) * | 2008-08-20 | 2013-02-12 | Universal Entertainment Corporation | Automatic answering device, automatic answering system, conversation scenario editing device, conversation server, and automatic answering method |
US8874443B2 (en) * | 2008-08-27 | 2014-10-28 | Robert Bosch Gmbh | System and method for generating natural language phrases from user utterances in dialog systems |
US8285550B2 (en) * | 2008-09-09 | 2012-10-09 | Industrial Technology Research Institute | Method and system for generating dialogue managers with diversified dialogue acts |
US8949124B1 (en) | 2008-09-11 | 2015-02-03 | Next It Corporation | Automated learning for speech-based applications |
US20100087169A1 (en) * | 2008-10-02 | 2010-04-08 | Microsoft Corporation | Threading together messages with multiple common participants |
US8762161B2 (en) * | 2008-10-06 | 2014-06-24 | Nice Systems Ltd. | Method and apparatus for visualization of interaction categorization |
US8411046B2 (en) | 2008-10-23 | 2013-04-02 | Microsoft Corporation | Column organization of content |
US20100107100A1 (en) | 2008-10-23 | 2010-04-29 | Schneekloth Jason S | Mobile Device Style Abstraction |
US8385952B2 (en) | 2008-10-23 | 2013-02-26 | Microsoft Corporation | Mobile communications device user interface |
US20100125450A1 (en) * | 2008-10-27 | 2010-05-20 | Spheris Inc. | Synchronized transcription rules handling |
US8943394B2 (en) | 2008-11-19 | 2015-01-27 | Robert Bosch Gmbh | System and method for interacting with live agents in an automated call center |
CN101414307A (zh) * | 2008-11-26 | 2009-04-22 | 阿里巴巴集团控股有限公司 | 提供图片搜索的方法和服务器 |
JP5412096B2 (ja) * | 2008-12-03 | 2014-02-12 | 株式会社やまびこ | 携帯式チェンソーの動力ユニット構造 |
US10489434B2 (en) * | 2008-12-12 | 2019-11-26 | Verint Americas Inc. | Leveraging concepts with information retrieval techniques and knowledge bases |
US9191476B1 (en) | 2009-01-08 | 2015-11-17 | Amdocs Software Systems Limited | System, method, and computer program for speech recognition assisted call center and self service interface |
US8515762B2 (en) * | 2009-01-22 | 2013-08-20 | Microsoft Corporation | Markup language-based selection and utilization of recognizers for utterance processing |
CN102239517B (zh) * | 2009-01-28 | 2013-05-08 | 三菱电机株式会社 | 声音识别装置 |
FR2943159B1 (fr) * | 2009-03-16 | 2016-10-21 | Alcatel Lucent | Procede d'assistance a un operateur d'un centre d'appels |
US20100241755A1 (en) * | 2009-03-18 | 2010-09-23 | Microsoft Corporation | Permission model for feed content |
US9342508B2 (en) * | 2009-03-19 | 2016-05-17 | Microsoft Technology Licensing, Llc | Data localization templates and parsing |
US20100241579A1 (en) * | 2009-03-19 | 2010-09-23 | Microsoft Corporation | Feed Content Presentation |
US8175653B2 (en) | 2009-03-30 | 2012-05-08 | Microsoft Corporation | Chromeless user interface |
US8238876B2 (en) | 2009-03-30 | 2012-08-07 | Microsoft Corporation | Notifications |
US8355698B2 (en) | 2009-03-30 | 2013-01-15 | Microsoft Corporation | Unlock screen |
US8719016B1 (en) | 2009-04-07 | 2014-05-06 | Verint Americas Inc. | Speech analytics system and system and method for determining structured speech |
US8331919B1 (en) | 2009-04-24 | 2012-12-11 | Nuance Communications, Inc. | System, method, and software program product for tracking call failures on a wireless phone |
US8836648B2 (en) | 2009-05-27 | 2014-09-16 | Microsoft Corporation | Touch pull-in gesture |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US10706373B2 (en) | 2011-06-03 | 2020-07-07 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US20100324961A1 (en) * | 2009-06-23 | 2010-12-23 | Verizon Patent And Licensing Inc. | Method and system of providing service assistance using a hierarchical order of communication channels |
US20100332224A1 (en) * | 2009-06-30 | 2010-12-30 | Nokia Corporation | Method and apparatus for converting text to audio and tactile output |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US9172803B2 (en) * | 2009-08-23 | 2015-10-27 | Aspect Software, Inc. | System and method for integrating runtime usage statistics with developing environment |
US8943094B2 (en) | 2009-09-22 | 2015-01-27 | Next It Corporation | Apparatus, system, and method for natural language processing |
US9400790B2 (en) * | 2009-12-09 | 2016-07-26 | At&T Intellectual Property I, L.P. | Methods and systems for customized content services with unified messaging systems |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US8645914B2 (en) | 2010-01-22 | 2014-02-04 | AgentSheets, Inc. | Conversational programming |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US8694304B2 (en) * | 2010-03-26 | 2014-04-08 | Virtuoz Sa | Semantic clustering and user interfaces |
US9378202B2 (en) | 2010-03-26 | 2016-06-28 | Virtuoz Sa | Semantic clustering |
US8676565B2 (en) * | 2010-03-26 | 2014-03-18 | Virtuoz Sa | Semantic clustering and conversational agents |
WO2011119171A2 (en) * | 2010-03-26 | 2011-09-29 | Virtuoz, Inc. | Semantic clustering |
US8762939B1 (en) | 2010-07-02 | 2014-06-24 | Nuance Communications, Inc. | System and method for displaying key performance indicators in an application design tool |
US8645136B2 (en) | 2010-07-20 | 2014-02-04 | Intellisist, Inc. | System and method for efficiently reducing transcription error using hybrid voice transcription |
TWI431563B (zh) | 2010-08-03 | 2014-03-21 | Ind Tech Res Inst | 語言學習系統、語言學習方法及其程式產品 |
US9792640B2 (en) | 2010-08-18 | 2017-10-17 | Jinni Media Ltd. | Generating and providing content recommendations to a group of users |
CN102376182B (zh) * | 2010-08-26 | 2014-08-27 | 财团法人工业技术研究院 | 语言学习系统、语言学习方法及其程序产品 |
US20120076283A1 (en) | 2010-09-23 | 2012-03-29 | Ajmera Dinesh | Predictive Customer Service Environment |
US20120084112A1 (en) * | 2010-09-24 | 2012-04-05 | International Business Machines Corporation | Providing community for customer questions |
CN103221952B (zh) | 2010-09-24 | 2016-01-20 | 国际商业机器公司 | 词法答案类型置信度估计和应用的方法和系统 |
US9524291B2 (en) * | 2010-10-06 | 2016-12-20 | Virtuoz Sa | Visual display of semantic information |
US9083561B2 (en) | 2010-10-06 | 2015-07-14 | At&T Intellectual Property I, L.P. | Automated assistance for customer care chats |
US9122744B2 (en) | 2010-10-11 | 2015-09-01 | Next It Corporation | System and method for providing distributed intelligent assistance |
US20120159395A1 (en) | 2010-12-20 | 2012-06-21 | Microsoft Corporation | Application-launching interface for multiple modes |
US20120159383A1 (en) | 2010-12-20 | 2012-06-21 | Microsoft Corporation | Customization of an immersive environment |
US8666726B2 (en) * | 2010-12-21 | 2014-03-04 | Nuance Communications, Inc. | Sample clustering to reduce manual transcriptions in speech recognition system |
US8612874B2 (en) | 2010-12-23 | 2013-12-17 | Microsoft Corporation | Presenting an application change through a tile |
US8689123B2 (en) | 2010-12-23 | 2014-04-01 | Microsoft Corporation | Application reporting in an application-selectable user interface |
US9423951B2 (en) | 2010-12-31 | 2016-08-23 | Microsoft Technology Licensing, Llc | Content-based snap point |
US9472185B1 (en) | 2011-01-05 | 2016-10-18 | Interactions Llc | Automated recognition system for natural language understanding |
US8560321B1 (en) | 2011-01-05 | 2013-10-15 | Interactions Corportion | Automated speech recognition system for natural language understanding |
US8484031B1 (en) | 2011-01-05 | 2013-07-09 | Interactions Corporation | Automated speech recognition proxy system for natural language understanding |
US9245525B2 (en) | 2011-01-05 | 2016-01-26 | Interactions Llc | Automated speech recognition proxy system for natural language understanding |
US9536269B2 (en) | 2011-01-19 | 2017-01-03 | 24/7 Customer, Inc. | Method and apparatus for analyzing and applying data related to customer interactions with social media |
US8688453B1 (en) * | 2011-02-28 | 2014-04-01 | Nuance Communications, Inc. | Intent mining via analysis of utterances |
JP5610059B2 (ja) * | 2011-03-17 | 2014-10-22 | 富士通株式会社 | 通話管理装置、通話管理方法、及びプログラム |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US20120246081A1 (en) * | 2011-03-25 | 2012-09-27 | Next It Corporation | Systems and Methods for Automated Itinerary Modification |
US9383917B2 (en) | 2011-03-28 | 2016-07-05 | Microsoft Technology Licensing, Llc | Predictive tiling |
US9015030B2 (en) * | 2011-04-15 | 2015-04-21 | International Business Machines Corporation | Translating prompt and user input |
US20120290509A1 (en) * | 2011-05-13 | 2012-11-15 | Microsoft Corporation | Training Statistical Dialog Managers in Spoken Dialog Systems With Web Data |
US9158445B2 (en) | 2011-05-27 | 2015-10-13 | Microsoft Technology Licensing, Llc | Managing an immersive interface in a multi-application immersive environment |
US8893033B2 (en) | 2011-05-27 | 2014-11-18 | Microsoft Corporation | Application notifications |
US9104307B2 (en) | 2011-05-27 | 2015-08-11 | Microsoft Technology Licensing, Llc | Multi-application environment |
US9104440B2 (en) | 2011-05-27 | 2015-08-11 | Microsoft Technology Licensing, Llc | Multi-application environment |
US20120304132A1 (en) | 2011-05-27 | 2012-11-29 | Chaitanya Dev Sareen | Switching back to a previously-interacted-with application |
US9658766B2 (en) | 2011-05-27 | 2017-05-23 | Microsoft Technology Licensing, Llc | Edge gesture |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US8862537B1 (en) * | 2011-06-30 | 2014-10-14 | Sumo Logic | Selective structure preserving obfuscation |
US9060062B1 (en) * | 2011-07-06 | 2015-06-16 | Google Inc. | Clustering and classification of recent customer support inquiries |
CN102868717A (zh) * | 2011-07-08 | 2013-01-09 | 华为软件技术有限公司 | 语音扩展标记语言脚本编辑与调试的方法、装置及系统 |
US8687023B2 (en) | 2011-08-02 | 2014-04-01 | Microsoft Corporation | Cross-slide gesture to select and rearrange |
US9401884B2 (en) * | 2011-08-26 | 2016-07-26 | Sap Se | Conversation explorer with split navigation user interface |
US8994660B2 (en) | 2011-08-29 | 2015-03-31 | Apple Inc. | Text correction processing |
US20130057587A1 (en) | 2011-09-01 | 2013-03-07 | Microsoft Corporation | Arranging tiles |
US8601030B2 (en) * | 2011-09-09 | 2013-12-03 | International Business Machines Corporation | Method for a natural language question-answering system to complement decision-support in a real-time command center |
US9557909B2 (en) | 2011-09-09 | 2017-01-31 | Microsoft Technology Licensing, Llc | Semantic zoom linguistic helpers |
US8922575B2 (en) | 2011-09-09 | 2014-12-30 | Microsoft Corporation | Tile cache |
US10353566B2 (en) | 2011-09-09 | 2019-07-16 | Microsoft Technology Licensing, Llc | Semantic zoom animations |
US9244802B2 (en) | 2011-09-10 | 2016-01-26 | Microsoft Technology Licensing, Llc | Resource user interface |
US8933952B2 (en) | 2011-09-10 | 2015-01-13 | Microsoft Corporation | Pre-rendering new content for an application-selectable user interface |
US9146670B2 (en) | 2011-09-10 | 2015-09-29 | Microsoft Technology Licensing, Llc | Progressively indicating new content in an application-selectable user interface |
US9992334B2 (en) * | 2011-10-13 | 2018-06-05 | Nuance Communications, Inc. | Multi-modal customer care system |
WO2013059199A1 (en) | 2011-10-17 | 2013-04-25 | Disintermediation Services, Inc. | Two-way real time communication allowing asymmetric participation across multiple electronic platforms |
US9117194B2 (en) | 2011-12-06 | 2015-08-25 | Nuance Communications, Inc. | Method and apparatus for operating a frequently asked questions (FAQ)-based system |
US9223472B2 (en) | 2011-12-22 | 2015-12-29 | Microsoft Technology Licensing, Llc | Closing applications |
US9836177B2 (en) | 2011-12-30 | 2017-12-05 | Next IT Innovation Labs, LLC | Providing variable responses in a virtual-assistant environment |
US9503349B2 (en) * | 2012-01-26 | 2016-11-22 | Zoom International S.R.O. | Complex interaction recording |
US9128605B2 (en) | 2012-02-16 | 2015-09-08 | Microsoft Technology Licensing, Llc | Thumbnail-image selection of applications |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US9111248B2 (en) * | 2012-03-28 | 2015-08-18 | Global Eprocure | Procurement system |
US9223537B2 (en) | 2012-04-18 | 2015-12-29 | Next It Corporation | Conversation user interface |
US11080721B2 (en) | 2012-04-20 | 2021-08-03 | 7.ai, Inc. | Method and apparatus for an intuitive customer experience |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
CN102737350A (zh) * | 2012-06-08 | 2012-10-17 | 南方电网科学研究院有限责任公司 | 一种基于机器学习算法的输变电设备缺陷数据机器自主聚类工具 |
US8983840B2 (en) * | 2012-06-19 | 2015-03-17 | International Business Machines Corporation | Intent discovery in audio or text-based conversation |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
US9471872B2 (en) | 2012-06-29 | 2016-10-18 | International Business Machines Corporation | Extension to the expert conversation builder |
US8990091B2 (en) * | 2012-07-27 | 2015-03-24 | Nuance Communications, Inc. | Parsimonious protection of sensitive data in enterprise dialog systems |
US9786281B1 (en) * | 2012-08-02 | 2017-10-10 | Amazon Technologies, Inc. | Household agent learning |
US9135244B2 (en) | 2012-08-30 | 2015-09-15 | Arria Data2Text Limited | Method and apparatus for configurable microplanning |
US9405448B2 (en) | 2012-08-30 | 2016-08-02 | Arria Data2Text Limited | Method and apparatus for annotating a graphical output |
US8762134B2 (en) | 2012-08-30 | 2014-06-24 | Arria Data2Text Limited | Method and apparatus for situational analysis text generation |
US9336193B2 (en) | 2012-08-30 | 2016-05-10 | Arria Data2Text Limited | Method and apparatus for updating a previously generated text |
US8762133B2 (en) | 2012-08-30 | 2014-06-24 | Arria Data2Text Limited | Method and apparatus for alert validation |
US9536049B2 (en) | 2012-09-07 | 2017-01-03 | Next It Corporation | Conversational virtual healthcare assistant |
US9576574B2 (en) | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
US8700396B1 (en) * | 2012-09-11 | 2014-04-15 | Google Inc. | Generating speech data collection prompts |
US9105268B2 (en) * | 2012-09-19 | 2015-08-11 | 24/7 Customer, Inc. | Method and apparatus for predicting intent in IVR using natural language queries |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
US9600471B2 (en) | 2012-11-02 | 2017-03-21 | Arria Data2Text Limited | Method and apparatus for aggregating with information generalization |
WO2014076525A1 (en) | 2012-11-16 | 2014-05-22 | Data2Text Limited | Method and apparatus for expressing time in an output text |
WO2014076524A1 (en) | 2012-11-16 | 2014-05-22 | Data2Text Limited | Method and apparatus for spatial descriptions in an output text |
US9015097B2 (en) | 2012-12-19 | 2015-04-21 | Nuance Communications, Inc. | System and method for learning answers to frequently asked questions from a semi-structured data source |
WO2014102569A1 (en) | 2012-12-27 | 2014-07-03 | Arria Data2Text Limited | Method and apparatus for motion description |
WO2014102568A1 (en) | 2012-12-27 | 2014-07-03 | Arria Data2Text Limited | Method and apparatus for motion detection |
US8494853B1 (en) * | 2013-01-04 | 2013-07-23 | Google Inc. | Methods and systems for providing speech recognition systems based on speech recordings logs |
US10467854B2 (en) | 2013-01-10 | 2019-11-05 | [24]7.ai, Inc. | Method and apparatus for engaging users on enterprise interaction channels |
WO2014111753A1 (en) | 2013-01-15 | 2014-07-24 | Arria Data2Text Limited | Method and apparatus for document planning |
US9075619B2 (en) * | 2013-01-15 | 2015-07-07 | Nuance Corporation, Inc. | Method and apparatus for supporting multi-modal dialog applications |
CN103971244B (zh) | 2013-01-30 | 2018-08-17 | 阿里巴巴集团控股有限公司 | 一种商品信息的发布与浏览方法、装置及系统 |
US9092818B2 (en) * | 2013-01-31 | 2015-07-28 | Wal-Mart Stores, Inc. | Method and system for answering a query from a consumer in a retail store |
US9123335B2 (en) * | 2013-02-20 | 2015-09-01 | Jinni Media Limited | System apparatus circuit method and associated computer executable code for natural language understanding and semantic content discovery |
US10157228B2 (en) * | 2013-02-22 | 2018-12-18 | Mitel Networks Corporation | Communication system including a confidence level for a contact type and method of using same |
US9368114B2 (en) | 2013-03-14 | 2016-06-14 | Apple Inc. | Context-sensitive handling of interruptions |
WO2014144579A1 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | System and method for updating an adaptive speech recognition model |
US9247061B2 (en) | 2013-03-15 | 2016-01-26 | Avaya Inc. | Answer based agent routing and display method |
US9064001B2 (en) * | 2013-03-15 | 2015-06-23 | Nuance Communications, Inc. | Method and apparatus for a frequently-asked questions portal workflow |
CN105027197B (zh) | 2013-03-15 | 2018-12-14 | 苹果公司 | 训练至少部分语音命令系统 |
US9450952B2 (en) | 2013-05-29 | 2016-09-20 | Microsoft Technology Licensing, Llc | Live tiles without application-code execution |
US10445115B2 (en) | 2013-04-18 | 2019-10-15 | Verint Americas Inc. | Virtual assistant focused user interfaces |
US9058805B2 (en) * | 2013-05-13 | 2015-06-16 | Google Inc. | Multiple recognizer speech recognition |
US9548957B2 (en) | 2013-05-24 | 2017-01-17 | Instaply, Inc. | System and method for facilitating transactions as conversations between participants |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
EP3008641A1 (en) | 2013-06-09 | 2016-04-20 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
AU2014278595B2 (en) | 2013-06-13 | 2017-04-06 | Apple Inc. | System and method for emergency calls initiated by voice command |
JP6206840B2 (ja) * | 2013-06-19 | 2017-10-04 | 国立研究開発法人情報通信研究機構 | テキストマッチング装置、テキスト分類装置及びそれらのためのコンピュータプログラム |
US10599765B2 (en) * | 2013-06-27 | 2020-03-24 | Avaya Inc. | Semantic translation model training |
US9348815B1 (en) | 2013-06-28 | 2016-05-24 | Digital Reasoning Systems, Inc. | Systems and methods for construction, maintenance, and improvement of knowledge representations |
WO2015028844A1 (en) | 2013-08-29 | 2015-03-05 | Arria Data2Text Limited | Text generation from correlated alerts |
US9396181B1 (en) | 2013-09-16 | 2016-07-19 | Arria Data2Text Limited | Method, apparatus, and computer program product for user-directed reporting |
US9244894B1 (en) | 2013-09-16 | 2016-01-26 | Arria Data2Text Limited | Method and apparatus for interactive reports |
US10262268B2 (en) | 2013-10-04 | 2019-04-16 | Mattersight Corporation | Predictive analytic systems and methods |
US9384731B2 (en) * | 2013-11-06 | 2016-07-05 | Microsoft Technology Licensing, Llc | Detecting speech input phrase confusion risk |
US9558176B2 (en) | 2013-12-06 | 2017-01-31 | Microsoft Technology Licensing, Llc | Discriminating between natural language and keyword language items |
US20150181039A1 (en) * | 2013-12-19 | 2015-06-25 | Avaya, Inc. | Escalation detection and monitoring |
US10088972B2 (en) | 2013-12-31 | 2018-10-02 | Verint Americas Inc. | Virtual assistant conversations |
JP2014102513A (ja) * | 2014-01-06 | 2014-06-05 | Fujitsu Ltd | 対話選別プログラム、対話選別装置、および対話選別方法 |
KR20150081981A (ko) * | 2014-01-07 | 2015-07-15 | 삼성전자주식회사 | 회의 내용 구조화 장치 및 방법 |
JP6248677B2 (ja) * | 2014-02-17 | 2017-12-20 | 富士通株式会社 | 会話補助プログラム、会話補助方法、及び会話システム |
US9524289B2 (en) * | 2014-02-24 | 2016-12-20 | Nuance Communications, Inc. | Automated text annotation for construction of natural language understanding grammars |
US9454787B1 (en) * | 2014-03-04 | 2016-09-27 | Stephen M. Dorr | Secure membership data sharing system and associated methods |
JP2015176099A (ja) * | 2014-03-18 | 2015-10-05 | 株式会社東芝 | 対話システム構築支援装置、方法、及びプログラム |
US9401143B2 (en) * | 2014-03-24 | 2016-07-26 | Google Inc. | Cluster specific speech model |
EP3126969A4 (en) | 2014-04-04 | 2017-04-12 | Microsoft Technology Licensing, LLC | Expandable application representation |
EP3129847A4 (en) | 2014-04-10 | 2017-04-19 | Microsoft Technology Licensing, LLC | Slider cover for computing device |
WO2015154273A1 (en) | 2014-04-10 | 2015-10-15 | Microsoft Technology Licensing, Llc | Collapsible shell cover for computing device |
US10664558B2 (en) | 2014-04-18 | 2020-05-26 | Arria Data2Text Limited | Method and apparatus for document planning |
US9213941B2 (en) | 2014-04-22 | 2015-12-15 | Google Inc. | Automatic actions based on contextual replies |
CN105095292B (zh) * | 2014-05-15 | 2019-08-09 | 中兴通讯股份有限公司 | 语音邮箱系统的信息获取方法及装置 |
US20150331853A1 (en) * | 2014-05-15 | 2015-11-19 | Marco Palmonari | Automated multi-grammar language processing system to optimize request handling in contact centers |
US9508360B2 (en) * | 2014-05-28 | 2016-11-29 | International Business Machines Corporation | Semantic-free text analysis for identifying traits |
US9569751B2 (en) * | 2014-05-29 | 2017-02-14 | Avaya Inc. | Mechanism for creation and utilization of an attribute tree in a contact center |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
TWI566107B (zh) | 2014-05-30 | 2017-01-11 | 蘋果公司 | 用於處理多部分語音命令之方法、非暫時性電腦可讀儲存媒體及電子裝置 |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US10318882B2 (en) | 2014-09-11 | 2019-06-11 | Amazon Technologies, Inc. | Optimized training of linear machine learning models |
US10339465B2 (en) | 2014-06-30 | 2019-07-02 | Amazon Technologies, Inc. | Optimized decision tree based models |
US10169715B2 (en) | 2014-06-30 | 2019-01-01 | Amazon Technologies, Inc. | Feature processing tradeoff management |
US9886670B2 (en) | 2014-06-30 | 2018-02-06 | Amazon Technologies, Inc. | Feature processing recipes for machine learning |
US9672474B2 (en) | 2014-06-30 | 2017-06-06 | Amazon Technologies, Inc. | Concurrent binning of machine learning data |
US10963810B2 (en) | 2014-06-30 | 2021-03-30 | Amazon Technologies, Inc. | Efficient duplicate detection for machine learning data sets |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US10452992B2 (en) | 2014-06-30 | 2019-10-22 | Amazon Technologies, Inc. | Interactive interfaces for machine learning model evaluations |
US10540606B2 (en) | 2014-06-30 | 2020-01-21 | Amazon Technologies, Inc. | Consistent filtering of machine learning data |
US11100420B2 (en) | 2014-06-30 | 2021-08-24 | Amazon Technologies, Inc. | Input processing for machine learning |
US10102480B2 (en) | 2014-06-30 | 2018-10-16 | Amazon Technologies, Inc. | Machine learning service |
US9547471B2 (en) * | 2014-07-03 | 2017-01-17 | Microsoft Technology Licensing, Llc | Generating computer responses to social conversational inputs |
US9436507B2 (en) | 2014-07-12 | 2016-09-06 | Microsoft Technology Licensing, Llc | Composing and executing workflows made up of functional pluggable building blocks |
US10678412B2 (en) | 2014-07-31 | 2020-06-09 | Microsoft Technology Licensing, Llc | Dynamic joint dividers for application windows |
US10254942B2 (en) | 2014-07-31 | 2019-04-09 | Microsoft Technology Licensing, Llc | Adaptive sizing and positioning of application windows |
US10592080B2 (en) | 2014-07-31 | 2020-03-17 | Microsoft Technology Licensing, Llc | Assisted presentation of application windows |
US10291597B2 (en) | 2014-08-14 | 2019-05-14 | Cisco Technology, Inc. | Sharing resources across multiple devices in online meetings |
US11182691B1 (en) | 2014-08-14 | 2021-11-23 | Amazon Technologies, Inc. | Category-based sampling of machine learning data |
US10019680B2 (en) * | 2014-08-15 | 2018-07-10 | Nice Ltd. | System and method for distributed rule-based sequencing engine |
US10515151B2 (en) * | 2014-08-18 | 2019-12-24 | Nuance Communications, Inc. | Concept identification and capture |
US11651242B2 (en) | 2014-08-27 | 2023-05-16 | International Business Machines Corporation | Generating answers to text input in an electronic communication tool with a question answering system |
US10019672B2 (en) * | 2014-08-27 | 2018-07-10 | International Business Machines Corporation | Generating responses to electronic communications with a question answering system |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US20160071517A1 (en) | 2014-09-09 | 2016-03-10 | Next It Corporation | Evaluating Conversation Data based on Risk Factors |
US10642365B2 (en) | 2014-09-09 | 2020-05-05 | Microsoft Technology Licensing, Llc | Parametric inertia and APIs |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US9667786B1 (en) * | 2014-10-07 | 2017-05-30 | Ipsoft, Inc. | Distributed coordinated system and process which transforms data into useful information to help a user with resolving issues |
WO2016065568A1 (en) | 2014-10-30 | 2016-05-06 | Microsoft Technology Licensing, Llc | Multi-configuration input device |
US11621932B2 (en) * | 2014-10-31 | 2023-04-04 | Avaya Inc. | System and method for managing resources of an enterprise |
US10775996B2 (en) * | 2014-11-26 | 2020-09-15 | Snap Inc. | Hybridization of voice notes and calling |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US9711141B2 (en) | 2014-12-09 | 2017-07-18 | Apple Inc. | Disambiguating heteronyms in speech synthesis |
US9710613B2 (en) | 2014-12-16 | 2017-07-18 | The Affinity Project, Inc. | Guided personal companion |
US9704103B2 (en) | 2014-12-16 | 2017-07-11 | The Affinity Project, Inc. | Digital companions for human users |
US10417345B1 (en) * | 2014-12-22 | 2019-09-17 | Amazon Technologies, Inc. | Providing customer service agents with customer-personalized result of spoken language intent |
US11094320B1 (en) * | 2014-12-22 | 2021-08-17 | Amazon Technologies, Inc. | Dialog visualization |
US10542126B2 (en) | 2014-12-22 | 2020-01-21 | Cisco Technology, Inc. | Offline virtual participation in an online conference meeting |
US10460720B2 (en) | 2015-01-03 | 2019-10-29 | Microsoft Technology Licensing, Llc. | Generation of language understanding systems and methods |
US10572810B2 (en) | 2015-01-07 | 2020-02-25 | Microsoft Technology Licensing, Llc | Managing user interaction for input understanding determinations |
US11042910B2 (en) * | 2015-01-23 | 2021-06-22 | Conversica, Inc. | Systems and methods for processing message exchanges using artificial intelligence |
US11106871B2 (en) | 2015-01-23 | 2021-08-31 | Conversica, Inc. | Systems and methods for configurable messaging response-action engine |
US11301632B2 (en) | 2015-01-23 | 2022-04-12 | Conversica, Inc. | Systems and methods for natural language processing and classification |
US11551188B2 (en) | 2015-01-23 | 2023-01-10 | Conversica, Inc. | Systems and methods for improved automated conversations with attendant actions |
US11100285B2 (en) | 2015-01-23 | 2021-08-24 | Conversica, Inc. | Systems and methods for configurable messaging with feature extraction |
US11663409B2 (en) | 2015-01-23 | 2023-05-30 | Conversica, Inc. | Systems and methods for training machine learning models using active learning |
US9420106B1 (en) | 2015-03-05 | 2016-08-16 | Xerox Corporation | Methods and systems for assigning priority to incoming message from customer |
US9911412B2 (en) * | 2015-03-06 | 2018-03-06 | Nuance Communications, Inc. | Evidence-based natural language input recognition |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9431003B1 (en) | 2015-03-27 | 2016-08-30 | International Business Machines Corporation | Imbuing artificial intelligence systems with idiomatic traits |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US9948786B2 (en) | 2015-04-17 | 2018-04-17 | Cisco Technology, Inc. | Handling conferences using highly-distributed agents |
US10218651B2 (en) * | 2015-04-20 | 2019-02-26 | Oracle International Corporation | Virtual assistance for chat agents |
US10540608B1 (en) | 2015-05-22 | 2020-01-21 | Amazon Technologies, Inc. | Dynamically scaled training fleets for machine learning |
US9509846B1 (en) * | 2015-05-27 | 2016-11-29 | Ingenio, Llc | Systems and methods of natural language processing to rank users of real time communications connections |
US9838540B2 (en) | 2015-05-27 | 2017-12-05 | Ingenio, Llc | Systems and methods to enroll users for real time communications connections |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US10249297B2 (en) | 2015-07-13 | 2019-04-02 | Microsoft Technology Licensing, Llc | Propagating conversational alternatives using delayed hypothesis binding |
US20170032027A1 (en) * | 2015-07-31 | 2017-02-02 | Nuance Communications, Inc. | Contact Center Virtual Assistant |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10621602B2 (en) * | 2015-09-22 | 2020-04-14 | Adobe Inc. | Reinforcement machine learning for personalized intelligent alerting |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
RU2632133C2 (ru) | 2015-09-29 | 2017-10-02 | Общество С Ограниченной Ответственностью "Яндекс" | Способ (варианты) и система (варианты) создания модели прогнозирования и определения точности модели прогнозирования |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10409913B2 (en) * | 2015-10-01 | 2019-09-10 | Conduent Business Services, Llc | Methods and systems to train classification models to classify conversations |
US9697198B2 (en) | 2015-10-05 | 2017-07-04 | International Business Machines Corporation | Guiding a conversation based on cognitive analytics |
US9723151B2 (en) * | 2015-10-19 | 2017-08-01 | Genesys Telecommunications Laboratories, Inc. | Optimized routing of interactions to contact center agents based on forecast agent availability and customer patience |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10366053B1 (en) | 2015-11-24 | 2019-07-30 | Amazon Technologies, Inc. | Consistent randomized record-level splitting of machine learning data |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
CN105657201B (zh) * | 2016-01-26 | 2019-06-04 | 北京京东尚科信息技术有限公司 | 一种基于决策树模型的呼叫处理方法和系统 |
US9923931B1 (en) | 2016-02-05 | 2018-03-20 | Digital Reasoning Systems, Inc. | Systems and methods for identifying violation conditions from electronic communications |
US20170243134A1 (en) * | 2016-02-10 | 2017-08-24 | RapportBoost.ai | Optimization System and Method for Chat-Based Conversations |
US10140988B2 (en) | 2016-03-01 | 2018-11-27 | Microsoft Technology Licensing, Llc | Speech recognition |
US10192550B2 (en) | 2016-03-01 | 2019-01-29 | Microsoft Technology Licensing, Llc | Conversational software agent |
US10140986B2 (en) | 2016-03-01 | 2018-11-27 | Microsoft Technology Licensing, Llc | Speech recognition |
US10713589B1 (en) | 2016-03-03 | 2020-07-14 | Amazon Technologies, Inc. | Consistent sort-based record-level shuffling of machine learning data |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US10224026B2 (en) * | 2016-03-15 | 2019-03-05 | Sony Corporation | Electronic device, system, method and computer program |
US9978367B2 (en) * | 2016-03-16 | 2018-05-22 | Google Llc | Determining dialog states for language models |
US10198433B2 (en) * | 2016-03-22 | 2019-02-05 | Facebook, Inc. | Techniques to predictively respond to user requests using natural language processing |
US11030207B1 (en) * | 2016-04-12 | 2021-06-08 | Tableau Software, Inc. | Updating displayed data visualizations according to identified conversation centers in natural language commands |
US10817527B1 (en) * | 2016-04-12 | 2020-10-27 | Tableau Software, Inc. | Systems and methods of using natural language processing for visual analysis of a data set |
US10515121B1 (en) | 2016-04-12 | 2019-12-24 | Tableau Software, Inc. | Systems and methods of using natural language processing for visual analysis of a data set |
US10795902B1 (en) * | 2016-04-12 | 2020-10-06 | Tableau Software, Inc. | Applying natural language pragmatics in a data visualization user interface |
US10778707B1 (en) | 2016-05-12 | 2020-09-15 | Amazon Technologies, Inc. | Outlier detection for streaming data using locality sensitive hashing |
US10949748B2 (en) * | 2016-05-13 | 2021-03-16 | Microsoft Technology Licensing, Llc | Deep learning of bots through examples and experience |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9802125B1 (en) | 2016-05-27 | 2017-10-31 | The Affinity Project, Inc. | On demand guided virtual companion |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179588B1 (en) | 2016-06-09 | 2019-02-22 | Apple Inc. | INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
US10417065B2 (en) * | 2016-06-13 | 2019-09-17 | Dynatrace Llc | Method and system for automated agent injection in container environments |
US11449744B2 (en) | 2016-06-23 | 2022-09-20 | Microsoft Technology Licensing, Llc | End-to-end memory networks for contextual language understanding |
US9876909B1 (en) | 2016-07-01 | 2018-01-23 | At&T Intellectual Property I, L.P. | System and method for analytics with automated whisper mode |
US10200536B2 (en) | 2016-07-01 | 2019-02-05 | At&T Intellectual Property I, L.P. | Omni channel customer care system and method |
US20180007102A1 (en) * | 2016-07-01 | 2018-01-04 | At&T Intellectual Property I, Lp | System and method for transition between customer care resource modes |
US9871922B1 (en) | 2016-07-01 | 2018-01-16 | At&T Intellectual Property I, L.P. | Customer care database creation system and method |
US10083451B2 (en) | 2016-07-08 | 2018-09-25 | Asapp, Inc. | Using semantic processing for customer support |
US10453074B2 (en) | 2016-07-08 | 2019-10-22 | Asapp, Inc. | Automatically suggesting resources for responding to a request |
WO2018010635A1 (zh) * | 2016-07-14 | 2018-01-18 | 腾讯科技(深圳)有限公司 | 随机性交互数据的处理方法、网络服务器及智能对话系统 |
US10726356B1 (en) | 2016-08-01 | 2020-07-28 | Amazon Technologies, Inc. | Target variable distribution-based acceptance of machine learning test data sets |
US10445432B1 (en) | 2016-08-31 | 2019-10-15 | Arria Data2Text Limited | Method and apparatus for lightweight multilingual natural language realizer |
JP6849964B2 (ja) * | 2016-09-05 | 2021-03-31 | 株式会社Nextremer | 対話制御装置、対話エンジン、管理端末、対話装置、対話制御方法、対話方法、およびプログラム |
US10446137B2 (en) | 2016-09-07 | 2019-10-15 | Microsoft Technology Licensing, Llc | Ambiguity resolving conversational understanding system |
US10366163B2 (en) * | 2016-09-07 | 2019-07-30 | Microsoft Technology Licensing, Llc | Knowledge-guided structural attention processing |
JP6677614B2 (ja) * | 2016-09-16 | 2020-04-08 | 株式会社東芝 | 会議支援システム、会議支援方法及びプログラム |
US10846618B2 (en) * | 2016-09-23 | 2020-11-24 | Google Llc | Smart replies using an on-device model |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
JP2018054850A (ja) | 2016-09-28 | 2018-04-05 | 株式会社東芝 | 情報処理システム、情報処理装置、情報処理方法、及びプログラム |
US11093711B2 (en) * | 2016-09-28 | 2021-08-17 | Microsoft Technology Licensing, Llc | Entity-specific conversational artificial intelligence |
CN107885756B (zh) | 2016-09-30 | 2020-05-08 | 华为技术有限公司 | 基于深度学习的对话方法、装置及设备 |
US20180097940A1 (en) * | 2016-09-30 | 2018-04-05 | Genesys Telecommunications Laboratories, Inc. | System and method for dynamic generation and optimization of process flows for a customer contact center |
US10268734B2 (en) | 2016-09-30 | 2019-04-23 | International Business Machines Corporation | Providing search results based on natural language classification confidence information |
US10984034B1 (en) * | 2016-10-05 | 2021-04-20 | Cyrano.ai, Inc. | Dialogue management system with hierarchical classification and progression |
US10467347B1 (en) | 2016-10-31 | 2019-11-05 | Arria Data2Text Limited | Method and apparatus for natural language document orchestrator |
US10824798B2 (en) | 2016-11-04 | 2020-11-03 | Semantic Machines, Inc. | Data collection for a new conversational dialogue system |
US10592867B2 (en) | 2016-11-11 | 2020-03-17 | Cisco Technology, Inc. | In-meeting graphical user interface display using calendar information and system |
US10275539B2 (en) * | 2016-11-21 | 2019-04-30 | Accenture Global Solutions Limited | Closed-loop natural language query pre-processor and response synthesizer architecture |
US10516707B2 (en) | 2016-12-15 | 2019-12-24 | Cisco Technology, Inc. | Initiating a conferencing meeting using a conference room device |
US10650311B2 (en) | 2016-12-19 | 2020-05-12 | Asaap, Inc. | Suggesting resources using context hashing |
US10109275B2 (en) | 2016-12-19 | 2018-10-23 | Asapp, Inc. | Word hash language model |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
CN110249326B (zh) * | 2017-02-08 | 2023-07-14 | 微软技术许可有限责任公司 | 自然语言内容生成器 |
WO2018148441A1 (en) * | 2017-02-08 | 2018-08-16 | Semantic Machines, Inc. | Natural language content generator |
US10643601B2 (en) * | 2017-02-09 | 2020-05-05 | Semantic Machines, Inc. | Detection mechanism for automated dialog systems |
JP6219009B1 (ja) * | 2017-02-14 | 2017-10-25 | 三菱電機株式会社 | やり取り型攻撃シミュレーション装置、やり取り型攻撃シミュレーション方法およびやり取り型攻撃シミュレーションプログラム |
US10762892B2 (en) | 2017-02-23 | 2020-09-01 | Semantic Machines, Inc. | Rapid deployment of dialogue system |
WO2018156978A1 (en) | 2017-02-23 | 2018-08-30 | Semantic Machines, Inc. | Expandable dialogue system |
US11069340B2 (en) | 2017-02-23 | 2021-07-20 | Microsoft Technology Licensing, Llc | Flexible and expandable dialogue system |
CN110291539A (zh) * | 2017-02-24 | 2019-09-27 | 欧姆龙株式会社 | 用于生成学习数据的处理方法、系统、程序和存储介质、以及生成学习数据的方法和系统 |
US10687178B2 (en) | 2017-03-03 | 2020-06-16 | Orion Labs, Inc. | Phone-less member of group communication constellations |
US10922734B2 (en) * | 2017-03-13 | 2021-02-16 | Fmr Llc | Automatic identification of issues in text-based transcripts |
US11005997B1 (en) * | 2017-03-23 | 2021-05-11 | Wells Fargo Bank, N.A. | Automated chatbot transfer to live agent |
RU2676949C2 (ru) * | 2017-04-05 | 2019-01-11 | Общество С Ограниченной Ответственностью "Яндекс" | Система и способ определения дохода пользователя мобильного устройства |
US10440073B2 (en) | 2017-04-11 | 2019-10-08 | Cisco Technology, Inc. | User interface for proximity based teleconference transfer |
US10360908B2 (en) * | 2017-04-19 | 2019-07-23 | International Business Machines Corporation | Recommending a dialog act using model-based textual analysis |
US10224032B2 (en) * | 2017-04-19 | 2019-03-05 | International Business Machines Corporation | Determining an impact of a proposed dialog act using model-based textual analysis |
CN110546603A (zh) * | 2017-04-25 | 2019-12-06 | 惠普发展公司,有限责任合伙企业 | 机器学习命令交互 |
US10375125B2 (en) | 2017-04-27 | 2019-08-06 | Cisco Technology, Inc. | Automatically joining devices to a video conference |
IL252037B (en) | 2017-04-30 | 2021-12-01 | Verint Systems Ltd | System and method for identifying relationships between computer application users |
JP6794921B2 (ja) * | 2017-05-01 | 2020-12-02 | トヨタ自動車株式会社 | 興味判定装置、興味判定方法、及びプログラム |
SG11201909643RA (en) * | 2017-05-05 | 2019-11-28 | Liveperson Inc | Dynamic response prediction for improved bot task processing |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
US11048995B2 (en) | 2017-05-16 | 2021-06-29 | Google Llc | Delayed responses by computational assistant |
DK179560B1 (en) | 2017-05-16 | 2019-02-18 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
US10909441B2 (en) | 2017-06-02 | 2021-02-02 | Microsoft Technology Licensing, Llc | Modeling an action completion conversation using a knowledge graph |
US10628754B2 (en) | 2017-06-06 | 2020-04-21 | At&T Intellectual Property I, L.P. | Personal assistant for facilitating interaction routines |
US10375474B2 (en) | 2017-06-12 | 2019-08-06 | Cisco Technology, Inc. | Hybrid horn microphone |
US10810273B2 (en) | 2017-06-13 | 2020-10-20 | Bank Of America Corporation | Auto identification and mapping of functional attributes from visual representation |
US20180367480A1 (en) * | 2017-06-18 | 2018-12-20 | Rapportboost.Ai, Inc. | Optimizing chat-based communications |
US10176808B1 (en) * | 2017-06-20 | 2019-01-08 | Microsoft Technology Licensing, Llc | Utilizing spoken cues to influence response rendering for virtual assistants |
US10477148B2 (en) | 2017-06-23 | 2019-11-12 | Cisco Technology, Inc. | Speaker anticipation |
US10694038B2 (en) * | 2017-06-23 | 2020-06-23 | Replicant Solutions, Inc. | System and method for managing calls of an automated call management system |
US10762423B2 (en) | 2017-06-27 | 2020-09-01 | Asapp, Inc. | Using a neural network to optimize processing of user requests |
US10516709B2 (en) | 2017-06-29 | 2019-12-24 | Cisco Technology, Inc. | Files automatically shared at conference initiation |
US10706391B2 (en) | 2017-07-13 | 2020-07-07 | Cisco Technology, Inc. | Protecting scheduled meeting in physical room |
JP6218057B1 (ja) | 2017-07-14 | 2017-10-25 | Jeインターナショナル株式会社 | 自動応答サーバー装置、端末装置、応答システム、応答方法、およびプログラム |
JP6787269B2 (ja) * | 2017-07-21 | 2020-11-18 | トヨタ自動車株式会社 | 音声認識システム及び音声認識方法 |
US10091348B1 (en) | 2017-07-25 | 2018-10-02 | Cisco Technology, Inc. | Predictive model for voice/video over IP calls |
US10311872B2 (en) | 2017-07-25 | 2019-06-04 | Google Llc | Utterance classifier |
JP6480987B2 (ja) * | 2017-08-01 | 2019-03-13 | 株式会社大和総研 | 電話自動応答補助システムおよびプログラム |
JPWO2019026716A1 (ja) * | 2017-08-04 | 2020-08-20 | ソニー株式会社 | 情報処理装置、及び情報処理方法 |
US11132499B2 (en) | 2017-08-28 | 2021-09-28 | Microsoft Technology Licensing, Llc | Robust expandable dialogue system |
US11475488B2 (en) | 2017-09-11 | 2022-10-18 | Accenture Global Solutions Limited | Dynamic scripts for tele-agents |
US10762424B2 (en) | 2017-09-11 | 2020-09-01 | Sas Institute Inc. | Methods and systems for reinforcement learning |
JP6857581B2 (ja) * | 2017-09-13 | 2021-04-14 | 株式会社日立製作所 | 成長型対話装置 |
US11783243B2 (en) * | 2017-09-20 | 2023-10-10 | International Business Machines Corporation | Targeted prioritization within a network based on user-defined factors and success rates |
WO2019084321A1 (en) * | 2017-10-26 | 2019-05-02 | Conversica, Inc. | SYSTEMS AND METHODS FOR CONFIGURABLE MESSAGE RESPONSE-ACTION ENGINE |
US10574824B2 (en) | 2017-11-02 | 2020-02-25 | [24]7.ai, Inc. | Method and apparatus for facilitating agent conversations with customers of an enterprise |
US10832658B2 (en) | 2017-11-15 | 2020-11-10 | International Business Machines Corporation | Quantized dialog language model for dialog systems |
WO2019099894A1 (en) * | 2017-11-16 | 2019-05-23 | [24]7.ai, Inc. | Method and system for facilitating collaboration among enterprise agents |
US10503834B2 (en) | 2017-11-17 | 2019-12-10 | Digital Genius Limited | Template generation for a conversational agent |
RU2693324C2 (ru) | 2017-11-24 | 2019-07-02 | Общество С Ограниченной Ответственностью "Яндекс" | Способ и сервер преобразования значения категориального фактора в его числовое представление |
RU2692048C2 (ru) * | 2017-11-24 | 2019-06-19 | Общество С Ограниченной Ответственностью "Яндекс" | Способ и сервер для преобразования значения категориального фактора в его числовое представление и для создания разделяющего значения категориального фактора |
WO2019113122A1 (en) * | 2017-12-04 | 2019-06-13 | Conversica, Inc. | Systems and methods for improved machine learning for conversations |
US11507756B2 (en) * | 2017-12-05 | 2022-11-22 | discourse.ai, Inc. | System and method for estimation of interlocutor intents and goals in turn-based electronic conversational flow |
US10497004B2 (en) | 2017-12-08 | 2019-12-03 | Asapp, Inc. | Automating communications using an intent classifier |
US20190180206A1 (en) * | 2017-12-13 | 2019-06-13 | International Business Machines Corporation | Conversation-driven workflow |
US11853930B2 (en) | 2017-12-15 | 2023-12-26 | Accenture Global Solutions Limited | Dynamic lead generation |
WO2019133919A1 (en) * | 2017-12-29 | 2019-07-04 | Conversica, Inc. | Systems and methods for human to ai cooperation in association with machine learning conversations |
IL256690B (en) * | 2018-01-01 | 2022-02-01 | Cognyte Tech Israel Ltd | System and method for identifying pairs of related application users |
US11170762B2 (en) | 2018-01-04 | 2021-11-09 | Google Llc | Learning offline voice commands based on usage of online voice commands |
US10489792B2 (en) | 2018-01-05 | 2019-11-26 | Asapp, Inc. | Maintaining quality of customer support messages |
US10812417B2 (en) * | 2018-01-09 | 2020-10-20 | International Business Machines Corporation | Auto-incorrect in chatbot human-machine interfaces |
US10656775B2 (en) | 2018-01-23 | 2020-05-19 | Bank Of America Corporation | Real-time processing of data and dynamic delivery via an interactive interface |
KR102609430B1 (ko) * | 2018-01-23 | 2023-12-04 | 구글 엘엘씨 | 호출 구문 검출에서 노이즈 감소 기술의 선택적 적응 및 활용 |
US11133010B1 (en) * | 2018-01-23 | 2021-09-28 | United Services Automobile Association (Usaa) | Intelligent agent for interactive service environments |
US11327826B1 (en) | 2018-02-01 | 2022-05-10 | Amdocs Development Limited | System, method, and computer program for automated resolution of free-text incidents, based on machine learning |
US11886823B2 (en) | 2018-02-01 | 2024-01-30 | International Business Machines Corporation | Dynamically constructing and configuring a conversational agent learning model |
US10152970B1 (en) | 2018-02-08 | 2018-12-11 | Capital One Services, Llc | Adversarial learning and generation of dialogue responses |
US10515155B2 (en) | 2018-02-09 | 2019-12-24 | Digital Genius Limited | Conversational agent |
EP3525107A1 (en) * | 2018-02-09 | 2019-08-14 | Digital Genius Limited | Conversational agent |
US10210244B1 (en) | 2018-02-12 | 2019-02-19 | Asapp, Inc. | Updating natural language interfaces by processing usage data |
US11080489B2 (en) * | 2018-03-19 | 2021-08-03 | Verint Americas Inc. | Model-agnostic visualizations using linear programming approximation |
US20190297120A1 (en) * | 2018-03-22 | 2019-09-26 | Carrier Corporation | Anonymous chat method and system incorporating machine-learning capabilities |
US11289070B2 (en) | 2018-03-23 | 2022-03-29 | Rankin Labs, Llc | System and method for identifying a speaker's community of origin from a sound sample |
JP6550603B1 (ja) * | 2018-04-25 | 2019-07-31 | メドケア株式会社 | 指導支援システム、指導支援方法及び指導支援サーバ |
CA3041356A1 (en) * | 2018-04-25 | 2019-10-25 | James Lewis | Conversation system |
US10169315B1 (en) | 2018-04-27 | 2019-01-01 | Asapp, Inc. | Removing personal information from text using a neural network |
EP3576084B1 (de) * | 2018-05-29 | 2020-09-30 | Christoph Neumann | Effiziente dialoggestaltung |
US11100140B2 (en) | 2018-06-04 | 2021-08-24 | International Business Machines Corporation | Generation of domain specific type system |
US11005786B2 (en) * | 2018-06-28 | 2021-05-11 | Microsoft Technology Licensing, Llc | Knowledge-driven dialog support conversation system |
WO2020014354A1 (en) | 2018-07-10 | 2020-01-16 | John Rankin | System and method for indexing sound fragments containing speech |
US11347966B2 (en) * | 2018-07-20 | 2022-05-31 | Samsung Electronics Co., Ltd. | Electronic apparatus and learning method of electronic apparatus |
US11170770B2 (en) * | 2018-08-03 | 2021-11-09 | International Business Machines Corporation | Dynamic adjustment of response thresholds in a dialogue system |
US11216510B2 (en) | 2018-08-03 | 2022-01-04 | Asapp, Inc. | Processing an incomplete message with a neural network to generate suggested messages |
US11568175B2 (en) | 2018-09-07 | 2023-01-31 | Verint Americas Inc. | Dynamic intent classification based on environment variables |
US11048871B2 (en) * | 2018-09-18 | 2021-06-29 | Tableau Software, Inc. | Analyzing natural language expressions in a data visualization user interface |
US11468882B2 (en) * | 2018-10-09 | 2022-10-11 | Accenture Global Solutions Limited | Semantic call notes |
US10923114B2 (en) | 2018-10-10 | 2021-02-16 | N3, Llc | Semantic jargon |
US11232264B2 (en) | 2018-10-19 | 2022-01-25 | Verint Americas Inc. | Natural language processing with non-ontological hierarchy models |
DE102018218097A1 (de) * | 2018-10-23 | 2020-04-23 | Volkswagen Aktiengesellschaft | Verfahren, Vorrichtung, Zentraleinrichtung und System zum Erkennen einer Verteilungsverschiebung in einer Daten- und/oder Merkmalsverteilung von Eingangsdaten |
US11196863B2 (en) | 2018-10-24 | 2021-12-07 | Verint Americas Inc. | Method and system for virtual assistant conversations |
US12001972B2 (en) * | 2018-10-31 | 2024-06-04 | Accenture Global Solutions Limited | Semantic inferencing in customer relationship management |
US11132695B2 (en) | 2018-11-07 | 2021-09-28 | N3, Llc | Semantic CRM mobile communications sessions |
US10742813B2 (en) | 2018-11-08 | 2020-08-11 | N3, Llc | Semantic artificial intelligence agent |
US10972608B2 (en) | 2018-11-08 | 2021-04-06 | N3, Llc | Asynchronous multi-dimensional platform for customer and tele-agent communications |
US20200153965A1 (en) | 2018-11-10 | 2020-05-14 | Nuance Communications, Inc. | Caller deflection and response system and method |
US10972609B2 (en) * | 2018-11-10 | 2021-04-06 | Nuance Communications, Inc. | Caller deflection and response system and method |
US11551004B2 (en) | 2018-11-13 | 2023-01-10 | Asapp, Inc. | Intent discovery with a prototype classifier |
US10747957B2 (en) | 2018-11-13 | 2020-08-18 | Asapp, Inc. | Processing communications using a prototype classifier |
WO2020118422A1 (en) * | 2018-12-11 | 2020-06-18 | Sinitic Inc. | System and method for structuring chat history using machine-learning-based natural language processing |
US10740371B1 (en) | 2018-12-14 | 2020-08-11 | Clinc, Inc. | Systems and methods for intelligently configuring and deploying a machine learning-based dialogue system |
US10805465B1 (en) | 2018-12-20 | 2020-10-13 | United Services Automobile Association (Usaa) | Predictive customer service support system and method |
US11151578B2 (en) * | 2018-12-31 | 2021-10-19 | Beijing Didi Infinity Technology And Development Co., Ltd. | Methods and systems for processing customer inquiries |
CN109660680A (zh) * | 2019-02-06 | 2019-04-19 | 刘兴丹 | 一种选择性接入语音通话的方法、装置 |
US11449197B2 (en) * | 2019-03-08 | 2022-09-20 | [24]7.ai, Inc. | Agent console for facilitating chat interactions with customers |
US10944869B2 (en) | 2019-03-08 | 2021-03-09 | International Business Machines Corporation | Automating actions of a mobile device during calls with an automated phone system |
US10897508B2 (en) | 2019-03-08 | 2021-01-19 | International Business Machines Corporation | Personal call center assistant |
US11748422B2 (en) * | 2019-03-15 | 2023-09-05 | ContactEngine Limited | Digital content security and communications system using artificial intelligence (AI) based machine learning and predictive analysis |
US11790176B2 (en) * | 2019-03-19 | 2023-10-17 | Servicenow, Inc. | Systems and methods for a virtual agent in a cloud computing environment |
US10861022B2 (en) | 2019-03-25 | 2020-12-08 | Fmr Llc | Computer systems and methods to discover questions and answers from conversations |
US11948582B2 (en) | 2019-03-25 | 2024-04-02 | Omilia Natural Language Solutions Ltd. | Systems and methods for speaker verification |
US11170167B2 (en) * | 2019-03-26 | 2021-11-09 | Tencent America LLC | Automatic lexical sememe prediction system using lexical dictionaries |
US10445745B1 (en) | 2019-03-26 | 2019-10-15 | Fmr Llc | Computer systems and methods for efficient query resolution by customer representatives |
US10750019B1 (en) * | 2019-03-29 | 2020-08-18 | Genesys Telecommunications Laboratories, Inc. | System and method for assisting agents via artificial intelligence |
US11588759B2 (en) | 2019-04-12 | 2023-02-21 | Asapp, Inc. | Automated communications over multiple channels |
US11521114B2 (en) | 2019-04-18 | 2022-12-06 | Microsoft Technology Licensing, Llc | Visualization of training dialogs for a conversational bot |
US11558339B2 (en) * | 2019-05-21 | 2023-01-17 | International Business Machines Corporation | Stepwise relationship cadence management |
US10671941B1 (en) * | 2019-05-23 | 2020-06-02 | Capital One Services, Llc | Managing multifaceted, implicit goals through dialogue |
JP7332690B2 (ja) * | 2019-05-31 | 2023-08-23 | 株式会社東芝 | コミュニケーション管理装置 |
US11966697B2 (en) | 2019-06-11 | 2024-04-23 | Bank Of America Corporation | Systems and methods for automated degradation-resistant tuning of machine-learning language processing models |
CA3142939A1 (en) | 2019-06-12 | 2020-12-17 | Liveperson, Inc. | Systems and methods for external system integration |
US11211049B2 (en) | 2019-07-03 | 2021-12-28 | International Business Machines Corporation | Program dialog by example |
US20210004818A1 (en) | 2019-07-05 | 2021-01-07 | Talkdesk, Inc. | System and method for automated agent assistance within a cloud-based contact center |
US11138212B2 (en) | 2019-07-23 | 2021-10-05 | International Business Machines Corporation | Natural language response recommendation clustering for rapid retrieval |
CN110377716B (zh) | 2019-07-23 | 2022-07-12 | 百度在线网络技术(北京)有限公司 | 对话的交互方法、装置及计算机可读存储介质 |
KR20190098928A (ko) * | 2019-08-05 | 2019-08-23 | 엘지전자 주식회사 | 음성 인식 방법 및 장치 |
US11715112B2 (en) * | 2019-08-21 | 2023-08-01 | Avaya Inc. | Automatic message generation and presentation to a communication node engaged in a communication |
US11711465B2 (en) * | 2019-08-22 | 2023-07-25 | [24]7.ai, Inc. | Method and apparatus for providing assistance to calling customers |
US11328205B2 (en) | 2019-08-23 | 2022-05-10 | Talkdesk, Inc. | Generating featureless service provider matches |
US11184298B2 (en) * | 2019-08-28 | 2021-11-23 | International Business Machines Corporation | Methods and systems for improving chatbot intent training by correlating user feedback provided subsequent to a failed response to an initial user intent |
US11455339B1 (en) | 2019-09-06 | 2022-09-27 | Tableau Software, LLC | Incremental updates to natural language expressions in a data visualization user interface |
US11699435B2 (en) * | 2019-09-18 | 2023-07-11 | Wizergos Software Solutions Private Limited | System and method to interpret natural language requests and handle natural language responses in conversation |
US11373045B2 (en) * | 2019-09-24 | 2022-06-28 | ContactEngine Limited | Determining context and intent in omnichannel communications using machine learning based artificial intelligence (AI) techniques |
US20210097330A1 (en) * | 2019-09-27 | 2021-04-01 | International Business Machines Corporation | Notification content message via artificial intelligence voice response system |
US11126793B2 (en) * | 2019-10-04 | 2021-09-21 | Omilia Natural Language Solutions Ltd. | Unsupervised induction of user intents from conversational customer service corpora |
US11501033B2 (en) * | 2019-10-07 | 2022-11-15 | The Boeing Company | Model-based systems engineering model conversion with text requirements |
US20210117882A1 (en) | 2019-10-16 | 2021-04-22 | Talkdesk, Inc | Systems and methods for workforce management system deployment |
US11425064B2 (en) | 2019-10-25 | 2022-08-23 | Asapp, Inc. | Customized message suggestion with user embedding vectors |
US20210136220A1 (en) | 2019-10-31 | 2021-05-06 | Talkdesk, Inc. | Monitoring and listening tools across omni-channel inputs in a graphically interactive voice response system |
WO2021084439A1 (en) | 2019-11-03 | 2021-05-06 | Verint Systems Ltd. | System and method for identifying exchanges of encrypted communication traffic |
US11316980B2 (en) * | 2019-11-26 | 2022-04-26 | International Business Machines Corporation | Agent to bot transfer |
CN111159379B (zh) * | 2019-12-30 | 2022-12-20 | 苏宁云计算有限公司 | 一种自动出题方法、装置及系统 |
US11303753B2 (en) * | 2019-12-31 | 2022-04-12 | InContact Inc. | Enhancing agent's efficiency in a contact center by using a multi-agent to multi-contact routing orchestration |
US11736615B2 (en) | 2020-01-16 | 2023-08-22 | Talkdesk, Inc. | Method, apparatus, and computer-readable medium for managing concurrent communications in a networked call center |
US11443264B2 (en) | 2020-01-29 | 2022-09-13 | Accenture Global Solutions Limited | Agnostic augmentation of a customer relationship management application |
JP7473346B2 (ja) * | 2020-01-31 | 2024-04-23 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | サービス解約方法、コンピュータプログラム及びサービス解約システム |
US11699037B2 (en) | 2020-03-09 | 2023-07-11 | Rankin Labs, Llc | Systems and methods for morpheme reflective engagement response for revision and transmission of a recording to a target individual |
US11892939B2 (en) | 2020-03-21 | 2024-02-06 | Dynatrace Llc | Automatic injection of agents into processes executing statically linked binaries |
US11039013B1 (en) * | 2020-04-10 | 2021-06-15 | Medallia, Inc. | Real-time contact center speech analytics, with critical call alerts, deployed across multiple security zones |
USD996462S1 (en) * | 2020-04-15 | 2023-08-22 | Sublink, Llc | Display screen or portion thereof with animated graphical user interface |
US11392960B2 (en) | 2020-04-24 | 2022-07-19 | Accenture Global Solutions Limited | Agnostic customer relationship management with agent hub and browser overlay |
US11481785B2 (en) | 2020-04-24 | 2022-10-25 | Accenture Global Solutions Limited | Agnostic customer relationship management with browser overlay and campaign management portal |
US11146512B1 (en) | 2020-05-12 | 2021-10-12 | ZenDesk, Inc. | Handing off customer-support conversations between a human agent and a bot without requiring code changes |
US11393462B1 (en) * | 2020-05-13 | 2022-07-19 | Amazon Technologies, Inc. | System to characterize vocal presentation |
RU2755781C1 (ru) * | 2020-06-04 | 2021-09-21 | Публичное Акционерное Общество "Сбербанк России" (Пао Сбербанк) | Интеллектуальное рабочее место оператора и способ его взаимодействия для осуществления интерактивной поддержки сессии обслуживания клиента |
US11330105B2 (en) | 2020-06-12 | 2022-05-10 | Optum, Inc. | Performance metric recommendations for handling multi-party electronic communications |
US11500608B2 (en) | 2020-06-17 | 2022-11-15 | Avaya Management L.P. | Smart audio playback |
JP7322830B2 (ja) * | 2020-07-28 | 2023-08-08 | トヨタ自動車株式会社 | 情報出力システムおよび情報出力方法 |
US11190643B1 (en) | 2020-07-30 | 2021-11-30 | Bank Of America Corporation | Automated redistribution of queries to underutilized channels |
DE102021109265A1 (de) | 2020-08-31 | 2022-03-03 | Cognigy Gmbh | Verfahren zur Optimierung |
US11526550B2 (en) | 2020-09-15 | 2022-12-13 | Bank Of America Corporation | System for building data communications using data extracted via frequency-based data extraction technique |
US11698933B1 (en) | 2020-09-18 | 2023-07-11 | Tableau Software, LLC | Using dynamic entity search during entry of natural language commands for visual data analysis |
US11568135B1 (en) * | 2020-09-23 | 2023-01-31 | Amazon Technologies, Inc. | Identifying chat correction pairs for training models to automatically correct chat inputs |
US11514897B2 (en) * | 2020-09-25 | 2022-11-29 | Genesys Telecommunications Laboratories, Inc. | Systems and methods relating to bot authoring by mining intents from natural language conversations |
US11580959B2 (en) | 2020-09-28 | 2023-02-14 | International Business Machines Corporation | Improving speech recognition transcriptions |
US11507903B2 (en) | 2020-10-01 | 2022-11-22 | Accenture Global Solutions Limited | Dynamic formation of inside sales team or expert support team |
US11301631B1 (en) | 2020-10-05 | 2022-04-12 | Tableau Software, LLC | Visually correlating individual terms in natural language input to respective structured phrases representing the natural language input |
US11636269B2 (en) | 2020-10-15 | 2023-04-25 | Fmr Llc | Content creation and prioritization |
US11769018B2 (en) * | 2020-11-24 | 2023-09-26 | Openstream Inc. | System and method for temporal attention behavioral analysis of multi-modal conversations in a question and answer system |
US20220215324A1 (en) * | 2021-01-07 | 2022-07-07 | Gladly, Inc. | Data tracking and generation for workforce management |
US11797586B2 (en) | 2021-01-19 | 2023-10-24 | Accenture Global Solutions Limited | Product presentation for customer relationship management |
US11605375B2 (en) * | 2021-03-05 | 2023-03-14 | Capital One Services, Llc | Systems and methods for dynamically updating machine learning models that provide conversational responses |
US20220294903A1 (en) * | 2021-03-12 | 2022-09-15 | Avaya Management L.P. | Virtual private agent for machine-based interactions with a contact center |
US11782974B2 (en) * | 2021-03-25 | 2023-10-10 | Bank Of America Corporation | System and method for dynamically identifying and retrieving information responsive to voice requests |
US11798551B2 (en) * | 2021-03-25 | 2023-10-24 | Bank Of America Corporation | System and method for voice controlled automatic information access and retrieval |
US11683283B2 (en) * | 2021-03-30 | 2023-06-20 | International Business Machines Corporation | Method for electronic messaging |
US11816677B2 (en) | 2021-05-03 | 2023-11-14 | Accenture Global Solutions Limited | Call preparation engine for customer relationship management |
US11755295B2 (en) | 2021-06-04 | 2023-09-12 | Bank Of America Corporation | Software development system |
US20220400093A1 (en) * | 2021-06-14 | 2022-12-15 | LiveChat Software S.A. | System and method for asynchronous messaging combined with a real-time communication |
US11677875B2 (en) | 2021-07-02 | 2023-06-13 | Talkdesk Inc. | Method and apparatus for automated quality management of communication records |
US11954436B2 (en) * | 2021-07-26 | 2024-04-09 | Freshworks Inc. | Automatic extraction of situations |
US11409593B1 (en) | 2021-08-05 | 2022-08-09 | International Business Machines Corporation | Discovering insights and/or resolutions from collaborative conversations |
US11915205B2 (en) * | 2021-10-15 | 2024-02-27 | EMC IP Holding Company LLC | Method and system to manage technical support sessions using ranked historical technical support sessions |
US11941641B2 (en) | 2021-10-15 | 2024-03-26 | EMC IP Holding Company LLC | Method and system to manage technical support sessions using historical technical support sessions |
US12008025B2 (en) | 2021-10-15 | 2024-06-11 | EMC IP Holding Company LLC | Method and system for augmenting a question path graph for technical support |
US20230196035A1 (en) * | 2021-12-17 | 2023-06-22 | Capital One Services, Llc | Identifying zones of interest in text transcripts using deep learning |
US11856140B2 (en) | 2022-03-07 | 2023-12-26 | Talkdesk, Inc. | Predictive communications system |
US11736616B1 (en) | 2022-05-27 | 2023-08-22 | Talkdesk, Inc. | Method and apparatus for automatically taking action based on the content of call center communications |
US11971908B2 (en) | 2022-06-17 | 2024-04-30 | Talkdesk, Inc. | Method and apparatus for detecting anomalies in communication data |
US11989502B2 (en) * | 2022-06-18 | 2024-05-21 | Klaviyo, Inc | Implicitly annotating textual data in conversational messaging |
US11943391B1 (en) | 2022-12-13 | 2024-03-26 | Talkdesk, Inc. | Method and apparatus for routing communications within a contact center |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US637944A (en) * | 1896-12-15 | 1899-11-28 | John H Quigley | Churn. |
JPH05324713A (ja) | 1992-05-20 | 1993-12-07 | Hitachi Ltd | 自然語処理方法および自然語処理システム |
US5748974A (en) * | 1994-12-13 | 1998-05-05 | International Business Machines Corporation | Multimodal natural language interface for cross-application tasks |
US5963940A (en) | 1995-08-16 | 1999-10-05 | Syracuse University | Natural language information retrieval system and method |
US6182029B1 (en) | 1996-10-28 | 2001-01-30 | The Trustees Of Columbia University In The City Of New York | System and method for language extraction and encoding utilizing the parsing of text data in accordance with domain parameters |
US5895466A (en) | 1997-08-19 | 1999-04-20 | At&T Corp | Automated natural language understanding customer service system |
US5960384A (en) | 1997-09-03 | 1999-09-28 | Brash; Douglas E. | Method and device for parsing natural language sentences and other sequential symbolic expressions |
US6173279B1 (en) | 1998-04-09 | 2001-01-09 | At&T Corp. | Method of using a natural language interface to retrieve information from one or more data resources |
US6377944B1 (en) | 1998-12-11 | 2002-04-23 | Avaya Technology Corp. | Web response unit including computer network based communication |
US6851115B1 (en) | 1999-01-05 | 2005-02-01 | Sri International | Software-based architecture for communication and cooperation among distributed electronic agents |
US6243684B1 (en) | 1999-02-19 | 2001-06-05 | Usada, Inc. | Directory assistance system and method utilizing a speech recognition system and a live operator |
US20050091057A1 (en) * | 1999-04-12 | 2005-04-28 | General Magic, Inc. | Voice application development methodology |
US6401061B1 (en) | 1999-05-13 | 2002-06-04 | Yuri L. Zieman | Combinatorial computational technique for transformation phrase text-phrase meaning |
US6718367B1 (en) | 1999-06-01 | 2004-04-06 | General Interactive, Inc. | Filter for modeling system and method for handling and routing of text-based asynchronous communications |
GB9930731D0 (en) | 1999-12-22 | 2000-02-16 | Ibm | Voice processing apparatus |
US6829603B1 (en) | 2000-02-02 | 2004-12-07 | International Business Machines Corp. | System, method and program product for interactive natural dialog |
US6604094B1 (en) | 2000-05-25 | 2003-08-05 | Symbionautics Corporation | Simulating human intelligence in computers using natural language dialog |
US6778951B1 (en) | 2000-08-09 | 2004-08-17 | Concerto Software, Inc. | Information retrieval method with natural language interface |
US7136814B1 (en) | 2000-11-03 | 2006-11-14 | The Procter & Gamble Company | Syntax-driven, operator assisted voice recognition system and methods |
US6941266B1 (en) | 2000-11-15 | 2005-09-06 | At&T Corp. | Method and system for predicting problematic dialog situations in a task classification system |
US6766316B2 (en) | 2001-01-18 | 2004-07-20 | Science Applications International Corporation | Method and system of ranking and clustering for document indexing and retrieval |
US6587558B2 (en) | 2001-01-29 | 2003-07-01 | Immequire, Llc | System and method for virtual interactive response unit |
US6901398B1 (en) * | 2001-02-12 | 2005-05-31 | Microsoft Corporation | System and method for constructing and personalizing a universal information classifier |
US7305345B2 (en) * | 2001-02-15 | 2007-12-04 | Livewire Acquisition, Inc. | Methods, systems, and computer program products for providing automated customer service via an intelligent virtual agent that is trained using customer-agent conversations |
JP2002358304A (ja) | 2001-05-31 | 2002-12-13 | P To Pa:Kk | 会話制御システム |
US6915246B2 (en) | 2001-12-17 | 2005-07-05 | International Business Machines Corporation | Employing speech recognition and capturing customer speech to improve customer service |
US6771746B2 (en) | 2002-05-16 | 2004-08-03 | Rockwell Electronic Commerce Technologies, Llc | Method and apparatus for agent optimization using speech synthesis and recognition |
US20040162724A1 (en) * | 2003-02-11 | 2004-08-19 | Jeffrey Hill | Management of conversations |
US7606714B2 (en) * | 2003-02-11 | 2009-10-20 | Microsoft Corporation | Natural language classification within an automated response system |
US7219054B1 (en) * | 2003-04-04 | 2007-05-15 | At&T Corp. | Systems and methods for generating an annotation guide |
CN100359976C (zh) * | 2003-04-15 | 2008-01-02 | 华为技术有限公司 | 一种根据移动电话号码进行分组业务监听的方法 |
-
2004
- 2004-09-10 US US10/939,288 patent/US7606714B2/en not_active Expired - Fee Related
-
2005
- 2005-09-07 BR BRPI0515169-4A patent/BRPI0515169A/pt not_active IP Right Cessation
- 2005-09-07 CA CA2826116A patent/CA2826116C/en not_active Expired - Fee Related
- 2005-09-07 JP JP2007531341A patent/JP4901738B2/ja not_active Expired - Fee Related
- 2005-09-07 KR KR1020077005672A patent/KR101169113B1/ko active IP Right Grant
- 2005-09-07 CN CN2005800297036A patent/CN101010934B/zh not_active Expired - Fee Related
- 2005-09-07 EP EP05806989.9A patent/EP1787458A4/en not_active Withdrawn
- 2005-09-07 RU RU2007108794/09A patent/RU2391791C2/ru not_active IP Right Cessation
- 2005-09-07 CA CA2576605A patent/CA2576605C/en not_active Expired - Fee Related
- 2005-09-07 AU AU2005285108A patent/AU2005285108B2/en not_active Ceased
- 2005-09-07 WO PCT/US2005/032039 patent/WO2006031609A2/en active Application Filing
- 2005-09-07 MX MX2007002880A patent/MX2007002880A/es active IP Right Grant
-
2009
- 2009-02-03 US US12/364,807 patent/US8000973B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CN101010934B (zh) | 2010-09-29 |
RU2007108794A (ru) | 2008-09-20 |
JP2008512789A (ja) | 2008-04-24 |
CA2576605C (en) | 2014-01-14 |
EP1787458A4 (en) | 2014-05-21 |
CA2826116C (en) | 2014-07-08 |
RU2391791C2 (ru) | 2010-06-10 |
AU2005285108A1 (en) | 2006-03-23 |
US7606714B2 (en) | 2009-10-20 |
CA2826116A1 (en) | 2006-03-23 |
WO2006031609A2 (en) | 2006-03-23 |
WO2006031609A3 (en) | 2006-06-08 |
BRPI0515169A (pt) | 2008-07-08 |
KR20070055530A (ko) | 2007-05-30 |
EP1787458A2 (en) | 2007-05-23 |
KR101169113B1 (ko) | 2012-07-27 |
CA2576605A1 (en) | 2006-03-23 |
US20050105712A1 (en) | 2005-05-19 |
US20090228264A1 (en) | 2009-09-10 |
US8000973B2 (en) | 2011-08-16 |
JP4901738B2 (ja) | 2012-03-21 |
CN101010934A (zh) | 2007-08-01 |
AU2005285108B2 (en) | 2010-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CA2576605C (en) | Natural language classification within an automated response system | |
EP1602102B1 (en) | Management of conversations | |
US8694324B2 (en) | System and method of providing an automated data-collection in spoken dialog systems | |
US8644488B2 (en) | System and method for automatically generating adaptive interaction logs from customer interaction text | |
US20110106527A1 (en) | Method and Apparatus for Adapting a Voice Extensible Markup Language-enabled Voice System for Natural Speech Recognition and System Response | |
WO2021135534A1 (zh) | 基于语音识别的对话管理处理方法、装置、设备及介质 | |
CN113228606A (zh) | 来自移动通信会话的语义crm副本 | |
CN114328867A (zh) | 一种人机对话中智能打断的方法及装置 | |
WO2002089113A1 (en) | System for generating the grammar of a spoken dialogue system | |
Lee et al. | A study on natural language call routing | |
Suendermann et al. | Crowdsourcing for industrial spoken dialog systems | |
Karat et al. | Speech and language interfaces, applications, and technologies | |
Di Fabbrizio et al. | Bootstrapping spoken dialogue systems by exploiting reusable libraries | |
Gergely et al. | Semantics driven intelligent front-end | |
AU2022215180A1 (en) | Mobile intelligent outside sales assistant | |
CA3181446A1 (en) | Unified, cross-channel, multidimensional insight generation | |
CN111324702A (zh) | 人机对话方法及模拟人声进行人机对话的耳麦 | |
Park | Your call may be recorded for automatic quality-control | |
Meng | MULTILINGUAL DIALOG SYSTEMS |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FG | Grant or registration |