ES2398756T3 - Provisión de una infraestructura de comunicaciones multimodales para el funcionamiento de un centro de llamadas automatizado - Google Patents
Provisión de una infraestructura de comunicaciones multimodales para el funcionamiento de un centro de llamadas automatizado Download PDFInfo
- Publication number
- ES2398756T3 ES2398756T3 ES08168071T ES08168071T ES2398756T3 ES 2398756 T3 ES2398756 T3 ES 2398756T3 ES 08168071 T ES08168071 T ES 08168071T ES 08168071 T ES08168071 T ES 08168071T ES 2398756 T3 ES2398756 T3 ES 2398756T3
- Authority
- ES
- Spain
- Prior art keywords
- agent
- text
- call
- caller
- session
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/51—Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
- H04M3/5183—Call or contact centers with computer-telephony arrangements
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/42221—Conversation recording systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/42382—Text-based messaging services in telephone networks such as PSTN/ISDN, e.g. User-to-User Signalling or Short Message Service for fixed networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/487—Arrangements for providing information services, e.g. recorded voice services or time announcements
- H04M3/493—Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
- H04M3/4936—Speech interaction details
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/51—Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/51—Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
- H04M3/5133—Operator terminal details
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/51—Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
- H04M3/5166—Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing in combination with interactive voice response systems or voice portals, e.g. as front-ends
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/51—Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
- H04M3/523—Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing with call distribution or queueing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/53—Centralised arrangements for recording incoming messages, i.e. mailbox systems
- H04M3/5322—Centralised arrangements for recording incoming messages, i.e. mailbox systems for recording text messages
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/12—Messaging; Mailboxes; Announcements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/38—Displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/39—Electronic components, circuits, software, systems or apparatus used in telephone systems using speech synthesis
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/40—Electronic components, circuits, software, systems or apparatus used in telephone systems using speech recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/60—Medium conversion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2203/00—Aspects of automatic or semi-automatic exchanges
- H04M2203/30—Aspects of automatic or semi-automatic exchanges related to audio recordings in general
- H04M2203/306—Prerecordings to be used during a voice call
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2203/00—Aspects of automatic or semi-automatic exchanges
- H04M2203/35—Aspects of automatic or semi-automatic exchanges related to information services provided via a voice call
- H04M2203/357—Autocues for dialog assistance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2203/00—Aspects of automatic or semi-automatic exchanges
- H04M2203/45—Aspects of automatic or semi-automatic exchanges related to voicemail messaging
- H04M2203/4536—Voicemail combined with text-based messaging
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/42025—Calling or Called party identification service
- H04M3/42034—Calling party identification service
- H04M3/42059—Making use of the calling party identifier
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/53—Centralised arrangements for recording incoming messages, i.e. mailbox systems
- H04M3/533—Voice mail systems
Abstract
Sistema (30) para proporcionar una infraestructura de comunicaciones multimodales para el funcionamiento de uncentro de llamadas automatizado (11), que comprende: una interfaz de telefonía (35) configurada para aceptar una llamada multimodal de un llamador (12-15);un servidor de mensajería (31) configurado para asignar automáticamente la llamada multimodal, a través de unadministrador de sesiones (47), a una sesión con la intervención de un agente real (81), y para recibircomunicaciones de voz y mensajes de texto en la llamada multimodal, que se originan simultáneamente 10 en elllamador; un módulo de reconocimiento de voz (36) configurado para convertir el discurso entrante (54) de lascomunicaciones de voz de la llamada multimodal en un texto transcrito (57); un procesador de mensajes de texto configurado para emparejar por lo menos uno de los mensajes de texto delllamador con el texto transcrito (57) del discurso entrante (54) durante la sesión que está en curso; yuna consola de agente (39) configurada para procesar progresivamente el texto transcrito (57) y los mensajes detexto de entrada durante la sesión, a través de una aplicación del agente (43) ejecutando un escenario de atenciónal cliente (22) supervisado y controlado interactivamente por el agente real (81).
Description
Provisión de una infraestructura de comunicaciones multimodales para el funcionamiento de un centro de llamadas automatizado.
Campo técnico
La presente invención se refiere en general al funcionamiento de un centro de llamadas automatizado y, en particular, a un sistema y un procedimiento para proveer una infraestructura de comunicaciones multimodales para el funcionamiento de un centro de llamadas.automatizado.
Antecedentes de la técnica
Los centros de llamadas del cliente, o simplemente "centros de llamadas", suelen ser el primer punto de contacto directo para los clientes que buscan asistencia directa de los fabricantes y proveedores de servicios. Los centros de llamadas son accesibles por teléfono y ofrecen una fuente única de atención al cliente y resolución de problemas. Aunque la atención al cliente basada en la red cada vez sea más asequible por medio de Internet, los centros de llamadas todavía ofrecen un cómodo foro de ámbito mundial para la asistencia remota al cliente. Además, para los llamadores móviles, tales como los clientes que se encuentran en un vehículo y no pueden acceder a Internet, los centros de llamadas siguen siendo el único recurso práctico para recibir asistencia sobre el terreno.
Puesto que la satisfacción y buena voluntad del cliente dependen significativamente del servicio postventa, los vendedores dedican tiempo, dinero y esfuerzos considerables a asegurar un eficaz funcionamiento del centro de llamadas. Los profesionales de asistencia al cliente están capacitados para ofrecer tanto una eficaz y cortés comunicación como una documentada y precisa información de productos y servicios. No obstante, el volumen de tráfico de llamadas a menudo puede sobrepasar las capacidades de los agentes humanos de asistencia al cliente, y en ese sentido actualmente se utiliza una diversidad de sistemas de centros de llamadas automatizados para ayudar a salvar la distancia entre la necesidad de ofrecer una asistencia sensible y los límites del personal humano del centro de llamadas.
Normalmente, en los sistemas de centros de llamadas automatizados actuales, los clientes se ponen en espera hasta que hay un agente disponible para aceptar su llamada. Mientras se hallan en espera, el sistema automatizado suele recopilar información del diente, tal como el número de cuenta, para determinar la prioridad de servicio. Dicho sistema también puede ofrecer menús automatizados con los que se intenta clasificar la llamada en tipos de transacción básicos, por ejemplo, en función del idioma hablado.
Cuando hay un agente disponible para aceptar la llamada, el agente saluda y puede solicitar información de identificación al cliente y, a continuación, trata de determinar la naturaleza de la llamada, solicitando a menudo la misma información que el cliente ha facilitado previamente al sistema automatizado. Entonces, el agente emprende alguna acción, tal como la resolución de problemas y la provisión al llamador de instrucciones para resolver el problema. Además, para ayudar a mejorar la atención al cliente, el agente generalmente registra la información del cliente facilitada por el llamador.
Cada llamada del cliente suele ser un procedimiento interactivo. Durante la interacción, el agente puede poner el cliente en espera mientras recopila información, toma notas o tal vez realiza acciones para otros clientes. Por último, una vez terminada la llamada, el agente resume la llamada como una entrada del registro de llamadas. El procedimiento interactivo se repite para cada nuevo llamador a lo largo de todo el día. Este procedimiento interactivo es ineficiente desde el punto de vista del tiempo. Los agentes se ven forzados a esperar a que los clientes ejecuten las instrucciones y, análogamente, los clientes permanecen en espera mientras los agentes prestan asistencia a otros llamadores, encuentran una solución a sus problemas o crean registros de llamadas.
Se describe un sistema de interacción con el cliente en la patente US nº 6.778.660, concedida a Fromm y publicada el 17 de agosto de 2004, la exposición de la cual se incorpora a título de referencia. El sistema permite a los agentes procesar simultáneamente los contactos de voz de los llamadores telefónicos, almacenando las señales del discurso entrante para una reproducción ajustable al tiempo y rápida. Las llamadas se encaminan hacia agentes asignados cuando es posible. Si el agente está ocupado, se solicita al usuario que formule su pregunta para ponerla en una o más colas. Posteriormente, el agente procesa y responde a la pregunta en persona, de una manera similar a la utilizada en las interacciones de chat en la red. Los agentes responden a las grabaciones de voz en el orden en que se reciben y aprovechan la reproducción rápida prestada de manera adicional que les permite ponerse al día con los mensajes grabados. Sin embargo, tanto los mensajes del usuario como del agente permanecen como conversaciones de discurso grabadas en un formato audible no textual y, en consecuencia, requieren plena atención del agente asignado.
En consecuencia, se plantea la necesidad de encontrar una forma de abordar la prestación de un servicio de centro de llamadas automatizado que ofrezca atención altamente sensible a los llamadores, con un tiempo de inactividad del agente y un tiempo de espera de los llamadores mínimos.
También se plantea la necesidad de encontrar una forma de abordar la prestación de un procesamiento eficiente de los mensajes de los llamadores, utilizando los enunciados de discurso transcritos y sintetizados como medios de comunicación interna dentro del centro de llamadas automatizado.
El documento US2005/147090 A1 da a conocer un centro de llamadas multimedia con un sistema de autoayuda para el cliente (Resumen). Un centro de comunicación recibe una transacción, tal como una llamada en tiempo real
o un evento de medios, incluido un mensaje de correo electrónico (párrafos [0063] y [0088]). Una vez recibida la transacción, se determina el tipo de llamada o evento de medios y este se procesa en función del tipo (párrafos [0064] y [0088]). El contenido de la transacción recibida en el centro de comunicación se registra y almacena según las normas de la empresa (párrafos [0070] y [0089]). Se extrae información de la transacción para crear una base de conocimientos que puede utilizarse para la gestión dinámica y un futuro análisis (párrafo [0090]).
El documento US2005/213743 A1 da a conocer cómo se transfiere un cliente a un agente real cuando se cumplen predeterminados criterios (Resumen). El cliente se comunica primero con un agente conversacional a través de una consulta de texto (párrafo [0025]). El agente conversacional es un programa informático que evalúa la consulta formulada por el cliente (párrafo [0026]). Si no se puede llegar a ninguna solución, el agente conversacional eleva el nivel del cliente hasta el agente real a través de una llamada telefónica, un mensaje instantáneo o un mensaje de texto móvil (Id.). El nivel del cliente puede elevarse hasta el agente real a través de un enlace, una dirección de correo electrónico o un número de teléfono, o participando en la conversación actual (párrafo [0086]).
Exposición de la invención
En la forma de realización descrita, un agente y un cliente se comunican a través de unos mensajes de voz utilizando un sistema basado en voz digitalizada. Desde la perspectiva del cliente, la experiencia se percibe como una interacción con una máquina inteligente. La interacción se asemeja a una llamada a un antiguo sistema de centro de llamadas automatizadas con agentes humanos, aunque los clientes son conscientes de que el agente es automatizado, no humano.
Preferentemente, la voz del sistema es clara y similar a la humana, aunque es reconocible como voz de máquina. Aunque las respuestas pueden sufrir pequeñas demoras a diferencia de lo que ocurre con las respuestas de un agente humano, el cliente no necesitará repetir información que ya ha facilitado y generalmente no será puesto en espera. El cliente puede solicitar al sistema que repita la información facilitada, y esta le es facilitada de una forma que el cliente en general percibe como paciente y cortés.
Desde el punto de vista operativo, el sistema difiere de los sistemas antiguos. En vez de ofrecer comunicaciones voz a voz a tiempo completo, el sistema ofrece a los agentes la posibilidad de controlar un flujo continuo de respuestas cada vez más automatizadas en forma de control "deslizante". En la mayoría de las interacciones, cada enunciado de discurso del cliente se registra y almacena, se transcribe digitalmente como un mensaje de texto y se presenta a un agente fuera de línea a través de una interfaz visual de una estación de trabajo. El agente puede leer u opcionalmente escuchar cada enunciado en el momento de su recepción, así como enunciados anteriores. Asimismo, el agente puede anotar o retranscribir manualmente cada uno de los enunciados del cliente cuando sea necesario.
Una vez que se ha establecido una sesión, cada agente humano puede comunicarse indirectamente con los clientes escribiendo respuestas desde su estación de trabajo. Cuando se termina de escribir cada respuesta esta se convierte en discurso y reproduce para el cliente.
El agente también puede elegir respuestas preparadas, lo cual le permite ahorrar tiempo y comunicarse de una manera coherente y uniforme. Las respuestas preparadas pueden comprender un formulario asociado que contiene campos de variables con parámetros creados por el agente o el sistema para cumplimentar, por ejemplo, fechas o nombres. Entonces, la respuesta preparada cumplimentada se convierte en discurso. Como alternativa, las respuestas preparadas se pueden grabar previamente como fragmentos de audio y disponer en una memoria caché de audio para su reproducción inmediata.
Además de la comunicación indirecta por medio de la estación de trabajo, cada agente humano puede aceptar también llamadas en tiempo real de los clientes en la modalidad voz a voz de tiempo real. El procesamiento de llamadas en tiempo real puede ser necesario para gestionar emergencias u otras necesidades de servicios que no son susceptibles de automatización, o para prestar a los clientes servicios que, en general son inaceptables cuando se facilitan de forma automatizada.
También puede establecerse la comunicación entre un cliente y un agente humano por medio de mensajes de texto, por ejemplo a través del servicio de mensajes cortos (SMS), así como la comunicación multimodal, que comprende una combinación de mensajes de voz y de texto. Las comunicaciones de texto pueden examinarse y almacenarse automáticamente como una entrada de registro sin necesidad de transcripción. La comunicación multimodal permite al cliente enviar información al agente durante la sesión de llamada para facilitar datos adicionales.
Además, cuando un agente detecta que hay una llamada que coincide con un problema reconocido o una petición frecuente, el agente puede elegir un "script" predefinido para solicitar y obtener o simplemente facilitar información al cliente de manera secuencial. Por ejemplo, podría utilizarse un script para obtener la información personal del cliente para una solicitud de crédito, o para dar instrucciones sobre el uso de una característica de un producto de consumo en una aplicación de atención al cliente. Por lo tanto, la capacidad de un agente para interactuar con los clientes a través de respuestas de texto manuales o automatizadas convertidas a discurso o a través de respuestas de voz pregrabada o en tiempo real ofrece un nivel de control flexible y deslizante al agente que puede adaptarse a una amplia diversidad de situaciones de servicio al cliente.
El sistema también ofrece una función de registro diario automático. Para cuando cada llamada haya terminado, el sistema habrá obtenido un registro completo y totalmente transcrito de la conversación. El agente humano no necesita transcribir manualmente ninguna entrada del registro, puesto que la información contenida en el registro generado por el sistema ya se halla en un formato que puede almacenarse en una base de datos y someterse fácilmente a extracción de datos. Pueden añadirse anotaciones manuales a la entrada de registro cuando sea necesario.
Empíricamente, desde la perspectiva de un agente, una llamada al servicio al cliente normal dura siete minutos cuando se utiliza un antiguo centro de llamadas, de los cuales dos se emplean en la introducción y la configuración y dos más en el cierre y la documentación. La forma de realización descrita suprime la mayor parte del tiempo invertido en la configuración y el cierre y reduce en alrededor del 30 % el tiempo que el agente dedica a una llamada. Desde el punto de vista del cliente, pese a que la duración global de la llamada pueda ser igual, los tiempos de espera se suprimen, si bien se pueden producir ligeras aunque inofensivas demoras entre las respuestas del agente.
Gracias a la amplia capacidad de registro y presentación visual del agente, este puede realizar el seguimiento de más de una sesión con un cliente. El agente puede ocuparse de varias llamadas a la vez, mientras los clientes casi no percibirán ningún deterioro en la calidad de la llamada. En la forma de realización descrita, un agente puede ocuparse de cuatro llamadas simultáneamente. Sin embargo, el sistema podría mantener un número elevado arbitrario de llamadas simultáneas para cada agente, estando dicho número sujeto únicamente a restricciones informáticas de carácter físico, tales como la potencia de procesamiento y la memoria disponibles. Cada agente es capaz de ocuparse de varias llamadas, ya que no necesita escuchar a cada uno de los clientes en el momento en estos hablan. En su lugar, los agentes pueden escuchar o leer enunciados transcritos y mensajes de texto del cliente, con lo cual pueden dividir su atención entre diversas llamadas. La capacidad de usar formularios pregrabados para recopilar o facilitar información estándar aumenta aún más la capacidad del agente para ocuparse de varias llamadas. Por ejemplo, mientras el cliente interactúa con un script de recopilación de información personal, tal como el nombre y los apellidos, el número de seguridad social, la dirección y el número de teléfono, etc., el agente puede ocuparse de otros llamadores.
Una forma de realización consiste en un sistema y un procedimiento para ofrecer una infraestructura de comunicaciones basadas en mensajes para el funcionamiento de un centro de llamadas automatizado. En un centro de llamadas, se acepta la llamada de un usuario. La llamada aceptada comprende una secuencia de discursos verbales transcritos. Cada discurso verbal transcrito se registra como un mensaje de usuario. Se asigna la llamada aceptada a una sesión, que se asigna luego a un agente. La llamada se procesa progresivamente en la sesión asignada, presentando cada mensaje de usuario al agente asignado, ejecutando mensajes que responden a las necesidades del agente asignado y enviando un mensaje del agente al usuario. El mensaje del agente comprende una secuencia de discursos de voz audibles sintetizados.
Otra forma de realización consiste en un sistema y un procedimiento para utilizar de manera eficaz un centro de llamadas automatizado a través de mensajes de texto. El llamador de voz se interconecta a través de unos medios telefónicos. Durante una llamada, se intercambian enunciados de discurso audibles con un centro de llamadas automatizado. Cada llamada se gestiona como una sesión, y cada sesión se asigna a un agente. Los enunciados de discurso audibles de entrada se convierten en mensajes de texto procesables por máquina que se facilitan al agente asignado a la sesión. Se ejecuta la acción especificada por el agente asignado. Los mensajes de texto procesables por máquina de salida se convierten en enunciados de discurso audibles que se facilitan al llamador de voz que entabla la sesión.
Otra forma de realización consiste en un sistema y un procedimiento para ofrecer una infraestructura de comunicaciones multimodales para el funcionamiento de un centro de llamadas automatizado. Una llamada multimodal del llamador se acepta a través de una interfaz de telefonía, que admite llamadas multimodales, incluidos por lo menos los mensajes verbales o de texto. El discurso entrante de la llamada multimodal se convierte en texto transcrito. Los mensajes de texto de entrada se emparejan con el texto transcrito. Con intervención de un agente real, se asigna automáticamente una llamada multimodal a una sesión, a través de un administrador de sesiones. El texto transcrito y los mensajes de texto de entrada se procesan de forma progresiva durante la sesión, a través de una aplicación del agente, siguiendo un escenario de atención al cliente supervisado y controlado interactivamente por el agente real.
Otra forma de realización, se describe un sistema para ofrecer una infraestructura de comunicaciones multimodales para el funcionamiento de un centro de llamadas automatizado. Este sistema comprende; una interfaz de telefonía configurada para aceptar una llamada multimodal del llamador, que admite llamadas multimodales que comprenden por lo menos mensajes verbales o mensajes de texto; un módulo de reconocimiento de discurso configurado para convertir el discurso entrante de la llamada multimodal en texto transcrito; un procesador de mensajes de texto para emparejar los mensajes de texto de entrada con el texto transcrito; un servidor de mensajería configurado para asignar automáticamente la llamada multimodal a una sesión a través de un administrador de sesiones con intervención de un agente real; y una consola de agente configurada para procesar de forma progresiva el texto transcrito y los mensajes de texto de entrada durante la sesión a través de una aplicación del agente, siguiendo un escenario de atención al cliente supervisado y controlado interactivamente por el agente real.
En otra forma de realización, se da a conocer un procedimiento para facilitar una infraestructura de comunicaciones multimodales para el funcionamiento de un centro de llamadas automatizado. El procedimiento comprende las etapas de aceptación de una llamada multimodal de un llamador a través de una interfaz de telefonía, que admite llamadas multimodales que comprenden por lo menos mensajes verbales o de texto; la conversión del discurso entrante de la llamada multimodal en texto transcrito; el emparejamiento de los mensajes de texto de entrada con el texto transcrito; la asignación automática de la llamada multimodal a una sesión a través de un administrador de sesiones con intervención de un agente real; y el procesamiento progresivo del texto transcrito y los mensajes de texto de entrada durante la sesión a través de una aplicación del agente, siguiendo un escenario de atención al cliente supervisado y controlado interactivamente por el agente real.
En otra forma de realización, se describe un sistema para ofrecer una infraestructura de comunicaciones multimodales para el funcionamiento de un centro de llamadas automatizado. El sistema comprende una interfaz de telefonía configurada para aceptar una llamada multimodal del llamador, que admite llamadas multimodales que comprenden por lo menos mensajes verbales o mensajes de texto; un servidor de mensajería configurado para asignar automáticamente la llamada multimodal a una sesión a través de un administrador de sesiones con intervención de un agente real, un módulo de reconocimiento de discurso configurado para convertir el discurso entrante de la llamada multimodal en texto transcrito; un procesador de mensajes de texto configurado para emparejar los mensajes de texto de entrada con el texto transcrito; y una consola de agente configurada para procesar de forma progresiva el texto transcrito y los mensajes de texto de entrada durante la sesión a través de una aplicación del agente, siguiendo un escenario de atención al cliente supervisado y controlado interactivamente por el agente real.
El sistema puede comprender además una base de datos configurada para almacenar los mensajes de texto de entrada como una entrada de registro y para emparejar la entrada de registro con una copia del texto transcrito. Los mensajes de texto de entrada y el discurso entrante pueden originarse simultáneamente en el llamador. El sistema puede comprender además un módulo de identificación de llamador configurado para asignar una identificación de llamador a los mensajes de texto de entrada, y un servidor de mensajería configurado para enviar los mensajes de texto de entrada al agente en real basándose en la identificación de llamador. El sistema puede comprender además un módulo de posprocesamiento configurado para aplicar un posprocesamiento a los mensajes de texto de entrada. El sistema puede comprender además un módulo de identificación configurado para identificar los mensajes de texto de entrada como datos literales del llamador; y una base de datos configurada para almacenar los mensajes de texto de entrada identificados. El agente real puede procesar el discurso entrante escuchando la llamada multimodal y emprendiendo una acción que comprende por lo menos la anotación o la transcripción manual del discurso entrante.
En otra forma de realización, se describe un procedimiento para ofrecer una infraestructura de comunicaciones multimodales para el funcionamiento de un centro de llamadas automatizado, que comprende las etapas de aceptación de una llamada multimodal de un llamador a través de una interfaz de telefonía, que admite llamadas multimodales que comprenden por lo menos mensajes verbales o de texto; asignación automática de la llamada multimodal a una sesión a través de un administrador de sesiones con intervención de un agente real, conversión del discurso entrante de la llamada multimodal en texto transcrito; emparejamiento de los mensajes de texto de entrada con el texto transcrito; y el procesamiento progresivo del texto transcrito y los mensajes de texto de entrada durante la sesión a través de una aplicación del agente, siguiendo un escenario de atención al cliente supervisado y controlado interactivamente por el agente real.
El procedimiento puede comprender además el almacenamiento de los mensajes de texto de entrada como una entrada de registro y el emparejamiento de la entrada de registro con una copia almacenada del texto transcrito. Los mensajes de texto de entrada y el discurso entrante se originan simultáneamente en el llamador. El procedimiento puede comprender además las etapas de asignación de una identificación de llamador a los mensajes de texto de entrada, y el envío de los mensajes de texto al agente real basándose en la identificación de llamador. El procedimiento puede comprender además la etapa de posprocesamiento de los mensajes de texto de entrada. El procedimiento puede comprender además la etapa de identificación de los mensajes de texto de entrada como datos literales del llamador y el almacenamiento de los mensajes de texto de entrada identificados. El procedimiento puede comprender además las etapas de procesamiento, por el agente real, del discurso entrante escuchando la llamada multimodal y realización de una acción que comprende por lo menos la anotación o la transcripción manual del discurso entrante.
En un ejemplo, se describe un sistema para prestar servicios al llamador a través de la comunicación multimodal. El sistema comprende un servidor de mensajería configurado para asignar una llamada multimodal de entrada de un llamador a una sesión de llamada que presenta una identificación de llamador exclusiva y que es gestionada por un agente; una interfaz de telefonía configurada para recibir una comunicación verbal del llamador durante la sesión de llamada; un módulo de reconocimiento de voz configurado para convertir la voz en texto trascrito y configurado además para facilitar el texto transcrito al agente; una pasarela de texto configurada para recibir mensajes de texto de entrada del llamador, un módulo de identificación para asignar la identificación de llamador exclusiva a cada mensaje de texto de entrada y configurado además para facilitar los mensajes de texto de entrada al agente basándose en la identificación de llamador exclusiva; y un motor de texto a voz configurado para recibir mensajes de texto de salida del agente y configurado además para convertir los mensajes de texto de salida en una secuencia de voz sintetizada de salida que se presenta al llamador.
La comunicación verbal y los mensajes de texto de entrada de las formas de realización se originan simultáneamente en el llamador. El sistema del ejemplo puede comprender además una interfaz de comunicación configurada para recibir la comunicación verbal y los mensajes de texto de entrada en un centro de llamadas a través de secuencias de comunicación separadas, y configurada además para emparejar la comunicación verbal y los mensajes de texto de entrada, y que comprende un módulo de identificación de llamador configurado para asignar la identificación de llamador exclusiva a la comunicación verbal; y un módulo de emparejamiento de llamadas configurado para emparejar la identificación de llamador exclusiva de la comunicación verbal y los mensajes de texto de entrada con la sesión del llamador. El sistema puede comprender además una base de datos configurada para almacenar el texto transcrito y los mensajes de texto de entrada en un registro de llamadas. El sistema puede comprender asimismo un módulo de información del llamador configurado para recibir la llamada multimodal desde un dispositivo de comunicación móvil, configurado para obtener información del llamador que comprende datos de localización desde el dispositivo de comunicación móvil, y configurado además para analizar los datos de localización y determinar la ubicación del llamador.
Otro ejemplo tiene por finalidad ofrecer la prestación de servicios a un llamador a través de una comunicación multimodal. El procedimiento comprende las etapas de asignación de una llamada multimodal de entrada de un llamador a una sesión de llamada que presenta una identificación de llamador exclusiva y que es gestionada por un agente, y prestación de servicios al llamador durante la llamada multimodal, que comprenden la recepción de una comunicación verbal del llamador durante la sesión de llamada y la conversión de la voz en texto transcrito; el suministro del texto transcrito al agente, la recepción de mensajes de texto de entrada del llamador y la asignación de la identificación de llamador exclusiva a cada mensaje de texto de entrada; el suministro de los mensajes de texto de entrada al agente basándose en la identificación de llamador exclusiva y la recepción de mensajes de texto de salida desde el agente y la conversión de los mensajes de texto de salida en una secuencia de salida de voz sintetizada que se presenta al llamador. La comunicación verbal y los mensajes de texto de entrada de las formas de realización se originan simultáneamente en el llamador. El procedimiento del ejemplo puede comprender además las etapas de recepción de la comunicación verbal y los mensajes de texto de entrada en un centro de llamadas a través de secuencias de comunicación separadas, y el emparejamiento de la comunicación verbal y los mensajes de texto de entrada, que comprende la asignación de la identificación de llamador exclusiva a la comunicación verbal y el emparejamiento de la identificación exclusiva del llamador de la comunicación verbal y los mensajes de texto de entrada con la sesión del llamador. El procedimiento puede comprender además el almacenamiento del texto transcrito y los mensajes de texto de entrada en un registro de llamada. El procedimiento puede comprender además las etapas de recepción de la llamada multimodal desde un dispositivo de comunicación móvil, obtención de información del llamador que comprende datos de localización desde el dispositivo de comunicación móvil y análisis de los datos de localización para determinar la ubicación del llamador.
Otras formas de realización de la presente invención resultarán fácilmente evidentes a los expertos en la materia a partir de la siguiente descripción detallada, en la que se describen formas de realización de la presente invención a título de ilustración del que se considera mejor modo de realizar la presente invención. Como se comprenderá, la presente invención es capaz de adoptar otras formas de realización, siendo posible modificar los diversos detalles de la misma en diversos sentidos obvios, sin apartarse ni del sentido ni del alcance de la presente invención. En consecuencia, los dibujos y la descripción detallada deben interpretarse en sentido ilustrativo en lugar de restrictivo.
Descripción de los dibujos
La figura 1 es un diagrama de bloques funcionales que representa el entorno operativo de un centro de llamadas automatizado.
La figura 2 es un diagrama de flujo de proceso que representa, a título de ejemplo, una secuencia de llamada de usuario habitual, tal como la que se establece en el entorno operativo del centro de llamadas automatizado de la figura 1.
La figura 3A es un diagrama de bloques que representa un sistema para ofrecer una infraestructura de comunicaciones de mensajes para el funcionamiento del centro de llamadas automatizado, de conformidad con una
forma de realización.
La figura 3B es un diagrama de bloques que representa un sistema para ofrecer una infraestructura de comunicaciones de mensajes para el funcionamiento del centro de llamadas automatizado, de conformidad con otra forma de realización.
La figura 4 es un diagrama de flujo de proceso que representa los niveles de automatización variables obtenidos mediante el sistema de la figura 3A.
La figura 5 es un diagrama de bloques que representa un esquema para almacenar registros en la base de datos de registro del sistema de la figura 3A.
La figura 6 es un diagrama de flujo de proceso que representa, a título de ejemplo, el flujo de control seguido en el procesamiento de un script mediante el sistema de la figura 3A.
La figura 7A es una captura de pantalla que representa, a título de ejemplo, un conjunto de ventanas de servicio del centro de llamadas generadas mediante el sistema de la figura 1.
La figura 7B es una captura de pantalla que representa, a título de ejemplo, una única ventana de servicio del centro de llamadas que presenta varias pestañas de llamada, generada mediante el sistema de la figura 1.
La figura 8 es un diagrama de flujo que representa un procedimiento para ofrecer una infraestructura de comunicaciones de mensajes para el funcionamiento del centro de llamadas automatizado, de conformidad con una forma de realización.
La figura 9 es un diagrama de flujo que representa una rutina para asignar una sesión para utilizar en el procedimiento de la figura 8.
La figura 10 es un diagrama de flujo que representa una rutina para procesar una sesión para utilizar en el procedimiento de la figura 8.
La figura 11 es un diagrama de flujo que representa una rutina para que un agente procese una sesión para utilizar en la rutina de la figura 10.
La figura 12 es un diagrama de flujo que representa una rutina para que un motor de scripts procese una sesión para utilizar en la rutina de la figura 11.
La figura 13 es un diagrama de flujo que representa una rutina para ejecutar un script para utilizar en la rutina de la figura 12.
La figura 14 es un diagrama de bloques que representa un sistema de mensajería móvil para presentar datos de salida, de conformidad con otra forma de realización.
La figura 15 es un diagrama de flujo que representa una rutina para presentar datos de salida mediante el sistema de mensajería móvil de la figura 14.
La figura 16 es un diagrama de flujo que representa una rutina para visualizar información de presentación basada en el estado de un vehículo.
La figura 17 es un diagrama de bloques que representa un sistema de vehículo para la comunicación con el sistema de la figura 3A.
La figura 18 es un diagrama de flujo que representa un procedimiento para la comunicación con el sistema de la figura 3A, mediante el sistema de vehículo de la figura 17.
El apéndice A ofrece una gramática de muestra para utilizar en la forma de realización descrita.
Mejor modo de poner en práctica la invención
La figura 1 es un diagrama de bloques funcionales que representa el entorno operativo de un centro de llamadas automatizado 10. A título de ejemplo, una pluralidad de usuarios llaman a un centro de llamadas automatizado 11, preferentemente a través de unos medios telefónicos, que pueden comprender unos medios de mensajería de voz o de texto. Los medios telefónicos comprenden el servicio telefónico básico (POTS) 12, teléfonos celulares y por satélite 13, telefonía por Internet (IPTel) 14, Voz sobre IP (VoIP) 15, el servicio de mensajes cortos (SMS), mensajería de texto y otras formas de telefonía y comunicaciones de voz, como sabrán reconocer los expertos en la materia. Los usuarios también podrían llamar o interactuar con el centro de llamadas automatizado 11 a través de
unos medios de transmisión de datos, tales como un sistema de redes interconectadas 17, incluida Internet. La llamada puede comprender comunicaciones de voz, mensajería de texto o una combinación de comunicaciones de voz y de texto.
Independientemente del origen de la llamada, cada llamada del usuario se encamina, a través de un servicio de intercambio público de compañía telefónica (TelCo) 16 o centro de llamadas equivalente, hacia el centro de llamadas automatizado 11. Aunque se representa con referencia a un servicio de intercambio público TelCo 16, resultará obvio a los expertos en la materia que es posible utilizar cualquier otro sistema de redes de llamadas telefónicas o equivalentes en el que se transmitan señales de voz o de datos a través de diversos medios portadores de señal, incluidas las líneas terrestres convencionales; la radio, los satélites u otras formas de portadoras de señal; sistemas de intercambio de ondas de luz u ondas sonoras o equivalentes.
El centro de llamadas automatizado 11 ofrece una única fuente de atención y resolución de problemas a los clientes que buscan asistencia directa de los fabricantes y proveedores de servicios, aunque también pueden utilizarse centros de llamadas automatizados 11 en otras áreas de comercio, como sabrán reconocer los expertos en la materia. Los términos "usuario" y "cliente" se utilizan indistintamente en la presente memoria y ambos se refieren a un llamador que llama al centro de llamadas automatizado 11. Aunque el centro de llamadas automatizado 11 se representa como un único punto dentro del entorno operativo del centro de llamadas automatizado 10, el centro de llamadas automatizado 11 podría consistir en uno o más centros lógicamente interconectados pero físicamente separados, que comprenden operaciones apartadas geográficamente, que ofrecen un centro de llamadas automatizado y lógicamente unificado, como sabrán reconocer los expertos en la materia.
La figura 2 es un diagrama de flujo de proceso que representa, a título de ejemplo, una secuencia de llamada de usuario común 20, tal como la que se establece en el entorno operativo del centro de llamadas automatizado 10 de la figura 1. Después de llamar al centro de llamadas automatizado 11, cada usuario recibe un saludo inicial y un mensaje informativo que facilita una sinopsis de las opciones del llamador. Las opciones del llamador permiten al usuario navegar hacia un área de tema específico para obtener asistencia o ayuda técnica. Tras efectuar su selección, el usuario interviene en un escenario de atención al cliente 22 con un agente, que es una persona real o un servicio de avisos automáticos, tal como un sistema de respuestas de voz automatizado, que permite la recopilación de información y la resolución de problemas. Debe tenerse en cuenta que el modelo 22 puede sufrir retardos si no hay ningún agente disponible, o debido a los límites en la capacidad de volumen de llamadores u otro tipo de factores que pueden retardar la respuesta al cliente. Según las necesidades, la prestación de servicios 23 al usuario tiene lugar, ya sea directamente en el transcurso de la llamada, o bien indirectamente a través de una función de despacho de peticiones de servicio. Por último, la llamada termina en lo que se denomina "finalización" 24, etapa en la que se cierra la llamada y se da el saludo de despedida. Como advertirán los expertos en la materia, son posibles otras formas y variantes de secuencias de llamada del cliente. Sin embargo, es importante destacar que, desde el punto de vista del llamador, la experiencia se percibe como una interacción con una máquina inteligente, y que el llamador es consciente de que el agente es automatizado, no humano. En consecuencia, un llamador corriente tendrá unas expectativas más relajadas sobre la capacidad de respuesta del agente, puesto que quien está en la línea no es una persona real, sino una máquina.
La figura 3A es un diagrama de bloques que representa un sistema 30 para ofrecer una infraestructura de comunicaciones de mensajes para el funcionamiento de un centro de llamadas automatizado 11, denominado también sistema (MPACT) 30, de conformidad con la presente invención. Durante el funcionamiento normal, el sistema MPACT 30 ejecuta varios subprocesos para procesar varias llamadas simultáneas, que son gestionados por uno o más agentes que ejecutan aplicaciones de agente 43 en consolas de agente 39 (representadas en la figura 1). Por otra parte, en otra forma de realización, varios sistemas MPACT 30 desempeñan sus funciones en paralelo para ofrecer un mejor rendimiento a través de un procesamiento paralelo ligeramente o estrechamente conectado.
El sistema MPACT 30 consta de los siguientes componentes: una base de datos 34, una interfaz de telefonía (TI) 35, uno o más motores de reconocimiento de discurso (SRE) 36, uno o más motores de texto a voz (TTS) 37, una memoria caché de audio 38, una o más consolas de agente 39 y, opcionalmente, un administrador de recursos 40. Para que funcione el sistema MPACT 11, se requiere por lo menos un ejemplar de cada componente en general, exceptuando el administrador de recursos 40 que es opcional, y solo se requiere en sistemas de gran tamaño que comprenden más de un ejemplar de los otros componentes.
En la forma de realización descrita, un servidor de mensajería 31, una base de datos 34, una interfaz de telefonía 35, unos SRE 36, unos motores TTS 37 y una memoria caché de audio 38 desempeñan sus funciones en un solo sistema informático, mientras que una o más consolas de agente 39 funcionan en paralelo en sistemas informáticos paralelos. Los distintos componentes se comunican a través de una red de protocolo de Internet (IP), que generalmente se implementa a través de una red Ethernet local de alta velocidad. Los componentes del sistema MPACT 30 se ejecutan en servidores basados en Intel/AMD con el sistema operativo Windows 2000 Server Operating System y Redhat Linux. Cada consola de agente 39 se ejecuta en estaciones de trabajo basadas en Intel/AMD con el sistema operativo Windows 2000 Professional Operating System. A continuación, se describen en mayor detalle cada uno de los componentes.
Los distintos sistemas informáticos, incluido el sistema MPACT 30, son dispositivos informáticos digitales programados de uso general que constan de una unidad central de procesamiento (CPU), una memoria de acceso aleatorio (RAM), un dispositivo de almacenamiento secundario no volátil, tal como una unidad de disco duro, unas interfaces de red y unos dispositivos periféricos, que comprenden unos medios de interconexión, tales como un teclado y una pantalla. El código de programación, que comprende programas de software, y los datos se copian en la memoria RAM para su ejecución y procesamiento por la CPU, y se generan unos resultados que se van a visualizar, entregar, transmitir o almacenar.
Cada componente se implementa como se hace con un programa de ordenador, procedimiento o módulo escrito como código fuente en un lenguaje de programación convencional, tal como el lenguaje de programación C++, y se presenta para su ejecución por la CPU como código objeto o de byte, conocido en el ámbito de la técnica. Otra posibilidad es que los componentes se implementen en hardware, ya sea como circuitos integrados o "quemados" en memoria de solo lectura. Las diversas implementaciones del código fuente y los códigos objeto y de byte pueden mantenerse en unos medios de almacenamiento legibles por ordenador o adoptar la forma de realización de unos medios de transmisión en una onda portadora. El sistema MPACT 30 funciona de conformidad con una secuencia de etapas de proceso, tal como se describe en mayor detalle más adelante con referencia a la figura 8.
El servidor de mensajería 31 consta de un motor de scripts 32 y un administrador de sesiones 47. El motor de scripts 32 ejecuta scripts 49 que integran una gramática 33 que define un conjunto de instrucciones ejecutables para un diálogo de preguntas y respuestas especificadas e interactivas, y un administrador de sesiones 47 que comprende una cola de mensajes 48 para ordenar los mensajes transitorios del usuario y el agente. Cada aplicación de agente 43 mantiene localmente unos punteros de script ("Ptrs") 28 que indican los scripts concretos 49 que el motor de scripts 32 va a ejecutar. Como alternativa, podrían almacenarse scripts 29 en la base de datos 34 y entonces los punteros de script 28 aportarían punteros de base de datos a los scripts 29. El servidor de mensajería 31 recibe información de control de las llamadas desde la interfaz de telefonía 35 y localiza a los agentes que han terminado la sesión, los que han iniciado la sesión y los que se han registrado. El servidor de mensajería 31 utiliza esta información para establecer sesiones entre agentes y clientes, tal como se describe en mayor detalle más adelante con referencia a la figura 4.
La base de datos 34 contiene tres bases de datos primarias especializadas: una base de datos de registro (LDB) 44, una base de datos de perfiles de agente (APDB) 45 y una base de datos de aplicaciones de agente (AADB) 46. La base de datos de registro 44 ofrece un diario actualizado como un registro estructurado de cada llamada aceptada y almacena cada mensaje de usuario y cada mensaje de agente en un registro con identificación exclusiva. De ese modo, los agentes se liberan de la tarea de transcribir manualmente una conversación telefónica tras la finalización. La base de datos de perfiles de agente 45 permite, al servidor de mensajería 31, autenticar, iniciar la sesión y registrar agentes en sesiones registradas. La base de datos de aplicaciones de agente 46 contiene las aplicaciones de agente 43 que se ejecutan en consolas de agente 39. Opcionalmente, la base de datos 34 también puede contener scripts 29. Son posibles otras formas de bases de datos especializadas, tal como reconocerán los expertos en la materia. Por otra parte, la información almacenada en la base de datos de registro 44, la base de datos de perfiles de agente 45 y la base de datos de aplicaciones de agente 46 podría mantenerse de una manera estructurada o no estructurada mediante un archivo estándar, una hoja de cálculo o una colección de datos de otro tipo para el almacenamiento y la recuperación de información, tal como se conoce dentro del ámbito de la técnica.
Por definición, un agente registrado es uno que está registrado en el servidor de mensajería 31 y que procesa activamente las llamadas. Un agente que ha iniciado la sesión es uno que se ha registrado en el servidor de mensajería 31, pero no acepta llamadas. Un agente que ha terminado la sesión es uno que no está registrado en el servidor de mensajería 31.
En cada sesión, el servidor de mensajería 31 recibe las llamadas de los clientes a través de la interfaz de telefonía 35 y envía una secuencia de enunciados de discurso transcritos como mensajes de usuario al agente asignado para gestionar la sesión. Debe tenerse en cuenta que es posible asignar uno o más agentes para gestionar cualquier sesión determinada y, entonces, delegar una jerarquía de áreas de responsabilidad, tales como la transcripción de discurso, la interacción con el cliente, el control de scripts, etc. a varios agentes a fin de asegurar un procesamiento de llamadas eficaz. Del mismo modo, el servidor de mensajería 31 recibe una secuencia de enunciados de discurso sintetizada, tales como los mensajes de agente procedentes de una aplicación del agente asignado 43, y envía los mensajes de agente al cliente a través de la interfaz de telefonía 35. Los mensajes suelen contener solo voz digitalizada; no obstante, también pueden contener voz y datos concurrentes (SVD, por sus siglas en inglés) y el ID del llamador, por ejemplo. El multiplexado y demultiplexado de los mensajes SVD tiene lugar en la interfaz de telefonía 35 y la consola de agente 39.
El motor de scripts 32 ejecuta scripts individuales 49 que comprenden una gramática predefinida 33. La gramática 33 especifica un conjunto de instrucciones que pueden utilizarse para crear diálogos de preguntas y respuestas que el agente puede ejecutar por medio de la aplicación del agente 43, lo cual permite a este procesar varias llamadas simultáneamente. Los agentes utilizan los punteros de scripts 28 durante el procesamiento de las llamadas de los clientes para presentar los scripts 49 a través de una consola de agente 39, tal como se describe más adelante con referencia a la figura 6. Cada script 49 define una secuencia de enunciados de discurso sintetizada que se envía a
los clientes y las respuestas de discurso transcritas recibidas en forma de mensajes del usuario. Los enunciados de discurso pueden grabarse previamente y disponerse en la memoria caché de audio 38. Los mensajes de usuario se utilizan para rellenar un formulario (no representado) que el agente revisa durante la prestación de los servicios.
En otra forma de realización, las sesiones de llamada pueden ser multimodales, es decir, constar de voz, mensajería de texto o una combinación de ambas cosas. La interfaz de telefonía 35 implementa una pasarela de mensajería de texto, además de prestar servicios POTS y de telefonía de voz convencionales. La interfaz de telefonía 35 permite al servidor de mensajería 31 adaptarse a las comunicaciones de voz y los mensajes de texto, que pueden consistir solo en voz o solo en texto, o en una combinación de voz y texto durante cualquier sesión individual. Las llamadas de los clientes recibidos por el centro de llamadas a través de la interfaz de telefonía 35 se transmiten al servidor de mensajería 31, que se ocupa de su procesamiento en función del tipo. Por ejemplo, los mensajes de texto pueden transmitirse directamente a un agente, mientras que las comunicaciones de voz pueden precisar de un procesamiento de reconocimiento de voz previo para su visualización. Aunque tanto los mensajes de texto como las comunicaciones de voz se originan simultáneamente en el mismo cliente, estos pueden desplazarse por una ruta diferente hasta el centro de llamadas, en función del servicio telefónico subyacente. Sin embargo, a través de un procesador de mensajes de texto (no representado), el servidor de mensajería 31 puede emparejar secuencias separadas de mensajes de texto y comunicaciones de voz comparando los datos de identificación del llamador con la sesión de llamador en curso.
En un ejemplo, se reciben mensajes de texto a través de la compañía telefónica (TelCo) por medio de una pasarela SMS (no representada) implementada en la interfaz de telefonía 35, u otro componente, tal como una pasarela de red de datos (no representada) que establece una conexión directa con el sistema de redes interconectadas 17 u otro tipo de red pública de comunicaciones de datos. Tras la recepción por el centro de llamadas, los mensajes de texto se transmiten al servidor de mensajería 31 para su procesamiento. A cada mensaje de texto, se le asigna una identificación de llamador exclusiva para la identificación de la sesión de llamada. El servidor de mensajería puede hacer corresponder cada mensaje de texto con una llamada de cliente activa. Por ejemplo, basándose en los datos de identificación de llamador compartidos, la base de datos puede localizar la guía a la cual se ha asignado una llamada activa para enviar el mensaje de texto a esa guía. Los mensajes de texto también se añaden a la base de datos, una vez que la sesión de llamada ha terminado, como parte del registro de llamada. Pueden aplicarse acciones de posprocesamiento a los mensajes de texto guardados, de una manera similar a la empleada con las comunicaciones de voz. Además, los mensajes de texto pueden identificarse especialmente como datos literales del llamador, y dejarían así de ser considerados poco fiables por motivos tales como un procesamiento de reconocimiento de voz inadecuado.
En un ejemplo más, la comunicación entre un cliente y un agente de un centro de llamadas puede tener lugar solamente a través de mensajes de texto. Los mensajes de texto se identifican de modo parecido mediante los datos de identificación de llamador exclusivos, y los mensajes de texto recibidos durante una única sesión de llamada pueden almacenarse conjuntamente.
En otro ejemplo todavía, un llamador móvil, por ejemplo el conductor de un vehículo, puede interactuar con un centro de llamadas tal como se describe en mayor detalle con referencia a las figuras 14 a 18. Las comunicaciones móviles pueden comprender comunicaciones de voz, mensajes de texto o una combinación de comunicaciones de voz y texto. El servidor de mensajería 31 es capaz de recuperar información del llamador móvil de la misma manera que con cualquier otro llamador. Sin embargo, también pueden facilitarse datos adicionales sobre el llamador que son exclusivos para el uso móvil, tales como datos de localización obtenidos a través de la interfaz de posicionamiento global por satélite.
La figura 3B es un diagrama de bloques que representa un sistema 160 para ofrecer una infraestructura de comunicaciones de mensajes para el funcionamiento de un centro de llamadas automatizado, de conformidad con otra forma de realización. Un servidor de scripts 161 desempeña sus funciones como un sistema independiente del servidor de mensajería 31, que preferentemente comprende solo el administrador de sesiones 47 y la cola de mensajes 48. La prestación de las funciones del motor de scripts 162 en un servidor de scripts 161 aumenta la capacidad de procesamiento y el rendimiento global del sistema al delegarse el procesamiento de scripts a un sistema independiente del servidor de mensajería 31.
El servidor de scripts 161 consta de un motor de scripts dedicado 162, que ejecuta scripts 163 almacenados localmente para el servidor de scripts 161. Los scripts 163 también comprenden la gramática 33. Cada aplicación de agente 43 mantiene localmente unos punteros de script ("Ptrs") 164 que indican los scripts concretos 163 que el motor de scripts 162 va a ejecutar. Como alternativa, los scripts 29 (representados en la figura 3A) pueden almacenarse en la base de datos 34, y entonces los punteros de script 164 aportarán punteros de la base de datos a los scripts 29.
Con referencia nuevamente a la figura 3A, las llamadas de los clientes se reciben a través de la interfaz de telefonía 35, que establece la conexión externa entre el sistema MPACT 30 y la compañía telefónica 16 (representada en la figura 1). El propósito principal de la interfaz de telefonía 35 es aceptar y procesar las señales telefónicas convencionales, que comprende el multiplexado, el encaminamiento de llamadas y la puesta de estas en colas de
espera, como bien se sabe en el ámbito de la técnica. En la forma de realización descrita, la interfaz de telefonía 35 consta de una interfaz de hardware de terceros y unos controladores de software, aparte de software de propiedad MPACT que conecta el paquete de terceros con el servidor de mensajería 31 y, en sistemas de gran tamaño, con el administrador de recursos 40 también. El sistema MPACT admite las tarjetas de interfaz de telefonía estándar 30, tales como las tarjetas analógicas y las tarjetas PCI T1 Dialogic. Opcionalmente, la interfaz de telefonía 35 comprende una memoria caché de audio 41, en la que se almacenan fragmentos de audio "enlatados" pregrabados para una reproducción eficiente. Estos fragmentos de audio facilitan mensajes informativos y de navegación a todos los llamadores. Opcionalmente, pueden utilizarse dos o más interfaces de telefonía 35 para aumentar la capacidad de llamadas de usuarios. Pueden utilizarse otras formas de interfaz de telefonía 35 para dar cabida a diversos medios portadores de señal, incluidas las líneas terrestres convencionales; la radio, los satélites u otras formas de portadoras de señal; sistemas de intercambio de ondas luminosas o sonoras, o sus equivalentes, como sabrán reconocer los expertos en la materia.
Las llamadas de los usuarios consisten en palabras habladas corrientes que deben transcribirse a texto escrito para la visualización, el procesamiento y el almacenamiento. El propósito del motor de reconocimiento de discurso 36 es el de generar una secuencia de enunciados de discurso transcritos que se registran como mensajes de usuario procesables por ordenador. En la forma de realización descrita, el motor de reconocimiento de voz 36 consta de software de terceros y software de propiedad MPACT que conecta el paquete de terceros con la aplicación del agente 43 y, en sistemas de gran tamaño, también con el administrador de recursos 40. El sistema MPACT 30 es compatible con los motores de reconocimiento de voz Speechworks y Nuance. Opcionalmente, pueden utilizarse dos
o más motores de reconocimiento de voz 36 para aumentar la capacidad de llamadas de usuarios.
En otra forma de realización, un motor de reconocimiento de voz desempeña sus funciones en un sistema de cliente 18 que establece conexión con el sistema MPACT 30 a través del sistema de redes interconectadas 17 u otro tipo de medios de transmisión de datos. El sistema MPACT 30 recibe los mensajes del sistema cliente transcritos ya a texto por el sistema cliente 18 para procesarlos de la misma manera que las llamadas en tiempo real recibidas directamente a través de la interfaz de telefonía 35.
Cada llamador que llama al sistema MPACT 30 recibe retroalimentación en forma de mensajes de agente, que constan de una secuencia de enunciados de discurso sintetizados. Los enunciados de discurso sintetizados comprenden saludos, preguntas, respuestas informativas y otras frases habladas que el usuario escucha durante el transcurso de la sesión. El propósito del motor de texto a voz 37 es generar la secuencia de enunciados de discurso sintetizados formados como mensajes de agente, que se puede reproducir como audio reproducible. El motor de texto a voz 37 consta de software de terceros y software de propiedad MPACT que conecta el paquete de terceros con la aplicación del agente 43 y, en sistemas de gran tamaño, con el administrador de recursos 40 también. El sistema MPACT 30 es compatible con el motor de texto a voz Speechify de Speechworks. Opcionalmente, el motor de texto a voz 37 puede comprender una memoria caché de audio 42 en la que se almacenan fragmentos de audio "enlatados" pregrabados que permiten la provisión eficaz de enunciados de discurso sintetizados normalizados para utilizarlos en los scripts y en acciones repetitivas del agente. Asimismo, pueden utilizarse dos o más motores de texto a voz 37 para aumentar la capacidad de llamadas de usuarios.
En otra forma de realización, un motor de texto a voz desempeña sus funciones en un sistema cliente 18 que establece conexión con el sistema MPACT 30 a través del sistema de redes interconectadas 17 u otro tipo de medios de transmisión de datos. El sistema MPACT 30 envía mensajes de agente al sistema cliente 18 para aplicar la síntesis de voz. El llamador escucha la voz sintetizada en el sistema cliente 18 tal como haría con una llamada en directo a través de unos medios telefónicos establecidos directamente a través de la interfaz de telefonía 35.
Las consolas de agente 39 constituyen los medios principales de interacción directa con los clientes. El objetivo principal de cada consola de agente 39 es la de ejecutar una o más aplicaciones de agente 43, almacenadas en la base de datos de aplicaciones de agente 46, que presentan tanto mensajes de usuario como mensajes de agente y ofrecen menús de acciones que pueden ejecutarse como respuesta a los mandatos de agente, incluida la ejecución de scripts, tal como se describe más adelante con referencia a la figura 6. En la forma de realización descrita, se ejecutan una o más aplicaciones de agente 43 en cada consola de agente 39, y una o más consolas de agente 39 funcionan en paralelo. Por otra parte, varias aplicaciones de agente 43 pueden ejecutarse en una máquina servidor (no representada), y los agentes pueden acceder a estas en las consolas de agente 39 que funcionan como terminales remotos.
Cada aplicación de agente 43 implementa una interfaz gráfica de usuario (GUI) para el agente humano. La figura 7A es una captura de pantalla que muestra, a título de ejemplo, un conjunto de ventanas de servicio del centro de llamadas 91, 92 y 93 generadas mediante el sistema 10 de la figura 1. Cada ventana de servicio del centro de llamadas 91, 92 y 93 aparece en una interfaz gráfica de usuario 90 y permite a un agente interactuar indirectamente con un cliente que llama a través de la interfaz de telefonía 35. Tras el registro, por medio de la aplicación del agente 43, un agente puede aceptar nuevas peticiones de sesión desde el servidor de mensajería 31 y crear un contenedor de sesiones visuales para cada de sesión.
En la forma de realización descrita, pueden presentarse hasta cuatro sesiones de forma simultánea a un agente.
Preferentemente, el agente puede ver el contenido de todas las sesiones en una sola pantalla. Una sesión que se designa como sesión activa acepta los mandatos del agente, tales como una instrucción para escuchar un mensaje transcrito del usuario, la reproducción de un mensaje de agente sintetizado para el cliente o la activación de un script a través de un menú 94, tal como se describe más adelante con referencia a la figura 6. El agente puede pasar de una sesión activa a otra con una única pulsación de tecla o del puntero.
Las diversas sesiones de llamada también pueden visualizarse de una en una en la interfaz gráfica del usuario. La figura 7B es una captura de pantalla que representa, a título de ejemplo, una única ventana de servicio del centro de llamadas 95 con varias pestañas de llamada, generada mediante el sistema 10 de la figura 1. La ventana de servicio del centro de llamadas 95 se visualiza en la interfaz gráfica de usuario para permitir a un agente comunicarse con un cliente. Las diversas pestañas de llamada 96 están situadas cerca de la parte superior de la ventana 95 e indican las diversas sesiones de llamada activas. Puede identificarse cada sesión de llamada mediante un correspondiente nombre de cliente, número de teléfono o número de identificación, así como mediante otros identificadores. Los identificadores de sesión de llamada pueden aparecer en las pestañas de llamada. Cada ventana de servicio del centro de llamadas 95 comprende también unos campos de identificación del llamador 97, un perfil de llamador 98 y el motivo de la llamada 99. Para navegar hasta otra ventana de servicio del centro de llamadas desde la ventana actual 95, el agente puede seleccionar la pestaña de llamada adecuada 96 correspondiente a la sesión de llamada.
Con referencia a la figura 3A, cada aplicación de agente 43 recibe una secuencia de enunciados de discurso transcritos desde la interfaz de telefonía 35 a través del servidor de mensajería 31. En una forma de realización alternativa (no representada), la secuencia de enunciados de discurso transcritos evita el servidor de mensajería 31 y se recibe directamente desde la interfaz de telefonía 35. El servidor de mensajería 31 se comunica con el motor de reconocimiento de voz 36 para transcribir los enunciados antes de enviarlos a la aplicación del agente 43. A su vez, la aplicación del agente 43 envía mensajes de agente a la interfaz de telefonía 35 por medio del servidor de mensajería 31. El servidor de mensajería 31 se comunica con el motor de texto a voz 37 para convertir un mensaje de agente en una secuencia de enunciados de discurso sintetizados antes de enviarlo a la interfaz de telefonía 35.
La figura 4 es un diagrama de flujo de proceso que representa los niveles de automatización variables 50 obtenidos mediante el sistema 30 de la figura 3A. Una secuencia de llamador común sigue tres etapas: entrada 51, procesamiento 52 y salida 53. Durante la etapa de procesamiento 52, el sistema 30 facilita a cada agente un control "deslizante" 64 que puede hacer variar el nivel de automatización aplicado a la prestación de servicios al cliente. En un extremo del control deslizante 64, el agente debe teclear manualmente cada respuesta escrita a una consulta del usuario y, en el otro extremo, el sistema 30 establece directamente las interacciones con los clientes de una forma completamente automatizada.
El control deslizante 64 se adapta a la necesidad de proporcionar un procesamiento lineal y no lineal para personalizar de forma flexible y dinámica el procesamiento de las transacciones de llamada. Cuando el llamador se desvía de la forma de proceder prevista, se ejecuta un procesamiento no lineal, tal como la emisión de una respuesta tangencial a una pregunta en un script que solicita información específica. El agente lee el mensaje del usuario y altera el curso del procesamiento del script para adaptarlo a la respuesta tangencial, aumentando así el nivel de satisfacción del cliente respecto de la resolución del problema. Se ejecuta un procesamiento lineal cuando el sistema 30 interactúa directamente con el llamador a través de scripts predefinidos y es capaz de emprender con éxito una serie de etapas con el objeto de resolver problemas a lo largo de una forma de proceder predefinida. En el transcurso de una llamada, tanto el procesamiento lineal como el no lineal pueden aplicarse estratégicamente para incrementar el nivel de confianza del usuario y procesar suficientemente un volumen de tráfico de llamadores superior al que permite un sistema de procesamiento de llamadas completamente manual y completamente no lineal.
Durante la etapa de entrada 51, un operador humano 55 o una máquina 56, tal como el sistema MPACT 30, reciben voz 54 en el centro de llamadas automatizado 11 (representado en la figura 1). La voz 54 se convierte en una secuencia de enunciados de discurso transcritos o anotaciones de texto "normal" 57. Las anotaciones de texto 57 son procesables por máquina como entradas para la etapa de procesamiento 52. Un administrador de mensajes (no representado) asocia los enunciados de discurso audible con las anotaciones de texto 57, y los enunciados de discurso audible de entrada asociados se facilitan con las anotaciones de texto 57 al agente para su reproducción opcional.
Por lo general, el procesamiento implica la ejecución de algún tipo de acción, tal como la ejecución de un script, como se describe más adelante con referencia a la figura 5. Durante la etapa de procesamiento 52, un operador humano 58 (es decir, un agente) o una máquina 59 interpretan cada anotación 57 y generan una respuesta o consulta 60. Un operador humano 61 (es decir, un agente) o una máquina 62 reciben la respuesta o consulta 60 en la etapa de salida 53. Por último, la respuesta o consulta 60 se transforma en enunciados de discurso sintetizados 63 que se reproducen para el llamador.
En la forma de realización descrita, las tres etapas de procesamiento de la llamada, entrada 51, procesamiento 52 y salida 53, son realizadas por máquinas 56, 59 y 62, aunque los operadores humanos 55, 58 y 61 pueden realizar un procesamiento auxiliar si es necesario para complementar el sistema MPACT 30. Por lo tanto, se puede ofrecer un
control deslizante 64 de operador humano e interacción de máquina a fin de automatizar las operaciones del centro de llamadas. Mediante el control deslizante 64, el agente puede cambiar el comportamiento del motor de scripts 32 (representado en la figura 3A) empezando la ejecución de un script 29, ajustando el punto de ejecución dentro del script 29 o haciendo que una parte del script 29 se repita. De esta manera, el agente puede alterar el flujo de control normalmente secuencial de procesamiento de los scripts interviniendo cuando sea necesario, en función del contexto actual de la llamada, o puede dejar que el procesamiento de los scripts siga un curso lineal.
Además de la comunicación indirecta a través de una consola de agente 39, cada agente puede aceptar también llamadas en directo de los clientes directamente a través de la interfaz de telefonía 35, en una modalidad de voz a voz de tiempo real. El procesamiento de llamadas en tiempo real puede ser necesario para gestionar emergencias u otras necesidades de servicios que no son susceptibles de automatización, o para prestar a los clientes servicios que, en general, son inaceptables cuando se facilitan de forma automatizada.
En otra forma de realización, el agente se comunica con los llamadores desempeñando sus funciones en sistemas cliente 18 a través del intercambio de mensajes de texto establecido a través del sistema de redes interconectadas 17 u otros medios de transmisión de datos. A diferencia de las sesiones de chat convencionales, el procesamiento del llamador se establece de la misma manera en que se establece el procesamiento de las llamadas telefónicas recibidas a través de la interfaz de telefonía 35. En consecuencia, el agente puede aplicar el control deslizante 64 al nivel de automatización para asegurar que la transición del procesamiento de llamadas no lineal al lineal tenga lugar como un flujo continuo independientemente de los medios de transmisión de llamadas particulares. Por consiguiente, es posible incorporar diversos sistemas y combinaciones de medios de transmisión de llamadas, como sabrán reconocer los expertos en la materia.
Con referencia nuevamente a la figura 3A, en una primera etapa, un agente se autentica ante el servidor de mensajería 31 por medio de una consola de agente 39 antes de iniciar la sesión. Una vez que ha iniciado la sesión, el agente indica su disponibilidad para gestionar llamadas registrándose en el servidor de mensajería 31. A continuación, las llamadas que se han aceptado en el centro de llamadas automatizado 11 (representado en la figura 1) se asignan a una sesión, y la sesión se asigna subsiguientemente a un agente registrado.
Después de la comunicación inicial entre el agente y el cliente, una aplicación del agente 43 normalmente carga un script que describe el flujo de la sesión desde la base de datos de aplicaciones 45, ya sea de conformidad con las instrucciones del agente o bien en función de la información facilitada por la interfaz de telefonía 35, tal como el ID del llamador. La aplicación del agente 43 se comunica además, por medio del servidor de mensajería 31, con el motor de reconocimiento de voz 36 y el motor de texto a voz 37 para transcribir voz a texto y convertir texto a voz cuando sea necesario. La comunicación entre la aplicación del agente 49 y el motor de reconocimiento de voz 36 y el motor de texto a voz 37 continúa hasta que la llamada termina.
La figura 5 es un diagrama de bloques que representa un esquema 70 para almacenar registros en la base de datos de registro 44 del sistema MPACT 30 de la figura 3A. Cada sesión se identifica mediante un identificador de sesión (ID) 71, que identifica de forma exclusiva cada sesión, tal como un número que sigue un orden creciente. Además, cada registro contiene un identificador (ID) de mensaje 72, una indicación de la hora 73, una marca de emisor o receptor 74 e información 75, constituida generalmente por datos de audio, datos de texto o notas transcritas por el agente. Como resultará evidente a los expertos en la materia, es posible almacenar otros tipos de identificadores, organización y contenido en un registro.
Con referencia nuevamente a la figura 3A, cada aplicación de agente 43 contiene también una modalidad de supervisión que se puede utilizar para supervisar manualmente el comportamiento y el rendimiento del sistema, controlar el funcionamiento de la aplicación del agente 43 y el servidor de mensajería 31, supervisar y orientar las acciones de los agentes humanos y realizar tareas administrativas similares. Una aplicación de administración separada (no representada) permite instalar y configurar el sistema.
Por último, cada aplicación de agente 43 puede ejecutar unos scripts 49 para realizar una secuencia de instrucciones predefinida, que por lo general consta de diálogos de preguntas y respuestas a través de los cuales se consulta al cliente sobre cualquier asunto, o para solucionar un problema. La figura 6 es un diagrama de flujo de proceso que representa, a título de ejemplo, el flujo de control 80 seguido en el procesamiento de un script 49 mediante el sistema 30 de la figura 3A. Durante la etapa inicial del procesamiento, un cliente 82 interactúa indirectamente con un agente 81 a través de la ejecución de un script inicial 83. El propósito del script inicial 83 es rellenar un formulario estándar 84 con información general sobre la naturaleza de la llamada. Tras revisar el formulario 84, el agente 81 ejecuta, por medio de la aplicación del agente 43, uno o más scripts adicionales 87 para facilitar la localización y resolución de problemas y para recibir información adicional por medio de unos formularios adicionales 88. Por último, el agente, por medio de la aplicación del agente 43, genera un formulario de resolución 86 que se utiliza como los parámetros de un script de cierre 85, que se ejecuta para su reproducción ante el cliente 82 a fin de terminar la llamada.
En la forma de realización descrita, cada formulario 84, 86 y 88 está estructurado como un objeto de contención de datos donde se almacenan los datos correspondientes a la aplicación del agente 43. Preferentemente, cada objeto
de contención de datos se mantiene como un objeto binario grande (BLOB) interpretable por cada aplicación de agente 43 en función de las necesidades comerciales. Es de destacar que el uso de scripts, formularios y la interacción con el agente aportan una trayectoria de ejecución no lineal a través de la localización y resolución de problemas. En caso necesario, el agente, a través de la aplicación del agente 43, puede introducir manualmente datos en un formulario y modificar progresivamente la secuencia de localización y resolución de problemas. El nivel de intervención manual del agente deriva del control deslizante 64 implementado en el sistema MPACT 30, descrito anteriormente con referencia a la figura 4.
Con referencia nuevamente a la figura 3A, el motor de scripts 32 ejecuta cada script 49, que comprende la gramática
33. A título de ejemplo, el apéndice A comprende una muestra de gramática para utilizar en la forma de realización descrita. Pueden utilizarse otras formas de gramática y lenguajes de script, tal como sabrán reconocer los expertos en la materia.
El administrador de recursos 40 aporta escalabilidad, equilibrio y redundancia de carga a los sistemas de gran tamaño que comprenden varios motores de reconocimiento de voz 36, motores de texto a voz 37 e interfaces de telefonía 35. En la forma de realización descrita, el servidor de mensajería 31 presenta un administrador de recursos simple incorporado 40 (no representado) para administrar varias aplicaciones de agente 43 que funcionan en sistemas con capacidades de llamadas inferiores.
Mediante una aplicación de administración que controla el administrador de recursos 40, un administrador puede definir y configurar el sistema mientras está operativo. El administrador de recursos 40 permite al administrador añadir o suprimir servidores y reencaminar conexiones entre diferentes componentes, por ejemplo, entre la interfaz de telefonía 35, el servidor de mensajería 31 y una aplicación de agente 43.
La memoria caché de audio 38 ofrece un repositorio centralizado donde se almacenan fragmentos de audio "enlatados" pregrabados para una reproducción eficiente. Estos fragmentos de audio facilitan tanto mensajes informativos como de navegación a todos los llamadores, y enunciados de discurso sintetizados normalizados para utilizar en scripts y acciones de agente repetitivas. Los fragmentos de audio de la memoria caché de audio 38 son recuperables por la interfaz de telefonía 35, el motor de texto a voz 37 y la aplicación del agente 43.
En un sistema común, los distintos componentes se ejecutan en máquinas separadas. Un sistema común de tamaño intermedio consta de un servidor que ejecuta una interfaz de telefonía 35 y un servidor de mensajería 31, un servidor independiente para el motor de reconocimiento de voz 36, otro servidor para el motor de texto a voz 37 y un cuarto servidor para las bases de datos de registro, perfiles de agente y aplicaciones de agente 44, 45 y 46, respectivamente. Otra posibilidad es que un sistema de tamaño mínimo ejecute todos los componentes en un solo servidor, junto con una aplicación de agente 43 en una consola de agente integrada 39.
En la forma de realización descrita, cada configuración de sistema de tamaño intermedio es de "24 x 6," que significa que el sistema puede gestionar 24 llamadas simultáneas y establecer conexión con seis agentes humanos. Una configuración de sistema de tamaño mínimo es de "4 x 1 ", es decir, de cuatro llamadas simultáneas con un agente humano, mientras que una configuración de un sistema de gran tamaño es de "96 x 24," es decir, de 96 llamadas simultáneas y 24 agentes humanos. A través del administrador de recursos 40, la agregación de las configuraciones descritas anteriormente ofrece la posibilidad de disponer de sistemas con capacidades de llamadas muy superiores.
Mezclando tecnologías de propiedad y los sistemas existentes, el sistema MPACT 30 reduce el tiempo medio de las llamadas en un 30 %, incrementa la eficiencia del agente hasta cuatro veces más y mejora significativamente la satisfacción del cliente.
La figura 8 es un diagrama de flujo que representa un procedimiento para ofrecer una infraestructura de comunicaciones de mensajes 100 para el funcionamiento de un centro de llamadas automatizado, de conformidad con la presente invención. El sistema MPACT 30 ejecuta el procedimiento, y los diversos componentes ejecutan las operaciones individuales que se describen expresamente a continuación. Durante el funcionamiento normal, el sistema MPACT 30 procesa varias llamadas simultáneas, que son gestionadas por uno o más agentes que ejecutan aplicaciones de agente 43 en una consola de agente 39 (representada en la figura 1).
Por lo general, el procedimiento 100 aplica un procesamiento iterativo a cada llamada en un ciclo de procesamiento continuo. Durante cada ciclo, se recibe una llamada (bloque 101) que el gestor de sesiones 47 (representado en la figura 3A) asigna a una sesión (bloque 102), tal como se describe más adelante con referencia a la figura 9. A continuación, la sesión se procesa (bloque 103), tal como se describe más adelante con referencia a la figura 10. Tras el procesamiento de la sesión, la llamada termina (bloque 104) y se procesan otras llamadas (bloque 105) hasta que el sistema MPACT 30 se detiene o no se reciben más llamadas. Entonces, el procedimiento termina. En la forma de realización descrita, el sistema MPACT es un sistema que emplea varios subprocesos, cada uno de los cuales ejecuta el procedimiento 100 de manera independiente.
La figura 9 es un diagrama de flujo que representa una rutina para asignar una sesión 110 que se va a utilizar en el procedimiento 100 de la figura 8. El propósito de la rutina es crear una instancia de un nuevo objeto de sesión para
el procesamiento por una aplicación de agente 43 (representada en la figura 3A) y subsiguientemente asignar la sesión instanciada a un agente que desempeña sus funciones en una consola de agente 39.
Inicialmente, si hay algún agente disponible (bloque 111), se elige a uno de los agentes como agente asignado (bloque 112) y se crea la nueva sesión (bloque 113). A continuación, el agente seleccionado se asigna a la sesión recién creada (bloque 114). Entonces, se vuelve a la rutina. Si no hay ningún agente disponible (bloque 111), el cliente tiene la opción de conectarse a un sistema no agente (bloque 115), es decir, un sistema de respuesta de voz automatizada, que facilita la información expresamente solicitada por el cliente (bloque 116) y, a continuación, se regresa a la rutina. De lo contrario, si el cliente prefiere un agente (bloque 115), el cliente es puesto en una cola de espera (bloque 117) hasta que haya un agente disponible.
Debe tenerse en cuenta que es posible dar prioridad tanto a los clientes como a los agentes mediante criterios de selección predefinidos. Por ejemplo, los clientes que hayan contratado el servicio de atención especial pueden obtener una prioridad más alta en la cola de espera que otros clientes. Asimismo, puede darse prioridad a agentes especializados en resolución de problemas para atender las necesidades particulares de los clientes, durante la selección de asignación de agentes.
La figura 10 es un diagrama de flujo que representa una rutina 125 para procesar una sesión 120 que se va a utilizar en el procedimiento 100 de la figura 8. El propósito de la rutina es almacenar y enviar mensajes de forma iterativa utilizando la cola de mensajes 48 (representada en la figura 3A). Son posibles otras formas de abordar la puesta en cola, los mensajes y la prioridad, tal como reconocerán los expertos en la materia.
Durante cada iteración, el administrador de sesiones 47 (representado en la figura 3A) espera a recibir un mensaje, ya sea un mensaje de usuario, o bien un mensaje de agente (bloque 121). Tras su recepción, el mensaje se pone en la cola de mensajes 48 (bloque 122) y se avisa al destinatario del mensaje (bloque 123). Si el mensaje es un mensaje de usuario que se envía a un agente (bloque 124), el mensaje es procesado por el agente asignado a la sesión a la que corresponde el mensaje de usuario (bloque 125), tal como se describe más adelante con referencia a la figura 11. El procesamiento iterativo continúa con cada mensaje subsiguiente (bloque 126) y, a continuación, se vuelve a iniciar la rutina.
La figura 11 es un diagrama de flujo que representa una rutina de procesamiento de una sesión por el agente 130, para utilizar en la rutina 125 de la figura 10. El propósito de la rutina es facilitar la interacción entre un agente y el cliente a través de una aplicación de agente que se ejecuta en una consola de agente 39 (representada en la figura 3A).
En primer lugar, el mensaje de aviso aparece (bloque 131) en la interfaz gráfica de usuario 90 (representada en la figura 7) de la aplicación de agente 43. En caso necesario, el agente envía mensajes al cliente desde el proveedor de servicios o el motor de scripts 32 (representado en la figura 3A) para dar un tratamiento adecuado a los mensajes del usuario (bloque 132). Si el mensaje enviado consiste en una petición de ejecución de un script 49 (bloque 132), el motor de scripts 32 somete el mensaje a un procesamiento adicional (bloque 134), tal como se describe más adelante con referencia a la figura 12. Entonces, la rutina vuelve a empezar.
La figura 12 es un diagrama de flujo que representa una rutina de procesamiento de una sesión por un motor de scripts 140, para utilizar en la rutina 130 de la figura 11. El propósito de esta rutina es procesar de forma iterativa cada petición de ejecución de script mediante el motor de scripts 32 en representación de las aplicaciones de agente solicitantes 43 (representadas en la figura 3A).
Cada cadena de mensajes se procesa iterativamente (bloques 141 a 146) de la manera indicada a continuación. Durante cada iteración (bloque 141), se recupera el campo de notas de cada mensaje (bloque 142) y, si se halla una petición de ejecución de script (bloque 143), se ejecuta un script 49 (bloque 144), tal como se describe más adelante con referencia a la figura 13. De lo contrario, si no hay ninguna petición de script (bloque 143), no se ejecuta ninguna operación (bloque 145). El procesamiento continúa con cada cadena de mensajes adicional (bloque 146), tras lo cual la rutina vuelve a empezar.
Aunque se ha descrito anteriormente con referencia al procesamiento lineal de un script en secuencia, la intervención de un agente durante el procesamiento de los scripts es totalmente compatible. El agente continúa supervisando el progreso de la ejecución de scripts observando las respuestas de los usuarios y puede intervenir en caso de que sea necesario para incorporar una respuesta que no figura en el script. Por ejemplo, el usuario puede facilitar una respuesta tangencial a una pregunta del script que solicita información específica. Entonces, el agente leerá el mensaje del usuario y alterará el curso del procesamiento del script para adaptarlo a la respuesta tangencial al control deslizante 64 (representado en la figura 4).
La figura 13 es un diagrama de flujo que representa una rutina para ejecutar un script 150 para utilizar en la rutina 140 de la figura 12. El propósito de esta rutina es llevar a cabo una ejecución estándar de recuperación e interpretación de instrucciones de scripts, tal como se conoce dentro del ámbito de la técnica.
En primer lugar, se recupera (bloque 151) y ejecuta (bloque 152) cada una de las instrucciones. En la forma de realización descrita, la ejecución de instrucciones se deduce a partir de una gramática almacenada interpretable 33 (representada en la figura 3A) e incorporada, a título de ejemplo, en el apéndice A. Si la instrucción de ejecución es la instrucción "QUIT" (bloque 153), la ejecución del script termina y la rutina vuelve a empezar. En caso contrario, el procesamiento del script continúa con la siguiente instrucción (bloque 154).
El centro de llamadas automatizado también puede resultar útil a los usuarios móviles en la medida en que puede dar indicaciones, información de eventos y asistencia, así como realizar servicios de asistencia personal y de otro tipo para el usuario móvil. La figura 14 es un diagrama de bloques 160 que representa un sistema de mensajería móvil para presentar datos de salida, de conformidad con otra forma de realización. El sistema de mensajería móvil (MMS) 161 puede comprender una interfaz de usuario 162 que presenta un micrófono 164 para captar la voz del usuario, una pantalla 165, unos altavoces 166 y una entrada de interfaz 167 que permite al usuario aplicar diversas funciones interactivas. El MMS 161 también comprende un procesador 168, un sistema de posicionamiento global (GPS) 169 para determinar con precisión las ubicaciones de los vehículos y un dispositivo de comunicaciones 163, tal como un módem celular, para transmitir y recibir información inalámbrica. El MMS 161 también está acoplado para recibir información desde otros sistemas del vehículo (no representados), tales como un velocímetro, un motor
o un sistema de frenado.
La figura 15 es un diagrama de flujo que representa un procedimiento para presentar datos de salida mediante el sistema de la figura 14. El procesador 168 del MMS 161 recibe información de presentación (bloque 171). La información de presentación transmitida desde un servidor, a través de una red (no representada), es recibida por el dispositivo de comunicaciones 163. El procesador 168 determina si el vehículo presenta alguna condición de emergencia (bloque 172) basándose en la información recibida desde los sistemas del vehículo distintos al MMS. Si el procesador 168 determina que existe una condición de emergencia en el vehículo, el procesador 168 detiene toda la transmisión de información de presentación recibida (bloque 173) a cualquiera de los componentes de la interfaz de usuario 162. Entre los ejemplos de condiciones de emergencia de vehículo que pueden hacer que el procesador interrumpa la transmisión de información de presentación a la interfaz de usuario 162 cabe citar las señales recibidas desde el motor que indican un sobrecalentamiento de este o una señal que indica que el conductor del vehículo ha accionado los frenos hasta tal extremo que ha provocado la activación del sistema de frenado antibloqueo. Una vez interrumpida la transmisión, el procesador 168 puede volver a recibir información de presentación (bloque 171).
Si el procesador 168 determina que no existe ninguna condición de emergencia en el vehículo, el procesador 168 recibe información del estado del vehículo (bloque 174). La información del estado del vehículo procede de una serie de fuentes que generan señales, tales como un GPS 169 o un velocímetro. El procesador 168 facilita la información de presentación a través de la interfaz de usuario 162 basándose en la información del estado del vehículo (bloque 175). El contenido y el formato de la información de presentación que aparece en la pantalla 165 o que se emite por el sistema de altavoces 166 de la interfaz de usuario 162 están determinados. Por ejemplo, cuando el vehículo está estacionado, el procesador 138 presenta toda o casi toda la información de presentación recibida. Cuando el estado del vehículo cambia, por ejemplo, al incrementarse la velocidad, el procesador 138 cambia la presentación de la información mostrada en la pantalla 165.
El cambio de la información de presentación también puede determinar que la presentación de la información pase de ser visual a ser una emisión de audio a través de los altavoces 166. En otro ejemplo, la información presentada comprende un mapa detallado completo de la posición del vehículo con indicaciones de ruta hasta un destino solicitado previamente. En función de la velocidad del vehículo o el ritmo de cambio de la velocidad o la dirección del vehículo, se puede alterar el detalle de la información presentada que aparece en el mapa. A medida que la velocidad del vehículo se incrementa, el detalle representado en el mapa se reduce, por ejemplo, hasta contener solo la ubicación actual del vehículo en relación con las calles e intersecciones cercanas. Parte o toda la información de presentación, o las indicaciones de ruta del mapa, puede convertirse a un formato de audio y emitirse para el conductor del vehículo a través de los altavoces 166. En otros ejemplos, el tamaño y la fuente del texto, los iconos y los gráficos presentados en la pantalla pueden alterarse cuando el estado del vehículo cambia, tal como se describe con referencia a la figura 16. Las salidas de audio también pueden alterarse, por ejemplo incrementando o reduciendo la emisión de audio en función del cambio del estado del vehículo. Después de presentar la salida, el procesador 168 vuelve a recibir información de presentación adicional (bloque 171). La información de presentación puede procesarse en tiempo real desde el momento en que el servidor recibe la información a través de la red hasta el momento en que la información de presentación es facilitada al conductor del vehículo a través de la interfaz de usuario 162. En otra forma de realización, la información de presentación puede recibirse en un momento determinado, y el procesador 168 puede almacenarla antes de que se tome cualquier decisión acerca de cómo presentar la salida. En otra forma de realización, una persona distinta al conductor del vehículo puede ver la información de presentación dependiendo del nivel de detalle establecido.
La figura 16 es un diagrama de flujo que representa una rutina para visualizar información de presentación basada en el estado de un vehículo. La velocidad de un vehículo se determina (bloque 181), por ejemplo, consultando el indicador de velocidad del vehículo. Si la velocidad del vehículo es inferior o igual a 25 millas por hora (mph), el procesador 168 visualiza de forma detallada la información de presentación en la pantalla 165 de la interfaz de
usuario 162 (bloque 182). A medida que la velocidad del vehículo se incrementa, la cantidad de información visual detallada generada para la visualización se reduce. Por lo tanto, si la velocidad del vehículo es superior a 25 mph, pero inferior o igual a 40 mph, el procesador 168 visualiza información de presentación con menos contenido visual (bloque 183) que el correspondiente a la información visualizada para las velocidades de vehículo inferiores o iguales a 25 mph. Cuando la velocidad es superior a 40 mph, pero inferior o igual a 70 mph, el procesador 168 reduce la cantidad de detalle de la información de presentación que va a aparecer en la pantalla 165, aumentando el tamaño de la fuente del texto contenido en la información de presentación mostrada y cambiando el color del texto (bloque 184). El mayor tamaño de la fuente y el cambio de color facilitan la visualización por el usuario a altas velocidades. Cuando la velocidad es superior a 70 mph, el procesador 168 deja de generar información de visualización para presentar en la pantalla 165 y cambia a una simple presentación de audio para emitir a través de los altavoces 166 (bloque 185). Los rangos de velocidad particulares descritos se utilizan solo a título de ejemplo y no deben interpretarse en sentido restrictivo. Las velocidades de activación exactas pueden variar según diversos factores, tales como el estado de las carreteras, las especificaciones del vehículo o la destreza del conductor del vehículo, así como las preferencias del usuario. Asimismo, el formato de salida de la información de presentación puede variarse de conformidad con las restricciones del hardware o el software de la interfaz del usuario, así como las preferencias del usuario.
Además del ejemplo del vehículo descrito anteriormente, la información de presentación puede ajustarse automáticamente según una o más condiciones del vehículo relativas al ritmo de cambio de la velocidad del vehículo, el ritmo de cambio de la dirección del vehículo, la activación del teléfono celular o los auriculares, la activación del detector de radar, la superación de un cierto valor de nivel de ruido en decibelios, la utilización de una radio o un disco compacto, la utilización de un televisor o un videodisco y los intermitentes, así como otras condiciones. Los sistemas del vehículo, tales como el indicador de velocidad, el sistema de dirección, el motor, el sistema de frenado y el sistema de aceleración del vehículo, pueden determinar las condiciones del vehículo. Los sistemas del vehículo también pueden comprender componentes adicionales, tales como un indicador de temperatura, un indicador de humedad, un indicador de la velocidad del viento, un indicador de precipitación pluvial, una brújula y un reloj. Estos componentes del sistema del vehículo adicionales pueden estar integrados en el MMS 161 o estar separados de este, siempre y cuando puedan someterse al control del MMS 161. Son posibles otras condiciones de vehículo, sistemas de vehículo y componentes.
La provisión de información de presentación puede ajustarse automáticamente dependiendo de una condición del vehículo o una combinación de condiciones del vehículo. Por ejemplo, el MMS 161 supervisa los sistemas de frenado y aceleración del vehículo con referencia a un reloj interno para determinar el ritmo de cambio de la velocidad del vehículo. Si la velocidad del vehículo se incrementa o reduce con rapidez, el MMS 161 disminuye automáticamente la cantidad de detalle de la información de presentación visual y puede transferir una parte o toda la información de presentación para una presentación de audio. En otro ejemplo, el MMS 161 controla el movimiento del volante y la dirección del vehículo con referencia a una brújula y un reloj para determinar el ritmo de cambio de la dirección del vehículo. Si la dirección del vehículo cambia con rapidez, el MMS 161 puede reducir automáticamente la cantidad de detalle de la información de presentación visual, así como transferir una parte o toda la información de presentación para una presentación de audio.
La figura 17 es un diagrama de bloques 190 que representa un sistema de vehículo para la comunicación con el sistema de la figura 3A. El sistema del vehículo 191 comprende una interfaz de usuario 192 y un procesador 193. La interfaz de usuario 192 comprende un micrófono que recibe instrucciones de voz desde un usuario y envía las instrucciones al procesador 193. El procesador 193 aplica el procesamiento de voz a las señales de voz recibidas y transmite las señales de voz procesadas a través de un sistema de altavoces o una pantalla por medio de la interfaz de usuario 192. El procesador 193 también puede enviar las señales de voz procesadas a un operador 196 de un sistema de operador 195, a través de una red inalámbrica 194.
La figura 18 es un diagrama de flujo que representa un procedimiento de comunicación con el sistema de la figura 3A. En primer lugar, el usuario introduce instrucciones de voz (bloque 201) en el sistema del vehículo 191 por medio de la interfaz de usuario 192. A continuación, el procesador 193 aplica un procesamiento de reconocimiento de voz (bloque 202) a las instrucciones de voz recibidas para determinar el contenido de las instrucciones. Los resultados del procesamiento de reconocimiento de voz se presentan al usuario (bloque 203) por medio de la interfaz de usuario 192, en forma de comunicación verbal a través de un sistema de altavoces o de mensajes de texto en una pantalla. El usuario puede determinar entonces si se han interpretado las instrucciones de voz correctamente (bloque 204). Si el procesador 193 ha interpretado las instrucciones de discurso entrante correctamente, el usuario puede pedir al sistema del vehículo 191 que envíe las instrucciones procesadas a un destino predefinido, tal como un servidor (bloque 208). Son posibles otros destinos. En caso contrario, el usuario tiene la oportunidad de ponerse en contacto con un operador humano para asegurarse de que se hayan introducido las instrucciones correctamente (bloque 205). Si el usuario decide ponerse en contacto con el operador humano, se envía un compendio de la interacción entre el usuario y el procesador 193 al operador humano 196 (bloque 206) de un sistema de operador
195. El usuario se conecta con el operador humano (bloque 206) que se ocupa del sistema de operador 195 que comprende un teléfono y un terminal de ordenador. El usuario y el operador humano determinan el contenido de las instrucciones iniciadas por el usuario. Si el usuario no desea estar conectado con un operador humano, el usuario puede volver a facilitar nuevas instrucciones de voz (bloque 201).
En otra forma de realización, el procesador 193 procesa una nueva instrucción de voz basándose en una instrucción de voz igual o similar grabada previamente. Supongamos, por ejemplo, que en cinco episodios anteriores el usuario ha facilitado cierta instrucción de voz acerca de un restaurante. El procesador 193 toma una primera determinación en cuanto a lo que el usuario ha solicitado en cada uno de los cinco episodios. En los cuatro primeros episodios de los cinco, el usuario ha solicitado indicaciones de ruta para llegar al restaurante. En el quinto episodio, el usuario ha solicitado información bursátil de la empresa que cotiza en bolsa propietaria del restaurante. El procesador 193 registra los resultados aceptados de la instrucción de voz procesada, incluidas cuatro peticiones de indicación de ruta y una petición de información bursátil, con la instrucción de voz de cada episodio. La próxima vez que el usuario dé la misma instrucción de voz, el procesador 193 podrá utilizar los resultados aceptados registrados previamente para procesar la nueva instrucción de voz.
Es posible aplicar diversos procedimientos para utilizar los resultados aceptados registrados previamente. En un primer procedimiento, el resultado registrado con más frecuencia se convierte en el resultado de la última instrucción de voz concreta facilitada. Por lo tanto, en el ejemplo anterior, se proporcionan indicaciones de ruta al usuario, ya que los resultados registrados demuestran que las peticiones de indicaciones de ruta hasta el restaurante son más frecuentes que las peticiones de información bursátil u otro tipo de peticiones. En un segundo procedimiento, el resultado registrado en último lugar se convierte en el resultado de la última instrucción de voz concreta facilitada. Por lo tanto, en el ejemplo anterior, se facilita información bursátil al usuario, ya que el último resultado registrado ha sido una petición de información bursátil.
Con respecto a los primeros cuatro episodios descritos anteriormente, el procesador 193 procesa la instrucción de voz, ya sea como una petición de indicación de ruta, o bien como una petición de algo diferente. Si la instrucción de voz se ha procesado como una petición de indicación de ruta, el usuario puede aprobar el procesamiento, y la petición resultante de indicación de ruta hasta el restaurante se registra junto con la instrucción de voz para ese episodio. Si la instrucción de voz se ha procesado como una petición de algo distinto a la indicación de ruta, el usuario puede formular una nueva petición de indicaciones al procesador 193, lo cual demuestra que el procesamiento de las instrucciones de voz ha sido incorrecto.
El usuario puede indicar que el procesamiento ha sido incorrecto de varias maneras diferentes. Un usuario puede corregir el procesamiento poniéndose en contacto con un operador humano (bloque 205). El operador humano puede hacer el cambio para ese episodio, y el cambio se registra. También puede realizarse una corrección presentando una subsiguiente petición de instrucción de voz al procesador 193 para reinterpretar la instrucción de voz original. Volviendo al ejemplo anterior, una vez que la instrucción de voz se ha corregido convirtiéndola en una petición de indicaciones de ruta y el usuario acepta el cambio, el resultado de las indicaciones de ruta hasta el restaurante se registra con la instrucción de voz para el episodio.
La comunicación entre el conductor de un vehículo y un agente de un centro de llamadas puede tener lugar a través de mensajería. Cuando el agente y el conductor se comunican, sus voces son captadas, digitalizadas, comprimidas y enviadas a un servidor. El servidor encamina los segmentos de voz hacia una aplicación de escritorio del agente del centro de llamadas, que consiste en un agente humano del centro de llamadas situado en frente de una consola de agente, que comprende una pantalla, un teclado, un altavoz, un micrófono y unos auriculares. El agente puede interactuar con varios vehículos, cada uno de los cuales está representado por una sesión en la pantalla del agente. Cada sesión de comunicación está representada por una ventana, que muestra iconos que representan los enunciados de discurso recibidos desde el vehículo.
El agente puede escuchar un enunciado específico seleccionando el correspondiente icono con el ratón. En otra forma de realización, la voz del conductor del vehículo es procesada primero por un motor de reconocimiento de voz a texto y luego presentada como texto en la ventana.
Para responder a un conductor particular de un vehículo, el agente escribe en la ventana correspondiente a dicho vehículo. El texto escrito se convierte en voz facilitada por un servidor de texto a voz, y se comprime y envía de nuevo al vehículo. El texto escrito se almacena primero en la TCU y a continuación se descomprime y reproduce para el conductor. En otra forma de realización, el operador puede dar una respuesta oral en lugar de escrita. Tanto el conductor como el operador pueden escuchar otra vez un enunciado del mensaje solicitando al respectivo dispositivo que lo reproduzca de nuevo.
El agente puede interactuar con varios vehículos simultáneamente. El agente del centro de llamadas, así como el conductor del vehículo que participa en la conversación, pueden mantener un registro de cada sesión de conversación. El agente o el conductor pueden escuchar instrucciones almacenadas previamente. El agente puede ser mucho más eficaz, ya que no necesita pedir al conductor que repita el enunciado ni pedir disculpas por mantener el conductor en espera (la eficiencia está relacionada con la naturaleza orientada a mensajes semidúplex de la comunicación.)
La mensajería de agente permite a los agentes realizar varias tareas de varios clientes simultáneamente utilizando varias ventanas. Cada cliente puede comunicarse con un agente a través de unos medios de voz. Los agentes
reciben los mensajes de voz de varios clientes, y estos ponen en cola a fin de que los agentes los examinen en secuencia. Son posibles otras características relacionadas, tales como el control limitado del agente sobre otras aplicaciones de cliente.
Comunicación entre un cliente y un agente de un centro de llamadas puede comprender dos programas de aplicación: uno para el cliente (TCU), denominado "cliente", y otro para el agente, denominado "servidor". El servidor está diseñado para la transferencia de mensajes de almacenamiento y envío entre clientes y agentes individuales. El programa de aplicación del agente puede comprender alguna forma de ejecutable de Windows, con una GUI no de navegador. El programa de aplicación del cliente es una aplicación que se ejecuta en la TCU. Los mensajes de los clientes a los agentes pueden ser grabaciones de audio, mientras que los mensajes de los agentes a los clientes son principalmente mensajes de texto que han pasado a través de un motor de texto a voz. No obstante, son posibles otros procedimientos de comunicación, incluida la posibilidad de que los agentes envíen mensajes de audio y que los clientes envíen mensajes de texto.
Supongamos, por ejemplo, que un cliente se pone en contacto con un agente porque se ha perdido y desea obtener indicaciones de ruta hasta una ubicación específica. Se puede obtener la posición y los últimos movimientos del cliente para que el agente los examine. Basándose en la posición del cliente, el agente puede controlar una aplicación de navegación y facilitar indicaciones de ruta hasta la ubicación específica.
En otro ejemplo, el vehículo de un cliente se ha averiado o se ha visto involucrado en un accidente; sin embargo, no es necesario llamar a los servicios de emergencia. La información del vehículo se carga en función de la conexión con un bus CAN. Se carga también la posición del cliente.
En otro ejemplo, un agente puede realizar un servicio de asistencia personal para el cliente que puede ser prestado con rapidez, tal como conseguir entradas para un espectáculo. Aunque la obtención de entradas a menudo puede llevar menos de cinco minutos, son posibles otros lapsos. El agente, por medio de la consola del agente, puede utilizar servicios externos, tales como una página web de entradas. El agente puede acceder al asistente personal digital (PDA) del cliente o cualquier otra forma de dispositivo electrónico de planificación a través de sincronización para determinar la disponibilidad del cliente para asistir al espectáculo. El PDA puede comprender información tal como elementos de calendario, direcciones o números de teléfono. El agente también puede acceder a las preferencias y la información del cliente, tal como la información de tarjeta de crédito y correo electrónico, para prestar el servicio. Una vez que se han obtenido las entradas, se envía la confirmación del servicio al cliente por correo electrónico.
En otro ejemplo, un agente puede prestar al cliente un servicio de asistencia personal que lleva mucho tiempo, tal como una reserva en un restaurante que no responde al teléfono. Los servicios que llevan más de 30 minutos se pueden considerar servicios de largo plazo. Se admiten otros límites de tiempo. El agente sigue los mismos pasos para los servicios de asistencia personal de corto plazo; no obstante, habitualmente se requiere una sesión de pausa debido a la cantidad de tiempo necesario para prestar el servicio. El agente puede efectuar un reinicio de sesión una vez que el servicio ha concluido.
La comunicación entre el cliente y el agente puede comprender la transmisión, al agente, de una nueva petición oral del cliente, una posición o información del vehículo. El agente puede controlar otras aplicaciones del vehículo del cliente al mismo tiempo que recibe la nueva petición de voz del cliente. Durante cada sesión, el agente puede utilizar servicios externos por medio de la consola del agente. El acceso al PDA de cada cliente puede obtenerse a través de sincronización. Los agentes pueden ver datos del cliente en el PDA, incluidos los números teléfono, planes, tareas pendientes y otros datos. También pueden obtenerse las preferencias del cliente para facilitar el cumplimiento de la petición. Una vez se ha satisfecho la petición, el agente puede enviar una confirmación, tal como una nota de resumen, por correo electrónico. Si el cumplimiento de la petición requiere un período de tiempo prolongado, puede producirse la desconexión del cliente con una reconexión intermitente para comprobar si hay respuestas demoradas.
Las peticiones de mensajes de varios clientes pueden ponerse en cola para que un único agente se ocupe de estas. Un "cliente" para el cliente y un "cliente" para el agente pueden comunicarse con un único servidor. El agente envía un mensaje de respuesta, que se pone en cola para su posterior reproducción en el momento en que el conductor esté preparado. Las situaciones de reconocimiento de voz problemáticas para el agente, tal como los datos de la voz irreconocible, pueden transferirse automáticamente a un agente al cual se informa sobre el contexto. Puede considerarse que los datos son irreconocibles si estos no se entienden correctamente después de tres intentos. Son posibles otras formas de designar los datos como irreconocibles.
El agente puede acceder a cada perfil de cliente y controlarlo. Puede darse prioridad a las peticiones de entrada de los clientes en función de ciertos factores, tales como las limitaciones de tiempo y otros. Por ejemplo, el agente puede decidir que el cliente X debe ser respondido con rapidez en todos los casos. Entonces, las peticiones del cliente X se insertan más cerca de la cabeza de la cola, en lugar de al final.
El programa de aplicación del agente puede comprender scripts, atajos y otras herramientas para facilitar respuestas comunes, tales como "Lo siento señor, no hay entradas para el espectáculo. ¿Le va bien otra hora?" El agente
puede anotar la comunicación para examinarla él mismo u otras personas, o para renovar el contexto al reiniciar tras una pausa en la sesión.
La comunicación entre el cliente y el agente puede archivarse durante cierto período de tiempo. La comunicación archivada puede utilizarse para revisar o hacer una copia de la antigua comunicación. Si está disponible, el agente puede servir de forma invisible de herramienta de reconocimiento de voz para otra aplicación. Supongamos, por ejemplo, que un cliente solicita información meteorológica de una ciudad. Después de un segundo intento fallido de reconocimiento de los datos, el agente recibe el audio del tercer intento del cliente con la anotación de una ciudad.
Si el cliente está organizando un elemento programado, tal como el de unas reservas para el teatro u otro espectáculo, el agente puede comprobar automáticamente si existe alguna discrepancia con la planificación del cliente en el PDA del cliente. Puede ser que el agente no sepa cuál es el elemento discrepante, sino solo que existe una discrepancia.
El agente inicia el programa de aplicación del agente mediante un identificador de agente, tal como un nombre de inicio de sesión u otro tipo de identificador reconocible por el servidor. El programa de aplicación del agente gestiona una cola de líneas de comunicación con varios clientes. Cuando un cliente desea hablar con un agente, la aplicación del cliente negocia con el servidor para establecer una sesión con un agente particular. Cada cliente puede tener un agente habitual o agente predeterminado que está familiarizado con el cliente, aunque la carga de trabajo deberá estar equilibrada entre todos los agentes operativos. El trabajo del agente comprende pulsar el botón "siguiente mensaje", para ver el siguiente mensaje de la cola. Una vez pulsado, el agente recibe el audio más reciente del cliente. En la pantalla del agente aparece la transcripción de la conversación con el cliente. La transcripción es una combinación de las grabaciones de audio del cliente y las respuestas y mandatos de texto del agente. Es probable que la transcripción de la comunicación esté intercalada y que, de ese modo, el programa de aplicación permita al agente seleccionar líneas específicas de la transcripción. Si la transcripción es un mensaje de texto, se visualizará el texto completo y, si la transcripción es una comunicación de audio, se reproducirá la grabación de audio del cliente. La transcripción puede retroceder en la pantalla indefinidamente, incluso hasta una sesión previa de un día o una semana y, si la memoria lo permite, también hasta otros plazos de tiempo. Además de la transcripción, está disponible otro tipo de información acerca de la cola, tal como cuántos clientes están en espera, el tiempo medio de espera o las prioridades relativas de los clientes en la cola, así como otro tipo de información.
El agente puede obtener también información sobre el cliente a partir de una base de datos disponible a través de la consola del agente. La información puede comprender, por ejemplo, el nombre y los apellidos del cliente, el tipo de saludo preferido y las direcciones de lugares importantes, así como datos de otro tipo. El programa de aplicación del agente permite a los agentes responder a los clientes, ya sea introduciendo texto directamente, respondiendo con atajos que presentan frases comunes, incorporando la información del perfil del cliente, o bien respondiendo con mandatos que pueden ocasionar cambios funcionales en la máquina de cliente, por ejemplo especificando un nuevo destino para el componente de navegación o descargando una dirección en el PDA, así como utilizando otros tipos de respuestas. El agente puede modificar la prioridad relativa del cliente en la cola. Por lo tanto, dependiendo de la rapidez de respuesta que precisa el cliente, puede asignarse al mensaje una prioridad más alta en la cola y, en consecuencia, pasar por delante de otros clientes. Supongamos, por ejemplo, que el cliente A tiene problemas en el motor de su coche, mientras que el cliente B desea comprar un disco compacto. Entonces, la petición del cliente A se dispondrá en la cola del agente con una prioridad más alta que la petición del cliente B.
Aunque la presente invención se ha ilustrado y descrito en particular con referencia a las formas de realización de la misma, los expertos en la materia advertirán que es posible aplicar a la presente invención los cambios descritos anteriormente y cambios de otro tipo en la forma y los detalles sin apartarse del alcance de la presente invención.
- Apéndice
- Para indicar una cadena de mensaje de alerta, utilice:
- 5
- la cadena ALERT
- Para indicar una bifurcación incondicional para etiqueta, utilice:
- la etiqueta GOTO
- 10
- Para indicar una bifurcación condicional cond para etiqueta, utilice:
- la etiqueta IF cond THEN GO TO
- 15
- Para especificar una cadena de etiqueta para una bifurcación, utilice:
- la cadena LABEL
- Para terminar la ejecución, utilice:
- 20
- QUIT
- Para indicar una cadena de enunciado de discurso sintetizada, utilice:
- 25
- la cadena SAY
- Para indicar una cadena de nombre de cadena, utilice:
- la cadena SCRIPTNAME
- 30
- Para indicar un nombre de variable varname, utilice:
- varname SET
- 35
- Para indicar un nombre de script de subíndice, utilice:
- el nombre de script SUBSCRIPT
- Para indicar una cadena de estado de espera, utilice:
- 40
- la cadena WAITFOR<YES|NO|DATE|PHONENUM|CUSTlD>
Claims (8)
- REIVINDICACIONES1. Sistema (30) para proporcionar una infraestructura de comunicaciones multimodales para el funcionamiento de un centro de llamadas automatizado (11), que comprende:una interfaz de telefonía (35) configurada para aceptar una llamada multimodal de un llamador (12-15);un servidor de mensajería (31) configurado para asignar automáticamente la llamada multimodal, a través de un administrador de sesiones (47), a una sesión con la intervención de un agente real (81), y para recibir comunicaciones de voz y mensajes de texto en la llamada multimodal, que se originan simultáneamente en el llamador;un módulo de reconocimiento de voz (36) configurado para convertir el discurso entrante (54) de las comunicaciones de voz de la llamada multimodal en un texto transcrito (57);un procesador de mensajes de texto configurado para emparejar por lo menos uno de los mensajes de texto del llamador con el texto transcrito (57) del discurso entrante (54) durante la sesión que está en curso; yuna consola de agente (39) configurada para procesar progresivamente el texto transcrito (57) y los mensajes de texto de entrada durante la sesión, a través de una aplicación del agente (43) ejecutando un escenario de atención al cliente (22) supervisado y controlado interactivamente por el agente real (81).
- 2. Sistema (30) según la reivindicación 1, que además comprende, por lo menos uno de entre:una base de datos (34) configurada para almacenar los mensajes de texto de entrada y el texto transcrito (57) como una entrada de registro (44); oun módulo de posprocesamiento configurado para realizar un posprocesamiento en los mensajes de texto de entrada y el texto transcrito (57).
- 3. Sistema (30) según la reivindicación 1, que además comprende:un módulo de identificación de llamador configurado para asignar una identificación de llamador (71) a los mensajes de texto de entrada; yel servidor de mensajería (31) configurado para transmitir los mensajes de texto de entrada al agente real (81), basándose en la identificación de llamador (71).
-
- 4.
- Sistema (30) según la reivindicación 1, que además comprende:
un módulo de identificación (71) configurado para identificar los mensajes de texto de entrada como datos literales del llamador y una base de datos (34) configurada para almacenar los mensajes de texto de entrada identificados. -
- 5.
- Procedimiento para proporcionar una infraestructura de comunicaciones multimodales para el funcionamiento de un centro de llamadas automatizado (11), que comprende las etapas siguientes:
aceptar una llamada multimodal de un llamador (12-15) a través de una interfaz de telefonía (35); asignar automáticamente la llamada multimodal, a través de un administrador de sesiones (47), a una sesión con la intervención de un agente real (81);recibir comunicaciones de voz y mensajes de texto en la llamada multimodal, que se originan simultáneamente en el llamador; convertir el discurso entrante (54) de las comunicaciones de voz de la llamada multimodal en texto transcrito (57); emparejar por lo menos uno de los mensajes de texto del llamador con el texto transcrito (57) del discurso entrante(54) durante la sesión que está en curso; yprocesar progresivamente el texto transcrito (57) y los mensajes de texto de entrada durante la sesión de la llamada, a través de una aplicación del agente (43) ejecutando un escenario de atención al cliente (22) supervisado y controlado interactivamente por el agente real (81). - 6. Procedimiento según la reivindicación 5, que además comprende, por lo menos una de las siguientes etapas:almacenar los mensajes de texto de entrada y el texto transcrito (57) como una entrada de registro (44); llevar a cabo un posprocesamiento en los mensajes de texto de entrada y el texto transcrito (57).
- 7. Procedimiento según la reivindicación 5, que además comprende las etapas siguientes:asignar una identificación de llamador (71) a los mensajes de texto de entrada; y 10 transmitir los mensajes de texto de entrada al agente real (81) basándose en la identificación de llamador (71).
- 8. Procedimiento según la reivindicación 5, que además comprende las etapas siguientes: identificar los mensajes de texto de entrada como datos literales del llamador; yalmacenar los mensajes de texto de entrada identificados.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US981860 | 2007-10-31 | ||
US11/981,860 US8068595B2 (en) | 2002-03-15 | 2007-10-31 | System and method for providing a multi-modal communications infrastructure for automated call center operation |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2398756T3 true ES2398756T3 (es) | 2013-03-21 |
Family
ID=40336603
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES08168071T Active ES2398756T3 (es) | 2007-10-31 | 2008-10-31 | Provisión de una infraestructura de comunicaciones multimodales para el funcionamiento de un centro de llamadas automatizado |
Country Status (3)
Country | Link |
---|---|
US (7) | US8068595B2 (es) |
EP (1) | EP2056578B1 (es) |
ES (1) | ES2398756T3 (es) |
Families Citing this family (75)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7292689B2 (en) * | 2002-03-15 | 2007-11-06 | Intellisist, Inc. | System and method for providing a message-based communications infrastructure for automated call center operation |
US7215750B2 (en) * | 2002-12-18 | 2007-05-08 | Bellsouth Intellectual Property Corporation | System and method for providing custom caller-ID messages |
US8788372B2 (en) * | 2004-03-08 | 2014-07-22 | Sap Aktiengesellschaft | Method and system for classifying retail products and services using characteristic-based grouping structures |
US8655697B2 (en) * | 2004-04-16 | 2014-02-18 | Sap Aktiengesellschaft | Allocation table generation from assortment planning |
US20060059031A1 (en) * | 2004-08-06 | 2006-03-16 | Sap Aktiengesellschaft | Risk management |
US9224394B2 (en) * | 2009-03-24 | 2015-12-29 | Sirius Xm Connected Vehicle Services Inc | Service oriented speech recognition for in-vehicle automated interaction and in-vehicle user interfaces requiring minimal cognitive driver processing for same |
US7724890B1 (en) * | 2005-09-07 | 2010-05-25 | Sap Ag | Focused retrieval of selected data in a call center environment |
CN101242452B (zh) | 2007-02-05 | 2013-01-23 | 国际商业机器公司 | 用于自动生成声音文档以及提供声音文档的方法和系统 |
US8099337B2 (en) * | 2007-06-19 | 2012-01-17 | Sap Ag | Replenishment planning management |
US9756004B2 (en) * | 2007-11-08 | 2017-09-05 | Skype | Message delivery system and method |
US8786467B2 (en) * | 2007-11-14 | 2014-07-22 | The Boeing Company | Methods and systems for filtering traffic information for display |
US20090177393A1 (en) * | 2008-01-07 | 2009-07-09 | Simone Francine Tertoolen | Navigation device and method |
US8626152B2 (en) | 2008-01-31 | 2014-01-07 | Agero Connected Sevices, Inc. | Flexible telematics system and method for providing telematics to a vehicle |
AU2008353033B2 (en) * | 2008-03-20 | 2013-10-03 | Data Health Systems Limited | Message centre call handling |
US8639234B2 (en) * | 2008-03-31 | 2014-01-28 | General Motors Llc | System and method for processing vehicle communications |
US8983841B2 (en) * | 2008-07-15 | 2015-03-17 | At&T Intellectual Property, I, L.P. | Method for enhancing the playback of information in interactive voice response systems |
US8345857B2 (en) * | 2008-09-26 | 2013-01-01 | General Motors Llc | Method for reducing non-value added time between calls serviced at a call center |
US8644488B2 (en) * | 2008-10-27 | 2014-02-04 | Nuance Communications, Inc. | System and method for automatically generating adaptive interaction logs from customer interaction text |
US8943394B2 (en) * | 2008-11-19 | 2015-01-27 | Robert Bosch Gmbh | System and method for interacting with live agents in an automated call center |
US10455090B2 (en) | 2016-02-04 | 2019-10-22 | TEN DIGIT Communications LLC | Intermediary device for data message network routing and enhancement in a contact center environment |
US8315866B2 (en) | 2009-05-28 | 2012-11-20 | International Business Machines Corporation | Generating representations of group interactions |
US8775514B2 (en) * | 2009-06-11 | 2014-07-08 | Verizon Patent And Licensing Inc. | System and method for providing instant communication based customer support services using voice recognition |
US8340255B2 (en) * | 2009-07-07 | 2012-12-25 | CallVU, Ltd. | Interactive display response system |
US8521526B1 (en) * | 2010-07-28 | 2013-08-27 | Google Inc. | Disambiguation of a spoken query term |
US8467515B2 (en) * | 2010-08-06 | 2013-06-18 | Asd Inc. | System and method for providing enhanced answering services in a time-sensitive manner |
EP2424205B1 (de) * | 2010-08-26 | 2019-03-13 | Unify GmbH & Co. KG | Verfahren und Anordnung zur automatischen Übertragung einer Zustandsinformation |
US10467560B2 (en) * | 2010-09-30 | 2019-11-05 | Avaya Inc. | System and method for adaptive multiple contact assignment |
US20120197678A1 (en) * | 2011-02-01 | 2012-08-02 | Herbert Ristock | Methods and Apparatus for Managing Interaction Processing |
US9230549B1 (en) | 2011-05-18 | 2016-01-05 | The United States Of America As Represented By The Secretary Of The Air Force | Multi-modal communications (MMC) |
ES2408906B1 (es) * | 2011-05-26 | 2014-02-28 | Telefónica, S.A. | Sistema y método para analizar el contenido de una conversación de voz |
US9652727B1 (en) * | 2011-10-10 | 2017-05-16 | West Corporation | Mobile care with a virtual queue |
US9514329B2 (en) | 2012-03-30 | 2016-12-06 | Intellisist, Inc. | Computer-implemented system and method for individual message encryption using a unique key |
CN102880630A (zh) * | 2012-06-26 | 2013-01-16 | 华为技术有限公司 | 质检的处理方法和设备 |
DE102012213609B4 (de) * | 2012-08-01 | 2014-06-05 | Continental Automotive Gmbh | Verfahren zur Ausgabe von Informationen mit synthetischer Sprache |
WO2014042640A1 (en) * | 2012-09-13 | 2014-03-20 | Unify Gmbh & Co. Kg | Apparatus and method for audio data processing |
US10685487B2 (en) * | 2013-03-06 | 2020-06-16 | Qualcomm Incorporated | Disabling augmented reality (AR) devices at speed |
US8767948B1 (en) | 2013-03-15 | 2014-07-01 | Genesys Telecommunications Laboratories, Inc. | Back office services of an intelligent automated agent for a contact center |
US9589043B2 (en) | 2013-08-01 | 2017-03-07 | Actiance, Inc. | Unified context-aware content archive system |
US9742919B2 (en) * | 2013-10-31 | 2017-08-22 | ARS National Services, Inc. | Outbound calling center inventory management |
US9714832B2 (en) | 2014-03-13 | 2017-07-25 | Google Inc. | Varying map information density based on the speed of the vehicle |
US10348895B2 (en) * | 2015-02-13 | 2019-07-09 | Avaya Inc. | Prediction of contact center interactions |
US20160269349A1 (en) * | 2015-03-12 | 2016-09-15 | General Electric Company | System and method for orchestrating and correlating multiple software-controlled collaborative sessions through a unified conversational interface |
US9854098B2 (en) * | 2015-11-24 | 2017-12-26 | Avaya Inc. | Electronic communication routing based data accuracy |
KR102390713B1 (ko) * | 2015-11-25 | 2022-04-27 | 삼성전자 주식회사 | 전자 장치 및 전자 장치의 통화 서비스 제공 방법 |
US9848082B1 (en) * | 2016-03-28 | 2017-12-19 | Noble Systems Corporation | Agent assisting system for processing customer enquiries in a contact center |
EP3467769A4 (en) * | 2016-05-27 | 2019-11-13 | Rakuten, Inc. | PICTURE PROCESSING DEVICE, PICTURE PROCESSING METHOD AND PICTURE PROCESSING PROGRAM |
US10616345B1 (en) * | 2016-08-26 | 2020-04-07 | Noble Systems Corporation | Communication management system for supporting multiple agent communication sessions in a contact center |
US10880254B2 (en) | 2016-10-31 | 2020-12-29 | Actiance, Inc. | Techniques for supervising communications from multiple communication modalities |
US10614813B2 (en) * | 2016-11-04 | 2020-04-07 | Intellisist, Inc. | System and method for performing caller identity verification using multi-step voice analysis |
US10284723B1 (en) | 2016-12-23 | 2019-05-07 | Noble Systems Corporation | Managing multiple agent communication sessions in a contact center |
US10447853B1 (en) * | 2016-12-29 | 2019-10-15 | Noble Systems Corporation | Graphical user interface for managing multiple agent communication sessions in a contact center |
US11093716B2 (en) * | 2017-03-31 | 2021-08-17 | Nec Corporation | Conversation support apparatus, conversation support method, and computer readable recording medium |
US10033870B1 (en) | 2017-04-12 | 2018-07-24 | Noble Systems Corporation | Agent interaction with a party using multiple channels of communication |
US10547654B2 (en) * | 2017-05-16 | 2020-01-28 | Microsoft Technology Licensing, Llc | Concurrent engagement with live content of multiple conference sessions |
US10176808B1 (en) * | 2017-06-20 | 2019-01-08 | Microsoft Technology Licensing, Llc | Utilizing spoken cues to influence response rendering for virtual assistants |
JP2019046267A (ja) * | 2017-09-04 | 2019-03-22 | トヨタ自動車株式会社 | 情報提供方法、情報提供システム、および情報提供装置 |
US10523816B1 (en) | 2017-10-24 | 2019-12-31 | Noble Systems Corporation | Transferring an interaction between an agent at a contact center and a party from a first channel of communication to a second channel of communication |
US10972609B2 (en) * | 2018-11-10 | 2021-04-06 | Nuance Communications, Inc. | Caller deflection and response system and method |
US20200153965A1 (en) * | 2018-11-10 | 2020-05-14 | Nuance Communications, Inc. | Caller deflection and response system and method |
US20210117882A1 (en) | 2019-10-16 | 2021-04-22 | Talkdesk, Inc | Systems and methods for workforce management system deployment |
US11152000B1 (en) | 2019-12-19 | 2021-10-19 | Express Scripts Strategic Development, Inc. | Predictive analysis system |
US11315065B1 (en) | 2019-12-19 | 2022-04-26 | Express Scripts Strategic Development, Inc. | Agent coaching system |
US11736615B2 (en) | 2020-01-16 | 2023-08-22 | Talkdesk, Inc. | Method, apparatus, and computer-readable medium for managing concurrent communications in a networked call center |
US11445068B1 (en) | 2020-02-21 | 2022-09-13 | Express Scripts Strategic Development, Inc. | Virtual caller system |
RU2755781C1 (ru) * | 2020-06-04 | 2021-09-21 | Публичное Акционерное Общество "Сбербанк России" (Пао Сбербанк) | Интеллектуальное рабочее место оператора и способ его взаимодействия для осуществления интерактивной поддержки сессии обслуживания клиента |
US11115530B1 (en) * | 2020-06-23 | 2021-09-07 | Bank Of America Corporation | Integration of human agent and automated tools for interactive voice response (IVR) systems |
US11805189B1 (en) * | 2020-09-17 | 2023-10-31 | Intrado Life & Safety, Inc. | Publish and subscribe call center architecture |
US11637923B1 (en) | 2020-09-17 | 2023-04-25 | Intrado Corporation | Insight determination from aggregated call content |
US11489963B1 (en) | 2020-09-30 | 2022-11-01 | Express Scripts Strategic Development, Inc. | Agent logging system |
US11379253B2 (en) | 2020-11-30 | 2022-07-05 | International Business Machines Corporation | Training chatbots for remote troubleshooting |
US11646987B1 (en) * | 2021-04-08 | 2023-05-09 | Kaarya Llc | System and method for adaptive message distribution |
US11677875B2 (en) | 2021-07-02 | 2023-06-13 | Talkdesk Inc. | Method and apparatus for automated quality management of communication records |
US11856140B2 (en) | 2022-03-07 | 2023-12-26 | Talkdesk, Inc. | Predictive communications system |
US11736616B1 (en) | 2022-05-27 | 2023-08-22 | Talkdesk, Inc. | Method and apparatus for automatically taking action based on the content of call center communications |
US11943391B1 (en) | 2022-12-13 | 2024-03-26 | Talkdesk, Inc. | Method and apparatus for routing communications within a contact center |
Family Cites Families (160)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4956852A (en) * | 1988-08-30 | 1990-09-11 | Universal Data Systems, Inc. | Method for remote configuration of a modem |
US4979118A (en) * | 1989-03-10 | 1990-12-18 | Gte Laboratories Incorporated | Predictive access-control and routing system for integrated services telecommunication networks |
US5214688A (en) * | 1990-06-05 | 1993-05-25 | Inventions, Inc. | Method and apparatus for dynamic and interdependent processing of inbound calls and outbound calls |
US5206903A (en) * | 1990-12-26 | 1993-04-27 | At&T Bell Laboratories | Automatic call distribution based on matching required skills with agents skills |
US6173052B1 (en) * | 1992-06-25 | 2001-01-09 | Apropros Technology | Blending communications in a call center |
US5729600A (en) | 1992-06-25 | 1998-03-17 | Rockwell International Corporation | Automatic call distributor with automated voice responsive call servicing system and method |
US5444774A (en) * | 1992-06-26 | 1995-08-22 | At&T Corp. | Interactive queuing sytem for call centers |
US5799067A (en) * | 1992-06-29 | 1998-08-25 | Elonex I.P. Holdings Ltd. | Smart phone integration with computer systems |
US5857018A (en) * | 1992-08-11 | 1999-01-05 | Rockwell International Corp. | Automatic call distributor with prioritization |
JPH06232982A (ja) * | 1993-02-02 | 1994-08-19 | Fujitsu Ltd | 着信呼の分配制御方式 |
US5479487A (en) * | 1993-02-11 | 1995-12-26 | Intervoice Limited Partnership | Calling center employing unified control system |
AU693462B2 (en) * | 1993-09-22 | 1998-07-02 | E-Talk Corporation | Method and system for automatically monitoring the performance quality of call center service representatives |
US5657461A (en) * | 1993-10-04 | 1997-08-12 | Xerox Corporation | User interface for defining and automatically transmitting data according to preferred communication channels |
US5956643A (en) * | 1994-01-13 | 1999-09-21 | Lucent Technologies Inc. | Apparatus and method for adaptive dynamic channel assignment in wireless communication networks |
US5703935A (en) | 1994-03-29 | 1997-12-30 | Mci Communications Corporation | Automated telephone operator services |
US5619554A (en) | 1994-06-08 | 1997-04-08 | Linkusa Corporation | Distributed voice system and method |
US5546447A (en) * | 1994-06-29 | 1996-08-13 | Intel Corporation | Displaying caller identification information in a computer system |
US5740231A (en) * | 1994-09-16 | 1998-04-14 | Octel Communications Corporation | Network-based multimedia communications and directory system and method of operation |
US5715306A (en) * | 1994-09-23 | 1998-02-03 | Rockwell International Corporation | Automatic call distribution system with user definable logging and method therefor |
US5570410A (en) * | 1994-10-13 | 1996-10-29 | Bellsouth Corporation | Dynamic resource allocation process for a service control point in an advanced intelligent network system |
US5524147A (en) * | 1995-02-02 | 1996-06-04 | Aspect Telecommunications Corporation | Method for forming a virtual call center |
CA2173304C (en) * | 1995-04-21 | 2003-04-29 | Anthony J. Dezonno | Method and system for establishing voice communications using a computer network |
EP0740450B1 (en) * | 1995-04-24 | 2006-06-14 | International Business Machines Corporation | Method and apparatus for skill-based routing in a call center |
JPH0934842A (ja) * | 1995-07-18 | 1997-02-07 | Canon Inc | 処理システム及び処理装置 |
US5884032A (en) * | 1995-09-25 | 1999-03-16 | The New Brunswick Telephone Company, Limited | System for coordinating communications via customer contact channel changing system using call centre for setting up the call between customer and an available help agent |
US5933492A (en) * | 1997-01-21 | 1999-08-03 | Genesys Telecommunications Laboratories, Inc. | Method and system for determining and using multiple object states in a computer telephony integration system |
US5825870A (en) * | 1996-04-05 | 1998-10-20 | Genesys Telecommunications Laboratories | Methods and apparatus for implementing a network call center |
US5740238A (en) * | 1995-11-03 | 1998-04-14 | Lucent Technologies Inc. | Method and apparatus for queuing a call to the best backup split |
US5978671A (en) | 1995-12-21 | 1999-11-02 | At&T Middletown | Method for updating a caller database in a communication system |
US5646986A (en) * | 1995-12-29 | 1997-07-08 | At&T | Network communication system with global event calendar information and trunk allocation |
US5946386A (en) * | 1996-03-11 | 1999-08-31 | Xantel Corporation | Call management system with call control from user workstation computers |
US5940487A (en) * | 1996-04-10 | 1999-08-17 | Alcatel Usa Sourcing, L.P. | Programmable call processing system and method |
US5901214A (en) | 1996-06-10 | 1999-05-04 | Murex Securities, Ltd. | One number intelligent call processing system |
US6064730A (en) * | 1996-06-18 | 2000-05-16 | Lucent Technologies Inc. | Customer-self routing call center |
US5903877A (en) * | 1996-09-30 | 1999-05-11 | Lucent Technologies Inc. | Transaction center for processing customer transaction requests from alternative media sources |
US5915001A (en) | 1996-11-14 | 1999-06-22 | Vois Corporation | System and method for providing and using universally accessible voice and speech data files |
US5828747A (en) * | 1997-01-28 | 1998-10-27 | Lucent Technologies Inc. | Call distribution based on agent occupancy |
US5903641A (en) * | 1997-01-28 | 1999-05-11 | Lucent Technologies Inc. | Automatic dynamic changing of agents' call-handling assignments |
US5946388A (en) * | 1997-02-06 | 1999-08-31 | Walker Asset Management Limited Partnership | Method and apparatus for priority queuing of telephone calls |
US6044146A (en) | 1998-02-17 | 2000-03-28 | Genesys Telecommunications Laboratories, Inc. | Method and apparatus for call distribution and override with priority |
US6128646A (en) * | 1997-12-24 | 2000-10-03 | Genesys Telecommunications Laboratories Inc. | System for routing electronic mail to best qualified person based on content analysis |
US5940496A (en) * | 1997-02-10 | 1999-08-17 | Gewesys Telecommunications Laboratories, Inc. | Apparatus and methods enhancing call routing within and between call-centers |
US5963632A (en) * | 1997-02-10 | 1999-10-05 | Genesys Telecommunications Laboratories, Inc. | Agent-initiated dynamic requeing of misrouted calls in call-routing systems |
US5995615A (en) * | 1997-02-10 | 1999-11-30 | Genesys Telecommunications Laboratories, Inc. | External positivistic forward transfer in call-routing systems |
US5995614A (en) * | 1997-02-10 | 1999-11-30 | Genesys Telecommunications Laboratories, Inc. | Dynamic requeing to avoid latency in call-routing systems |
US5946387A (en) * | 1997-02-10 | 1999-08-31 | Genesys Telecommunications Laboratories, Inc, | Agent-level network call routing |
US6185292B1 (en) * | 1997-02-10 | 2001-02-06 | Genesys Telecommunications Laboratories, Inc. | Skill-based real-time call routing in telephony systems |
US6064667A (en) * | 1997-02-10 | 2000-05-16 | Genesys Telecommunications Laboratories, Inc. | Apparatus and methods enhancing call routing to and within call centers |
US5905793A (en) * | 1997-03-07 | 1999-05-18 | Lucent Technologies Inc. | Waiting-call selection based on anticipated wait times |
US5982873A (en) * | 1997-03-07 | 1999-11-09 | Lucent Technologies Inc. | Waiting-call selection based on objectives |
US5951638A (en) * | 1997-03-21 | 1999-09-14 | International Business Machines Corporation | Integrated multimedia messaging system |
US6046762A (en) * | 1997-04-01 | 2000-04-04 | Cosmocom, Inc. | Multimedia telecommunication automatic call distribution system |
US5960073A (en) * | 1997-04-03 | 1999-09-28 | Genesys Telecommunications Laboratories , Inc. | Method and apparatus for providing an interactive home agent with access to call center functionality and resources |
US5978467A (en) | 1997-04-11 | 1999-11-02 | Walker Asset Management Limited Partnership | Method and apparatus for enabling interaction between callers with calls positioned in a queue |
US6393015B1 (en) * | 1997-09-12 | 2002-05-21 | Genesys Telecommunications Laboratories, Inc. | Method and apparatus for automatic network connection between a small business and a client |
US6487277B2 (en) * | 1997-09-19 | 2002-11-26 | Siemens Information And Communication Networks, Inc. | Apparatus and method for improving the user interface of integrated voice response systems |
US6493447B1 (en) * | 1997-11-21 | 2002-12-10 | Mci Communications Corporation | Contact server for call center for syncronizing simultaneous telephone calls and TCP/IP communications |
US6122364A (en) | 1997-12-02 | 2000-09-19 | Nortel Networks Corporation | Internet network call center |
US6157705A (en) | 1997-12-05 | 2000-12-05 | E*Trade Group, Inc. | Voice control of a server |
US6115462A (en) | 1998-01-09 | 2000-09-05 | Gte Laboratories Incorporated | Method and apparatus for efficient call routing |
US6563788B1 (en) | 1998-02-17 | 2003-05-13 | Genesys Telecommunications Laboratories, Inc. | Method and apparatus for call distribution and override with priority recognition and fairness timing routines |
US6801520B2 (en) | 1998-02-17 | 2004-10-05 | Genesys Telecommunications Laboratories, Inc. | Queue prioritization based on competitive user input |
US6047060A (en) * | 1998-02-20 | 2000-04-04 | Genesys Telecommunications Laboratories, Inc. | Method and apparatus for enabling full interactive monitoring of calls to and from a call-in center |
US6212178B1 (en) * | 1998-09-11 | 2001-04-03 | Genesys Telecommunication Laboratories, Inc. | Method and apparatus for selectively presenting media-options to clients of a multimedia call center |
US6332154B2 (en) * | 1998-09-11 | 2001-12-18 | Genesys Telecommunications Laboratories, Inc. | Method and apparatus for providing media-independent self-help modules within a multimedia communication-center customer interface |
US6170011B1 (en) * | 1998-09-11 | 2001-01-02 | Genesys Telecommunications Laboratories, Inc. | Method and apparatus for determining and initiating interaction directionality within a multimedia communication center |
JP4087941B2 (ja) * | 1998-03-09 | 2008-05-21 | 富士通株式会社 | コンピュータと電話の統合システム |
US6704394B1 (en) * | 1998-03-25 | 2004-03-09 | International Business Machines Corporation | System and method for accessing voice mail from a remote server |
US6438599B1 (en) | 1998-04-03 | 2002-08-20 | Aspect Communications Corporation | Method and apparatus for establishing communication between a transaction initiator and a transaction processing system |
US6049779A (en) | 1998-04-06 | 2000-04-11 | Berkson; Stephen P. | Call center incentive system and method |
US6173053B1 (en) * | 1998-04-09 | 2001-01-09 | Avaya Technology Corp. | Optimizing call-center performance by using predictive data to distribute calls among agents |
US6144938A (en) * | 1998-05-01 | 2000-11-07 | Sun Microsystems, Inc. | Voice user interface with personality |
US7062020B1 (en) | 1998-06-08 | 2006-06-13 | Convergys Cmg Utah Inc. | System and apparatus for IVR port sharing |
US6011844A (en) | 1998-06-19 | 2000-01-04 | Callnet Communications | Point-of-presence call center management system |
US6324276B1 (en) | 1999-02-12 | 2001-11-27 | Telera, Inc. | Point-of-presence call center management system |
US20020006126A1 (en) * | 1998-07-24 | 2002-01-17 | Gregory Johnson | Methods and systems for accessing information from an information source |
GB2341291B (en) * | 1998-09-02 | 2003-07-23 | Mitel Corp | Line information security interface for tapi service provider |
US20020057674A1 (en) | 1998-09-24 | 2002-05-16 | Grigory Shenkman | Method and apparatus for providing integrated routing for pstn and ipnt calls in a call center |
US6517587B2 (en) * | 1998-12-08 | 2003-02-11 | Yodlee.Com, Inc. | Networked architecture for enabling automated gathering of information from Web servers |
US6665395B1 (en) | 1998-12-11 | 2003-12-16 | Avaya Technology Corp. | Automatic call distribution system using computer network-based communication |
US6360093B1 (en) * | 1999-02-05 | 2002-03-19 | Qualcomm, Incorporated | Wireless push-to-talk internet broadcast |
US6473505B1 (en) * | 1999-04-27 | 2002-10-29 | Sprint Communications Company L.P. | Call processing system for handling calls to a call center |
US6560329B1 (en) * | 1999-04-29 | 2003-05-06 | Teloquent Communications Corporation | Automated call routing system |
US6401061B1 (en) * | 1999-05-13 | 2002-06-04 | Yuri L. Zieman | Combinatorial computational technique for transformation phrase text-phrase meaning |
US7086007B1 (en) | 1999-05-27 | 2006-08-01 | Sbc Technology Resources, Inc. | Method for integrating user models to interface design |
US7224790B1 (en) | 1999-05-27 | 2007-05-29 | Sbc Technology Resources, Inc. | Method to identify and categorize customer's goals and behaviors within a customer service center environment |
US6330327B1 (en) * | 1999-06-29 | 2001-12-11 | Davox Corporation | Intelligent area code update system and method |
US6611590B1 (en) | 1999-07-30 | 2003-08-26 | Avaya Technology Corp. | Enterprise-wide intelligent call center routing |
US6771766B1 (en) * | 1999-08-31 | 2004-08-03 | Verizon Services Corp. | Methods and apparatus for providing live agent assistance |
US6654458B1 (en) | 1999-10-13 | 2003-11-25 | Rockwell Electronic Commerce Corp. | Administration and control of an automatic call distributor by a remotely located supervisor |
US7230927B1 (en) | 1999-12-07 | 2007-06-12 | Aspect Software, Inc. | Non-blocking expandable call center architecture |
US20010032081A1 (en) | 1999-12-20 | 2001-10-18 | Audiopoint, Inc. | System for on-demand delivery of user-specific audio content |
US6496691B1 (en) | 1999-12-23 | 2002-12-17 | Bellsouth Intellectual Property Corporation | Enhanced call return in a wireless telephone network |
AU2931501A (en) * | 2000-01-07 | 2001-07-31 | Ineto, Inc. | Customer communication service system |
GB0000735D0 (en) * | 2000-01-13 | 2000-03-08 | Eyretel Ltd | System and method for analysing communication streams |
US6724887B1 (en) * | 2000-01-24 | 2004-04-20 | Verint Systems, Inc. | Method and system for analyzing customer communications with a contact center |
US6744879B1 (en) | 2000-02-02 | 2004-06-01 | Rockwell Electronic Commerce Corp. | Profit-based method of assigning calls in a transaction processing system |
JP4555537B2 (ja) * | 2000-02-14 | 2010-10-06 | モトローラ・インコーポレイテッド | チャットメッセージ通信装置及びその方法 |
US6944150B1 (en) | 2000-02-28 | 2005-09-13 | Sprint Communications Company L.P. | Method and system for providing services in communications networks |
US7263484B1 (en) | 2000-03-04 | 2007-08-28 | Georgia Tech Research Corporation | Phonetic searching |
US20040006473A1 (en) | 2002-07-02 | 2004-01-08 | Sbc Technology Resources, Inc. | Method and system for automated categorization of statements |
US6778643B1 (en) | 2000-03-21 | 2004-08-17 | Sbc Technology Resources, Inc. | Interface and method of designing an interface |
US6751310B1 (en) | 2000-04-05 | 2004-06-15 | Concerto Software, Inc. | System and method for prioritizing telephone call campaigns based on campaign productivity |
US7522911B2 (en) * | 2000-04-11 | 2009-04-21 | Telecommunication Systems, Inc. | Wireless chat automatic status tracking |
US7043193B1 (en) * | 2000-05-09 | 2006-05-09 | Knowlagent, Inc. | Versatile resource computer-based training system |
US6785741B1 (en) | 2000-05-09 | 2004-08-31 | International Business Machines Corporation | Call director system and method |
JP3434487B2 (ja) * | 2000-05-12 | 2003-08-11 | 株式会社イサオ | 位置連動式チャットシステム、そのための位置連動式チャット方法、および、プログラムを記録したコンピュータ読み取り可能な記録媒体 |
US20020046030A1 (en) | 2000-05-18 | 2002-04-18 | Haritsa Jayant Ramaswamy | Method and apparatus for improved call handling and service based on caller's demographic information |
US7010610B1 (en) | 2000-05-22 | 2006-03-07 | International Business Machines Corporation | Programmable agent workstation system and method |
US20010053977A1 (en) * | 2000-06-19 | 2001-12-20 | Realperson, Inc. | System and method for responding to email and self help requests |
US6668044B1 (en) * | 2000-07-19 | 2003-12-23 | Xtend Communications Corp. | System and method for recording telephonic communications |
US6519530B2 (en) | 2000-08-15 | 2003-02-11 | Ewatchdogs, Inc. | Intelligent remote location system |
US6819754B1 (en) | 2000-08-29 | 2004-11-16 | Cisco Technology, Inc. | Generation of communication system control scripts |
US20020083009A1 (en) | 2000-09-21 | 2002-06-27 | Paul Lansing | System and method for completing on-line transactions and micro-transactions |
US7123709B1 (en) * | 2000-10-03 | 2006-10-17 | Lucent Technologies Inc. | Method for audio stream monitoring on behalf of a calling party |
US20020077823A1 (en) * | 2000-10-13 | 2002-06-20 | Andrew Fox | Software development systems and methods |
US8868448B2 (en) | 2000-10-26 | 2014-10-21 | Liveperson, Inc. | Systems and methods to facilitate selling of products and services |
US7212516B1 (en) | 2000-12-22 | 2007-05-01 | Nortel Networks Limited | Network spanning heterogeneous call center and method of operation |
US7606909B1 (en) | 2001-02-20 | 2009-10-20 | Michael Ely | Method and apparatus for a business contact center |
US7400879B2 (en) | 2001-03-04 | 2008-07-15 | Adomo, Inc. | Method for conducting mobile communications for a network |
US6937705B1 (en) * | 2001-03-05 | 2005-08-30 | Verizon Corporate Services Group Inc. | Apparatus and method for visually representing events in calls handled by an automated response system |
US6904143B1 (en) * | 2001-03-05 | 2005-06-07 | Verizon Corporate Services Group Inc. | Apparatus and method for logging events that occur when interacting with an automated call center system |
US6898277B1 (en) * | 2001-03-05 | 2005-05-24 | Verizon Corporate Services Group Inc. | System and method for annotating recorded information from contacts to contact center |
US6996531B2 (en) * | 2001-03-30 | 2006-02-07 | Comverse Ltd. | Automated database assistance using a telephone for a speech based or text based multimedia communication mode |
US6778660B2 (en) * | 2001-04-06 | 2004-08-17 | Concerto Software, Inc. | Customer interaction system |
KR100383625B1 (ko) | 2001-05-26 | 2003-05-14 | 삼성전자주식회사 | 보이스 오버 인터넷 프로토콜 시스템에서의 라우팅 서비스방법 |
US7110525B1 (en) * | 2001-06-25 | 2006-09-19 | Toby Heller | Agent training sensitive call routing system |
US6810111B1 (en) | 2001-06-25 | 2004-10-26 | Intervoice Limited Partnership | System and method for measuring interactive voice response application efficiency |
US7254384B2 (en) * | 2001-10-03 | 2007-08-07 | Accenture Global Services Gmbh | Multi-modal messaging |
US7640006B2 (en) * | 2001-10-03 | 2009-12-29 | Accenture Global Services Gmbh | Directory assistance with multi-modal messaging |
US7233655B2 (en) * | 2001-10-03 | 2007-06-19 | Accenture Global Services Gmbh | Multi-modal callback |
US7346539B1 (en) | 2001-10-26 | 2008-03-18 | At&T Delaware Intellectual Property, Inc. | System and method for interpreting market forces and developing strategic business directions |
US7089280B1 (en) | 2001-11-02 | 2006-08-08 | Sprint Spectrum L.P. | Autonomous eclone |
US7174010B2 (en) * | 2001-11-05 | 2007-02-06 | Knowlagent, Inc. | System and method for increasing completion of training |
US20030142809A1 (en) | 2002-01-25 | 2003-07-31 | Callfx, Inc. | Apparatus, methods and articles of manufacture for computerized messaging control |
US7219138B2 (en) | 2002-01-31 | 2007-05-15 | Witness Systems, Inc. | Method, apparatus, and system for capturing data exchanged between a server and a user |
US7424715B1 (en) | 2002-01-28 | 2008-09-09 | Verint Americas Inc. | Method and system for presenting events associated with recorded data exchanged between a server and a user |
US7149788B1 (en) | 2002-01-28 | 2006-12-12 | Witness Systems, Inc. | Method and system for providing access to captured multimedia data from a multimedia player |
US20030179876A1 (en) * | 2002-01-29 | 2003-09-25 | Fox Stephen C. | Answer resource management system and method |
US7305070B2 (en) | 2002-01-30 | 2007-12-04 | At&T Labs, Inc. | Sequential presentation of long instructions in an interactive voice response system |
US7895283B1 (en) | 2002-03-08 | 2011-02-22 | Robert Joseph Hazy | Audio message driven customer interaction queuing system |
US7460659B2 (en) | 2002-09-27 | 2008-12-02 | Rockwell Electronic Commerce | Best practices learning for agents in a communication system |
US20040162724A1 (en) * | 2003-02-11 | 2004-08-19 | Jeffrey Hill | Management of conversations |
US7219054B1 (en) | 2003-04-04 | 2007-05-15 | At&T Corp. | Systems and methods for generating an annotation guide |
KR20060095946A (ko) | 2003-09-04 | 2006-09-05 | 이엠시 코포레이션 | 데이터 메세지 미러링 및 리드렉션 |
JP2007504563A (ja) | 2003-09-04 | 2007-03-01 | イーエムシー コーポレイション | データメッセージミラーリングおよび宛て先変更 |
US7769161B1 (en) | 2003-12-17 | 2010-08-03 | Avaya, Inc. | Contact center |
JP4853670B2 (ja) * | 2004-03-26 | 2012-01-11 | マイクロソフト コーポレーション | コンピュータ・ツゥ・ヒューマン・エスカレーションに使用する方法および装置 |
US20060062373A1 (en) * | 2004-09-23 | 2006-03-23 | Steven Chervets | Call center agent presence verification |
US7657005B2 (en) | 2004-11-02 | 2010-02-02 | At&T Intellectual Property I, L.P. | System and method for identifying telephone callers |
US7734022B1 (en) | 2004-12-03 | 2010-06-08 | At&T Corp. | Method and apparatus for managing call requests in a communication network |
US7751551B2 (en) | 2005-01-10 | 2010-07-06 | At&T Intellectual Property I, L.P. | System and method for speech-enabled call routing |
US20060153356A1 (en) * | 2005-01-13 | 2006-07-13 | Seatlink, Inc. | Contact-center routing based on incentives and/or agent preferences |
US7627096B2 (en) | 2005-01-14 | 2009-12-01 | At&T Intellectual Property I, L.P. | System and method for independently recognizing and selecting actions and objects in a speech recognition system |
US7450698B2 (en) | 2005-01-14 | 2008-11-11 | At&T Intellectual Property 1, L.P. | System and method of utilizing a hybrid semantic model for speech recognition |
US7627109B2 (en) | 2005-02-04 | 2009-12-01 | At&T Intellectual Property I, Lp | Call center system for multiple transaction selections |
US20070019801A1 (en) * | 2005-06-30 | 2007-01-25 | Dell Products L.P. | Method, system and apparatus for tracking support calls and determining proactive support strategies |
US7599861B2 (en) | 2006-03-02 | 2009-10-06 | Convergys Customer Management Group, Inc. | System and method for closed loop decisionmaking in an automated care system |
US7921214B2 (en) * | 2006-12-19 | 2011-04-05 | International Business Machines Corporation | Switching between modalities in a speech application environment extended for interactive text exchanges |
US8027839B2 (en) * | 2006-12-19 | 2011-09-27 | Nuance Communications, Inc. | Using an automated speech application environment to automatically provide text exchange services |
-
2007
- 2007-10-31 US US11/981,860 patent/US8068595B2/en active Active
-
2008
- 2008-10-31 ES ES08168071T patent/ES2398756T3/es active Active
- 2008-10-31 EP EP20080168071 patent/EP2056578B1/en active Active
-
2011
- 2011-11-28 US US13/305,671 patent/US8457296B2/en not_active Expired - Lifetime
-
2013
- 2013-06-03 US US13/909,062 patent/US8804938B2/en not_active Expired - Lifetime
-
2014
- 2014-08-11 US US14/457,050 patent/US9014362B2/en not_active Expired - Fee Related
-
2015
- 2015-04-20 US US14/691,519 patent/US9258414B2/en not_active Expired - Fee Related
-
2016
- 2016-02-08 US US15/018,836 patent/US9667789B2/en not_active Expired - Lifetime
-
2017
- 2017-05-26 US US15/606,710 patent/US9942401B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
US9942401B2 (en) | 2018-04-10 |
EP2056578A3 (en) | 2009-06-17 |
US8804938B2 (en) | 2014-08-12 |
US20130259212A1 (en) | 2013-10-03 |
US20150222751A1 (en) | 2015-08-06 |
US20080118051A1 (en) | 2008-05-22 |
EP2056578B1 (en) | 2012-10-31 |
US9258414B2 (en) | 2016-02-09 |
EP2056578A2 (en) | 2009-05-06 |
US8457296B2 (en) | 2013-06-04 |
US8068595B2 (en) | 2011-11-29 |
US20170264745A1 (en) | 2017-09-14 |
US9014362B2 (en) | 2015-04-21 |
US20140348320A1 (en) | 2014-11-27 |
US20120069975A1 (en) | 2012-03-22 |
US9667789B2 (en) | 2017-05-30 |
US20160227038A1 (en) | 2016-08-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2398756T3 (es) | Provisión de una infraestructura de comunicaciones multimodales para el funcionamiento de un centro de llamadas automatizado | |
ES2341052T3 (es) | Procesado de respuestas a comunicantes por averias durante un procesado automatizado de llamadas. | |
US10044860B2 (en) | System and method for call data processing | |
US20170244835A1 (en) | Computer-Implemented System and Method For Facilitating Call Sessions Via Messages | |
US9215194B2 (en) | Method and apparatus to process an incoming message | |
JP2002529994A (ja) | マルチメディア通信センタ内で対話の方向性を決定し起動する方法および装置 | |
US9412394B1 (en) | Interactive audio communication system | |
US10978095B2 (en) | Control of incoming calls | |
US20100048227A1 (en) | Short messaging service for extending customer service deliver channels | |
US20030046181A1 (en) | Systems and methods for using a conversation control system in relation to a plurality of entities | |
US8468027B2 (en) | Systems and methods for deploying and utilizing a network of conversation control systems | |
US20180054526A1 (en) | Interactive voicemail message and response tagging system for improved response quality and information retrieval |