ES2398756T3 - Provisión de una infraestructura de comunicaciones multimodales para el funcionamiento de un centro de llamadas automatizado - Google Patents

Provisión de una infraestructura de comunicaciones multimodales para el funcionamiento de un centro de llamadas automatizado Download PDF

Info

Publication number
ES2398756T3
ES2398756T3 ES08168071T ES08168071T ES2398756T3 ES 2398756 T3 ES2398756 T3 ES 2398756T3 ES 08168071 T ES08168071 T ES 08168071T ES 08168071 T ES08168071 T ES 08168071T ES 2398756 T3 ES2398756 T3 ES 2398756T3
Authority
ES
Spain
Prior art keywords
agent
text
call
caller
session
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES08168071T
Other languages
English (en)
Inventor
Gilad Odinak
Alastiar Sutherland
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intellisist Inc
Original Assignee
Intellisist Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intellisist Inc filed Critical Intellisist Inc
Application granted granted Critical
Publication of ES2398756T3 publication Critical patent/ES2398756T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/51Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
    • H04M3/5183Call or contact centers with computer-telephony arrangements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/42221Conversation recording systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/42382Text-based messaging services in telephone networks such as PSTN/ISDN, e.g. User-to-User Signalling or Short Message Service for fixed networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/487Arrangements for providing information services, e.g. recorded voice services or time announcements
    • H04M3/493Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
    • H04M3/4936Speech interaction details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/51Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/51Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
    • H04M3/5133Operator terminal details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/51Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
    • H04M3/5166Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing in combination with interactive voice response systems or voice portals, e.g. as front-ends
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/51Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
    • H04M3/523Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing with call distribution or queueing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/53Centralised arrangements for recording incoming messages, i.e. mailbox systems
    • H04M3/5322Centralised arrangements for recording incoming messages, i.e. mailbox systems for recording text messages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/12Messaging; Mailboxes; Announcements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/38Displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/39Electronic components, circuits, software, systems or apparatus used in telephone systems using speech synthesis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/40Electronic components, circuits, software, systems or apparatus used in telephone systems using speech recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/60Medium conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/30Aspects of automatic or semi-automatic exchanges related to audio recordings in general
    • H04M2203/306Prerecordings to be used during a voice call
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/35Aspects of automatic or semi-automatic exchanges related to information services provided via a voice call
    • H04M2203/357Autocues for dialog assistance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/45Aspects of automatic or semi-automatic exchanges related to voicemail messaging
    • H04M2203/4536Voicemail combined with text-based messaging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/42025Calling or Called party identification service
    • H04M3/42034Calling party identification service
    • H04M3/42059Making use of the calling party identifier
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/53Centralised arrangements for recording incoming messages, i.e. mailbox systems
    • H04M3/533Voice mail systems

Abstract

Sistema (30) para proporcionar una infraestructura de comunicaciones multimodales para el funcionamiento de uncentro de llamadas automatizado (11), que comprende: una interfaz de telefonía (35) configurada para aceptar una llamada multimodal de un llamador (12-15);un servidor de mensajería (31) configurado para asignar automáticamente la llamada multimodal, a través de unadministrador de sesiones (47), a una sesión con la intervención de un agente real (81), y para recibircomunicaciones de voz y mensajes de texto en la llamada multimodal, que se originan simultáneamente 10 en elllamador; un módulo de reconocimiento de voz (36) configurado para convertir el discurso entrante (54) de lascomunicaciones de voz de la llamada multimodal en un texto transcrito (57); un procesador de mensajes de texto configurado para emparejar por lo menos uno de los mensajes de texto delllamador con el texto transcrito (57) del discurso entrante (54) durante la sesión que está en curso; yuna consola de agente (39) configurada para procesar progresivamente el texto transcrito (57) y los mensajes detexto de entrada durante la sesión, a través de una aplicación del agente (43) ejecutando un escenario de atenciónal cliente (22) supervisado y controlado interactivamente por el agente real (81).

Description

Provisión de una infraestructura de comunicaciones multimodales para el funcionamiento de un centro de llamadas automatizado.
Campo técnico
La presente invención se refiere en general al funcionamiento de un centro de llamadas automatizado y, en particular, a un sistema y un procedimiento para proveer una infraestructura de comunicaciones multimodales para el funcionamiento de un centro de llamadas.automatizado.
Antecedentes de la técnica
Los centros de llamadas del cliente, o simplemente "centros de llamadas", suelen ser el primer punto de contacto directo para los clientes que buscan asistencia directa de los fabricantes y proveedores de servicios. Los centros de llamadas son accesibles por teléfono y ofrecen una fuente única de atención al cliente y resolución de problemas. Aunque la atención al cliente basada en la red cada vez sea más asequible por medio de Internet, los centros de llamadas todavía ofrecen un cómodo foro de ámbito mundial para la asistencia remota al cliente. Además, para los llamadores móviles, tales como los clientes que se encuentran en un vehículo y no pueden acceder a Internet, los centros de llamadas siguen siendo el único recurso práctico para recibir asistencia sobre el terreno.
Puesto que la satisfacción y buena voluntad del cliente dependen significativamente del servicio postventa, los vendedores dedican tiempo, dinero y esfuerzos considerables a asegurar un eficaz funcionamiento del centro de llamadas. Los profesionales de asistencia al cliente están capacitados para ofrecer tanto una eficaz y cortés comunicación como una documentada y precisa información de productos y servicios. No obstante, el volumen de tráfico de llamadas a menudo puede sobrepasar las capacidades de los agentes humanos de asistencia al cliente, y en ese sentido actualmente se utiliza una diversidad de sistemas de centros de llamadas automatizados para ayudar a salvar la distancia entre la necesidad de ofrecer una asistencia sensible y los límites del personal humano del centro de llamadas.
Normalmente, en los sistemas de centros de llamadas automatizados actuales, los clientes se ponen en espera hasta que hay un agente disponible para aceptar su llamada. Mientras se hallan en espera, el sistema automatizado suele recopilar información del diente, tal como el número de cuenta, para determinar la prioridad de servicio. Dicho sistema también puede ofrecer menús automatizados con los que se intenta clasificar la llamada en tipos de transacción básicos, por ejemplo, en función del idioma hablado.
Cuando hay un agente disponible para aceptar la llamada, el agente saluda y puede solicitar información de identificación al cliente y, a continuación, trata de determinar la naturaleza de la llamada, solicitando a menudo la misma información que el cliente ha facilitado previamente al sistema automatizado. Entonces, el agente emprende alguna acción, tal como la resolución de problemas y la provisión al llamador de instrucciones para resolver el problema. Además, para ayudar a mejorar la atención al cliente, el agente generalmente registra la información del cliente facilitada por el llamador.
Cada llamada del cliente suele ser un procedimiento interactivo. Durante la interacción, el agente puede poner el cliente en espera mientras recopila información, toma notas o tal vez realiza acciones para otros clientes. Por último, una vez terminada la llamada, el agente resume la llamada como una entrada del registro de llamadas. El procedimiento interactivo se repite para cada nuevo llamador a lo largo de todo el día. Este procedimiento interactivo es ineficiente desde el punto de vista del tiempo. Los agentes se ven forzados a esperar a que los clientes ejecuten las instrucciones y, análogamente, los clientes permanecen en espera mientras los agentes prestan asistencia a otros llamadores, encuentran una solución a sus problemas o crean registros de llamadas.
Se describe un sistema de interacción con el cliente en la patente US nº 6.778.660, concedida a Fromm y publicada el 17 de agosto de 2004, la exposición de la cual se incorpora a título de referencia. El sistema permite a los agentes procesar simultáneamente los contactos de voz de los llamadores telefónicos, almacenando las señales del discurso entrante para una reproducción ajustable al tiempo y rápida. Las llamadas se encaminan hacia agentes asignados cuando es posible. Si el agente está ocupado, se solicita al usuario que formule su pregunta para ponerla en una o más colas. Posteriormente, el agente procesa y responde a la pregunta en persona, de una manera similar a la utilizada en las interacciones de chat en la red. Los agentes responden a las grabaciones de voz en el orden en que se reciben y aprovechan la reproducción rápida prestada de manera adicional que les permite ponerse al día con los mensajes grabados. Sin embargo, tanto los mensajes del usuario como del agente permanecen como conversaciones de discurso grabadas en un formato audible no textual y, en consecuencia, requieren plena atención del agente asignado.
En consecuencia, se plantea la necesidad de encontrar una forma de abordar la prestación de un servicio de centro de llamadas automatizado que ofrezca atención altamente sensible a los llamadores, con un tiempo de inactividad del agente y un tiempo de espera de los llamadores mínimos.
También se plantea la necesidad de encontrar una forma de abordar la prestación de un procesamiento eficiente de los mensajes de los llamadores, utilizando los enunciados de discurso transcritos y sintetizados como medios de comunicación interna dentro del centro de llamadas automatizado.
El documento US2005/147090 A1 da a conocer un centro de llamadas multimedia con un sistema de autoayuda para el cliente (Resumen). Un centro de comunicación recibe una transacción, tal como una llamada en tiempo real
o un evento de medios, incluido un mensaje de correo electrónico (párrafos [0063] y [0088]). Una vez recibida la transacción, se determina el tipo de llamada o evento de medios y este se procesa en función del tipo (párrafos [0064] y [0088]). El contenido de la transacción recibida en el centro de comunicación se registra y almacena según las normas de la empresa (párrafos [0070] y [0089]). Se extrae información de la transacción para crear una base de conocimientos que puede utilizarse para la gestión dinámica y un futuro análisis (párrafo [0090]).
El documento US2005/213743 A1 da a conocer cómo se transfiere un cliente a un agente real cuando se cumplen predeterminados criterios (Resumen). El cliente se comunica primero con un agente conversacional a través de una consulta de texto (párrafo [0025]). El agente conversacional es un programa informático que evalúa la consulta formulada por el cliente (párrafo [0026]). Si no se puede llegar a ninguna solución, el agente conversacional eleva el nivel del cliente hasta el agente real a través de una llamada telefónica, un mensaje instantáneo o un mensaje de texto móvil (Id.). El nivel del cliente puede elevarse hasta el agente real a través de un enlace, una dirección de correo electrónico o un número de teléfono, o participando en la conversación actual (párrafo [0086]).
Exposición de la invención
En la forma de realización descrita, un agente y un cliente se comunican a través de unos mensajes de voz utilizando un sistema basado en voz digitalizada. Desde la perspectiva del cliente, la experiencia se percibe como una interacción con una máquina inteligente. La interacción se asemeja a una llamada a un antiguo sistema de centro de llamadas automatizadas con agentes humanos, aunque los clientes son conscientes de que el agente es automatizado, no humano.
Preferentemente, la voz del sistema es clara y similar a la humana, aunque es reconocible como voz de máquina. Aunque las respuestas pueden sufrir pequeñas demoras a diferencia de lo que ocurre con las respuestas de un agente humano, el cliente no necesitará repetir información que ya ha facilitado y generalmente no será puesto en espera. El cliente puede solicitar al sistema que repita la información facilitada, y esta le es facilitada de una forma que el cliente en general percibe como paciente y cortés.
Desde el punto de vista operativo, el sistema difiere de los sistemas antiguos. En vez de ofrecer comunicaciones voz a voz a tiempo completo, el sistema ofrece a los agentes la posibilidad de controlar un flujo continuo de respuestas cada vez más automatizadas en forma de control "deslizante". En la mayoría de las interacciones, cada enunciado de discurso del cliente se registra y almacena, se transcribe digitalmente como un mensaje de texto y se presenta a un agente fuera de línea a través de una interfaz visual de una estación de trabajo. El agente puede leer u opcionalmente escuchar cada enunciado en el momento de su recepción, así como enunciados anteriores. Asimismo, el agente puede anotar o retranscribir manualmente cada uno de los enunciados del cliente cuando sea necesario.
Una vez que se ha establecido una sesión, cada agente humano puede comunicarse indirectamente con los clientes escribiendo respuestas desde su estación de trabajo. Cuando se termina de escribir cada respuesta esta se convierte en discurso y reproduce para el cliente.
El agente también puede elegir respuestas preparadas, lo cual le permite ahorrar tiempo y comunicarse de una manera coherente y uniforme. Las respuestas preparadas pueden comprender un formulario asociado que contiene campos de variables con parámetros creados por el agente o el sistema para cumplimentar, por ejemplo, fechas o nombres. Entonces, la respuesta preparada cumplimentada se convierte en discurso. Como alternativa, las respuestas preparadas se pueden grabar previamente como fragmentos de audio y disponer en una memoria caché de audio para su reproducción inmediata.
Además de la comunicación indirecta por medio de la estación de trabajo, cada agente humano puede aceptar también llamadas en tiempo real de los clientes en la modalidad voz a voz de tiempo real. El procesamiento de llamadas en tiempo real puede ser necesario para gestionar emergencias u otras necesidades de servicios que no son susceptibles de automatización, o para prestar a los clientes servicios que, en general son inaceptables cuando se facilitan de forma automatizada.
También puede establecerse la comunicación entre un cliente y un agente humano por medio de mensajes de texto, por ejemplo a través del servicio de mensajes cortos (SMS), así como la comunicación multimodal, que comprende una combinación de mensajes de voz y de texto. Las comunicaciones de texto pueden examinarse y almacenarse automáticamente como una entrada de registro sin necesidad de transcripción. La comunicación multimodal permite al cliente enviar información al agente durante la sesión de llamada para facilitar datos adicionales.
Además, cuando un agente detecta que hay una llamada que coincide con un problema reconocido o una petición frecuente, el agente puede elegir un "script" predefinido para solicitar y obtener o simplemente facilitar información al cliente de manera secuencial. Por ejemplo, podría utilizarse un script para obtener la información personal del cliente para una solicitud de crédito, o para dar instrucciones sobre el uso de una característica de un producto de consumo en una aplicación de atención al cliente. Por lo tanto, la capacidad de un agente para interactuar con los clientes a través de respuestas de texto manuales o automatizadas convertidas a discurso o a través de respuestas de voz pregrabada o en tiempo real ofrece un nivel de control flexible y deslizante al agente que puede adaptarse a una amplia diversidad de situaciones de servicio al cliente.
El sistema también ofrece una función de registro diario automático. Para cuando cada llamada haya terminado, el sistema habrá obtenido un registro completo y totalmente transcrito de la conversación. El agente humano no necesita transcribir manualmente ninguna entrada del registro, puesto que la información contenida en el registro generado por el sistema ya se halla en un formato que puede almacenarse en una base de datos y someterse fácilmente a extracción de datos. Pueden añadirse anotaciones manuales a la entrada de registro cuando sea necesario.
Empíricamente, desde la perspectiva de un agente, una llamada al servicio al cliente normal dura siete minutos cuando se utiliza un antiguo centro de llamadas, de los cuales dos se emplean en la introducción y la configuración y dos más en el cierre y la documentación. La forma de realización descrita suprime la mayor parte del tiempo invertido en la configuración y el cierre y reduce en alrededor del 30 % el tiempo que el agente dedica a una llamada. Desde el punto de vista del cliente, pese a que la duración global de la llamada pueda ser igual, los tiempos de espera se suprimen, si bien se pueden producir ligeras aunque inofensivas demoras entre las respuestas del agente.
Gracias a la amplia capacidad de registro y presentación visual del agente, este puede realizar el seguimiento de más de una sesión con un cliente. El agente puede ocuparse de varias llamadas a la vez, mientras los clientes casi no percibirán ningún deterioro en la calidad de la llamada. En la forma de realización descrita, un agente puede ocuparse de cuatro llamadas simultáneamente. Sin embargo, el sistema podría mantener un número elevado arbitrario de llamadas simultáneas para cada agente, estando dicho número sujeto únicamente a restricciones informáticas de carácter físico, tales como la potencia de procesamiento y la memoria disponibles. Cada agente es capaz de ocuparse de varias llamadas, ya que no necesita escuchar a cada uno de los clientes en el momento en estos hablan. En su lugar, los agentes pueden escuchar o leer enunciados transcritos y mensajes de texto del cliente, con lo cual pueden dividir su atención entre diversas llamadas. La capacidad de usar formularios pregrabados para recopilar o facilitar información estándar aumenta aún más la capacidad del agente para ocuparse de varias llamadas. Por ejemplo, mientras el cliente interactúa con un script de recopilación de información personal, tal como el nombre y los apellidos, el número de seguridad social, la dirección y el número de teléfono, etc., el agente puede ocuparse de otros llamadores.
Una forma de realización consiste en un sistema y un procedimiento para ofrecer una infraestructura de comunicaciones basadas en mensajes para el funcionamiento de un centro de llamadas automatizado. En un centro de llamadas, se acepta la llamada de un usuario. La llamada aceptada comprende una secuencia de discursos verbales transcritos. Cada discurso verbal transcrito se registra como un mensaje de usuario. Se asigna la llamada aceptada a una sesión, que se asigna luego a un agente. La llamada se procesa progresivamente en la sesión asignada, presentando cada mensaje de usuario al agente asignado, ejecutando mensajes que responden a las necesidades del agente asignado y enviando un mensaje del agente al usuario. El mensaje del agente comprende una secuencia de discursos de voz audibles sintetizados.
Otra forma de realización consiste en un sistema y un procedimiento para utilizar de manera eficaz un centro de llamadas automatizado a través de mensajes de texto. El llamador de voz se interconecta a través de unos medios telefónicos. Durante una llamada, se intercambian enunciados de discurso audibles con un centro de llamadas automatizado. Cada llamada se gestiona como una sesión, y cada sesión se asigna a un agente. Los enunciados de discurso audibles de entrada se convierten en mensajes de texto procesables por máquina que se facilitan al agente asignado a la sesión. Se ejecuta la acción especificada por el agente asignado. Los mensajes de texto procesables por máquina de salida se convierten en enunciados de discurso audibles que se facilitan al llamador de voz que entabla la sesión.
Otra forma de realización consiste en un sistema y un procedimiento para ofrecer una infraestructura de comunicaciones multimodales para el funcionamiento de un centro de llamadas automatizado. Una llamada multimodal del llamador se acepta a través de una interfaz de telefonía, que admite llamadas multimodales, incluidos por lo menos los mensajes verbales o de texto. El discurso entrante de la llamada multimodal se convierte en texto transcrito. Los mensajes de texto de entrada se emparejan con el texto transcrito. Con intervención de un agente real, se asigna automáticamente una llamada multimodal a una sesión, a través de un administrador de sesiones. El texto transcrito y los mensajes de texto de entrada se procesan de forma progresiva durante la sesión, a través de una aplicación del agente, siguiendo un escenario de atención al cliente supervisado y controlado interactivamente por el agente real.
Otra forma de realización, se describe un sistema para ofrecer una infraestructura de comunicaciones multimodales para el funcionamiento de un centro de llamadas automatizado. Este sistema comprende; una interfaz de telefonía configurada para aceptar una llamada multimodal del llamador, que admite llamadas multimodales que comprenden por lo menos mensajes verbales o mensajes de texto; un módulo de reconocimiento de discurso configurado para convertir el discurso entrante de la llamada multimodal en texto transcrito; un procesador de mensajes de texto para emparejar los mensajes de texto de entrada con el texto transcrito; un servidor de mensajería configurado para asignar automáticamente la llamada multimodal a una sesión a través de un administrador de sesiones con intervención de un agente real; y una consola de agente configurada para procesar de forma progresiva el texto transcrito y los mensajes de texto de entrada durante la sesión a través de una aplicación del agente, siguiendo un escenario de atención al cliente supervisado y controlado interactivamente por el agente real.
En otra forma de realización, se da a conocer un procedimiento para facilitar una infraestructura de comunicaciones multimodales para el funcionamiento de un centro de llamadas automatizado. El procedimiento comprende las etapas de aceptación de una llamada multimodal de un llamador a través de una interfaz de telefonía, que admite llamadas multimodales que comprenden por lo menos mensajes verbales o de texto; la conversión del discurso entrante de la llamada multimodal en texto transcrito; el emparejamiento de los mensajes de texto de entrada con el texto transcrito; la asignación automática de la llamada multimodal a una sesión a través de un administrador de sesiones con intervención de un agente real; y el procesamiento progresivo del texto transcrito y los mensajes de texto de entrada durante la sesión a través de una aplicación del agente, siguiendo un escenario de atención al cliente supervisado y controlado interactivamente por el agente real.
En otra forma de realización, se describe un sistema para ofrecer una infraestructura de comunicaciones multimodales para el funcionamiento de un centro de llamadas automatizado. El sistema comprende una interfaz de telefonía configurada para aceptar una llamada multimodal del llamador, que admite llamadas multimodales que comprenden por lo menos mensajes verbales o mensajes de texto; un servidor de mensajería configurado para asignar automáticamente la llamada multimodal a una sesión a través de un administrador de sesiones con intervención de un agente real, un módulo de reconocimiento de discurso configurado para convertir el discurso entrante de la llamada multimodal en texto transcrito; un procesador de mensajes de texto configurado para emparejar los mensajes de texto de entrada con el texto transcrito; y una consola de agente configurada para procesar de forma progresiva el texto transcrito y los mensajes de texto de entrada durante la sesión a través de una aplicación del agente, siguiendo un escenario de atención al cliente supervisado y controlado interactivamente por el agente real.
El sistema puede comprender además una base de datos configurada para almacenar los mensajes de texto de entrada como una entrada de registro y para emparejar la entrada de registro con una copia del texto transcrito. Los mensajes de texto de entrada y el discurso entrante pueden originarse simultáneamente en el llamador. El sistema puede comprender además un módulo de identificación de llamador configurado para asignar una identificación de llamador a los mensajes de texto de entrada, y un servidor de mensajería configurado para enviar los mensajes de texto de entrada al agente en real basándose en la identificación de llamador. El sistema puede comprender además un módulo de posprocesamiento configurado para aplicar un posprocesamiento a los mensajes de texto de entrada. El sistema puede comprender además un módulo de identificación configurado para identificar los mensajes de texto de entrada como datos literales del llamador; y una base de datos configurada para almacenar los mensajes de texto de entrada identificados. El agente real puede procesar el discurso entrante escuchando la llamada multimodal y emprendiendo una acción que comprende por lo menos la anotación o la transcripción manual del discurso entrante.
En otra forma de realización, se describe un procedimiento para ofrecer una infraestructura de comunicaciones multimodales para el funcionamiento de un centro de llamadas automatizado, que comprende las etapas de aceptación de una llamada multimodal de un llamador a través de una interfaz de telefonía, que admite llamadas multimodales que comprenden por lo menos mensajes verbales o de texto; asignación automática de la llamada multimodal a una sesión a través de un administrador de sesiones con intervención de un agente real, conversión del discurso entrante de la llamada multimodal en texto transcrito; emparejamiento de los mensajes de texto de entrada con el texto transcrito; y el procesamiento progresivo del texto transcrito y los mensajes de texto de entrada durante la sesión a través de una aplicación del agente, siguiendo un escenario de atención al cliente supervisado y controlado interactivamente por el agente real.
El procedimiento puede comprender además el almacenamiento de los mensajes de texto de entrada como una entrada de registro y el emparejamiento de la entrada de registro con una copia almacenada del texto transcrito. Los mensajes de texto de entrada y el discurso entrante se originan simultáneamente en el llamador. El procedimiento puede comprender además las etapas de asignación de una identificación de llamador a los mensajes de texto de entrada, y el envío de los mensajes de texto al agente real basándose en la identificación de llamador. El procedimiento puede comprender además la etapa de posprocesamiento de los mensajes de texto de entrada. El procedimiento puede comprender además la etapa de identificación de los mensajes de texto de entrada como datos literales del llamador y el almacenamiento de los mensajes de texto de entrada identificados. El procedimiento puede comprender además las etapas de procesamiento, por el agente real, del discurso entrante escuchando la llamada multimodal y realización de una acción que comprende por lo menos la anotación o la transcripción manual del discurso entrante.
En un ejemplo, se describe un sistema para prestar servicios al llamador a través de la comunicación multimodal. El sistema comprende un servidor de mensajería configurado para asignar una llamada multimodal de entrada de un llamador a una sesión de llamada que presenta una identificación de llamador exclusiva y que es gestionada por un agente; una interfaz de telefonía configurada para recibir una comunicación verbal del llamador durante la sesión de llamada; un módulo de reconocimiento de voz configurado para convertir la voz en texto trascrito y configurado además para facilitar el texto transcrito al agente; una pasarela de texto configurada para recibir mensajes de texto de entrada del llamador, un módulo de identificación para asignar la identificación de llamador exclusiva a cada mensaje de texto de entrada y configurado además para facilitar los mensajes de texto de entrada al agente basándose en la identificación de llamador exclusiva; y un motor de texto a voz configurado para recibir mensajes de texto de salida del agente y configurado además para convertir los mensajes de texto de salida en una secuencia de voz sintetizada de salida que se presenta al llamador.
La comunicación verbal y los mensajes de texto de entrada de las formas de realización se originan simultáneamente en el llamador. El sistema del ejemplo puede comprender además una interfaz de comunicación configurada para recibir la comunicación verbal y los mensajes de texto de entrada en un centro de llamadas a través de secuencias de comunicación separadas, y configurada además para emparejar la comunicación verbal y los mensajes de texto de entrada, y que comprende un módulo de identificación de llamador configurado para asignar la identificación de llamador exclusiva a la comunicación verbal; y un módulo de emparejamiento de llamadas configurado para emparejar la identificación de llamador exclusiva de la comunicación verbal y los mensajes de texto de entrada con la sesión del llamador. El sistema puede comprender además una base de datos configurada para almacenar el texto transcrito y los mensajes de texto de entrada en un registro de llamadas. El sistema puede comprender asimismo un módulo de información del llamador configurado para recibir la llamada multimodal desde un dispositivo de comunicación móvil, configurado para obtener información del llamador que comprende datos de localización desde el dispositivo de comunicación móvil, y configurado además para analizar los datos de localización y determinar la ubicación del llamador.
Otro ejemplo tiene por finalidad ofrecer la prestación de servicios a un llamador a través de una comunicación multimodal. El procedimiento comprende las etapas de asignación de una llamada multimodal de entrada de un llamador a una sesión de llamada que presenta una identificación de llamador exclusiva y que es gestionada por un agente, y prestación de servicios al llamador durante la llamada multimodal, que comprenden la recepción de una comunicación verbal del llamador durante la sesión de llamada y la conversión de la voz en texto transcrito; el suministro del texto transcrito al agente, la recepción de mensajes de texto de entrada del llamador y la asignación de la identificación de llamador exclusiva a cada mensaje de texto de entrada; el suministro de los mensajes de texto de entrada al agente basándose en la identificación de llamador exclusiva y la recepción de mensajes de texto de salida desde el agente y la conversión de los mensajes de texto de salida en una secuencia de salida de voz sintetizada que se presenta al llamador. La comunicación verbal y los mensajes de texto de entrada de las formas de realización se originan simultáneamente en el llamador. El procedimiento del ejemplo puede comprender además las etapas de recepción de la comunicación verbal y los mensajes de texto de entrada en un centro de llamadas a través de secuencias de comunicación separadas, y el emparejamiento de la comunicación verbal y los mensajes de texto de entrada, que comprende la asignación de la identificación de llamador exclusiva a la comunicación verbal y el emparejamiento de la identificación exclusiva del llamador de la comunicación verbal y los mensajes de texto de entrada con la sesión del llamador. El procedimiento puede comprender además el almacenamiento del texto transcrito y los mensajes de texto de entrada en un registro de llamada. El procedimiento puede comprender además las etapas de recepción de la llamada multimodal desde un dispositivo de comunicación móvil, obtención de información del llamador que comprende datos de localización desde el dispositivo de comunicación móvil y análisis de los datos de localización para determinar la ubicación del llamador.
Otras formas de realización de la presente invención resultarán fácilmente evidentes a los expertos en la materia a partir de la siguiente descripción detallada, en la que se describen formas de realización de la presente invención a título de ilustración del que se considera mejor modo de realizar la presente invención. Como se comprenderá, la presente invención es capaz de adoptar otras formas de realización, siendo posible modificar los diversos detalles de la misma en diversos sentidos obvios, sin apartarse ni del sentido ni del alcance de la presente invención. En consecuencia, los dibujos y la descripción detallada deben interpretarse en sentido ilustrativo en lugar de restrictivo.
Descripción de los dibujos
La figura 1 es un diagrama de bloques funcionales que representa el entorno operativo de un centro de llamadas automatizado.
La figura 2 es un diagrama de flujo de proceso que representa, a título de ejemplo, una secuencia de llamada de usuario habitual, tal como la que se establece en el entorno operativo del centro de llamadas automatizado de la figura 1.
La figura 3A es un diagrama de bloques que representa un sistema para ofrecer una infraestructura de comunicaciones de mensajes para el funcionamiento del centro de llamadas automatizado, de conformidad con una
forma de realización.
La figura 3B es un diagrama de bloques que representa un sistema para ofrecer una infraestructura de comunicaciones de mensajes para el funcionamiento del centro de llamadas automatizado, de conformidad con otra forma de realización.
La figura 4 es un diagrama de flujo de proceso que representa los niveles de automatización variables obtenidos mediante el sistema de la figura 3A.
La figura 5 es un diagrama de bloques que representa un esquema para almacenar registros en la base de datos de registro del sistema de la figura 3A.
La figura 6 es un diagrama de flujo de proceso que representa, a título de ejemplo, el flujo de control seguido en el procesamiento de un script mediante el sistema de la figura 3A.
La figura 7A es una captura de pantalla que representa, a título de ejemplo, un conjunto de ventanas de servicio del centro de llamadas generadas mediante el sistema de la figura 1.
La figura 7B es una captura de pantalla que representa, a título de ejemplo, una única ventana de servicio del centro de llamadas que presenta varias pestañas de llamada, generada mediante el sistema de la figura 1.
La figura 8 es un diagrama de flujo que representa un procedimiento para ofrecer una infraestructura de comunicaciones de mensajes para el funcionamiento del centro de llamadas automatizado, de conformidad con una forma de realización.
La figura 9 es un diagrama de flujo que representa una rutina para asignar una sesión para utilizar en el procedimiento de la figura 8.
La figura 10 es un diagrama de flujo que representa una rutina para procesar una sesión para utilizar en el procedimiento de la figura 8.
La figura 11 es un diagrama de flujo que representa una rutina para que un agente procese una sesión para utilizar en la rutina de la figura 10.
La figura 12 es un diagrama de flujo que representa una rutina para que un motor de scripts procese una sesión para utilizar en la rutina de la figura 11.
La figura 13 es un diagrama de flujo que representa una rutina para ejecutar un script para utilizar en la rutina de la figura 12.
La figura 14 es un diagrama de bloques que representa un sistema de mensajería móvil para presentar datos de salida, de conformidad con otra forma de realización.
La figura 15 es un diagrama de flujo que representa una rutina para presentar datos de salida mediante el sistema de mensajería móvil de la figura 14.
La figura 16 es un diagrama de flujo que representa una rutina para visualizar información de presentación basada en el estado de un vehículo.
La figura 17 es un diagrama de bloques que representa un sistema de vehículo para la comunicación con el sistema de la figura 3A.
La figura 18 es un diagrama de flujo que representa un procedimiento para la comunicación con el sistema de la figura 3A, mediante el sistema de vehículo de la figura 17.
El apéndice A ofrece una gramática de muestra para utilizar en la forma de realización descrita.
Mejor modo de poner en práctica la invención
La figura 1 es un diagrama de bloques funcionales que representa el entorno operativo de un centro de llamadas automatizado 10. A título de ejemplo, una pluralidad de usuarios llaman a un centro de llamadas automatizado 11, preferentemente a través de unos medios telefónicos, que pueden comprender unos medios de mensajería de voz o de texto. Los medios telefónicos comprenden el servicio telefónico básico (POTS) 12, teléfonos celulares y por satélite 13, telefonía por Internet (IPTel) 14, Voz sobre IP (VoIP) 15, el servicio de mensajes cortos (SMS), mensajería de texto y otras formas de telefonía y comunicaciones de voz, como sabrán reconocer los expertos en la materia. Los usuarios también podrían llamar o interactuar con el centro de llamadas automatizado 11 a través de
unos medios de transmisión de datos, tales como un sistema de redes interconectadas 17, incluida Internet. La llamada puede comprender comunicaciones de voz, mensajería de texto o una combinación de comunicaciones de voz y de texto.
Independientemente del origen de la llamada, cada llamada del usuario se encamina, a través de un servicio de intercambio público de compañía telefónica (TelCo) 16 o centro de llamadas equivalente, hacia el centro de llamadas automatizado 11. Aunque se representa con referencia a un servicio de intercambio público TelCo 16, resultará obvio a los expertos en la materia que es posible utilizar cualquier otro sistema de redes de llamadas telefónicas o equivalentes en el que se transmitan señales de voz o de datos a través de diversos medios portadores de señal, incluidas las líneas terrestres convencionales; la radio, los satélites u otras formas de portadoras de señal; sistemas de intercambio de ondas de luz u ondas sonoras o equivalentes.
El centro de llamadas automatizado 11 ofrece una única fuente de atención y resolución de problemas a los clientes que buscan asistencia directa de los fabricantes y proveedores de servicios, aunque también pueden utilizarse centros de llamadas automatizados 11 en otras áreas de comercio, como sabrán reconocer los expertos en la materia. Los términos "usuario" y "cliente" se utilizan indistintamente en la presente memoria y ambos se refieren a un llamador que llama al centro de llamadas automatizado 11. Aunque el centro de llamadas automatizado 11 se representa como un único punto dentro del entorno operativo del centro de llamadas automatizado 10, el centro de llamadas automatizado 11 podría consistir en uno o más centros lógicamente interconectados pero físicamente separados, que comprenden operaciones apartadas geográficamente, que ofrecen un centro de llamadas automatizado y lógicamente unificado, como sabrán reconocer los expertos en la materia.
La figura 2 es un diagrama de flujo de proceso que representa, a título de ejemplo, una secuencia de llamada de usuario común 20, tal como la que se establece en el entorno operativo del centro de llamadas automatizado 10 de la figura 1. Después de llamar al centro de llamadas automatizado 11, cada usuario recibe un saludo inicial y un mensaje informativo que facilita una sinopsis de las opciones del llamador. Las opciones del llamador permiten al usuario navegar hacia un área de tema específico para obtener asistencia o ayuda técnica. Tras efectuar su selección, el usuario interviene en un escenario de atención al cliente 22 con un agente, que es una persona real o un servicio de avisos automáticos, tal como un sistema de respuestas de voz automatizado, que permite la recopilación de información y la resolución de problemas. Debe tenerse en cuenta que el modelo 22 puede sufrir retardos si no hay ningún agente disponible, o debido a los límites en la capacidad de volumen de llamadores u otro tipo de factores que pueden retardar la respuesta al cliente. Según las necesidades, la prestación de servicios 23 al usuario tiene lugar, ya sea directamente en el transcurso de la llamada, o bien indirectamente a través de una función de despacho de peticiones de servicio. Por último, la llamada termina en lo que se denomina "finalización" 24, etapa en la que se cierra la llamada y se da el saludo de despedida. Como advertirán los expertos en la materia, son posibles otras formas y variantes de secuencias de llamada del cliente. Sin embargo, es importante destacar que, desde el punto de vista del llamador, la experiencia se percibe como una interacción con una máquina inteligente, y que el llamador es consciente de que el agente es automatizado, no humano. En consecuencia, un llamador corriente tendrá unas expectativas más relajadas sobre la capacidad de respuesta del agente, puesto que quien está en la línea no es una persona real, sino una máquina.
La figura 3A es un diagrama de bloques que representa un sistema 30 para ofrecer una infraestructura de comunicaciones de mensajes para el funcionamiento de un centro de llamadas automatizado 11, denominado también sistema (MPACT) 30, de conformidad con la presente invención. Durante el funcionamiento normal, el sistema MPACT 30 ejecuta varios subprocesos para procesar varias llamadas simultáneas, que son gestionados por uno o más agentes que ejecutan aplicaciones de agente 43 en consolas de agente 39 (representadas en la figura 1). Por otra parte, en otra forma de realización, varios sistemas MPACT 30 desempeñan sus funciones en paralelo para ofrecer un mejor rendimiento a través de un procesamiento paralelo ligeramente o estrechamente conectado.
El sistema MPACT 30 consta de los siguientes componentes: una base de datos 34, una interfaz de telefonía (TI) 35, uno o más motores de reconocimiento de discurso (SRE) 36, uno o más motores de texto a voz (TTS) 37, una memoria caché de audio 38, una o más consolas de agente 39 y, opcionalmente, un administrador de recursos 40. Para que funcione el sistema MPACT 11, se requiere por lo menos un ejemplar de cada componente en general, exceptuando el administrador de recursos 40 que es opcional, y solo se requiere en sistemas de gran tamaño que comprenden más de un ejemplar de los otros componentes.
En la forma de realización descrita, un servidor de mensajería 31, una base de datos 34, una interfaz de telefonía 35, unos SRE 36, unos motores TTS 37 y una memoria caché de audio 38 desempeñan sus funciones en un solo sistema informático, mientras que una o más consolas de agente 39 funcionan en paralelo en sistemas informáticos paralelos. Los distintos componentes se comunican a través de una red de protocolo de Internet (IP), que generalmente se implementa a través de una red Ethernet local de alta velocidad. Los componentes del sistema MPACT 30 se ejecutan en servidores basados en Intel/AMD con el sistema operativo Windows 2000 Server Operating System y Redhat Linux. Cada consola de agente 39 se ejecuta en estaciones de trabajo basadas en Intel/AMD con el sistema operativo Windows 2000 Professional Operating System. A continuación, se describen en mayor detalle cada uno de los componentes.
Los distintos sistemas informáticos, incluido el sistema MPACT 30, son dispositivos informáticos digitales programados de uso general que constan de una unidad central de procesamiento (CPU), una memoria de acceso aleatorio (RAM), un dispositivo de almacenamiento secundario no volátil, tal como una unidad de disco duro, unas interfaces de red y unos dispositivos periféricos, que comprenden unos medios de interconexión, tales como un teclado y una pantalla. El código de programación, que comprende programas de software, y los datos se copian en la memoria RAM para su ejecución y procesamiento por la CPU, y se generan unos resultados que se van a visualizar, entregar, transmitir o almacenar.
Cada componente se implementa como se hace con un programa de ordenador, procedimiento o módulo escrito como código fuente en un lenguaje de programación convencional, tal como el lenguaje de programación C++, y se presenta para su ejecución por la CPU como código objeto o de byte, conocido en el ámbito de la técnica. Otra posibilidad es que los componentes se implementen en hardware, ya sea como circuitos integrados o "quemados" en memoria de solo lectura. Las diversas implementaciones del código fuente y los códigos objeto y de byte pueden mantenerse en unos medios de almacenamiento legibles por ordenador o adoptar la forma de realización de unos medios de transmisión en una onda portadora. El sistema MPACT 30 funciona de conformidad con una secuencia de etapas de proceso, tal como se describe en mayor detalle más adelante con referencia a la figura 8.
El servidor de mensajería 31 consta de un motor de scripts 32 y un administrador de sesiones 47. El motor de scripts 32 ejecuta scripts 49 que integran una gramática 33 que define un conjunto de instrucciones ejecutables para un diálogo de preguntas y respuestas especificadas e interactivas, y un administrador de sesiones 47 que comprende una cola de mensajes 48 para ordenar los mensajes transitorios del usuario y el agente. Cada aplicación de agente 43 mantiene localmente unos punteros de script ("Ptrs") 28 que indican los scripts concretos 49 que el motor de scripts 32 va a ejecutar. Como alternativa, podrían almacenarse scripts 29 en la base de datos 34 y entonces los punteros de script 28 aportarían punteros de base de datos a los scripts 29. El servidor de mensajería 31 recibe información de control de las llamadas desde la interfaz de telefonía 35 y localiza a los agentes que han terminado la sesión, los que han iniciado la sesión y los que se han registrado. El servidor de mensajería 31 utiliza esta información para establecer sesiones entre agentes y clientes, tal como se describe en mayor detalle más adelante con referencia a la figura 4.
La base de datos 34 contiene tres bases de datos primarias especializadas: una base de datos de registro (LDB) 44, una base de datos de perfiles de agente (APDB) 45 y una base de datos de aplicaciones de agente (AADB) 46. La base de datos de registro 44 ofrece un diario actualizado como un registro estructurado de cada llamada aceptada y almacena cada mensaje de usuario y cada mensaje de agente en un registro con identificación exclusiva. De ese modo, los agentes se liberan de la tarea de transcribir manualmente una conversación telefónica tras la finalización. La base de datos de perfiles de agente 45 permite, al servidor de mensajería 31, autenticar, iniciar la sesión y registrar agentes en sesiones registradas. La base de datos de aplicaciones de agente 46 contiene las aplicaciones de agente 43 que se ejecutan en consolas de agente 39. Opcionalmente, la base de datos 34 también puede contener scripts 29. Son posibles otras formas de bases de datos especializadas, tal como reconocerán los expertos en la materia. Por otra parte, la información almacenada en la base de datos de registro 44, la base de datos de perfiles de agente 45 y la base de datos de aplicaciones de agente 46 podría mantenerse de una manera estructurada o no estructurada mediante un archivo estándar, una hoja de cálculo o una colección de datos de otro tipo para el almacenamiento y la recuperación de información, tal como se conoce dentro del ámbito de la técnica.
Por definición, un agente registrado es uno que está registrado en el servidor de mensajería 31 y que procesa activamente las llamadas. Un agente que ha iniciado la sesión es uno que se ha registrado en el servidor de mensajería 31, pero no acepta llamadas. Un agente que ha terminado la sesión es uno que no está registrado en el servidor de mensajería 31.
En cada sesión, el servidor de mensajería 31 recibe las llamadas de los clientes a través de la interfaz de telefonía 35 y envía una secuencia de enunciados de discurso transcritos como mensajes de usuario al agente asignado para gestionar la sesión. Debe tenerse en cuenta que es posible asignar uno o más agentes para gestionar cualquier sesión determinada y, entonces, delegar una jerarquía de áreas de responsabilidad, tales como la transcripción de discurso, la interacción con el cliente, el control de scripts, etc. a varios agentes a fin de asegurar un procesamiento de llamadas eficaz. Del mismo modo, el servidor de mensajería 31 recibe una secuencia de enunciados de discurso sintetizada, tales como los mensajes de agente procedentes de una aplicación del agente asignado 43, y envía los mensajes de agente al cliente a través de la interfaz de telefonía 35. Los mensajes suelen contener solo voz digitalizada; no obstante, también pueden contener voz y datos concurrentes (SVD, por sus siglas en inglés) y el ID del llamador, por ejemplo. El multiplexado y demultiplexado de los mensajes SVD tiene lugar en la interfaz de telefonía 35 y la consola de agente 39.
El motor de scripts 32 ejecuta scripts individuales 49 que comprenden una gramática predefinida 33. La gramática 33 especifica un conjunto de instrucciones que pueden utilizarse para crear diálogos de preguntas y respuestas que el agente puede ejecutar por medio de la aplicación del agente 43, lo cual permite a este procesar varias llamadas simultáneamente. Los agentes utilizan los punteros de scripts 28 durante el procesamiento de las llamadas de los clientes para presentar los scripts 49 a través de una consola de agente 39, tal como se describe más adelante con referencia a la figura 6. Cada script 49 define una secuencia de enunciados de discurso sintetizada que se envía a
los clientes y las respuestas de discurso transcritas recibidas en forma de mensajes del usuario. Los enunciados de discurso pueden grabarse previamente y disponerse en la memoria caché de audio 38. Los mensajes de usuario se utilizan para rellenar un formulario (no representado) que el agente revisa durante la prestación de los servicios.
En otra forma de realización, las sesiones de llamada pueden ser multimodales, es decir, constar de voz, mensajería de texto o una combinación de ambas cosas. La interfaz de telefonía 35 implementa una pasarela de mensajería de texto, además de prestar servicios POTS y de telefonía de voz convencionales. La interfaz de telefonía 35 permite al servidor de mensajería 31 adaptarse a las comunicaciones de voz y los mensajes de texto, que pueden consistir solo en voz o solo en texto, o en una combinación de voz y texto durante cualquier sesión individual. Las llamadas de los clientes recibidos por el centro de llamadas a través de la interfaz de telefonía 35 se transmiten al servidor de mensajería 31, que se ocupa de su procesamiento en función del tipo. Por ejemplo, los mensajes de texto pueden transmitirse directamente a un agente, mientras que las comunicaciones de voz pueden precisar de un procesamiento de reconocimiento de voz previo para su visualización. Aunque tanto los mensajes de texto como las comunicaciones de voz se originan simultáneamente en el mismo cliente, estos pueden desplazarse por una ruta diferente hasta el centro de llamadas, en función del servicio telefónico subyacente. Sin embargo, a través de un procesador de mensajes de texto (no representado), el servidor de mensajería 31 puede emparejar secuencias separadas de mensajes de texto y comunicaciones de voz comparando los datos de identificación del llamador con la sesión de llamador en curso.
En un ejemplo, se reciben mensajes de texto a través de la compañía telefónica (TelCo) por medio de una pasarela SMS (no representada) implementada en la interfaz de telefonía 35, u otro componente, tal como una pasarela de red de datos (no representada) que establece una conexión directa con el sistema de redes interconectadas 17 u otro tipo de red pública de comunicaciones de datos. Tras la recepción por el centro de llamadas, los mensajes de texto se transmiten al servidor de mensajería 31 para su procesamiento. A cada mensaje de texto, se le asigna una identificación de llamador exclusiva para la identificación de la sesión de llamada. El servidor de mensajería puede hacer corresponder cada mensaje de texto con una llamada de cliente activa. Por ejemplo, basándose en los datos de identificación de llamador compartidos, la base de datos puede localizar la guía a la cual se ha asignado una llamada activa para enviar el mensaje de texto a esa guía. Los mensajes de texto también se añaden a la base de datos, una vez que la sesión de llamada ha terminado, como parte del registro de llamada. Pueden aplicarse acciones de posprocesamiento a los mensajes de texto guardados, de una manera similar a la empleada con las comunicaciones de voz. Además, los mensajes de texto pueden identificarse especialmente como datos literales del llamador, y dejarían así de ser considerados poco fiables por motivos tales como un procesamiento de reconocimiento de voz inadecuado.
En un ejemplo más, la comunicación entre un cliente y un agente de un centro de llamadas puede tener lugar solamente a través de mensajes de texto. Los mensajes de texto se identifican de modo parecido mediante los datos de identificación de llamador exclusivos, y los mensajes de texto recibidos durante una única sesión de llamada pueden almacenarse conjuntamente.
En otro ejemplo todavía, un llamador móvil, por ejemplo el conductor de un vehículo, puede interactuar con un centro de llamadas tal como se describe en mayor detalle con referencia a las figuras 14 a 18. Las comunicaciones móviles pueden comprender comunicaciones de voz, mensajes de texto o una combinación de comunicaciones de voz y texto. El servidor de mensajería 31 es capaz de recuperar información del llamador móvil de la misma manera que con cualquier otro llamador. Sin embargo, también pueden facilitarse datos adicionales sobre el llamador que son exclusivos para el uso móvil, tales como datos de localización obtenidos a través de la interfaz de posicionamiento global por satélite.
La figura 3B es un diagrama de bloques que representa un sistema 160 para ofrecer una infraestructura de comunicaciones de mensajes para el funcionamiento de un centro de llamadas automatizado, de conformidad con otra forma de realización. Un servidor de scripts 161 desempeña sus funciones como un sistema independiente del servidor de mensajería 31, que preferentemente comprende solo el administrador de sesiones 47 y la cola de mensajes 48. La prestación de las funciones del motor de scripts 162 en un servidor de scripts 161 aumenta la capacidad de procesamiento y el rendimiento global del sistema al delegarse el procesamiento de scripts a un sistema independiente del servidor de mensajería 31.
El servidor de scripts 161 consta de un motor de scripts dedicado 162, que ejecuta scripts 163 almacenados localmente para el servidor de scripts 161. Los scripts 163 también comprenden la gramática 33. Cada aplicación de agente 43 mantiene localmente unos punteros de script ("Ptrs") 164 que indican los scripts concretos 163 que el motor de scripts 162 va a ejecutar. Como alternativa, los scripts 29 (representados en la figura 3A) pueden almacenarse en la base de datos 34, y entonces los punteros de script 164 aportarán punteros de la base de datos a los scripts 29.
Con referencia nuevamente a la figura 3A, las llamadas de los clientes se reciben a través de la interfaz de telefonía 35, que establece la conexión externa entre el sistema MPACT 30 y la compañía telefónica 16 (representada en la figura 1). El propósito principal de la interfaz de telefonía 35 es aceptar y procesar las señales telefónicas convencionales, que comprende el multiplexado, el encaminamiento de llamadas y la puesta de estas en colas de
espera, como bien se sabe en el ámbito de la técnica. En la forma de realización descrita, la interfaz de telefonía 35 consta de una interfaz de hardware de terceros y unos controladores de software, aparte de software de propiedad MPACT que conecta el paquete de terceros con el servidor de mensajería 31 y, en sistemas de gran tamaño, con el administrador de recursos 40 también. El sistema MPACT admite las tarjetas de interfaz de telefonía estándar 30, tales como las tarjetas analógicas y las tarjetas PCI T1 Dialogic. Opcionalmente, la interfaz de telefonía 35 comprende una memoria caché de audio 41, en la que se almacenan fragmentos de audio "enlatados" pregrabados para una reproducción eficiente. Estos fragmentos de audio facilitan mensajes informativos y de navegación a todos los llamadores. Opcionalmente, pueden utilizarse dos o más interfaces de telefonía 35 para aumentar la capacidad de llamadas de usuarios. Pueden utilizarse otras formas de interfaz de telefonía 35 para dar cabida a diversos medios portadores de señal, incluidas las líneas terrestres convencionales; la radio, los satélites u otras formas de portadoras de señal; sistemas de intercambio de ondas luminosas o sonoras, o sus equivalentes, como sabrán reconocer los expertos en la materia.
Las llamadas de los usuarios consisten en palabras habladas corrientes que deben transcribirse a texto escrito para la visualización, el procesamiento y el almacenamiento. El propósito del motor de reconocimiento de discurso 36 es el de generar una secuencia de enunciados de discurso transcritos que se registran como mensajes de usuario procesables por ordenador. En la forma de realización descrita, el motor de reconocimiento de voz 36 consta de software de terceros y software de propiedad MPACT que conecta el paquete de terceros con la aplicación del agente 43 y, en sistemas de gran tamaño, también con el administrador de recursos 40. El sistema MPACT 30 es compatible con los motores de reconocimiento de voz Speechworks y Nuance. Opcionalmente, pueden utilizarse dos
o más motores de reconocimiento de voz 36 para aumentar la capacidad de llamadas de usuarios.
En otra forma de realización, un motor de reconocimiento de voz desempeña sus funciones en un sistema de cliente 18 que establece conexión con el sistema MPACT 30 a través del sistema de redes interconectadas 17 u otro tipo de medios de transmisión de datos. El sistema MPACT 30 recibe los mensajes del sistema cliente transcritos ya a texto por el sistema cliente 18 para procesarlos de la misma manera que las llamadas en tiempo real recibidas directamente a través de la interfaz de telefonía 35.
Cada llamador que llama al sistema MPACT 30 recibe retroalimentación en forma de mensajes de agente, que constan de una secuencia de enunciados de discurso sintetizados. Los enunciados de discurso sintetizados comprenden saludos, preguntas, respuestas informativas y otras frases habladas que el usuario escucha durante el transcurso de la sesión. El propósito del motor de texto a voz 37 es generar la secuencia de enunciados de discurso sintetizados formados como mensajes de agente, que se puede reproducir como audio reproducible. El motor de texto a voz 37 consta de software de terceros y software de propiedad MPACT que conecta el paquete de terceros con la aplicación del agente 43 y, en sistemas de gran tamaño, con el administrador de recursos 40 también. El sistema MPACT 30 es compatible con el motor de texto a voz Speechify de Speechworks. Opcionalmente, el motor de texto a voz 37 puede comprender una memoria caché de audio 42 en la que se almacenan fragmentos de audio "enlatados" pregrabados que permiten la provisión eficaz de enunciados de discurso sintetizados normalizados para utilizarlos en los scripts y en acciones repetitivas del agente. Asimismo, pueden utilizarse dos o más motores de texto a voz 37 para aumentar la capacidad de llamadas de usuarios.
En otra forma de realización, un motor de texto a voz desempeña sus funciones en un sistema cliente 18 que establece conexión con el sistema MPACT 30 a través del sistema de redes interconectadas 17 u otro tipo de medios de transmisión de datos. El sistema MPACT 30 envía mensajes de agente al sistema cliente 18 para aplicar la síntesis de voz. El llamador escucha la voz sintetizada en el sistema cliente 18 tal como haría con una llamada en directo a través de unos medios telefónicos establecidos directamente a través de la interfaz de telefonía 35.
Las consolas de agente 39 constituyen los medios principales de interacción directa con los clientes. El objetivo principal de cada consola de agente 39 es la de ejecutar una o más aplicaciones de agente 43, almacenadas en la base de datos de aplicaciones de agente 46, que presentan tanto mensajes de usuario como mensajes de agente y ofrecen menús de acciones que pueden ejecutarse como respuesta a los mandatos de agente, incluida la ejecución de scripts, tal como se describe más adelante con referencia a la figura 6. En la forma de realización descrita, se ejecutan una o más aplicaciones de agente 43 en cada consola de agente 39, y una o más consolas de agente 39 funcionan en paralelo. Por otra parte, varias aplicaciones de agente 43 pueden ejecutarse en una máquina servidor (no representada), y los agentes pueden acceder a estas en las consolas de agente 39 que funcionan como terminales remotos.
Cada aplicación de agente 43 implementa una interfaz gráfica de usuario (GUI) para el agente humano. La figura 7A es una captura de pantalla que muestra, a título de ejemplo, un conjunto de ventanas de servicio del centro de llamadas 91, 92 y 93 generadas mediante el sistema 10 de la figura 1. Cada ventana de servicio del centro de llamadas 91, 92 y 93 aparece en una interfaz gráfica de usuario 90 y permite a un agente interactuar indirectamente con un cliente que llama a través de la interfaz de telefonía 35. Tras el registro, por medio de la aplicación del agente 43, un agente puede aceptar nuevas peticiones de sesión desde el servidor de mensajería 31 y crear un contenedor de sesiones visuales para cada de sesión.
En la forma de realización descrita, pueden presentarse hasta cuatro sesiones de forma simultánea a un agente.
Preferentemente, el agente puede ver el contenido de todas las sesiones en una sola pantalla. Una sesión que se designa como sesión activa acepta los mandatos del agente, tales como una instrucción para escuchar un mensaje transcrito del usuario, la reproducción de un mensaje de agente sintetizado para el cliente o la activación de un script a través de un menú 94, tal como se describe más adelante con referencia a la figura 6. El agente puede pasar de una sesión activa a otra con una única pulsación de tecla o del puntero.
Las diversas sesiones de llamada también pueden visualizarse de una en una en la interfaz gráfica del usuario. La figura 7B es una captura de pantalla que representa, a título de ejemplo, una única ventana de servicio del centro de llamadas 95 con varias pestañas de llamada, generada mediante el sistema 10 de la figura 1. La ventana de servicio del centro de llamadas 95 se visualiza en la interfaz gráfica de usuario para permitir a un agente comunicarse con un cliente. Las diversas pestañas de llamada 96 están situadas cerca de la parte superior de la ventana 95 e indican las diversas sesiones de llamada activas. Puede identificarse cada sesión de llamada mediante un correspondiente nombre de cliente, número de teléfono o número de identificación, así como mediante otros identificadores. Los identificadores de sesión de llamada pueden aparecer en las pestañas de llamada. Cada ventana de servicio del centro de llamadas 95 comprende también unos campos de identificación del llamador 97, un perfil de llamador 98 y el motivo de la llamada 99. Para navegar hasta otra ventana de servicio del centro de llamadas desde la ventana actual 95, el agente puede seleccionar la pestaña de llamada adecuada 96 correspondiente a la sesión de llamada.
Con referencia a la figura 3A, cada aplicación de agente 43 recibe una secuencia de enunciados de discurso transcritos desde la interfaz de telefonía 35 a través del servidor de mensajería 31. En una forma de realización alternativa (no representada), la secuencia de enunciados de discurso transcritos evita el servidor de mensajería 31 y se recibe directamente desde la interfaz de telefonía 35. El servidor de mensajería 31 se comunica con el motor de reconocimiento de voz 36 para transcribir los enunciados antes de enviarlos a la aplicación del agente 43. A su vez, la aplicación del agente 43 envía mensajes de agente a la interfaz de telefonía 35 por medio del servidor de mensajería 31. El servidor de mensajería 31 se comunica con el motor de texto a voz 37 para convertir un mensaje de agente en una secuencia de enunciados de discurso sintetizados antes de enviarlo a la interfaz de telefonía 35.
La figura 4 es un diagrama de flujo de proceso que representa los niveles de automatización variables 50 obtenidos mediante el sistema 30 de la figura 3A. Una secuencia de llamador común sigue tres etapas: entrada 51, procesamiento 52 y salida 53. Durante la etapa de procesamiento 52, el sistema 30 facilita a cada agente un control "deslizante" 64 que puede hacer variar el nivel de automatización aplicado a la prestación de servicios al cliente. En un extremo del control deslizante 64, el agente debe teclear manualmente cada respuesta escrita a una consulta del usuario y, en el otro extremo, el sistema 30 establece directamente las interacciones con los clientes de una forma completamente automatizada.
El control deslizante 64 se adapta a la necesidad de proporcionar un procesamiento lineal y no lineal para personalizar de forma flexible y dinámica el procesamiento de las transacciones de llamada. Cuando el llamador se desvía de la forma de proceder prevista, se ejecuta un procesamiento no lineal, tal como la emisión de una respuesta tangencial a una pregunta en un script que solicita información específica. El agente lee el mensaje del usuario y altera el curso del procesamiento del script para adaptarlo a la respuesta tangencial, aumentando así el nivel de satisfacción del cliente respecto de la resolución del problema. Se ejecuta un procesamiento lineal cuando el sistema 30 interactúa directamente con el llamador a través de scripts predefinidos y es capaz de emprender con éxito una serie de etapas con el objeto de resolver problemas a lo largo de una forma de proceder predefinida. En el transcurso de una llamada, tanto el procesamiento lineal como el no lineal pueden aplicarse estratégicamente para incrementar el nivel de confianza del usuario y procesar suficientemente un volumen de tráfico de llamadores superior al que permite un sistema de procesamiento de llamadas completamente manual y completamente no lineal.
Durante la etapa de entrada 51, un operador humano 55 o una máquina 56, tal como el sistema MPACT 30, reciben voz 54 en el centro de llamadas automatizado 11 (representado en la figura 1). La voz 54 se convierte en una secuencia de enunciados de discurso transcritos o anotaciones de texto "normal" 57. Las anotaciones de texto 57 son procesables por máquina como entradas para la etapa de procesamiento 52. Un administrador de mensajes (no representado) asocia los enunciados de discurso audible con las anotaciones de texto 57, y los enunciados de discurso audible de entrada asociados se facilitan con las anotaciones de texto 57 al agente para su reproducción opcional.
Por lo general, el procesamiento implica la ejecución de algún tipo de acción, tal como la ejecución de un script, como se describe más adelante con referencia a la figura 5. Durante la etapa de procesamiento 52, un operador humano 58 (es decir, un agente) o una máquina 59 interpretan cada anotación 57 y generan una respuesta o consulta 60. Un operador humano 61 (es decir, un agente) o una máquina 62 reciben la respuesta o consulta 60 en la etapa de salida 53. Por último, la respuesta o consulta 60 se transforma en enunciados de discurso sintetizados 63 que se reproducen para el llamador.
En la forma de realización descrita, las tres etapas de procesamiento de la llamada, entrada 51, procesamiento 52 y salida 53, son realizadas por máquinas 56, 59 y 62, aunque los operadores humanos 55, 58 y 61 pueden realizar un procesamiento auxiliar si es necesario para complementar el sistema MPACT 30. Por lo tanto, se puede ofrecer un
control deslizante 64 de operador humano e interacción de máquina a fin de automatizar las operaciones del centro de llamadas. Mediante el control deslizante 64, el agente puede cambiar el comportamiento del motor de scripts 32 (representado en la figura 3A) empezando la ejecución de un script 29, ajustando el punto de ejecución dentro del script 29 o haciendo que una parte del script 29 se repita. De esta manera, el agente puede alterar el flujo de control normalmente secuencial de procesamiento de los scripts interviniendo cuando sea necesario, en función del contexto actual de la llamada, o puede dejar que el procesamiento de los scripts siga un curso lineal.
Además de la comunicación indirecta a través de una consola de agente 39, cada agente puede aceptar también llamadas en directo de los clientes directamente a través de la interfaz de telefonía 35, en una modalidad de voz a voz de tiempo real. El procesamiento de llamadas en tiempo real puede ser necesario para gestionar emergencias u otras necesidades de servicios que no son susceptibles de automatización, o para prestar a los clientes servicios que, en general, son inaceptables cuando se facilitan de forma automatizada.
En otra forma de realización, el agente se comunica con los llamadores desempeñando sus funciones en sistemas cliente 18 a través del intercambio de mensajes de texto establecido a través del sistema de redes interconectadas 17 u otros medios de transmisión de datos. A diferencia de las sesiones de chat convencionales, el procesamiento del llamador se establece de la misma manera en que se establece el procesamiento de las llamadas telefónicas recibidas a través de la interfaz de telefonía 35. En consecuencia, el agente puede aplicar el control deslizante 64 al nivel de automatización para asegurar que la transición del procesamiento de llamadas no lineal al lineal tenga lugar como un flujo continuo independientemente de los medios de transmisión de llamadas particulares. Por consiguiente, es posible incorporar diversos sistemas y combinaciones de medios de transmisión de llamadas, como sabrán reconocer los expertos en la materia.
Con referencia nuevamente a la figura 3A, en una primera etapa, un agente se autentica ante el servidor de mensajería 31 por medio de una consola de agente 39 antes de iniciar la sesión. Una vez que ha iniciado la sesión, el agente indica su disponibilidad para gestionar llamadas registrándose en el servidor de mensajería 31. A continuación, las llamadas que se han aceptado en el centro de llamadas automatizado 11 (representado en la figura 1) se asignan a una sesión, y la sesión se asigna subsiguientemente a un agente registrado.
Después de la comunicación inicial entre el agente y el cliente, una aplicación del agente 43 normalmente carga un script que describe el flujo de la sesión desde la base de datos de aplicaciones 45, ya sea de conformidad con las instrucciones del agente o bien en función de la información facilitada por la interfaz de telefonía 35, tal como el ID del llamador. La aplicación del agente 43 se comunica además, por medio del servidor de mensajería 31, con el motor de reconocimiento de voz 36 y el motor de texto a voz 37 para transcribir voz a texto y convertir texto a voz cuando sea necesario. La comunicación entre la aplicación del agente 49 y el motor de reconocimiento de voz 36 y el motor de texto a voz 37 continúa hasta que la llamada termina.
La figura 5 es un diagrama de bloques que representa un esquema 70 para almacenar registros en la base de datos de registro 44 del sistema MPACT 30 de la figura 3A. Cada sesión se identifica mediante un identificador de sesión (ID) 71, que identifica de forma exclusiva cada sesión, tal como un número que sigue un orden creciente. Además, cada registro contiene un identificador (ID) de mensaje 72, una indicación de la hora 73, una marca de emisor o receptor 74 e información 75, constituida generalmente por datos de audio, datos de texto o notas transcritas por el agente. Como resultará evidente a los expertos en la materia, es posible almacenar otros tipos de identificadores, organización y contenido en un registro.
Con referencia nuevamente a la figura 3A, cada aplicación de agente 43 contiene también una modalidad de supervisión que se puede utilizar para supervisar manualmente el comportamiento y el rendimiento del sistema, controlar el funcionamiento de la aplicación del agente 43 y el servidor de mensajería 31, supervisar y orientar las acciones de los agentes humanos y realizar tareas administrativas similares. Una aplicación de administración separada (no representada) permite instalar y configurar el sistema.
Por último, cada aplicación de agente 43 puede ejecutar unos scripts 49 para realizar una secuencia de instrucciones predefinida, que por lo general consta de diálogos de preguntas y respuestas a través de los cuales se consulta al cliente sobre cualquier asunto, o para solucionar un problema. La figura 6 es un diagrama de flujo de proceso que representa, a título de ejemplo, el flujo de control 80 seguido en el procesamiento de un script 49 mediante el sistema 30 de la figura 3A. Durante la etapa inicial del procesamiento, un cliente 82 interactúa indirectamente con un agente 81 a través de la ejecución de un script inicial 83. El propósito del script inicial 83 es rellenar un formulario estándar 84 con información general sobre la naturaleza de la llamada. Tras revisar el formulario 84, el agente 81 ejecuta, por medio de la aplicación del agente 43, uno o más scripts adicionales 87 para facilitar la localización y resolución de problemas y para recibir información adicional por medio de unos formularios adicionales 88. Por último, el agente, por medio de la aplicación del agente 43, genera un formulario de resolución 86 que se utiliza como los parámetros de un script de cierre 85, que se ejecuta para su reproducción ante el cliente 82 a fin de terminar la llamada.
En la forma de realización descrita, cada formulario 84, 86 y 88 está estructurado como un objeto de contención de datos donde se almacenan los datos correspondientes a la aplicación del agente 43. Preferentemente, cada objeto
de contención de datos se mantiene como un objeto binario grande (BLOB) interpretable por cada aplicación de agente 43 en función de las necesidades comerciales. Es de destacar que el uso de scripts, formularios y la interacción con el agente aportan una trayectoria de ejecución no lineal a través de la localización y resolución de problemas. En caso necesario, el agente, a través de la aplicación del agente 43, puede introducir manualmente datos en un formulario y modificar progresivamente la secuencia de localización y resolución de problemas. El nivel de intervención manual del agente deriva del control deslizante 64 implementado en el sistema MPACT 30, descrito anteriormente con referencia a la figura 4.
Con referencia nuevamente a la figura 3A, el motor de scripts 32 ejecuta cada script 49, que comprende la gramática
33. A título de ejemplo, el apéndice A comprende una muestra de gramática para utilizar en la forma de realización descrita. Pueden utilizarse otras formas de gramática y lenguajes de script, tal como sabrán reconocer los expertos en la materia.
El administrador de recursos 40 aporta escalabilidad, equilibrio y redundancia de carga a los sistemas de gran tamaño que comprenden varios motores de reconocimiento de voz 36, motores de texto a voz 37 e interfaces de telefonía 35. En la forma de realización descrita, el servidor de mensajería 31 presenta un administrador de recursos simple incorporado 40 (no representado) para administrar varias aplicaciones de agente 43 que funcionan en sistemas con capacidades de llamadas inferiores.
Mediante una aplicación de administración que controla el administrador de recursos 40, un administrador puede definir y configurar el sistema mientras está operativo. El administrador de recursos 40 permite al administrador añadir o suprimir servidores y reencaminar conexiones entre diferentes componentes, por ejemplo, entre la interfaz de telefonía 35, el servidor de mensajería 31 y una aplicación de agente 43.
La memoria caché de audio 38 ofrece un repositorio centralizado donde se almacenan fragmentos de audio "enlatados" pregrabados para una reproducción eficiente. Estos fragmentos de audio facilitan tanto mensajes informativos como de navegación a todos los llamadores, y enunciados de discurso sintetizados normalizados para utilizar en scripts y acciones de agente repetitivas. Los fragmentos de audio de la memoria caché de audio 38 son recuperables por la interfaz de telefonía 35, el motor de texto a voz 37 y la aplicación del agente 43.
En un sistema común, los distintos componentes se ejecutan en máquinas separadas. Un sistema común de tamaño intermedio consta de un servidor que ejecuta una interfaz de telefonía 35 y un servidor de mensajería 31, un servidor independiente para el motor de reconocimiento de voz 36, otro servidor para el motor de texto a voz 37 y un cuarto servidor para las bases de datos de registro, perfiles de agente y aplicaciones de agente 44, 45 y 46, respectivamente. Otra posibilidad es que un sistema de tamaño mínimo ejecute todos los componentes en un solo servidor, junto con una aplicación de agente 43 en una consola de agente integrada 39.
En la forma de realización descrita, cada configuración de sistema de tamaño intermedio es de "24 x 6," que significa que el sistema puede gestionar 24 llamadas simultáneas y establecer conexión con seis agentes humanos. Una configuración de sistema de tamaño mínimo es de "4 x 1 ", es decir, de cuatro llamadas simultáneas con un agente humano, mientras que una configuración de un sistema de gran tamaño es de "96 x 24," es decir, de 96 llamadas simultáneas y 24 agentes humanos. A través del administrador de recursos 40, la agregación de las configuraciones descritas anteriormente ofrece la posibilidad de disponer de sistemas con capacidades de llamadas muy superiores.
Mezclando tecnologías de propiedad y los sistemas existentes, el sistema MPACT 30 reduce el tiempo medio de las llamadas en un 30 %, incrementa la eficiencia del agente hasta cuatro veces más y mejora significativamente la satisfacción del cliente.
La figura 8 es un diagrama de flujo que representa un procedimiento para ofrecer una infraestructura de comunicaciones de mensajes 100 para el funcionamiento de un centro de llamadas automatizado, de conformidad con la presente invención. El sistema MPACT 30 ejecuta el procedimiento, y los diversos componentes ejecutan las operaciones individuales que se describen expresamente a continuación. Durante el funcionamiento normal, el sistema MPACT 30 procesa varias llamadas simultáneas, que son gestionadas por uno o más agentes que ejecutan aplicaciones de agente 43 en una consola de agente 39 (representada en la figura 1).
Por lo general, el procedimiento 100 aplica un procesamiento iterativo a cada llamada en un ciclo de procesamiento continuo. Durante cada ciclo, se recibe una llamada (bloque 101) que el gestor de sesiones 47 (representado en la figura 3A) asigna a una sesión (bloque 102), tal como se describe más adelante con referencia a la figura 9. A continuación, la sesión se procesa (bloque 103), tal como se describe más adelante con referencia a la figura 10. Tras el procesamiento de la sesión, la llamada termina (bloque 104) y se procesan otras llamadas (bloque 105) hasta que el sistema MPACT 30 se detiene o no se reciben más llamadas. Entonces, el procedimiento termina. En la forma de realización descrita, el sistema MPACT es un sistema que emplea varios subprocesos, cada uno de los cuales ejecuta el procedimiento 100 de manera independiente.
La figura 9 es un diagrama de flujo que representa una rutina para asignar una sesión 110 que se va a utilizar en el procedimiento 100 de la figura 8. El propósito de la rutina es crear una instancia de un nuevo objeto de sesión para
el procesamiento por una aplicación de agente 43 (representada en la figura 3A) y subsiguientemente asignar la sesión instanciada a un agente que desempeña sus funciones en una consola de agente 39.
Inicialmente, si hay algún agente disponible (bloque 111), se elige a uno de los agentes como agente asignado (bloque 112) y se crea la nueva sesión (bloque 113). A continuación, el agente seleccionado se asigna a la sesión recién creada (bloque 114). Entonces, se vuelve a la rutina. Si no hay ningún agente disponible (bloque 111), el cliente tiene la opción de conectarse a un sistema no agente (bloque 115), es decir, un sistema de respuesta de voz automatizada, que facilita la información expresamente solicitada por el cliente (bloque 116) y, a continuación, se regresa a la rutina. De lo contrario, si el cliente prefiere un agente (bloque 115), el cliente es puesto en una cola de espera (bloque 117) hasta que haya un agente disponible.
Debe tenerse en cuenta que es posible dar prioridad tanto a los clientes como a los agentes mediante criterios de selección predefinidos. Por ejemplo, los clientes que hayan contratado el servicio de atención especial pueden obtener una prioridad más alta en la cola de espera que otros clientes. Asimismo, puede darse prioridad a agentes especializados en resolución de problemas para atender las necesidades particulares de los clientes, durante la selección de asignación de agentes.
La figura 10 es un diagrama de flujo que representa una rutina 125 para procesar una sesión 120 que se va a utilizar en el procedimiento 100 de la figura 8. El propósito de la rutina es almacenar y enviar mensajes de forma iterativa utilizando la cola de mensajes 48 (representada en la figura 3A). Son posibles otras formas de abordar la puesta en cola, los mensajes y la prioridad, tal como reconocerán los expertos en la materia.
Durante cada iteración, el administrador de sesiones 47 (representado en la figura 3A) espera a recibir un mensaje, ya sea un mensaje de usuario, o bien un mensaje de agente (bloque 121). Tras su recepción, el mensaje se pone en la cola de mensajes 48 (bloque 122) y se avisa al destinatario del mensaje (bloque 123). Si el mensaje es un mensaje de usuario que se envía a un agente (bloque 124), el mensaje es procesado por el agente asignado a la sesión a la que corresponde el mensaje de usuario (bloque 125), tal como se describe más adelante con referencia a la figura 11. El procesamiento iterativo continúa con cada mensaje subsiguiente (bloque 126) y, a continuación, se vuelve a iniciar la rutina.
La figura 11 es un diagrama de flujo que representa una rutina de procesamiento de una sesión por el agente 130, para utilizar en la rutina 125 de la figura 10. El propósito de la rutina es facilitar la interacción entre un agente y el cliente a través de una aplicación de agente que se ejecuta en una consola de agente 39 (representada en la figura 3A).
En primer lugar, el mensaje de aviso aparece (bloque 131) en la interfaz gráfica de usuario 90 (representada en la figura 7) de la aplicación de agente 43. En caso necesario, el agente envía mensajes al cliente desde el proveedor de servicios o el motor de scripts 32 (representado en la figura 3A) para dar un tratamiento adecuado a los mensajes del usuario (bloque 132). Si el mensaje enviado consiste en una petición de ejecución de un script 49 (bloque 132), el motor de scripts 32 somete el mensaje a un procesamiento adicional (bloque 134), tal como se describe más adelante con referencia a la figura 12. Entonces, la rutina vuelve a empezar.
La figura 12 es un diagrama de flujo que representa una rutina de procesamiento de una sesión por un motor de scripts 140, para utilizar en la rutina 130 de la figura 11. El propósito de esta rutina es procesar de forma iterativa cada petición de ejecución de script mediante el motor de scripts 32 en representación de las aplicaciones de agente solicitantes 43 (representadas en la figura 3A).
Cada cadena de mensajes se procesa iterativamente (bloques 141 a 146) de la manera indicada a continuación. Durante cada iteración (bloque 141), se recupera el campo de notas de cada mensaje (bloque 142) y, si se halla una petición de ejecución de script (bloque 143), se ejecuta un script 49 (bloque 144), tal como se describe más adelante con referencia a la figura 13. De lo contrario, si no hay ninguna petición de script (bloque 143), no se ejecuta ninguna operación (bloque 145). El procesamiento continúa con cada cadena de mensajes adicional (bloque 146), tras lo cual la rutina vuelve a empezar.
Aunque se ha descrito anteriormente con referencia al procesamiento lineal de un script en secuencia, la intervención de un agente durante el procesamiento de los scripts es totalmente compatible. El agente continúa supervisando el progreso de la ejecución de scripts observando las respuestas de los usuarios y puede intervenir en caso de que sea necesario para incorporar una respuesta que no figura en el script. Por ejemplo, el usuario puede facilitar una respuesta tangencial a una pregunta del script que solicita información específica. Entonces, el agente leerá el mensaje del usuario y alterará el curso del procesamiento del script para adaptarlo a la respuesta tangencial al control deslizante 64 (representado en la figura 4).
La figura 13 es un diagrama de flujo que representa una rutina para ejecutar un script 150 para utilizar en la rutina 140 de la figura 12. El propósito de esta rutina es llevar a cabo una ejecución estándar de recuperación e interpretación de instrucciones de scripts, tal como se conoce dentro del ámbito de la técnica.
En primer lugar, se recupera (bloque 151) y ejecuta (bloque 152) cada una de las instrucciones. En la forma de realización descrita, la ejecución de instrucciones se deduce a partir de una gramática almacenada interpretable 33 (representada en la figura 3A) e incorporada, a título de ejemplo, en el apéndice A. Si la instrucción de ejecución es la instrucción "QUIT" (bloque 153), la ejecución del script termina y la rutina vuelve a empezar. En caso contrario, el procesamiento del script continúa con la siguiente instrucción (bloque 154).
El centro de llamadas automatizado también puede resultar útil a los usuarios móviles en la medida en que puede dar indicaciones, información de eventos y asistencia, así como realizar servicios de asistencia personal y de otro tipo para el usuario móvil. La figura 14 es un diagrama de bloques 160 que representa un sistema de mensajería móvil para presentar datos de salida, de conformidad con otra forma de realización. El sistema de mensajería móvil (MMS) 161 puede comprender una interfaz de usuario 162 que presenta un micrófono 164 para captar la voz del usuario, una pantalla 165, unos altavoces 166 y una entrada de interfaz 167 que permite al usuario aplicar diversas funciones interactivas. El MMS 161 también comprende un procesador 168, un sistema de posicionamiento global (GPS) 169 para determinar con precisión las ubicaciones de los vehículos y un dispositivo de comunicaciones 163, tal como un módem celular, para transmitir y recibir información inalámbrica. El MMS 161 también está acoplado para recibir información desde otros sistemas del vehículo (no representados), tales como un velocímetro, un motor
o un sistema de frenado.
La figura 15 es un diagrama de flujo que representa un procedimiento para presentar datos de salida mediante el sistema de la figura 14. El procesador 168 del MMS 161 recibe información de presentación (bloque 171). La información de presentación transmitida desde un servidor, a través de una red (no representada), es recibida por el dispositivo de comunicaciones 163. El procesador 168 determina si el vehículo presenta alguna condición de emergencia (bloque 172) basándose en la información recibida desde los sistemas del vehículo distintos al MMS. Si el procesador 168 determina que existe una condición de emergencia en el vehículo, el procesador 168 detiene toda la transmisión de información de presentación recibida (bloque 173) a cualquiera de los componentes de la interfaz de usuario 162. Entre los ejemplos de condiciones de emergencia de vehículo que pueden hacer que el procesador interrumpa la transmisión de información de presentación a la interfaz de usuario 162 cabe citar las señales recibidas desde el motor que indican un sobrecalentamiento de este o una señal que indica que el conductor del vehículo ha accionado los frenos hasta tal extremo que ha provocado la activación del sistema de frenado antibloqueo. Una vez interrumpida la transmisión, el procesador 168 puede volver a recibir información de presentación (bloque 171).
Si el procesador 168 determina que no existe ninguna condición de emergencia en el vehículo, el procesador 168 recibe información del estado del vehículo (bloque 174). La información del estado del vehículo procede de una serie de fuentes que generan señales, tales como un GPS 169 o un velocímetro. El procesador 168 facilita la información de presentación a través de la interfaz de usuario 162 basándose en la información del estado del vehículo (bloque 175). El contenido y el formato de la información de presentación que aparece en la pantalla 165 o que se emite por el sistema de altavoces 166 de la interfaz de usuario 162 están determinados. Por ejemplo, cuando el vehículo está estacionado, el procesador 138 presenta toda o casi toda la información de presentación recibida. Cuando el estado del vehículo cambia, por ejemplo, al incrementarse la velocidad, el procesador 138 cambia la presentación de la información mostrada en la pantalla 165.
El cambio de la información de presentación también puede determinar que la presentación de la información pase de ser visual a ser una emisión de audio a través de los altavoces 166. En otro ejemplo, la información presentada comprende un mapa detallado completo de la posición del vehículo con indicaciones de ruta hasta un destino solicitado previamente. En función de la velocidad del vehículo o el ritmo de cambio de la velocidad o la dirección del vehículo, se puede alterar el detalle de la información presentada que aparece en el mapa. A medida que la velocidad del vehículo se incrementa, el detalle representado en el mapa se reduce, por ejemplo, hasta contener solo la ubicación actual del vehículo en relación con las calles e intersecciones cercanas. Parte o toda la información de presentación, o las indicaciones de ruta del mapa, puede convertirse a un formato de audio y emitirse para el conductor del vehículo a través de los altavoces 166. En otros ejemplos, el tamaño y la fuente del texto, los iconos y los gráficos presentados en la pantalla pueden alterarse cuando el estado del vehículo cambia, tal como se describe con referencia a la figura 16. Las salidas de audio también pueden alterarse, por ejemplo incrementando o reduciendo la emisión de audio en función del cambio del estado del vehículo. Después de presentar la salida, el procesador 168 vuelve a recibir información de presentación adicional (bloque 171). La información de presentación puede procesarse en tiempo real desde el momento en que el servidor recibe la información a través de la red hasta el momento en que la información de presentación es facilitada al conductor del vehículo a través de la interfaz de usuario 162. En otra forma de realización, la información de presentación puede recibirse en un momento determinado, y el procesador 168 puede almacenarla antes de que se tome cualquier decisión acerca de cómo presentar la salida. En otra forma de realización, una persona distinta al conductor del vehículo puede ver la información de presentación dependiendo del nivel de detalle establecido.
La figura 16 es un diagrama de flujo que representa una rutina para visualizar información de presentación basada en el estado de un vehículo. La velocidad de un vehículo se determina (bloque 181), por ejemplo, consultando el indicador de velocidad del vehículo. Si la velocidad del vehículo es inferior o igual a 25 millas por hora (mph), el procesador 168 visualiza de forma detallada la información de presentación en la pantalla 165 de la interfaz de
usuario 162 (bloque 182). A medida que la velocidad del vehículo se incrementa, la cantidad de información visual detallada generada para la visualización se reduce. Por lo tanto, si la velocidad del vehículo es superior a 25 mph, pero inferior o igual a 40 mph, el procesador 168 visualiza información de presentación con menos contenido visual (bloque 183) que el correspondiente a la información visualizada para las velocidades de vehículo inferiores o iguales a 25 mph. Cuando la velocidad es superior a 40 mph, pero inferior o igual a 70 mph, el procesador 168 reduce la cantidad de detalle de la información de presentación que va a aparecer en la pantalla 165, aumentando el tamaño de la fuente del texto contenido en la información de presentación mostrada y cambiando el color del texto (bloque 184). El mayor tamaño de la fuente y el cambio de color facilitan la visualización por el usuario a altas velocidades. Cuando la velocidad es superior a 70 mph, el procesador 168 deja de generar información de visualización para presentar en la pantalla 165 y cambia a una simple presentación de audio para emitir a través de los altavoces 166 (bloque 185). Los rangos de velocidad particulares descritos se utilizan solo a título de ejemplo y no deben interpretarse en sentido restrictivo. Las velocidades de activación exactas pueden variar según diversos factores, tales como el estado de las carreteras, las especificaciones del vehículo o la destreza del conductor del vehículo, así como las preferencias del usuario. Asimismo, el formato de salida de la información de presentación puede variarse de conformidad con las restricciones del hardware o el software de la interfaz del usuario, así como las preferencias del usuario.
Además del ejemplo del vehículo descrito anteriormente, la información de presentación puede ajustarse automáticamente según una o más condiciones del vehículo relativas al ritmo de cambio de la velocidad del vehículo, el ritmo de cambio de la dirección del vehículo, la activación del teléfono celular o los auriculares, la activación del detector de radar, la superación de un cierto valor de nivel de ruido en decibelios, la utilización de una radio o un disco compacto, la utilización de un televisor o un videodisco y los intermitentes, así como otras condiciones. Los sistemas del vehículo, tales como el indicador de velocidad, el sistema de dirección, el motor, el sistema de frenado y el sistema de aceleración del vehículo, pueden determinar las condiciones del vehículo. Los sistemas del vehículo también pueden comprender componentes adicionales, tales como un indicador de temperatura, un indicador de humedad, un indicador de la velocidad del viento, un indicador de precipitación pluvial, una brújula y un reloj. Estos componentes del sistema del vehículo adicionales pueden estar integrados en el MMS 161 o estar separados de este, siempre y cuando puedan someterse al control del MMS 161. Son posibles otras condiciones de vehículo, sistemas de vehículo y componentes.
La provisión de información de presentación puede ajustarse automáticamente dependiendo de una condición del vehículo o una combinación de condiciones del vehículo. Por ejemplo, el MMS 161 supervisa los sistemas de frenado y aceleración del vehículo con referencia a un reloj interno para determinar el ritmo de cambio de la velocidad del vehículo. Si la velocidad del vehículo se incrementa o reduce con rapidez, el MMS 161 disminuye automáticamente la cantidad de detalle de la información de presentación visual y puede transferir una parte o toda la información de presentación para una presentación de audio. En otro ejemplo, el MMS 161 controla el movimiento del volante y la dirección del vehículo con referencia a una brújula y un reloj para determinar el ritmo de cambio de la dirección del vehículo. Si la dirección del vehículo cambia con rapidez, el MMS 161 puede reducir automáticamente la cantidad de detalle de la información de presentación visual, así como transferir una parte o toda la información de presentación para una presentación de audio.
La figura 17 es un diagrama de bloques 190 que representa un sistema de vehículo para la comunicación con el sistema de la figura 3A. El sistema del vehículo 191 comprende una interfaz de usuario 192 y un procesador 193. La interfaz de usuario 192 comprende un micrófono que recibe instrucciones de voz desde un usuario y envía las instrucciones al procesador 193. El procesador 193 aplica el procesamiento de voz a las señales de voz recibidas y transmite las señales de voz procesadas a través de un sistema de altavoces o una pantalla por medio de la interfaz de usuario 192. El procesador 193 también puede enviar las señales de voz procesadas a un operador 196 de un sistema de operador 195, a través de una red inalámbrica 194.
La figura 18 es un diagrama de flujo que representa un procedimiento de comunicación con el sistema de la figura 3A. En primer lugar, el usuario introduce instrucciones de voz (bloque 201) en el sistema del vehículo 191 por medio de la interfaz de usuario 192. A continuación, el procesador 193 aplica un procesamiento de reconocimiento de voz (bloque 202) a las instrucciones de voz recibidas para determinar el contenido de las instrucciones. Los resultados del procesamiento de reconocimiento de voz se presentan al usuario (bloque 203) por medio de la interfaz de usuario 192, en forma de comunicación verbal a través de un sistema de altavoces o de mensajes de texto en una pantalla. El usuario puede determinar entonces si se han interpretado las instrucciones de voz correctamente (bloque 204). Si el procesador 193 ha interpretado las instrucciones de discurso entrante correctamente, el usuario puede pedir al sistema del vehículo 191 que envíe las instrucciones procesadas a un destino predefinido, tal como un servidor (bloque 208). Son posibles otros destinos. En caso contrario, el usuario tiene la oportunidad de ponerse en contacto con un operador humano para asegurarse de que se hayan introducido las instrucciones correctamente (bloque 205). Si el usuario decide ponerse en contacto con el operador humano, se envía un compendio de la interacción entre el usuario y el procesador 193 al operador humano 196 (bloque 206) de un sistema de operador
195. El usuario se conecta con el operador humano (bloque 206) que se ocupa del sistema de operador 195 que comprende un teléfono y un terminal de ordenador. El usuario y el operador humano determinan el contenido de las instrucciones iniciadas por el usuario. Si el usuario no desea estar conectado con un operador humano, el usuario puede volver a facilitar nuevas instrucciones de voz (bloque 201).
En otra forma de realización, el procesador 193 procesa una nueva instrucción de voz basándose en una instrucción de voz igual o similar grabada previamente. Supongamos, por ejemplo, que en cinco episodios anteriores el usuario ha facilitado cierta instrucción de voz acerca de un restaurante. El procesador 193 toma una primera determinación en cuanto a lo que el usuario ha solicitado en cada uno de los cinco episodios. En los cuatro primeros episodios de los cinco, el usuario ha solicitado indicaciones de ruta para llegar al restaurante. En el quinto episodio, el usuario ha solicitado información bursátil de la empresa que cotiza en bolsa propietaria del restaurante. El procesador 193 registra los resultados aceptados de la instrucción de voz procesada, incluidas cuatro peticiones de indicación de ruta y una petición de información bursátil, con la instrucción de voz de cada episodio. La próxima vez que el usuario dé la misma instrucción de voz, el procesador 193 podrá utilizar los resultados aceptados registrados previamente para procesar la nueva instrucción de voz.
Es posible aplicar diversos procedimientos para utilizar los resultados aceptados registrados previamente. En un primer procedimiento, el resultado registrado con más frecuencia se convierte en el resultado de la última instrucción de voz concreta facilitada. Por lo tanto, en el ejemplo anterior, se proporcionan indicaciones de ruta al usuario, ya que los resultados registrados demuestran que las peticiones de indicaciones de ruta hasta el restaurante son más frecuentes que las peticiones de información bursátil u otro tipo de peticiones. En un segundo procedimiento, el resultado registrado en último lugar se convierte en el resultado de la última instrucción de voz concreta facilitada. Por lo tanto, en el ejemplo anterior, se facilita información bursátil al usuario, ya que el último resultado registrado ha sido una petición de información bursátil.
Con respecto a los primeros cuatro episodios descritos anteriormente, el procesador 193 procesa la instrucción de voz, ya sea como una petición de indicación de ruta, o bien como una petición de algo diferente. Si la instrucción de voz se ha procesado como una petición de indicación de ruta, el usuario puede aprobar el procesamiento, y la petición resultante de indicación de ruta hasta el restaurante se registra junto con la instrucción de voz para ese episodio. Si la instrucción de voz se ha procesado como una petición de algo distinto a la indicación de ruta, el usuario puede formular una nueva petición de indicaciones al procesador 193, lo cual demuestra que el procesamiento de las instrucciones de voz ha sido incorrecto.
El usuario puede indicar que el procesamiento ha sido incorrecto de varias maneras diferentes. Un usuario puede corregir el procesamiento poniéndose en contacto con un operador humano (bloque 205). El operador humano puede hacer el cambio para ese episodio, y el cambio se registra. También puede realizarse una corrección presentando una subsiguiente petición de instrucción de voz al procesador 193 para reinterpretar la instrucción de voz original. Volviendo al ejemplo anterior, una vez que la instrucción de voz se ha corregido convirtiéndola en una petición de indicaciones de ruta y el usuario acepta el cambio, el resultado de las indicaciones de ruta hasta el restaurante se registra con la instrucción de voz para el episodio.
La comunicación entre el conductor de un vehículo y un agente de un centro de llamadas puede tener lugar a través de mensajería. Cuando el agente y el conductor se comunican, sus voces son captadas, digitalizadas, comprimidas y enviadas a un servidor. El servidor encamina los segmentos de voz hacia una aplicación de escritorio del agente del centro de llamadas, que consiste en un agente humano del centro de llamadas situado en frente de una consola de agente, que comprende una pantalla, un teclado, un altavoz, un micrófono y unos auriculares. El agente puede interactuar con varios vehículos, cada uno de los cuales está representado por una sesión en la pantalla del agente. Cada sesión de comunicación está representada por una ventana, que muestra iconos que representan los enunciados de discurso recibidos desde el vehículo.
El agente puede escuchar un enunciado específico seleccionando el correspondiente icono con el ratón. En otra forma de realización, la voz del conductor del vehículo es procesada primero por un motor de reconocimiento de voz a texto y luego presentada como texto en la ventana.
Para responder a un conductor particular de un vehículo, el agente escribe en la ventana correspondiente a dicho vehículo. El texto escrito se convierte en voz facilitada por un servidor de texto a voz, y se comprime y envía de nuevo al vehículo. El texto escrito se almacena primero en la TCU y a continuación se descomprime y reproduce para el conductor. En otra forma de realización, el operador puede dar una respuesta oral en lugar de escrita. Tanto el conductor como el operador pueden escuchar otra vez un enunciado del mensaje solicitando al respectivo dispositivo que lo reproduzca de nuevo.
El agente puede interactuar con varios vehículos simultáneamente. El agente del centro de llamadas, así como el conductor del vehículo que participa en la conversación, pueden mantener un registro de cada sesión de conversación. El agente o el conductor pueden escuchar instrucciones almacenadas previamente. El agente puede ser mucho más eficaz, ya que no necesita pedir al conductor que repita el enunciado ni pedir disculpas por mantener el conductor en espera (la eficiencia está relacionada con la naturaleza orientada a mensajes semidúplex de la comunicación.)
La mensajería de agente permite a los agentes realizar varias tareas de varios clientes simultáneamente utilizando varias ventanas. Cada cliente puede comunicarse con un agente a través de unos medios de voz. Los agentes
reciben los mensajes de voz de varios clientes, y estos ponen en cola a fin de que los agentes los examinen en secuencia. Son posibles otras características relacionadas, tales como el control limitado del agente sobre otras aplicaciones de cliente.
Comunicación entre un cliente y un agente de un centro de llamadas puede comprender dos programas de aplicación: uno para el cliente (TCU), denominado "cliente", y otro para el agente, denominado "servidor". El servidor está diseñado para la transferencia de mensajes de almacenamiento y envío entre clientes y agentes individuales. El programa de aplicación del agente puede comprender alguna forma de ejecutable de Windows, con una GUI no de navegador. El programa de aplicación del cliente es una aplicación que se ejecuta en la TCU. Los mensajes de los clientes a los agentes pueden ser grabaciones de audio, mientras que los mensajes de los agentes a los clientes son principalmente mensajes de texto que han pasado a través de un motor de texto a voz. No obstante, son posibles otros procedimientos de comunicación, incluida la posibilidad de que los agentes envíen mensajes de audio y que los clientes envíen mensajes de texto.
Supongamos, por ejemplo, que un cliente se pone en contacto con un agente porque se ha perdido y desea obtener indicaciones de ruta hasta una ubicación específica. Se puede obtener la posición y los últimos movimientos del cliente para que el agente los examine. Basándose en la posición del cliente, el agente puede controlar una aplicación de navegación y facilitar indicaciones de ruta hasta la ubicación específica.
En otro ejemplo, el vehículo de un cliente se ha averiado o se ha visto involucrado en un accidente; sin embargo, no es necesario llamar a los servicios de emergencia. La información del vehículo se carga en función de la conexión con un bus CAN. Se carga también la posición del cliente.
En otro ejemplo, un agente puede realizar un servicio de asistencia personal para el cliente que puede ser prestado con rapidez, tal como conseguir entradas para un espectáculo. Aunque la obtención de entradas a menudo puede llevar menos de cinco minutos, son posibles otros lapsos. El agente, por medio de la consola del agente, puede utilizar servicios externos, tales como una página web de entradas. El agente puede acceder al asistente personal digital (PDA) del cliente o cualquier otra forma de dispositivo electrónico de planificación a través de sincronización para determinar la disponibilidad del cliente para asistir al espectáculo. El PDA puede comprender información tal como elementos de calendario, direcciones o números de teléfono. El agente también puede acceder a las preferencias y la información del cliente, tal como la información de tarjeta de crédito y correo electrónico, para prestar el servicio. Una vez que se han obtenido las entradas, se envía la confirmación del servicio al cliente por correo electrónico.
En otro ejemplo, un agente puede prestar al cliente un servicio de asistencia personal que lleva mucho tiempo, tal como una reserva en un restaurante que no responde al teléfono. Los servicios que llevan más de 30 minutos se pueden considerar servicios de largo plazo. Se admiten otros límites de tiempo. El agente sigue los mismos pasos para los servicios de asistencia personal de corto plazo; no obstante, habitualmente se requiere una sesión de pausa debido a la cantidad de tiempo necesario para prestar el servicio. El agente puede efectuar un reinicio de sesión una vez que el servicio ha concluido.
La comunicación entre el cliente y el agente puede comprender la transmisión, al agente, de una nueva petición oral del cliente, una posición o información del vehículo. El agente puede controlar otras aplicaciones del vehículo del cliente al mismo tiempo que recibe la nueva petición de voz del cliente. Durante cada sesión, el agente puede utilizar servicios externos por medio de la consola del agente. El acceso al PDA de cada cliente puede obtenerse a través de sincronización. Los agentes pueden ver datos del cliente en el PDA, incluidos los números teléfono, planes, tareas pendientes y otros datos. También pueden obtenerse las preferencias del cliente para facilitar el cumplimiento de la petición. Una vez se ha satisfecho la petición, el agente puede enviar una confirmación, tal como una nota de resumen, por correo electrónico. Si el cumplimiento de la petición requiere un período de tiempo prolongado, puede producirse la desconexión del cliente con una reconexión intermitente para comprobar si hay respuestas demoradas.
Las peticiones de mensajes de varios clientes pueden ponerse en cola para que un único agente se ocupe de estas. Un "cliente" para el cliente y un "cliente" para el agente pueden comunicarse con un único servidor. El agente envía un mensaje de respuesta, que se pone en cola para su posterior reproducción en el momento en que el conductor esté preparado. Las situaciones de reconocimiento de voz problemáticas para el agente, tal como los datos de la voz irreconocible, pueden transferirse automáticamente a un agente al cual se informa sobre el contexto. Puede considerarse que los datos son irreconocibles si estos no se entienden correctamente después de tres intentos. Son posibles otras formas de designar los datos como irreconocibles.
El agente puede acceder a cada perfil de cliente y controlarlo. Puede darse prioridad a las peticiones de entrada de los clientes en función de ciertos factores, tales como las limitaciones de tiempo y otros. Por ejemplo, el agente puede decidir que el cliente X debe ser respondido con rapidez en todos los casos. Entonces, las peticiones del cliente X se insertan más cerca de la cabeza de la cola, en lugar de al final.
El programa de aplicación del agente puede comprender scripts, atajos y otras herramientas para facilitar respuestas comunes, tales como "Lo siento señor, no hay entradas para el espectáculo. ¿Le va bien otra hora?" El agente
puede anotar la comunicación para examinarla él mismo u otras personas, o para renovar el contexto al reiniciar tras una pausa en la sesión.
La comunicación entre el cliente y el agente puede archivarse durante cierto período de tiempo. La comunicación archivada puede utilizarse para revisar o hacer una copia de la antigua comunicación. Si está disponible, el agente puede servir de forma invisible de herramienta de reconocimiento de voz para otra aplicación. Supongamos, por ejemplo, que un cliente solicita información meteorológica de una ciudad. Después de un segundo intento fallido de reconocimiento de los datos, el agente recibe el audio del tercer intento del cliente con la anotación de una ciudad.
Si el cliente está organizando un elemento programado, tal como el de unas reservas para el teatro u otro espectáculo, el agente puede comprobar automáticamente si existe alguna discrepancia con la planificación del cliente en el PDA del cliente. Puede ser que el agente no sepa cuál es el elemento discrepante, sino solo que existe una discrepancia.
El agente inicia el programa de aplicación del agente mediante un identificador de agente, tal como un nombre de inicio de sesión u otro tipo de identificador reconocible por el servidor. El programa de aplicación del agente gestiona una cola de líneas de comunicación con varios clientes. Cuando un cliente desea hablar con un agente, la aplicación del cliente negocia con el servidor para establecer una sesión con un agente particular. Cada cliente puede tener un agente habitual o agente predeterminado que está familiarizado con el cliente, aunque la carga de trabajo deberá estar equilibrada entre todos los agentes operativos. El trabajo del agente comprende pulsar el botón "siguiente mensaje", para ver el siguiente mensaje de la cola. Una vez pulsado, el agente recibe el audio más reciente del cliente. En la pantalla del agente aparece la transcripción de la conversación con el cliente. La transcripción es una combinación de las grabaciones de audio del cliente y las respuestas y mandatos de texto del agente. Es probable que la transcripción de la comunicación esté intercalada y que, de ese modo, el programa de aplicación permita al agente seleccionar líneas específicas de la transcripción. Si la transcripción es un mensaje de texto, se visualizará el texto completo y, si la transcripción es una comunicación de audio, se reproducirá la grabación de audio del cliente. La transcripción puede retroceder en la pantalla indefinidamente, incluso hasta una sesión previa de un día o una semana y, si la memoria lo permite, también hasta otros plazos de tiempo. Además de la transcripción, está disponible otro tipo de información acerca de la cola, tal como cuántos clientes están en espera, el tiempo medio de espera o las prioridades relativas de los clientes en la cola, así como otro tipo de información.
El agente puede obtener también información sobre el cliente a partir de una base de datos disponible a través de la consola del agente. La información puede comprender, por ejemplo, el nombre y los apellidos del cliente, el tipo de saludo preferido y las direcciones de lugares importantes, así como datos de otro tipo. El programa de aplicación del agente permite a los agentes responder a los clientes, ya sea introduciendo texto directamente, respondiendo con atajos que presentan frases comunes, incorporando la información del perfil del cliente, o bien respondiendo con mandatos que pueden ocasionar cambios funcionales en la máquina de cliente, por ejemplo especificando un nuevo destino para el componente de navegación o descargando una dirección en el PDA, así como utilizando otros tipos de respuestas. El agente puede modificar la prioridad relativa del cliente en la cola. Por lo tanto, dependiendo de la rapidez de respuesta que precisa el cliente, puede asignarse al mensaje una prioridad más alta en la cola y, en consecuencia, pasar por delante de otros clientes. Supongamos, por ejemplo, que el cliente A tiene problemas en el motor de su coche, mientras que el cliente B desea comprar un disco compacto. Entonces, la petición del cliente A se dispondrá en la cola del agente con una prioridad más alta que la petición del cliente B.
Aunque la presente invención se ha ilustrado y descrito en particular con referencia a las formas de realización de la misma, los expertos en la materia advertirán que es posible aplicar a la presente invención los cambios descritos anteriormente y cambios de otro tipo en la forma y los detalles sin apartarse del alcance de la presente invención.
Apéndice
Para indicar una cadena de mensaje de alerta, utilice:
5
la cadena ALERT
Para indicar una bifurcación incondicional para etiqueta, utilice:
la etiqueta GOTO
10
Para indicar una bifurcación condicional cond para etiqueta, utilice:
la etiqueta IF cond THEN GO TO
15
Para especificar una cadena de etiqueta para una bifurcación, utilice:
la cadena LABEL
Para terminar la ejecución, utilice:
20
QUIT
Para indicar una cadena de enunciado de discurso sintetizada, utilice:
25
la cadena SAY
Para indicar una cadena de nombre de cadena, utilice:
la cadena SCRIPTNAME
30
Para indicar un nombre de variable varname, utilice:
varname SET
35
Para indicar un nombre de script de subíndice, utilice:
el nombre de script SUBSCRIPT
Para indicar una cadena de estado de espera, utilice:
40
la cadena WAITFOR<YES|NO|DATE|PHONENUM|CUSTlD>

Claims (8)

  1. REIVINDICACIONES
    1. Sistema (30) para proporcionar una infraestructura de comunicaciones multimodales para el funcionamiento de un centro de llamadas automatizado (11), que comprende:
    una interfaz de telefonía (35) configurada para aceptar una llamada multimodal de un llamador (12-15);
    un servidor de mensajería (31) configurado para asignar automáticamente la llamada multimodal, a través de un administrador de sesiones (47), a una sesión con la intervención de un agente real (81), y para recibir comunicaciones de voz y mensajes de texto en la llamada multimodal, que se originan simultáneamente en el llamador;
    un módulo de reconocimiento de voz (36) configurado para convertir el discurso entrante (54) de las comunicaciones de voz de la llamada multimodal en un texto transcrito (57);
    un procesador de mensajes de texto configurado para emparejar por lo menos uno de los mensajes de texto del llamador con el texto transcrito (57) del discurso entrante (54) durante la sesión que está en curso; y
    una consola de agente (39) configurada para procesar progresivamente el texto transcrito (57) y los mensajes de texto de entrada durante la sesión, a través de una aplicación del agente (43) ejecutando un escenario de atención al cliente (22) supervisado y controlado interactivamente por el agente real (81).
  2. 2. Sistema (30) según la reivindicación 1, que además comprende, por lo menos uno de entre:
    una base de datos (34) configurada para almacenar los mensajes de texto de entrada y el texto transcrito (57) como una entrada de registro (44); o
    un módulo de posprocesamiento configurado para realizar un posprocesamiento en los mensajes de texto de entrada y el texto transcrito (57).
  3. 3. Sistema (30) según la reivindicación 1, que además comprende:
    un módulo de identificación de llamador configurado para asignar una identificación de llamador (71) a los mensajes de texto de entrada; y
    el servidor de mensajería (31) configurado para transmitir los mensajes de texto de entrada al agente real (81), basándose en la identificación de llamador (71).
  4. 4.
    Sistema (30) según la reivindicación 1, que además comprende:
    un módulo de identificación (71) configurado para identificar los mensajes de texto de entrada como datos literales del llamador y una base de datos (34) configurada para almacenar los mensajes de texto de entrada identificados.
  5. 5.
    Procedimiento para proporcionar una infraestructura de comunicaciones multimodales para el funcionamiento de un centro de llamadas automatizado (11), que comprende las etapas siguientes:
    aceptar una llamada multimodal de un llamador (12-15) a través de una interfaz de telefonía (35); asignar automáticamente la llamada multimodal, a través de un administrador de sesiones (47), a una sesión con la intervención de un agente real (81);
    recibir comunicaciones de voz y mensajes de texto en la llamada multimodal, que se originan simultáneamente en el llamador; convertir el discurso entrante (54) de las comunicaciones de voz de la llamada multimodal en texto transcrito (57); emparejar por lo menos uno de los mensajes de texto del llamador con el texto transcrito (57) del discurso entrante
    (54) durante la sesión que está en curso; y
    procesar progresivamente el texto transcrito (57) y los mensajes de texto de entrada durante la sesión de la llamada, a través de una aplicación del agente (43) ejecutando un escenario de atención al cliente (22) supervisado y controlado interactivamente por el agente real (81).
  6. 6. Procedimiento según la reivindicación 5, que además comprende, por lo menos una de las siguientes etapas:
    almacenar los mensajes de texto de entrada y el texto transcrito (57) como una entrada de registro (44); llevar a cabo un posprocesamiento en los mensajes de texto de entrada y el texto transcrito (57).
  7. 7. Procedimiento según la reivindicación 5, que además comprende las etapas siguientes:
    asignar una identificación de llamador (71) a los mensajes de texto de entrada; y 10 transmitir los mensajes de texto de entrada al agente real (81) basándose en la identificación de llamador (71).
  8. 8. Procedimiento según la reivindicación 5, que además comprende las etapas siguientes: identificar los mensajes de texto de entrada como datos literales del llamador; y
    almacenar los mensajes de texto de entrada identificados.
ES08168071T 2007-10-31 2008-10-31 Provisión de una infraestructura de comunicaciones multimodales para el funcionamiento de un centro de llamadas automatizado Active ES2398756T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US981860 2007-10-31
US11/981,860 US8068595B2 (en) 2002-03-15 2007-10-31 System and method for providing a multi-modal communications infrastructure for automated call center operation

Publications (1)

Publication Number Publication Date
ES2398756T3 true ES2398756T3 (es) 2013-03-21

Family

ID=40336603

Family Applications (1)

Application Number Title Priority Date Filing Date
ES08168071T Active ES2398756T3 (es) 2007-10-31 2008-10-31 Provisión de una infraestructura de comunicaciones multimodales para el funcionamiento de un centro de llamadas automatizado

Country Status (3)

Country Link
US (7) US8068595B2 (es)
EP (1) EP2056578B1 (es)
ES (1) ES2398756T3 (es)

Families Citing this family (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7292689B2 (en) * 2002-03-15 2007-11-06 Intellisist, Inc. System and method for providing a message-based communications infrastructure for automated call center operation
US7215750B2 (en) * 2002-12-18 2007-05-08 Bellsouth Intellectual Property Corporation System and method for providing custom caller-ID messages
US8788372B2 (en) * 2004-03-08 2014-07-22 Sap Aktiengesellschaft Method and system for classifying retail products and services using characteristic-based grouping structures
US8655697B2 (en) * 2004-04-16 2014-02-18 Sap Aktiengesellschaft Allocation table generation from assortment planning
US20060059031A1 (en) * 2004-08-06 2006-03-16 Sap Aktiengesellschaft Risk management
US9224394B2 (en) * 2009-03-24 2015-12-29 Sirius Xm Connected Vehicle Services Inc Service oriented speech recognition for in-vehicle automated interaction and in-vehicle user interfaces requiring minimal cognitive driver processing for same
US7724890B1 (en) * 2005-09-07 2010-05-25 Sap Ag Focused retrieval of selected data in a call center environment
CN101242452B (zh) 2007-02-05 2013-01-23 国际商业机器公司 用于自动生成声音文档以及提供声音文档的方法和系统
US8099337B2 (en) * 2007-06-19 2012-01-17 Sap Ag Replenishment planning management
US9756004B2 (en) * 2007-11-08 2017-09-05 Skype Message delivery system and method
US8786467B2 (en) * 2007-11-14 2014-07-22 The Boeing Company Methods and systems for filtering traffic information for display
US20090177393A1 (en) * 2008-01-07 2009-07-09 Simone Francine Tertoolen Navigation device and method
US8626152B2 (en) 2008-01-31 2014-01-07 Agero Connected Sevices, Inc. Flexible telematics system and method for providing telematics to a vehicle
AU2008353033B2 (en) * 2008-03-20 2013-10-03 Data Health Systems Limited Message centre call handling
US8639234B2 (en) * 2008-03-31 2014-01-28 General Motors Llc System and method for processing vehicle communications
US8983841B2 (en) * 2008-07-15 2015-03-17 At&T Intellectual Property, I, L.P. Method for enhancing the playback of information in interactive voice response systems
US8345857B2 (en) * 2008-09-26 2013-01-01 General Motors Llc Method for reducing non-value added time between calls serviced at a call center
US8644488B2 (en) * 2008-10-27 2014-02-04 Nuance Communications, Inc. System and method for automatically generating adaptive interaction logs from customer interaction text
US8943394B2 (en) * 2008-11-19 2015-01-27 Robert Bosch Gmbh System and method for interacting with live agents in an automated call center
US10455090B2 (en) 2016-02-04 2019-10-22 TEN DIGIT Communications LLC Intermediary device for data message network routing and enhancement in a contact center environment
US8315866B2 (en) 2009-05-28 2012-11-20 International Business Machines Corporation Generating representations of group interactions
US8775514B2 (en) * 2009-06-11 2014-07-08 Verizon Patent And Licensing Inc. System and method for providing instant communication based customer support services using voice recognition
US8340255B2 (en) * 2009-07-07 2012-12-25 CallVU, Ltd. Interactive display response system
US8521526B1 (en) * 2010-07-28 2013-08-27 Google Inc. Disambiguation of a spoken query term
US8467515B2 (en) * 2010-08-06 2013-06-18 Asd Inc. System and method for providing enhanced answering services in a time-sensitive manner
EP2424205B1 (de) * 2010-08-26 2019-03-13 Unify GmbH & Co. KG Verfahren und Anordnung zur automatischen Übertragung einer Zustandsinformation
US10467560B2 (en) * 2010-09-30 2019-11-05 Avaya Inc. System and method for adaptive multiple contact assignment
US20120197678A1 (en) * 2011-02-01 2012-08-02 Herbert Ristock Methods and Apparatus for Managing Interaction Processing
US9230549B1 (en) 2011-05-18 2016-01-05 The United States Of America As Represented By The Secretary Of The Air Force Multi-modal communications (MMC)
ES2408906B1 (es) * 2011-05-26 2014-02-28 Telefónica, S.A. Sistema y método para analizar el contenido de una conversación de voz
US9652727B1 (en) * 2011-10-10 2017-05-16 West Corporation Mobile care with a virtual queue
US9514329B2 (en) 2012-03-30 2016-12-06 Intellisist, Inc. Computer-implemented system and method for individual message encryption using a unique key
CN102880630A (zh) * 2012-06-26 2013-01-16 华为技术有限公司 质检的处理方法和设备
DE102012213609B4 (de) * 2012-08-01 2014-06-05 Continental Automotive Gmbh Verfahren zur Ausgabe von Informationen mit synthetischer Sprache
WO2014042640A1 (en) * 2012-09-13 2014-03-20 Unify Gmbh & Co. Kg Apparatus and method for audio data processing
US10685487B2 (en) * 2013-03-06 2020-06-16 Qualcomm Incorporated Disabling augmented reality (AR) devices at speed
US8767948B1 (en) 2013-03-15 2014-07-01 Genesys Telecommunications Laboratories, Inc. Back office services of an intelligent automated agent for a contact center
US9589043B2 (en) 2013-08-01 2017-03-07 Actiance, Inc. Unified context-aware content archive system
US9742919B2 (en) * 2013-10-31 2017-08-22 ARS National Services, Inc. Outbound calling center inventory management
US9714832B2 (en) 2014-03-13 2017-07-25 Google Inc. Varying map information density based on the speed of the vehicle
US10348895B2 (en) * 2015-02-13 2019-07-09 Avaya Inc. Prediction of contact center interactions
US20160269349A1 (en) * 2015-03-12 2016-09-15 General Electric Company System and method for orchestrating and correlating multiple software-controlled collaborative sessions through a unified conversational interface
US9854098B2 (en) * 2015-11-24 2017-12-26 Avaya Inc. Electronic communication routing based data accuracy
KR102390713B1 (ko) * 2015-11-25 2022-04-27 삼성전자 주식회사 전자 장치 및 전자 장치의 통화 서비스 제공 방법
US9848082B1 (en) * 2016-03-28 2017-12-19 Noble Systems Corporation Agent assisting system for processing customer enquiries in a contact center
EP3467769A4 (en) * 2016-05-27 2019-11-13 Rakuten, Inc. PICTURE PROCESSING DEVICE, PICTURE PROCESSING METHOD AND PICTURE PROCESSING PROGRAM
US10616345B1 (en) * 2016-08-26 2020-04-07 Noble Systems Corporation Communication management system for supporting multiple agent communication sessions in a contact center
US10880254B2 (en) 2016-10-31 2020-12-29 Actiance, Inc. Techniques for supervising communications from multiple communication modalities
US10614813B2 (en) * 2016-11-04 2020-04-07 Intellisist, Inc. System and method for performing caller identity verification using multi-step voice analysis
US10284723B1 (en) 2016-12-23 2019-05-07 Noble Systems Corporation Managing multiple agent communication sessions in a contact center
US10447853B1 (en) * 2016-12-29 2019-10-15 Noble Systems Corporation Graphical user interface for managing multiple agent communication sessions in a contact center
US11093716B2 (en) * 2017-03-31 2021-08-17 Nec Corporation Conversation support apparatus, conversation support method, and computer readable recording medium
US10033870B1 (en) 2017-04-12 2018-07-24 Noble Systems Corporation Agent interaction with a party using multiple channels of communication
US10547654B2 (en) * 2017-05-16 2020-01-28 Microsoft Technology Licensing, Llc Concurrent engagement with live content of multiple conference sessions
US10176808B1 (en) * 2017-06-20 2019-01-08 Microsoft Technology Licensing, Llc Utilizing spoken cues to influence response rendering for virtual assistants
JP2019046267A (ja) * 2017-09-04 2019-03-22 トヨタ自動車株式会社 情報提供方法、情報提供システム、および情報提供装置
US10523816B1 (en) 2017-10-24 2019-12-31 Noble Systems Corporation Transferring an interaction between an agent at a contact center and a party from a first channel of communication to a second channel of communication
US10972609B2 (en) * 2018-11-10 2021-04-06 Nuance Communications, Inc. Caller deflection and response system and method
US20200153965A1 (en) * 2018-11-10 2020-05-14 Nuance Communications, Inc. Caller deflection and response system and method
US20210117882A1 (en) 2019-10-16 2021-04-22 Talkdesk, Inc Systems and methods for workforce management system deployment
US11152000B1 (en) 2019-12-19 2021-10-19 Express Scripts Strategic Development, Inc. Predictive analysis system
US11315065B1 (en) 2019-12-19 2022-04-26 Express Scripts Strategic Development, Inc. Agent coaching system
US11736615B2 (en) 2020-01-16 2023-08-22 Talkdesk, Inc. Method, apparatus, and computer-readable medium for managing concurrent communications in a networked call center
US11445068B1 (en) 2020-02-21 2022-09-13 Express Scripts Strategic Development, Inc. Virtual caller system
RU2755781C1 (ru) * 2020-06-04 2021-09-21 Публичное Акционерное Общество "Сбербанк России" (Пао Сбербанк) Интеллектуальное рабочее место оператора и способ его взаимодействия для осуществления интерактивной поддержки сессии обслуживания клиента
US11115530B1 (en) * 2020-06-23 2021-09-07 Bank Of America Corporation Integration of human agent and automated tools for interactive voice response (IVR) systems
US11805189B1 (en) * 2020-09-17 2023-10-31 Intrado Life & Safety, Inc. Publish and subscribe call center architecture
US11637923B1 (en) 2020-09-17 2023-04-25 Intrado Corporation Insight determination from aggregated call content
US11489963B1 (en) 2020-09-30 2022-11-01 Express Scripts Strategic Development, Inc. Agent logging system
US11379253B2 (en) 2020-11-30 2022-07-05 International Business Machines Corporation Training chatbots for remote troubleshooting
US11646987B1 (en) * 2021-04-08 2023-05-09 Kaarya Llc System and method for adaptive message distribution
US11677875B2 (en) 2021-07-02 2023-06-13 Talkdesk Inc. Method and apparatus for automated quality management of communication records
US11856140B2 (en) 2022-03-07 2023-12-26 Talkdesk, Inc. Predictive communications system
US11736616B1 (en) 2022-05-27 2023-08-22 Talkdesk, Inc. Method and apparatus for automatically taking action based on the content of call center communications
US11943391B1 (en) 2022-12-13 2024-03-26 Talkdesk, Inc. Method and apparatus for routing communications within a contact center

Family Cites Families (160)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4956852A (en) * 1988-08-30 1990-09-11 Universal Data Systems, Inc. Method for remote configuration of a modem
US4979118A (en) * 1989-03-10 1990-12-18 Gte Laboratories Incorporated Predictive access-control and routing system for integrated services telecommunication networks
US5214688A (en) * 1990-06-05 1993-05-25 Inventions, Inc. Method and apparatus for dynamic and interdependent processing of inbound calls and outbound calls
US5206903A (en) * 1990-12-26 1993-04-27 At&T Bell Laboratories Automatic call distribution based on matching required skills with agents skills
US6173052B1 (en) * 1992-06-25 2001-01-09 Apropros Technology Blending communications in a call center
US5729600A (en) 1992-06-25 1998-03-17 Rockwell International Corporation Automatic call distributor with automated voice responsive call servicing system and method
US5444774A (en) * 1992-06-26 1995-08-22 At&T Corp. Interactive queuing sytem for call centers
US5799067A (en) * 1992-06-29 1998-08-25 Elonex I.P. Holdings Ltd. Smart phone integration with computer systems
US5857018A (en) * 1992-08-11 1999-01-05 Rockwell International Corp. Automatic call distributor with prioritization
JPH06232982A (ja) * 1993-02-02 1994-08-19 Fujitsu Ltd 着信呼の分配制御方式
US5479487A (en) * 1993-02-11 1995-12-26 Intervoice Limited Partnership Calling center employing unified control system
AU693462B2 (en) * 1993-09-22 1998-07-02 E-Talk Corporation Method and system for automatically monitoring the performance quality of call center service representatives
US5657461A (en) * 1993-10-04 1997-08-12 Xerox Corporation User interface for defining and automatically transmitting data according to preferred communication channels
US5956643A (en) * 1994-01-13 1999-09-21 Lucent Technologies Inc. Apparatus and method for adaptive dynamic channel assignment in wireless communication networks
US5703935A (en) 1994-03-29 1997-12-30 Mci Communications Corporation Automated telephone operator services
US5619554A (en) 1994-06-08 1997-04-08 Linkusa Corporation Distributed voice system and method
US5546447A (en) * 1994-06-29 1996-08-13 Intel Corporation Displaying caller identification information in a computer system
US5740231A (en) * 1994-09-16 1998-04-14 Octel Communications Corporation Network-based multimedia communications and directory system and method of operation
US5715306A (en) * 1994-09-23 1998-02-03 Rockwell International Corporation Automatic call distribution system with user definable logging and method therefor
US5570410A (en) * 1994-10-13 1996-10-29 Bellsouth Corporation Dynamic resource allocation process for a service control point in an advanced intelligent network system
US5524147A (en) * 1995-02-02 1996-06-04 Aspect Telecommunications Corporation Method for forming a virtual call center
CA2173304C (en) * 1995-04-21 2003-04-29 Anthony J. Dezonno Method and system for establishing voice communications using a computer network
EP0740450B1 (en) * 1995-04-24 2006-06-14 International Business Machines Corporation Method and apparatus for skill-based routing in a call center
JPH0934842A (ja) * 1995-07-18 1997-02-07 Canon Inc 処理システム及び処理装置
US5884032A (en) * 1995-09-25 1999-03-16 The New Brunswick Telephone Company, Limited System for coordinating communications via customer contact channel changing system using call centre for setting up the call between customer and an available help agent
US5933492A (en) * 1997-01-21 1999-08-03 Genesys Telecommunications Laboratories, Inc. Method and system for determining and using multiple object states in a computer telephony integration system
US5825870A (en) * 1996-04-05 1998-10-20 Genesys Telecommunications Laboratories Methods and apparatus for implementing a network call center
US5740238A (en) * 1995-11-03 1998-04-14 Lucent Technologies Inc. Method and apparatus for queuing a call to the best backup split
US5978671A (en) 1995-12-21 1999-11-02 At&T Middletown Method for updating a caller database in a communication system
US5646986A (en) * 1995-12-29 1997-07-08 At&T Network communication system with global event calendar information and trunk allocation
US5946386A (en) * 1996-03-11 1999-08-31 Xantel Corporation Call management system with call control from user workstation computers
US5940487A (en) * 1996-04-10 1999-08-17 Alcatel Usa Sourcing, L.P. Programmable call processing system and method
US5901214A (en) 1996-06-10 1999-05-04 Murex Securities, Ltd. One number intelligent call processing system
US6064730A (en) * 1996-06-18 2000-05-16 Lucent Technologies Inc. Customer-self routing call center
US5903877A (en) * 1996-09-30 1999-05-11 Lucent Technologies Inc. Transaction center for processing customer transaction requests from alternative media sources
US5915001A (en) 1996-11-14 1999-06-22 Vois Corporation System and method for providing and using universally accessible voice and speech data files
US5828747A (en) * 1997-01-28 1998-10-27 Lucent Technologies Inc. Call distribution based on agent occupancy
US5903641A (en) * 1997-01-28 1999-05-11 Lucent Technologies Inc. Automatic dynamic changing of agents' call-handling assignments
US5946388A (en) * 1997-02-06 1999-08-31 Walker Asset Management Limited Partnership Method and apparatus for priority queuing of telephone calls
US6044146A (en) 1998-02-17 2000-03-28 Genesys Telecommunications Laboratories, Inc. Method and apparatus for call distribution and override with priority
US6128646A (en) * 1997-12-24 2000-10-03 Genesys Telecommunications Laboratories Inc. System for routing electronic mail to best qualified person based on content analysis
US5940496A (en) * 1997-02-10 1999-08-17 Gewesys Telecommunications Laboratories, Inc. Apparatus and methods enhancing call routing within and between call-centers
US5963632A (en) * 1997-02-10 1999-10-05 Genesys Telecommunications Laboratories, Inc. Agent-initiated dynamic requeing of misrouted calls in call-routing systems
US5995615A (en) * 1997-02-10 1999-11-30 Genesys Telecommunications Laboratories, Inc. External positivistic forward transfer in call-routing systems
US5995614A (en) * 1997-02-10 1999-11-30 Genesys Telecommunications Laboratories, Inc. Dynamic requeing to avoid latency in call-routing systems
US5946387A (en) * 1997-02-10 1999-08-31 Genesys Telecommunications Laboratories, Inc, Agent-level network call routing
US6185292B1 (en) * 1997-02-10 2001-02-06 Genesys Telecommunications Laboratories, Inc. Skill-based real-time call routing in telephony systems
US6064667A (en) * 1997-02-10 2000-05-16 Genesys Telecommunications Laboratories, Inc. Apparatus and methods enhancing call routing to and within call centers
US5905793A (en) * 1997-03-07 1999-05-18 Lucent Technologies Inc. Waiting-call selection based on anticipated wait times
US5982873A (en) * 1997-03-07 1999-11-09 Lucent Technologies Inc. Waiting-call selection based on objectives
US5951638A (en) * 1997-03-21 1999-09-14 International Business Machines Corporation Integrated multimedia messaging system
US6046762A (en) * 1997-04-01 2000-04-04 Cosmocom, Inc. Multimedia telecommunication automatic call distribution system
US5960073A (en) * 1997-04-03 1999-09-28 Genesys Telecommunications Laboratories , Inc. Method and apparatus for providing an interactive home agent with access to call center functionality and resources
US5978467A (en) 1997-04-11 1999-11-02 Walker Asset Management Limited Partnership Method and apparatus for enabling interaction between callers with calls positioned in a queue
US6393015B1 (en) * 1997-09-12 2002-05-21 Genesys Telecommunications Laboratories, Inc. Method and apparatus for automatic network connection between a small business and a client
US6487277B2 (en) * 1997-09-19 2002-11-26 Siemens Information And Communication Networks, Inc. Apparatus and method for improving the user interface of integrated voice response systems
US6493447B1 (en) * 1997-11-21 2002-12-10 Mci Communications Corporation Contact server for call center for syncronizing simultaneous telephone calls and TCP/IP communications
US6122364A (en) 1997-12-02 2000-09-19 Nortel Networks Corporation Internet network call center
US6157705A (en) 1997-12-05 2000-12-05 E*Trade Group, Inc. Voice control of a server
US6115462A (en) 1998-01-09 2000-09-05 Gte Laboratories Incorporated Method and apparatus for efficient call routing
US6563788B1 (en) 1998-02-17 2003-05-13 Genesys Telecommunications Laboratories, Inc. Method and apparatus for call distribution and override with priority recognition and fairness timing routines
US6801520B2 (en) 1998-02-17 2004-10-05 Genesys Telecommunications Laboratories, Inc. Queue prioritization based on competitive user input
US6047060A (en) * 1998-02-20 2000-04-04 Genesys Telecommunications Laboratories, Inc. Method and apparatus for enabling full interactive monitoring of calls to and from a call-in center
US6212178B1 (en) * 1998-09-11 2001-04-03 Genesys Telecommunication Laboratories, Inc. Method and apparatus for selectively presenting media-options to clients of a multimedia call center
US6332154B2 (en) * 1998-09-11 2001-12-18 Genesys Telecommunications Laboratories, Inc. Method and apparatus for providing media-independent self-help modules within a multimedia communication-center customer interface
US6170011B1 (en) * 1998-09-11 2001-01-02 Genesys Telecommunications Laboratories, Inc. Method and apparatus for determining and initiating interaction directionality within a multimedia communication center
JP4087941B2 (ja) * 1998-03-09 2008-05-21 富士通株式会社 コンピュータと電話の統合システム
US6704394B1 (en) * 1998-03-25 2004-03-09 International Business Machines Corporation System and method for accessing voice mail from a remote server
US6438599B1 (en) 1998-04-03 2002-08-20 Aspect Communications Corporation Method and apparatus for establishing communication between a transaction initiator and a transaction processing system
US6049779A (en) 1998-04-06 2000-04-11 Berkson; Stephen P. Call center incentive system and method
US6173053B1 (en) * 1998-04-09 2001-01-09 Avaya Technology Corp. Optimizing call-center performance by using predictive data to distribute calls among agents
US6144938A (en) * 1998-05-01 2000-11-07 Sun Microsystems, Inc. Voice user interface with personality
US7062020B1 (en) 1998-06-08 2006-06-13 Convergys Cmg Utah Inc. System and apparatus for IVR port sharing
US6011844A (en) 1998-06-19 2000-01-04 Callnet Communications Point-of-presence call center management system
US6324276B1 (en) 1999-02-12 2001-11-27 Telera, Inc. Point-of-presence call center management system
US20020006126A1 (en) * 1998-07-24 2002-01-17 Gregory Johnson Methods and systems for accessing information from an information source
GB2341291B (en) * 1998-09-02 2003-07-23 Mitel Corp Line information security interface for tapi service provider
US20020057674A1 (en) 1998-09-24 2002-05-16 Grigory Shenkman Method and apparatus for providing integrated routing for pstn and ipnt calls in a call center
US6517587B2 (en) * 1998-12-08 2003-02-11 Yodlee.Com, Inc. Networked architecture for enabling automated gathering of information from Web servers
US6665395B1 (en) 1998-12-11 2003-12-16 Avaya Technology Corp. Automatic call distribution system using computer network-based communication
US6360093B1 (en) * 1999-02-05 2002-03-19 Qualcomm, Incorporated Wireless push-to-talk internet broadcast
US6473505B1 (en) * 1999-04-27 2002-10-29 Sprint Communications Company L.P. Call processing system for handling calls to a call center
US6560329B1 (en) * 1999-04-29 2003-05-06 Teloquent Communications Corporation Automated call routing system
US6401061B1 (en) * 1999-05-13 2002-06-04 Yuri L. Zieman Combinatorial computational technique for transformation phrase text-phrase meaning
US7086007B1 (en) 1999-05-27 2006-08-01 Sbc Technology Resources, Inc. Method for integrating user models to interface design
US7224790B1 (en) 1999-05-27 2007-05-29 Sbc Technology Resources, Inc. Method to identify and categorize customer's goals and behaviors within a customer service center environment
US6330327B1 (en) * 1999-06-29 2001-12-11 Davox Corporation Intelligent area code update system and method
US6611590B1 (en) 1999-07-30 2003-08-26 Avaya Technology Corp. Enterprise-wide intelligent call center routing
US6771766B1 (en) * 1999-08-31 2004-08-03 Verizon Services Corp. Methods and apparatus for providing live agent assistance
US6654458B1 (en) 1999-10-13 2003-11-25 Rockwell Electronic Commerce Corp. Administration and control of an automatic call distributor by a remotely located supervisor
US7230927B1 (en) 1999-12-07 2007-06-12 Aspect Software, Inc. Non-blocking expandable call center architecture
US20010032081A1 (en) 1999-12-20 2001-10-18 Audiopoint, Inc. System for on-demand delivery of user-specific audio content
US6496691B1 (en) 1999-12-23 2002-12-17 Bellsouth Intellectual Property Corporation Enhanced call return in a wireless telephone network
AU2931501A (en) * 2000-01-07 2001-07-31 Ineto, Inc. Customer communication service system
GB0000735D0 (en) * 2000-01-13 2000-03-08 Eyretel Ltd System and method for analysing communication streams
US6724887B1 (en) * 2000-01-24 2004-04-20 Verint Systems, Inc. Method and system for analyzing customer communications with a contact center
US6744879B1 (en) 2000-02-02 2004-06-01 Rockwell Electronic Commerce Corp. Profit-based method of assigning calls in a transaction processing system
JP4555537B2 (ja) * 2000-02-14 2010-10-06 モトローラ・インコーポレイテッド チャットメッセージ通信装置及びその方法
US6944150B1 (en) 2000-02-28 2005-09-13 Sprint Communications Company L.P. Method and system for providing services in communications networks
US7263484B1 (en) 2000-03-04 2007-08-28 Georgia Tech Research Corporation Phonetic searching
US20040006473A1 (en) 2002-07-02 2004-01-08 Sbc Technology Resources, Inc. Method and system for automated categorization of statements
US6778643B1 (en) 2000-03-21 2004-08-17 Sbc Technology Resources, Inc. Interface and method of designing an interface
US6751310B1 (en) 2000-04-05 2004-06-15 Concerto Software, Inc. System and method for prioritizing telephone call campaigns based on campaign productivity
US7522911B2 (en) * 2000-04-11 2009-04-21 Telecommunication Systems, Inc. Wireless chat automatic status tracking
US7043193B1 (en) * 2000-05-09 2006-05-09 Knowlagent, Inc. Versatile resource computer-based training system
US6785741B1 (en) 2000-05-09 2004-08-31 International Business Machines Corporation Call director system and method
JP3434487B2 (ja) * 2000-05-12 2003-08-11 株式会社イサオ 位置連動式チャットシステム、そのための位置連動式チャット方法、および、プログラムを記録したコンピュータ読み取り可能な記録媒体
US20020046030A1 (en) 2000-05-18 2002-04-18 Haritsa Jayant Ramaswamy Method and apparatus for improved call handling and service based on caller's demographic information
US7010610B1 (en) 2000-05-22 2006-03-07 International Business Machines Corporation Programmable agent workstation system and method
US20010053977A1 (en) * 2000-06-19 2001-12-20 Realperson, Inc. System and method for responding to email and self help requests
US6668044B1 (en) * 2000-07-19 2003-12-23 Xtend Communications Corp. System and method for recording telephonic communications
US6519530B2 (en) 2000-08-15 2003-02-11 Ewatchdogs, Inc. Intelligent remote location system
US6819754B1 (en) 2000-08-29 2004-11-16 Cisco Technology, Inc. Generation of communication system control scripts
US20020083009A1 (en) 2000-09-21 2002-06-27 Paul Lansing System and method for completing on-line transactions and micro-transactions
US7123709B1 (en) * 2000-10-03 2006-10-17 Lucent Technologies Inc. Method for audio stream monitoring on behalf of a calling party
US20020077823A1 (en) * 2000-10-13 2002-06-20 Andrew Fox Software development systems and methods
US8868448B2 (en) 2000-10-26 2014-10-21 Liveperson, Inc. Systems and methods to facilitate selling of products and services
US7212516B1 (en) 2000-12-22 2007-05-01 Nortel Networks Limited Network spanning heterogeneous call center and method of operation
US7606909B1 (en) 2001-02-20 2009-10-20 Michael Ely Method and apparatus for a business contact center
US7400879B2 (en) 2001-03-04 2008-07-15 Adomo, Inc. Method for conducting mobile communications for a network
US6937705B1 (en) * 2001-03-05 2005-08-30 Verizon Corporate Services Group Inc. Apparatus and method for visually representing events in calls handled by an automated response system
US6904143B1 (en) * 2001-03-05 2005-06-07 Verizon Corporate Services Group Inc. Apparatus and method for logging events that occur when interacting with an automated call center system
US6898277B1 (en) * 2001-03-05 2005-05-24 Verizon Corporate Services Group Inc. System and method for annotating recorded information from contacts to contact center
US6996531B2 (en) * 2001-03-30 2006-02-07 Comverse Ltd. Automated database assistance using a telephone for a speech based or text based multimedia communication mode
US6778660B2 (en) * 2001-04-06 2004-08-17 Concerto Software, Inc. Customer interaction system
KR100383625B1 (ko) 2001-05-26 2003-05-14 삼성전자주식회사 보이스 오버 인터넷 프로토콜 시스템에서의 라우팅 서비스방법
US7110525B1 (en) * 2001-06-25 2006-09-19 Toby Heller Agent training sensitive call routing system
US6810111B1 (en) 2001-06-25 2004-10-26 Intervoice Limited Partnership System and method for measuring interactive voice response application efficiency
US7254384B2 (en) * 2001-10-03 2007-08-07 Accenture Global Services Gmbh Multi-modal messaging
US7640006B2 (en) * 2001-10-03 2009-12-29 Accenture Global Services Gmbh Directory assistance with multi-modal messaging
US7233655B2 (en) * 2001-10-03 2007-06-19 Accenture Global Services Gmbh Multi-modal callback
US7346539B1 (en) 2001-10-26 2008-03-18 At&T Delaware Intellectual Property, Inc. System and method for interpreting market forces and developing strategic business directions
US7089280B1 (en) 2001-11-02 2006-08-08 Sprint Spectrum L.P. Autonomous eclone
US7174010B2 (en) * 2001-11-05 2007-02-06 Knowlagent, Inc. System and method for increasing completion of training
US20030142809A1 (en) 2002-01-25 2003-07-31 Callfx, Inc. Apparatus, methods and articles of manufacture for computerized messaging control
US7219138B2 (en) 2002-01-31 2007-05-15 Witness Systems, Inc. Method, apparatus, and system for capturing data exchanged between a server and a user
US7424715B1 (en) 2002-01-28 2008-09-09 Verint Americas Inc. Method and system for presenting events associated with recorded data exchanged between a server and a user
US7149788B1 (en) 2002-01-28 2006-12-12 Witness Systems, Inc. Method and system for providing access to captured multimedia data from a multimedia player
US20030179876A1 (en) * 2002-01-29 2003-09-25 Fox Stephen C. Answer resource management system and method
US7305070B2 (en) 2002-01-30 2007-12-04 At&T Labs, Inc. Sequential presentation of long instructions in an interactive voice response system
US7895283B1 (en) 2002-03-08 2011-02-22 Robert Joseph Hazy Audio message driven customer interaction queuing system
US7460659B2 (en) 2002-09-27 2008-12-02 Rockwell Electronic Commerce Best practices learning for agents in a communication system
US20040162724A1 (en) * 2003-02-11 2004-08-19 Jeffrey Hill Management of conversations
US7219054B1 (en) 2003-04-04 2007-05-15 At&T Corp. Systems and methods for generating an annotation guide
KR20060095946A (ko) 2003-09-04 2006-09-05 이엠시 코포레이션 데이터 메세지 미러링 및 리드렉션
JP2007504563A (ja) 2003-09-04 2007-03-01 イーエムシー コーポレイション データメッセージミラーリングおよび宛て先変更
US7769161B1 (en) 2003-12-17 2010-08-03 Avaya, Inc. Contact center
JP4853670B2 (ja) * 2004-03-26 2012-01-11 マイクロソフト コーポレーション コンピュータ・ツゥ・ヒューマン・エスカレーションに使用する方法および装置
US20060062373A1 (en) * 2004-09-23 2006-03-23 Steven Chervets Call center agent presence verification
US7657005B2 (en) 2004-11-02 2010-02-02 At&T Intellectual Property I, L.P. System and method for identifying telephone callers
US7734022B1 (en) 2004-12-03 2010-06-08 At&T Corp. Method and apparatus for managing call requests in a communication network
US7751551B2 (en) 2005-01-10 2010-07-06 At&T Intellectual Property I, L.P. System and method for speech-enabled call routing
US20060153356A1 (en) * 2005-01-13 2006-07-13 Seatlink, Inc. Contact-center routing based on incentives and/or agent preferences
US7627096B2 (en) 2005-01-14 2009-12-01 At&T Intellectual Property I, L.P. System and method for independently recognizing and selecting actions and objects in a speech recognition system
US7450698B2 (en) 2005-01-14 2008-11-11 At&T Intellectual Property 1, L.P. System and method of utilizing a hybrid semantic model for speech recognition
US7627109B2 (en) 2005-02-04 2009-12-01 At&T Intellectual Property I, Lp Call center system for multiple transaction selections
US20070019801A1 (en) * 2005-06-30 2007-01-25 Dell Products L.P. Method, system and apparatus for tracking support calls and determining proactive support strategies
US7599861B2 (en) 2006-03-02 2009-10-06 Convergys Customer Management Group, Inc. System and method for closed loop decisionmaking in an automated care system
US7921214B2 (en) * 2006-12-19 2011-04-05 International Business Machines Corporation Switching between modalities in a speech application environment extended for interactive text exchanges
US8027839B2 (en) * 2006-12-19 2011-09-27 Nuance Communications, Inc. Using an automated speech application environment to automatically provide text exchange services

Also Published As

Publication number Publication date
US9942401B2 (en) 2018-04-10
EP2056578A3 (en) 2009-06-17
US8804938B2 (en) 2014-08-12
US20130259212A1 (en) 2013-10-03
US20150222751A1 (en) 2015-08-06
US20080118051A1 (en) 2008-05-22
EP2056578B1 (en) 2012-10-31
US9258414B2 (en) 2016-02-09
EP2056578A2 (en) 2009-05-06
US8457296B2 (en) 2013-06-04
US8068595B2 (en) 2011-11-29
US20170264745A1 (en) 2017-09-14
US9014362B2 (en) 2015-04-21
US20140348320A1 (en) 2014-11-27
US20120069975A1 (en) 2012-03-22
US9667789B2 (en) 2017-05-30
US20160227038A1 (en) 2016-08-04

Similar Documents

Publication Publication Date Title
ES2398756T3 (es) Provisión de una infraestructura de comunicaciones multimodales para el funcionamiento de un centro de llamadas automatizado
ES2341052T3 (es) Procesado de respuestas a comunicantes por averias durante un procesado automatizado de llamadas.
US10044860B2 (en) System and method for call data processing
US20170244835A1 (en) Computer-Implemented System and Method For Facilitating Call Sessions Via Messages
US9215194B2 (en) Method and apparatus to process an incoming message
JP2002529994A (ja) マルチメディア通信センタ内で対話の方向性を決定し起動する方法および装置
US9412394B1 (en) Interactive audio communication system
US10978095B2 (en) Control of incoming calls
US20100048227A1 (en) Short messaging service for extending customer service deliver channels
US20030046181A1 (en) Systems and methods for using a conversation control system in relation to a plurality of entities
US8468027B2 (en) Systems and methods for deploying and utilizing a network of conversation control systems
US20180054526A1 (en) Interactive voicemail message and response tagging system for improved response quality and information retrieval