MXPA01008301A - Sistema automatizado de transcripcion y metodo que usa dos modelos de conversion de voz y correccion asistida por computadora. - Google Patents

Sistema automatizado de transcripcion y metodo que usa dos modelos de conversion de voz y correccion asistida por computadora.

Info

Publication number
MXPA01008301A
MXPA01008301A MXPA01008301A MXPA01008301A MXPA01008301A MX PA01008301 A MXPA01008301 A MX PA01008301A MX PA01008301 A MXPA01008301 A MX PA01008301A MX PA01008301 A MXPA01008301 A MX PA01008301A MX PA01008301 A MXPA01008301 A MX PA01008301A
Authority
MX
Mexico
Prior art keywords
conversion
voice
invention according
text
group
Prior art date
Application number
MXPA01008301A
Other languages
English (en)
Inventor
Charles Qin
Original Assignee
Custom Speech Usa Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Custom Speech Usa Inc filed Critical Custom Speech Usa Inc
Publication of MXPA01008301A publication Critical patent/MXPA01008301A/es

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/32Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/221Announcement of recognition results

Abstract

Se describe un sistema para automatizar de manera substancial los servicios de transcripcion para uno o mas usuarios de voz. Este sistema recibe un archivo de dictado de voz de un usuario actual que se convierte automaticamente en un primer texto escrito en base a un primer grupo de variables de conversion. El mismo archivo de dictado de voz se convierte automaticamente en un segundo texto escrito en base a un segundo grupo de variables de conversion. Los grupos primero y segundo de variables de conversion tienen cuando menos una diferencia, tal como diferentes programas de reconocimiento de voz, diferentes vocabularios, y similares. El sistema, ademas, incluye un programa para editar manualmente una copia de textos escritos primero y segundo para crear un texto verbatim de archivo de dictado de voz (40). Este texto verbatim puede entonces ser presentado al usuario actual en forma de texto transcrito. El texto verbatim tambien puede ser retroalimentado a cada nivel de reconocimiento de voz para mejorar la precision de cada nivel con respecto a la voz humana en el archivo.

Description

SISTEMA AUTOMATIZADO DE TRANSCRIPCIÓN Y MÉTODO QUE USA DOS MODELOS DE CONVERSIÓN DE VOZ Y CORRECCIÓN ASISTIDA POR COMPUTADORA ANTECEDENTES DE LA INVENCIÓN 1. Campo de la Invención La invención se refiere en lo general a sistemas de computadora de reconocimiento de voz y en particular a un sistema y método para automatizar la transcripción al texto del dictado por voz de varios usuarios finales. 2. Técnica Anterior Programas de reconocimiento de voz son bien conocidos en la técnica. Aunque estos programas finalmente son útiles para convertir automáticamente la voz a texto, muchos usuarios se disuaden de usar estos programas porque se requiere que cada usuario gaste una cantidad importante de tiempo entrenándose para el sistema. Usualmente este entrenamiento empieza haciendo que cada usuario lea una serie de materiales preseleccionados durante aproximadamente 20 minutos. Luego, cuando el usuario continua usando el programa, como las palabras se transcriben de manera impropia se espera que el usuario se detenga y entrene al programa de modo que la palabra pretendida llegue a la última exactitud del modelo acústico. Desafortunadamente la - -" - - > ?- - • - - • ^ ^y*y^^ mayoria de los profesionales (doctores, dentistas, veterinarios, abogados) y ejecutivos de negocios, no tienen voluntad para gastar el tiempo desarrollando el modelo acústico necesario para beneficiarse 5 realmente de la transcripción automática. Por lo tanto es un objeto de la presente invención proveer un sistema que ofrezca entrenamiento transparente del programa de reconocimiento de voz a los usuarios finales. 10 Hay sistemas para usar computadoras para la transcripción con ruta desde un grupo de usuarios extremos. Los más frecuente estos sistemas se usan en lugares de muchos usuarios, tales como hospitales. En esos sistemas un usuario con su voz dicta en una 15 computadora de propósito general u otro dispositivo de registro y el texto resultante se transfiere automáticamente a una transcripción humana. La transcripción humana transcribe el texto que luego se regresa al "autor" original para revisarlo. Estos 20 sistemas tienen la condición perpetua de emplear un número suficiente de transcripciones humanas para transcribir todos los textos dictados. Por lo tanto es otro objeto de la presente invención proveer un medio automatizado de transmitir 25 la voz al texto, donde siempre sea adecuado llevar a un minimo el número de transcripciones humanas necesaria para transcribir los textos audibles que vienen en el sistema. Es un objeto asociado al anterior el proveer 5 un medio simplificado para proveer transcripciones de texto Verbatim para el entrenamiento de un modelo acústico del usuario para una parte de reconocimiento de voz del sistema. Es otro objeto asociado de la presente 10 invención, automatizar un programa de reconocimiento de voz preexistente para llevar aun minimo el numero de operadores necesarios para operar el sistema. Estos y otros objetos se harán evidentes a los técnicos con los dibujos, las especificaciones y 15 las reivindicaciones. SUMARIO DE LA INVENCIÓN La presente descripción se refiere a un sistema y un método para los servicios de transcripción básicamente automáticos para uno o más 20 usuarios de voz. En particular este sistema incluye usar dos casos de convertir voz para facilitar el establecimiento de un texto de transcripción verbatim con un minimo de transcripción humana. El sistema incluye medios para recibir un 25 texto de dictado de voz de un usuario actual. El texto de dictado de voz se alimenta a un primer medio para convertir automáticamente le texto de dictado de voz en un primer texto descrito y luego a segundos medios para automáticamente convertir el texto de dictado de voz en un segundo texto escrito. Los medios primero y segundo tiene variable de conversión en juegos primero y segundo respectivamente. Estos juegos primero y segundo de conversión variables, tienen cuando menso una diferencia. Por ejemplo, cuando los medios de conversión de voz automáticos primero y segundo comprenden cada uno un programa de reconocimiento de voz preexistente, los programas ellos mismos pueden ser diferentes uno del otro. Varios programas de reconocimiento de voz tienen inherentemente diferentes vias de conversión voz a texto, asi, resultan en una conversión diferente en casos de voz dificiles, los cuales a su vez pueden usarse para establecer el texto verbatim. Entre los medios de conversión de voz preexistentes disponibles están Naturally Speaking de Dragón Systems, Via Voice de IBM y Magic Speech de Philips Corporation. En otra via o modalidad, los juegos primero y segundo de las variables de conversión pueden cada uno comprender un modelo de lenguaje (esto es, un modelo lenguaje general o especializado) que de nuevo resultarla en conversiones diferentes en casos dificiles llevando a un establecimiento más fácil del texto verbatim. Alternativamente uno o mas juegos asociados con el programa o programas de reconocimiento de voz preexistentes, que se usen podria modificarse. En otro intento, el texto de dictado con voz puede procesarse previamente a su aplicación a uno o ambos de los medios de conversión automáticos. De esta manera las variables de conversión (esto es el tamaño de la palabra digital, la tasa de muestra y el retiro de rangos armónicos particulares) pueden diferirse entre los casos de conversión de voz. El sistema incluye además medios para editar manualmente una copia de los textos escritos primero y segundo para crear el texto verbatim del texto o presentación del dictado con voz. En una modalidad, el primer texto escrito se sincroniza cuando menos temporalmente a la presentación de dictado con voz. En este caso, el medio de edición manual incluye medios para comparar una copia en secuencia de los textos escritos primero y segundo, dando como resultado una lista en secuencia de palabras no acopladas tomadas del primer texto escrito. El medio de edición manual incluya además medios para buscar crecientemente una palabra no acoplada corriente contemporáneamente dentro de un primer esquema asociado con el primer medio de conversión automática, que contenga el primer texto escrito y un segundo esquema asociado con la lista en secuencia. Los medios de edición manuales también incluyen medios para corregir la palabra no acoplada corriente en el segundo esquema. El medio corrector incluye medios para presentar la palabra no acoplada corriente de una manera substancialmente aislada visualmente del otro texto, en el primer texto escrito y medios para presentar una porción del registro de dictado de voz sincronizado del primer esquema asociado con la palabra no acoplada corriente. En una modalidad los medios de edición incluyen además medios para ver alternativamente la palabra no acoplada corriente en el contexto dentro de la copia del primer texto escrito. El sistema también puede incluir medios de entrenamiento para mejorar la exactitud del programa de reconocimiento de voz. La aplicación también presenta un método para los servicios de transcripción automatizados para uno o más usuarios con voz en un sistema que incluya cuando menos un programa de reconocimiento de voz. El método incluye (1) recibir un texto de dictado con voz desde un usuario actual con voz, (2) crear automáticamente un primer texto escrito desde el texto dictado con voz con un programa de reconocimiento escrito usando un primer juego de variables de conversión; (3) crear automáticamente un segundo texto escrito desde el texto de dictado con voz con un programa de reconocimiento de voz usando un segundo juego de variables del conversión; (4) e stablecer manualmente un texto verbatim a través de la comparación de los textos escritos primero y segundo, (5) regresar el texto verbatim al usuario actual.
Establecer un texto verbatim que incluya (6) comparar en secuencia una copia del primer texto escrito con el segundo texto escrito resultando en una lista en secuencia de palabras no acopladas tomadas de la copia del primer texto escrito, la lista en secuencia tiene un principio, un final y una palabra actual no acoplada, la palabra actual no acoplada se avanza sucesivamente desde el principio al fin, (7) se busca de manera creciente para la palabra no acoplada actual contemporáneamente dentro de un primer esquema asociado con cuando menos un programa de reconocimiento de voz que contenga el primer texto escrito y un segundo esquema asociado con la lista en secuencia. (8) presentar la palabra no acoplada actual de una nueva manera substancialmente aislada visualmente del otro texto en la copia del primer texto escrito y presentar una parte del dictado con voz sincronizado registrada desde el primer esquema asociado con la palabra no acoplada actual, y (9) corregir la palabra no acoplada actual para que sea una representación verbatim de la porción del registro de dictado con voz sincronizado. BREVE DESCRIPCIÓN DE LOS DIBUJOS La FIGURA 1 de los dibujos es un diagrama en bloque de una modalidad potencial del presente sistema para automatizar substancialmente servicios de transcripción para uno o más usuarios con voz; La FIGURA Ib de los dibujos es un diagrama de bloque de una computadora de propósito general la cual puede usarse como estación de dictado, una estación de transcripción y el medio de control dentro del presente sistema; La FIGURA 2a de los dibujos es un diagrama de flujo del lazo principal del medio de control del presente sistema; .U-^ MM Hi La FIGURA 2b de los dibujos es un diagrama de flujo de la parte de la etapa de inscripción de los medios de control del presente sistema, La FIGURA 2c de los dibujos es un diagrama de 5 flujo de la parte de la etapa de entrenamiento del medio de control del presente sistema; LA FIGURA 2d de los dibujos es un diagrama de flujo de la parte de la etapa de automatización del medio de control del presente sistema; 10 La FIGURA 3 de los dibujos es una estructura de directorio usada por el medio de control en el presente sistemas; La FIGURA 4 de los dibujos es un diagrama de bloque de una parte de una modalidad preferida de los 15 medios de edición manuales; La FIGURA 5 de los dibujos en una vista en elevación de lo restante de una modalidad preferida del medio de edición manual; y La FIGURA 6 de los dibujos es una ilustración 20 del arreglo del sistema que presenta sistema de transcripción automatizado y método que usa casos de conversión de dos voz y corrección asistida por computadora .
IMttfMtiiiiiái uiMMM^ MEJORES MÉTODOS PARA REALIZAR LA INVENCIÓN Aunque la presente invención puede materializarse en muchas formas diferentes, se muestra aqui en los dibujos y se discute a continuación - 5 algunas modalidades con el entendimiento que la presente discusión ha de considerarse únicamente como un ejemplo de los principios de la invención y no pretende limitar la invención a las modalidades ilustradas . 10 La figura 1 de los dibujos muestra en lo general una modalidad potencial del presente sistema para los servicios de transcripción substancialmente automatizados para uno o más usuarios con voz. El presente sistema debe incluir algún medio para recibir 15 un texto de dictado con voz desde un usuario actual. Estos medios receptores del texto de dictado con voz pueden ser un registro audio - digital, un registro audio - analógico, o medios normales para recibir textos de computadora en medios magnéticos o por medio 20 de una conexión de datos. Como se muestra, en una modalidad el sistema 100 incluye las estaciones de registro digital múltiples 10, 11, 12 y 13. Cada estación de registro digital tiene cuando menos un registro audio digital y 25 medios para identificar el usuario con voz actual.
Preferentemente cada una de estas estaciones de registro digitales, está asociada en una computadora de propósito general (tal como la computadora 20) aunque una computadora especializada puede desarrollarse para este propósito especifico. La computadora de propósito general aunque tiene la ventaja adicional de ser adaptable a varios usos además de funcionar dentro del presente sistema 100. En general, la computadora del propósito general debe tener entre otros elementos, un microprocesador (tal como el de Intel Corporation PENTIUM, Cyrix K6 ó Motorola 6800) memoria volátil y no volátil, uno o más dispositivos de almacenamiento en masa, esto es, HDD (no mostrado ) floppy drive 21, y otros dispositivos retirables 22 tal como un impulsor CD-ROM DITTO, ZIP o JAZ, de (Iomega Corporation y similares), varios dispositivos de entrada de usuario, tal como un ratón (mouse) 23, un tablero 24, o un micrófono 25; y un sistema de presentación en video 26. En una modalidad la computadora de propósito general está controlada por el sistema de operación INDOS 9.x. Sin embargo se considera que el sistema presente trabajarla igualmente bien usando una computadora MACINTOSH o algún otro sistema operativo, tal como WINDOWS CE, UNIX o JAVA para citar únicamente unos cuantos.
A parte de la plataforma de computadora particular en una modalidad utilizando una entrada audio analógica (via micrófono 25) la computadora de propósito general debe incluir una tarjeta de sonido (no mostrada) por su puesto, en una modalidad con una entrada digital no seria necesaria una tarjeta de sonido . En la modalidad mostrada en la figura 1, las estaciones de grabación de audio digital 10, 11, 12 y 13 están cargadas y configuradas para correr un software de grabación de audio digital en un sistema computacional en base a PENTIUM operando de acuerdo con WINDOWS 9.x o de otros vendedores tales como The Programmers' Consortium, Inc. De Oakton Virginia (VOICEDOC) . Syntrillium Corporation de Phoenix, Arizona (COOL EDIT) o Dragón Systems Corporation (Dragón Naturally Speaking Professional Edition).
Estos diferentes programas de software producen un archivo de dictado de voz en forma de un archivo "WAV". Sin embargo como es conocido para los expertos en la técnica, otros formatos de archivo de audio tales como MP3 o DSS, también podrian usarse para formatear el archivo de dictado de voz sin salirse del espíritu de la presente invención. En una modalidad en la cual se usa el software VOICEDOC ese software también asigna un archivo para que maneje el archivo WAV, sin embargo aquellos con un conocimiento ordinario en la técnica saben guardar un archivo de audio en un sistema de computadora usando métodos de 5 manejo de archivos de sistema operativo estándar. Otros medios para recibir un archivo de dictado de voz es una grabadora digital especial 14, tal como la Olympus Digital Voice Recorder D-1000 fabricada pro la Olympus Corporation. Asi, si el 10 usuario de voz actual está más cómodo con un tipo más convencional pude continuar usando una grabadora digital especial 14. Con el fin de obtener el archivo de texto de audio digital, al terminar la grabación, la grabadora digital especial 14 se conectara 15 operativamente a una de las estaciones de grabado de audio digital tal como la 13, para descargar el archivo de audio digital en una computadora de uso general. Con este método, por ejemplo no se requerirla tarjeta de audio. 20 Otra alternativa de recibir el archivo de dictado de voz puede consistir en el uso de una forma u otra de medios magnéticos en una de las estaciones de grabación de audio digital para cargar el archivo de audio en el sistema.
En algunos casos puede ser necesario procesar previamente los archivos de audio para hacerlos aceptables para el procesamiento por parte del software de reconocimiento de voz. Por ejemplo, un formato de archivo DSS que puede tener que ser cargado en un formato de archivo WAV, o la velocidad de muestreo de un archivo de audiodigital deber ser aumentada o reducida. Por ejemplo al usar la grabadora de voz digital Olympus, la velocidad de Dragón Naturally Speaking, Olympus de 8 MHz debe ser transformada a 11 MHz. Software para lograr ese preprocesamiento está disponible de una variedad de fuentes incluyendo Syntrillium Corporation y Olympus Corporation . El otro aspecto de las estaciones de grabación de audio digitales es un medio para identificar al usuario de voz actual. Los medios de identifiación pueden incluir un teclado 24 sobre le cual el usuario (u otro operado) puede introducir el código de identificación único del usuario actual. Es claro que la identificación del usuario puede introducirse usando una variedad de dispositivos de entrada de computadora, tal como dispositivos de apunte (por ejemplo ratón 23), pantalla de tacto (no mostrada), un apuntador de luz (no mostrado), una ^^^üiüfe^ lectora de código de barras (no mostrada) o sonidos de audio por medio de un micrófono 25, por nombrar solo algunos . En el caso de un usuario por primera vez los 5 medios de identificación también pueden asignar al usuario un numero de identificación después de recibir la información potencialmente identificadora de ese usuario, incluyendo: (1) nombre; (2) dirección; (3) ocupación; (4) acento o dialecto vocal, etc. Como se 10 menciona en asociación con los medios de control, en base a esta información de entrada, se establece un perfil de usuario de voz y un sub-directorio dentro de los medios de control. Asi sin importar los medios de identificación particulares usados, una identificación 15 de usuario debe establecerse para cada usuario de voz y subsecuentemente proporcionarse con un archivo de audio digital correspondiente para cada uso de tal forma que medios de control pueden enrutar apropiadamente y el sistema finalmente transcribir el 20 audio. En una modalidad de la presente invención, los medios identificadores también pueden buscar la selección manual de un vocabulario especial. Se contempla que los valores del vocabulario especial 25 puedan ser generados para diferentes usuarios tales * u¡¡m m .«ÍMIfiMÉ como médicos (por ejemplo radiología, cirugía ortopédica, ginecología) y legal (por ejemplo corporativa, patentes, litigios) o altamente específicos tales que dentro de cada especialidad los - 5 parámetros de vocabulario pudieran limitarse posteriormente en base alas circunstancias particulares de un archivo de dictado particular. Por ejemplo si el usuario de voz actual es un radiólogo que dicta las lecturas de una exploración CAT 10 abdominal la nomenclatura es altamente especializada y diferente de la nomenclatura de un ultrasonido renal. Al segmentar angostamente cada valor de vocabulario seleccionable es factible un aumento en la precisión del convertidor de voz automático. 15 Como se muestra en la figura 1, las estaciones de grabación de audio digitales pueden estar conectadas de manera operativa al sistema 100 como parte de una red de computadoras 30, o alternativamente puede estar conectada operativamente 20 al sistema por medio de un anfitrión de Internet 15. Como se muestra n la figura Ib, la computadora para propósitos generales puede estar conectada tanto al enchufe de la red 27 como al del teléfono. Con el uso de un anfitrión de Internet, puede lograrse la 25 conexión al enviar por correo electrónico el archivo -ii?iii?iiiíiilaMiÉliltiiBM de audio por medio del Internet. Otro método para completar tal conexión es por medio de conexión directa a módem por medio de un software de control remoto tal como PC ANYWHERE, que es distribuido por Symantec Corporation de Cupertino California. También es posible, si se conoce la dirección IP de la estación de grabado de audio digital 10 o el anfitrión de Internet 15, el transferir el archivo de audio usando el protocolo de transferencia de archivos básico. Asi, como puede observarse a partir de lo anterior, el presente sistema permite gran flexibilidad para los usuarios de voz para proporcionar una entrada de audio en el sistema. Los medios de control 200 controlan el flujo del archivo de dictado de voz de acuerdo con el estado de entrenamiento del usuario de voz actual. Como se muestra en las figuras 2a, 2b, 2c, 2d, los medios de control 200 comprenden un programa de software que opera en una computadora para todo uso 40. En particular, el programa se inicializa en la etapa 201 en donde se fijan las variables, los acumuladores se vacian y en particular se carga la configuración particular de esta instalación particular de los medios de control. Los medios de control monitorean continuamente un directorio objetivo (tal como el "actual" (mostrado en la figura 3)) para determinar si un nuevo archivo ha sido movido en el objetivo, etapa 202. Una vez que se encuentra un nuevo archivo (tal como el "6723. id" (mostrado en la figura 3)), se realiza una determinación de si el usuario actual 5 (mostrado en la figura 1) es un usuario nuevo, etapa 203. Para cada nuevo usuario (como lo indica la existencia de un archivo ".pro" en el subdirectorio "actual"), se establece un nuevo subdirectorio, la etapa 204 (tal como el subdirectorio "usern" (mostrado en la figura 3) ) . Este subdirectorio se usa para almacenar todos los archivos de audio ( "xxxx . av" ) , texto escrito ( "xxxx . wrt " ) , texto verbatim ("xxxx.vb") . texto de transcripción ("xxxx.txt") y perfil de usuario ( "usern . pro" ) para el usuario en particular. Cada trabajo en particular es asignado a un número único "xxxx" tal que todos los archivos asociados con un trabajo pueden asociarse por es enumero. Con esta estructura de directorio, el número de usuarios se limita prácticamente por el espacio de almacenamiento dentro de la computadora de uso general 40. Ahora que el subdirectorio de usuario ha sido establecido, el perfil de usuario se mueve al subdirectorio, etapa 205. El contenido de este perfil de usuario puede variar entre sistemas. El contenido de un perfil de usuario potencia se muestra en la figura 3 conteniendo; el nombre del usuario, la dirección, la ocupación y el nivel de entrenamiento. Además de la variable del nivel de entrenamiento, que se necesita, los otros datos son útiles para enrutar y transcribir los archivos de audio. Los medios de control que han seleccionado un grupo de archivos con una manija, determinan la identidad del usuario actual al comparar el archivo ".id" con su "user.tbl", etapa 206. Ahora que el usuario es conocido, el perfil de usuario puede ser recuperado del subdirectorio del usuario y determinarse el nivel de entrenamiento actual, etapa 207. Las etapas 208-211 indican que el nivel de entrenamiento actual es: inscripción, entrenamiento, automatización y detener automatización. La inscripción es la primera etapa en los servicios de transcripción automáticos. Como se muestra en la figura 2b, el archivo de usuario se envia a la transcripción, etapa 301. En particular, el archivo "xxxx. wav" se transfiere a las estaciones de transcripción 50 y 51. En una modalidad preferida, ambas se estaciones son computadoras de propósito riKiíiÉrii general, que hacen funcionar tanto un reproductor de audio y medios de entrada manuales. El reproductor de audio es probablemente un reproductor de audio digital, aunque es posible que un archivo de audio analógico pueda ser transferido a las estaciones. Existen varios reproductores de audio incluyendo una utilidad en el sistema operativo WINDOWS 9.x y varios de terceros tales como The Programmers' Consortium, Inc. De Oakton, Virginia (VOICESCRIBE ) . Sin imitar el reproductor de audio usado para reproducir el archivo de audio, medios de entrada manuales corren en la computadora al mismo tiempo. Estos medios de entrada manual pueden consistir de cualquier editor de textos o procesador de palabras (tal como MS WORD, WordPerfect, AmiPro o Word Pad) en combinación con un teclado, ratón, u otro dispositivo de interfaz con el usuario. En una modalidad de la presente invención, estos medios de entrada manuales puede por si mismo ser software de reconocimiento de voz, tal como Naturally Speaking de Dragón Systems de Newton, Massachusetts, Via Voice de IBM Corporation de Armonk, Nueva York, o Speech Magic de Philips Corporation de Atlanta Georgia. El trascriptor humano 6 escucha el archivo de audio creado por el usuario actual 5 como se conoce introduce manualmente el contenido percibido del teto grabado, estableciendo asi el archivo transcrito, etapa 302. Siendo humano, el transcriptor humano 6 es probable que aplique su experiencia, educación y tendencias en el texto y asi no introduzca una transcripción verbatim del archivo de audio. Al completar la transcripción humana, el transcriptor humano 6 guarda el archivo e indica que está listo para ser transferido al subdirectorio actual de usuario como "xxxx.txt", etapa 303. En tanto que este actuario actual esta solo en la etapa de inscripción, un operador humano tendrá que escuchar el archivo de audio y compararlo manualmente con el archivo transcrito y crear un archivo verbtim, etapa 304. El archivo verbatim "xxxx.vb" también se transfiere al subdirectorio de usuario actual, etapa 305. Ahora que el texto verbatim esta disponible, los medios de control 200 indican los medios de conversión de texto automáticos, etapa 306. Estos medios automáticos de conversión de voz pueden ser un programa pre-existente , tal como el Naturally Speaking de Dragón System' s, el Via Voice de IBM o Speech Magic de Philips, por nombrar solo algunos. Alternativamente, podria ser un programa único que está diseñado para realizar específicamente el reconocimiento de voz automático. .¿.^^-iaaMUHi En una modalidad preferida, el Naturally Speaking de Dragón Systems ha sido usado al correr un ejecutable simultáneamente con Naturally Speaking que alimenta los golpes de tecla y operaciones con el 5 ratón fantasma a través de WIN32API, de tal forma que Naturally Speaking cree que esta interactuando con un ser humano, cuando de hecho está siendo controlado por medios de control 200. Esas técnicas son bien conocidas en la técnica de las pruebas del software de 10 computación y no será detallado. Debe ser suficiente le decir que al ver el flujo de la aplicación de cualquier programa de reconocimiento de voz, puede crearse un ejecutable para imitar las etapas manuales interactivas . 15 Si el usuario actual es un nuevo usuario, el programa de reconocimiento de voz no necesitara establecer al nuevo usuario, etapa 307. Los medios de control proporcionan la información necesaria a partir del perfil de usuario encontrado en el subdirectorio 20 de usuario actual. Todo reconocimiento de voz requiere entrenamiento suficiente para establecer un modelo acústico de un usuario particular. En el caso de Dragón, inicialmente le programa busca durante aproximadamente 20 minutos de audio usualmente 25 obtenidos por el usuario que lee un texto enlatado proporcionado por Dragón Systems. También existe una funcionalidad incluida en Dragón que permite el "entrenamiento móvil". Usando esta característica, el archivo verbatim y el archivo de audio se alimentan en el programa de reconocimiento de voz para iniciar el entrenamiento del modelo acústico para ese usuario, etapa 308. A pesar de la longitud del archivo de audio, los medios de control 200 cierran el programa de reconocimiento de voz al terminar el archivo, etapa 309. Como en la etapa de inscripción es demasiado temprana para usar el texto creado automáticamente, una copia del archivo transcrito se envia al usuario actual usando la información de dirección contenida en el perfil de usuario, etapa 310. Esta dirección puede ser una dirección normal o una dirección de correo electrónica. Después de esa transmisión, el programa regresa al ciclo principal de la figura 2a. Después de que se han realizado un cierto numero de minutos de entrenamiento para un uso en particular, le nivel de entrenamiento del usuario puede cambiarse de inscripción a entrenamiento. El limite de esto es subjetivo pero tal ve una buena regla es cuando Dragón parece estar creando texto escrito con una precisión del 80% o mas, puede realizarse la conmutación entre los estados. Asi para un usuario de ese tipo el siguiente evento de transcripción enviara a los medios de control 200 al estado de entrenamiento. Como se muestra en la figura 2c, las etapas 401-403 son las mismas etapas de transcripción humana que las 301-303 en la fase de inscripción. Una vez que el archivo transcrito se establece, los medios de control 200 inician los medios de conversión de voz automática (o el programa de reconocimiento de voz) y selecciona al usuario actual, etapa 404. El archivo de audio se alimenta en el programa de reconocimiento de voz y el texto escrito se establece dentro del acumulador del programa, etapa 405. En el caso de Dragón, este acumulador se le asigna el mismo archivo en el mismo caso del programa. Asi el acumulador puede ser copiado fácilmente usando comandos estándares del sistema operativo y la edición manual puede empezar, etapa 406. En una modalidad particular utilizando el sistema VOICEWARE de The Programmers ' Consortium, Inc. De Oakton, Virginia, el usuario introduce el audio en el programa VOICEDOC del sistema VOICEWARE, creando asi un archivo ".wav". Además antes de liberar este archivo ".wav" en el servidor VOICEWARE, el usuario selecciona un "transcriptor". Esta "transcripción" puede ser un transcriptor humano particular o puede ser el "transcriptor computarizado". Si el usuario selecciona un "transcriptor computarizado" también 5 puede seleccionar si la transcripción se maneja local o remotamente. Al archivo se le asigna un número de trabajo por parte del servidor VOICEWARE, que enruta el trabajo a la porción VOICESCRIBE del sistema. Normalmente, VOICESCRIBE se usa por el transcriptor 10 humano para recibir y reporducir el archivo de audio del trabajo (".wav) . Además el archivo de audio es tomado por los medios de conversión de voz automáticos. En esta modalidad del sistema VOICEWARE , al colocar a VOICESCRIBE en la "modalidad automática" 15 los nuevos trabajos (esto es un archivo de audio recién creado por VOICEDOC) se descargan automáticamente del servidor VOICEWARE y una ventana VOICESCRIBE que tiene un titulo de ventana formado por el número de trabajo del archivo ".wav" actual. Un 20 archivo ejecutable, que corre en el fondo "ve" que la ventana VOICESCRIBE está abierta y usando el WIN32APIU determina el numero de trabajo a partir del titulo de la ventana VOICESCRIBE. El archivo ejecutable entonces activa los medios de conversión de voz automáticos. En 25 el Naturally Speaking del Sistema Dragón, por ejemplo ^^^¿?gUgg^jgg^j^^ existe incluida una función para realizar el reconocimiento de voz en un archivo ".wav" preexistente. El programa ejecutable alimenta los datos del teclado fantasma a Naturally Speaking para abrir el archivo ".wav" del directorio "actual" (ver figura 3) que tiene el número de trabajo del trabajo actual. En esta modalidad, después de que Naturally Speaking ha terminado de transcribir automáticamente el contexto del archivo ".wav", el archivo ejecutable prosigue con la operación al seleccionar todo el texto en la ventana abierta de Naturally Speaking y copiarla en el tablero del sistema operativo WINDOWS 9.x. Entonces usando la utilidad de tablero, guardar el tablero como archivo de texto usando el número de trabajo actual con un sufijo "dmt". El archivo ejecutable entonces "oprime" el botón "terminar" en el VOICESCRIBE para regresar el archivo "dmt" al servidor VOICEWARE. Como aquellos con experiencia común en la técnica el procedimiento anterior puede realizarse utilizando otro software de grabación digital y otros medios de conversión de voz automáticos. Adicionalmente, existe funcionalidad análoga la tablero WINDOWS en otros sistemas operativos. También es posible requerir la intervención humana para activar o repetir una o varias de las etapas anteriores. Además aunque los diferentes programas que ejecutan las diferentes etapas podrian correr en un numero de computadoras interconectadas (por medio de LAN, WAN, conexión a Internet, correo electrónico y 5 similares), también se contempla que todo el software necesario puede correr en una sola computadora. Otra modalidad alternativa también se contempla en la cual el usuario dicta directamente en los medios de conversión de voz automáticos y el 10 servidor VOICEWARE toma una copia en la dirección inversa. Esta modalidad funciona de la siguiente manera: sin realmente grabar voz, le usuario oprime el botón "terminar" en VOICEDOC creando un archivo ".wav" vacio. Este archivo vacio sin embargo recibe un numero 15 de trabajo único por parte del servidor VOICEWARE. El usuario (o un archivo ejecutable que corre en el fondo) entonces despliega los medios de conversión de voz automáticos y el usuario dicta directamente en el programa, de la misma manera previamente usada en 20 asociación con esos medios de conversión de voz automáticos. Al terminar de dictar, el usuario presiona un botón titulado "retorno" (generado por un archivo ejecutable de fondo), el ejecutable entonces inicializa un macro que toma el número de trabajo 25 actual de VOICEWARE (de la manera descrita antes), | m| Mi| jj|b|M^riftaÉ| selecciona todo el texto en el documento y la copia en el tablero. EL tablero entonces se guarda en el archivo "<jobnumer> . dmt , " como se describe antes. El ejecutable entonces "oprime" el boten "terminar" (por medio de WIN32API) en el VOICESCRIBE, que regresa efectivamente el archivo de texto transcrito automáticamente al servidor VOICEWARE, que a su vez regresa la transcripción completa al usuario del VOICESCRIBE. Notablemente, aunque varios programas ejecutando varias etapas podrian estar corriendo en varias computadoras interconectadas (via un LAN, WAN, conexión de Internet, correo electrónico y similares), también se contempla que todo el software necesario este corriendo en una misma computadora. Como lo entenderán aquellos con experiencia normal en la técnica, el procedimiento anterior puede realizarse utilizando otro software de grabación digitales y otros medios de conversión automáticos de voz. Adicionalmente, funcionalidad análoga al tablero WINDOWS existe en otros sistemas operativos. También es posible requerir la intervención humana para activar una o mas de las etapas anteriores. La edición manual no es una tarea fácil. Los seres humanos tienden a equivocarse. Asi la presente invención también incluye medios para mejorar esa tarea. Como se muestra en la figura 4, el archivo transcrito ("3333.txt") y la copia del texto escrito ("3333. wrt") Se comparan secuencialmente palabra por palabra 406a con el fin de establecer una lista secuencial de palabras que no coinciden 406b que son seleccionadas de la copia del texto escrito. Esta lista tiene un apuntador inicial y uno final 406c a la palabra no coincidente actual. Como base de esta lista secuencial se encuentra otra lista de objetos que contiene las palabras no coincidentes originales, asi como las palabras inmediatamente anterior y posterior a esa palabra que no coinciden, el punto inicial en la memoria de cada palabra que no coincide en la lista secuencial de palabras sin coincidir 406b y la longitud de la palabra que no coincide. Como se muestra en la figura 5, la palabra no coincidente señalada por el apuntador 406c de la lista 406b se muestra en un aislado visual substancial del otro texto de la copia del texto escrito en un monitor de computadora estándar 500 en una ventana activa 501. Como se muestra en la figura 5, el contexto de la palabra no coincidente puede seleccionarse por el operador para que sea mostrado dentro de la frase en la que reside, palabra por palabra o en el contexto de «^^attt la frase, al oprimir sobre los botones 514, 515 y 516, respectivamente . Asociada a esta ventana activa 501 se encuentra una ventana de fondo 502 que contiene la copia del archivo de texto escrito. Como se muestra en la ventana de fondo 502, una búsqueda creciente ha localizado (ver apuntador 503) la siguiente ocurrencia de una palabra no coincidente "cash". AL mismo tiempo, dentro de la ventana 505 que contiene al acumulador del programa de reconocimiento de voz. La misma búsqueda creciente ha localizado (ver apuntador 506) la siguiente ocurrencia de la palabra no coincidente. Un usuario humano que probablemente solo estará viendo la ventana activa 501, activara la reproducción de audio del programa de reconocimiento de voz al oprimir el botón "reproducir" 501, que reproduce el audio sincronizado al apuntador de texto 506. En base a esa parte de texto que puede ser repetido una y otra vez al oprimir sobre el botón reproducir, el usuario humano puede introducir manualmente la corrección a la palabra no coincidente por medio del teclado, el ratón o hasta ordenes auditivas en otro programa de reconocimiento de voz que corre en esta ventana. En el presente ejemplo, aun si la selección del contexto aislado ofrecido por los botones 514, 515 y 516, puede ser un dificil de determinar la palabra verbatim correcta fuera del contexto, de acuerdo con esto existe un botón de cambio de ventana 513 que moverá la ventana de fondo 502 a la parte superior con el apuntador visible 503 indicando la localización actual dentro de la copia del texto escrito. El usuario entonces puede regresar a la ventana activa e introducir la palabra correcta, "trash". Esta cambio solo afectara la copia del texto escrito en la ventana de fondo 502. Cuando el operador está listo para la siguiente palabra no coincidente, el operador oprime el botón de avance 511, que avanza el apuntador 406c en la lista de palabras no coincidentes y activa la búsqueda creciente en ambas ventanas 502 y 505. Esta palabra sin coincidir ahora se muestra aislada y el operador puede reproducir el texto sincronizado del programa de reconocimiento de voz y corregir esta palabra también. Si en algún punto en la operación, el operador quisiera regresar a la palabra no coincidente previa, el operador oprime en el botón de inversa 512, que mueve el apuntador 406c de regreso a la palabra en la lista y provoca un retroceso en la búsqueda creciente. Esto se logra usando la lista inferior de objetos que contiene las palabras no coincidentes ,>-<-3 originales. Esta lista es atravesada objeto por objeto, pero alternativamente cada uno de las grabaciones podria ser arreglada de tal forma que cada punto tiene el mismo tamaño de palabra para ayudar al 5 desplazamiento bidireccional de la lista. Como las palabras no coincidentes en esta lista solo se leen solo es posible regresar a la palabra no coincidente original de tal forma que el operador puede determinar si una corrección diferente debió haber sido 10 realizada. Finalmente la copia del texto escrito se corrige finalmente ando como resultado una copia verbatim, que se guarda e el subdirectorio del usuario. El archivo verbatim también se pasa al 15 programa de reconocimiento de voz para el entrenamiento, etapa 407. El nuevo (y mejorado) modelo acústico se guarda, etapa 408, y el programa de reconocimiento de voz se cierra, etapa 409. Como el sistema aun esta en entrenamiento, el archivo 20 transcrito se regresa al usuario, como en la etapa 310 de la fase de inscripción. Como se muestra en la figura 4, el sistema puede también incluir medios para determinar la precisión de la salida de los medios comparadores 25 secuenciales. Específicamente, al contra el número de palabras en el texto escrito y el número de palabras en la lista 406b la proporción de palabras en esa lista secuencial a palabras en el texto escrito puede determinarse, proporcionando un porcentaje de 5 precisión. Como antes, depende de la selección cuando hace avanzar a los usuarios de una etapa a otra. Una vez que se ha logrado el objetivo, el perfil de usuario se cambia en la siguiente etapa, etapa 211. Se provee una mejora potencial o 10 funcionalidad derivativa al determinar el porcentaje de precisión. En una modalidad, este porcentaje puede usarse para evaluar la pericia de un transcriptor humano. En particular, al usar cualquier archivo verbatim conocido o un usuario bien establecido, el 15 archivo ".wav" asociado será reproducido para el transcriptor humano y la anterior comparación se realizara en el texto transcrito contra el archivo verbatim creado por medio del proceso anterior. De esta manera puede proporcionarse funcionalidad 20 adicional por medio del presente sistema. Como se entiende actualmente, los fabricantes de los programas de reconocimiento de voz usados para grabar idiomas extranjeros, dicciones, etc. con archivos verbatim establecidos manualmente a los 25 modelos de voz del programa. Debe ser fácilmente aßaBlHjia?MlkH evidente que el método anterior de establecer texto verbatim, podria usarse en el desarrollo de esos archivos de voz simplificando grandemente este proceso . Una vez que el usuario ha llegado a la etapa de automatización, los mayores beneficios del presente sistema pueden obtenerse. El software de reconocimiento de voz se inicializa, etapa 600, y el usuario actual se selecciona, etapa 601. Si se desea puede seleccionarse un vocabulario particular, etapa 602. Entonces la conversión automática del archivo de audio digital grabado por el usuario actual, puede comenzar, etapa 603. Cuando se completa, el archivo escrito se transmite al usuario en base a la información contenida en el perfil del usuario, la etapa 604 y el programa regresa al ciclo principal. Desafortunadamente, existen casos en los cuales los usuarios de voz no pueden usar la transcripción automática durante un periodo de tiempo (durante una enfermedad, después de un trabajo dental, etc.) debido a que su modelo acústico ha sido alterado temporal (o aun permanentemente) . EN ese caso, el administrador del sistema puede fijar la variable de nivel de entrenamiento para detener el estado de automatización en el cual solo se realiza las etapas 301, 302, 303, 305 y 310 (ver la figura 2b) . La figura 6 de los dibujos muestra otro arreglo potencial de varios elementos asociados con la presente invención. En este arreglo, como antes, un usuario dicta verbalmente un documento que desea transcribir, que se guarda como un archivo de dictado de voz 700 en una de las maneras descritas antes. En esta modalidad, mas que tener un transcriptor humano que produzca un archivo transcrito - el archivo de dictado de voz se convierte automáticamente en un texto escrito cuando menos dos veces. Después de la doble conversión de texto automática, los resultantes archivos de texto escrito primero y segundo se comparan entre si usando medios de edición de copias manual (como se describe antes en asociación con las figuras 4 y 5) facilitando el que un operador humano corrija rápida y manualmente el segundo archivo de texto escrito. De esta manera, se cree que el servicio de transcripción puede proporcionarse con un esfuerzo menor por parte del transcriptor humano. La clave para obtener un texto escrito lo suficientemente preciso para entregarlo al usuario final debe diferenciarse la conversión voz a texto de alguna manera entre las corridas primera y segunda. En particular, entre la etapa de conversión primera y segunda el sistema puede cambiar uno o mas de los siguientes: (1) programas de reconocimiento de voz (por 5 ejemplo el sistema Naturally Speaking de Dragón, Via Voice de IBM o Magic Speech de Philips Corporation); (2) modelos de idioma dentro de un programa de reconocimiento de voz particular (por 10 ejemplo ingles general versus un vocabulario especializado (por ejemplo medico, legal)); (3) valores ajustados dentro de u programa de reconocimiento de voz (por ejemplo "mas 15 preciso" versus "velocidad"); y/o (4) el archivo de dictado de voz al pre- procesarlo con un procesador de señal digital (tal como Cool Edit de Syntrillium Corporation de Phoenix, 20 Arizona o un Cl DSP56000 programado de Motorola, Inc.) al cambiar el tamaño de palabras digitales, la velocidad de muestreo, retirar rangos armónicos y otras modificaciones de potencial.
Al cambiar una o más de las anteriores "variables de conversión" se cree que la segunda conversión voz a texto producirá un texto escrito ligeramente diferente que la primera conversión voz a texto y que al comparar los dos textos escritos resultantes usando los nuevos medios de edición manual descritos aqui, un operador humano puede revisar las diferencias en la forma mencionada antes y producir rápidamente un texto verbatim para presentarlo al usuario final. Asi de esta manera, se cree que una transcripción completamente automática puede lograrse con menos intervención humana que en los otros métodos descritos . Este sistema y el método básico se ilustran en la figura 6. Debe observarse que aunque se muestran dos medios de conversión de voz automáticos 702 y 703, puede haber un solo caso de un programa de reconocimiento de voz corriendo en una sola computadora, pero usando diferentes variables de conversión entre las iteraciones de conversión del archivo de dictado de voz. Es claro que es igualmente posible el tener múltiples casos de programas de reconocimiento de coa corriendo en una sola maquina o aun en maquinas separadas interconectadas por medio de una red computarizada (LAN, WAN, par a par, o similares) como lo saben aquellos con un conocimiento ordinario en la técnica. Similarmente cuando los medios de edición manuales 705 se muestran como separados de los medios de conversión de voz automáticos también pueden ser implementados en la misma computadora como uno o ambos casos de medios de conversión automáticos. De igual manera los medios de edición manuales pueden implementarse también en una computadora separada, asi como interconectados con otras computadoras en una red computarizada . Finalmente, el procesador de señal digital 701 se muestra para ilustrar que un método para cambiar las variables de conversión es el de alterar la entrada al archivo de dictado de voz a uno o ambos de los casos de los medios de conversión automática de voz. Otra vez, este procesador de señal digital puede ser implementado en la misma computadora como cualquiera o todos los bloques funcionales anteriores en una computadora separada interconectada con las otras computadoras por medio de una red computarizada. Se contempla que el caso anterior en el cual se usan dos iteraciones de conversión voz a texto podria extrapolarse a un caso en el cual se realizan aun más iteraciones de conversión, usando cada uno Ya?y varios grupos de variables de conversión, realizándose la comparación de texto entre pares únicos de salidas de texto escritas y después entre si, teniendo como resultado un aumento en la precisión de la 5 transcripción automática dejando pocas palabras para ser consideradas en la edición manual. La descripción y los dibujos anteriores solo explican e ilustran la invención y la invención no debe ser limitada a ellos. Aquellos expertos en la técnica que tengan 10 ante ellos la descripción podrán hacer modificaciones y variaciones sin salirse del alcance de la presente invención. Por ejemplo, es posible implementar todos los elementos del presente sistema en una sola computadora de propósito general al esencialmente compartir la maquina entre el usuario de 15 voz, el transcriptor y el programa de reconocimiento de voz. Los ahorros de costo resultantes hacen que este sistema sea accesible a mas tipos de situaciones de oficinas no solo a grandes clínicas medicas, hospitales, bufetes legales u otras empresas grandes. ^tgá ia

Claims (24)

  1. REIVINDICACIONES 1.- Un sistema para automatizar de manera substancial los servicios de transcripción para uno o más usuarios de voz, el sistema comprende': - medios para recibir un archivo de dictado de voz por parte de un usuario actual, siendo este usuario actual uno de los uno o varios usuarios de voz; primeros medios para convertir automáticamente el archivo de dictado de voz en un primer texto escrito, los primeros medios automáticos de conversión tienen un primer grupo de variables de conversión; segundos medios para convertir automáticamente el archivo de dictado de voz en un segundo texto escrito, los segundos medios automáticos de conversión tienen un segundo grupo de variables de conversión, los grupos primero y segundo de variables de conversión tienen cuando menos un diferencia; y - medios para editar manualmente una copia de los textos escritos primero y segundo para crear un texto verbatim del archivo de dictado de voz.
  2. 2.- La invención de acuerdo con la reivindicación 1, en la cual el primer texto escrito es cuando menos temporalmente sincronizado al archivo de dictado de voz, los medios de edición manual comprenden : medios para comparar secuencialmente una copia del primer texto escrito con el segundo texto escrito dando como resultado una lista secuencial de palabras no coincidentes obtenidas de la copia de primer texto escrito, la lista secuencial tiene un inicio, un fin y una palabra no coincidente actual, la palabra no coincidente actual avanza sucesivamente desde el inicio al final; medios para buscar crecientemente la palabra no coincidente actual simultáneamente con un primer acumulador asociado con los primeros medios de conversión automáticos que contienen el primer texto escrito y un segundo acumulador asociado con la lista secuencial; y medios para corregir la palabra no coincidente actual en el segundo acumulador, los medios de corrección incluyen medios para mostrar la palabra no coincidente actual en una manera substancialmente aislada visualmente del otro texto en la copia del primer texto escrito y medios para reproducir una porción de la grabación del dictado de voz sincronizado del primer acumulador asociado con la palabra no coincidente actual.
  3. 3.- La invención de acuerdo con la reivindicación 2 en la cual los medios de edición además incluyen medios para ver alternativamente la palabra no coincidente actual en el contexto dentro de la copia del primer texto escrito.
  4. 4.- La invención de acuerdo con la reivindicación 1 en la cual los medios de conversión de voz automáticos primero y segundo comprenden cada uno un programa de reconocimiento de voz para el uso interactivo humano, cada uno de esos medios convertidores de voz automáticos primero y segundo incluyen medios para responder automáticamente a una serie de preguntas interactivas del programa de reconocimiento de voz pre-existente .
  5. 5.- La invención de acuerdo con la reivindicación 4 en la cual la diferencia entre los grupos primero y segundo de variables de conversión en el programa de reconocimiento de voz pre-existente que consiste de esos medios de conversión de voz automáticos primero y segundo.
  6. 6.- La invención de acuerdo con la reivindicación 5 en la cual los medios de conversión de voz automáticos se seleccionan del grupo consistente de Naturally Speaking de Dragón Systems, Via Voice de IBM y Magic Speech de Philips Corporation .
  7. 7.- La invención de acuerdo con la reivindicación 4 en la cual la diferencia entre el grupo primero y segundo de variables de conversión consiste de un modelo de lenguaje usado en asociación con el programa de reconocimiento de voz preexistente .
  8. 8.- La invención de acuerdo con la reivindicación 7 en la cual se utiliza un modelo de lenguaje generalizado en el primer grupo de variables de conversión y un modelo de lenguaje especializado se usa en el segundo grupo de variables de conversión.
  9. 9.- La invención de acuerdo con la reivindicación 4 en la cual la diferencia entre los grupos primero y segundo de variables de conversión consiste de cuando menos un grupo asociado con un programa de reconocimiento de voz previamente existente .
  10. 10.- La invención de acuerdo con la reivindicación 4 en la cual la diferencia entre el grupo primero y segundo de variables de conversión consiste medios para procesar previamente el audio antes de ser introducido a los primeros medios de conversión automáticos.
  11. 11.- La invención de acuerdo con la reivindicación 10 en la cual la diferencia entre el grupo primero y segundo de variables de conversión consiste medios para procesar previamente el audio antes de ser introducido a los segundos medios de conversión automáticos, siendo diferente la variable de pre-procesamiento primera y segunda.
  12. 12.- La invención de acuerdo con la reivindicación 11 en la cual las variables de procesamiento previo se selecciona del grupo consistente esencialmente de tamaño de palabra digital, velocidad de muestre y retiro de rangos armónicos particulares.
  13. 13.- La invención de acuerdo con la reivindicación 1 en la cual la diferencia entre los grupos de variables de conversión primero y segundo consiste de un modelo de lenguaje usado en asociación con el programa de reconocimiento de voz previamente existente .
  14. 14.- La invención de acuerdo con la reivindicación 13 en la cual se utiliza un modelo de lenguaje generalizado en el primer grupo de variables de conversión y un modelo de lenguaje especializado se usa en el segundo grupo de variables de conversión. -t .i i t »-, « ,.« -
  15. 15.- La invención de acuerdo con la reivindicación 1 en la cual la diferencia entre los grupos primero y segundo de variables de conversión comprende medios para pre-procesar audio antes de su introducción a los primeros medios de conversión automáticos .
  16. 16.- La invención de acuerdo con la reivindicación 1 en la cual la diferencia entre el grupo primero y segundo de variables de conversión consiste medios para procesar previamente el audio antes de ser introducido a los segundos medios de conversión automáticos, siendo diferente la variable de pre-procesamiento primera y segunda.
  17. 17.- La invención de acuerdo con la reivindicación 1 que además incluye medios para entrenar a los medios de conversión de voz automáticos para obtener mayor precisión con el archivo de dictado de voz del usuario actual.
  18. 18.- La invención de acuerdo con la reivindicación 17 en la cual los medios de entrenamiento comprenden una porción de un programa de reconocimiento de voz previamente existente para el uso interactivo humano, los medios entrenadores incluyen medios para responder automáticamente a una serie de preguntas interactivas de la porción de entrenamiento previamente existente del programa de reconocimiento de voz pre-existente.
  19. 19.- Un método para los servicios de transcripción automática de uno o más usuarios de voz en un sistema que incluye cuando menos un programa de reconocimiento de voz, el método consiste de las etapas de: - recibir un archivo de dictado de voz de un usuario de voz actual; - crear automáticamente un primer texto escrito desde un archivo de dictado de voz con un programa de reconocimiento de voz usando un primer grupo de variables de conversión; crear automáticamente un segundo texto escrito desde un archivo de dictado de voz con un programa de reconocimiento de voz usando un segundo grupo de variables de conversión; - establecer manualmente un archivo verbatim por medio de la comparación de los textos escritos primero y segundo; y regresar el archivo verbatim al usuario actual .
  20. 20.- La invención de acuerdo con la reivindicación 19 en la cual la etapa de establecer un archivo verbatim incluye las sub-etapas de: comparar secuencialmente una copia del primer texto escrito con el segundo texto escrito dando como resultado una lista secuencial de palabras no coincidentes obtenidas de la copia del primer texto escrito, la lista tiene un principio, un fin y una palabra no coincidente actual, la palabra no coincidente actual avanza sucesivamente desde el inicio al final; buscar crecientemente la palabra no coincidente actual simultáneamente con un primer acumulador asociado con los primeros medios de conversión automáticos que contienen el primer texto escrito y un segundo acumulador asociado con la lista secuencial; y - mostrar la palabra no coincidente actual de una forma substancialmente aislada visualmente del otro texto en la copia del primer texto escrito y reporducir una porción de la grabación de dictado de texto sincronizada desde el primer acumulador asociado con la palabra no coincidente actual; y corregir la palabra no coincidente actual para que sea una representación de la grabación de dictado de voz sincronizada.
  21. 21.- La invención de acuerdo con la reivindicación 19 que además consiste en: - seleccionar el primer grupo de variables de conversión a partir de los programas de reconocimiento de voz pre-existentes disponibles; - seleccionar de manera diferente el segundo grupo de variables de conversión a partir de los programas de reconocimiento de voz pre-existentes disponibles .
  22. 22.- La invención de acuerdo con la reivindicación 19 que además consiste en: - seleccionar el primer grupo de variables de conversión de los modelos de lenguaje disponibles; y - seleccionar de manera diferente el segundo grupo de variables de conversión a partir de los modelos de lenguaje disponibles .
  23. 23.- La invención de acuerdo con la reivindicación 19 que además consiste en procesar previamente el archivo de dictado de voz antes de creare automáticamente un primer texto escrito, el procesamiento previo forma cuando menos parte del primer grupo de variables de conversión.
  24. 24.- La invención de acuerdo con la reivindicación 23 que además comprende procesar previamente el archivo de dictado de voz de una manera diferente al primer grupo de variables de conversión de procesamiento previo, antes de crear automáticamente un segundo texto escrito, el procesamiento previo forma parte cuando menos del segundo grupo de variables de conversión.
MXPA01008301A 1999-02-19 2000-02-18 Sistema automatizado de transcripcion y metodo que usa dos modelos de conversion de voz y correccion asistida por computadora. MXPA01008301A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12099799P 1999-02-19 1999-02-19
PCT/US2000/004210 WO2000049601A1 (en) 1999-02-19 2000-02-18 Automated transcription system and method using two speech converting instances and computer-assisted correction

Publications (1)

Publication Number Publication Date
MXPA01008301A true MXPA01008301A (es) 2002-06-04

Family

ID=22393818

Family Applications (1)

Application Number Title Priority Date Filing Date
MXPA01008301A MXPA01008301A (es) 1999-02-19 2000-02-18 Sistema automatizado de transcripcion y metodo que usa dos modelos de conversion de voz y correccion asistida por computadora.

Country Status (24)

Country Link
EP (1) EP1183680B1 (es)
JP (1) JP4601177B2 (es)
KR (1) KR20010102280A (es)
CN (1) CN1144176C (es)
AP (1) AP2001002243A0 (es)
AT (1) ATE341810T1 (es)
AU (1) AU3368900A (es)
BR (1) BR0008346A (es)
CA (1) CA2363561C (es)
CZ (1) CZ299508B6 (es)
DE (1) DE60031113T2 (es)
EA (1) EA004352B1 (es)
ES (1) ES2276674T3 (es)
HK (1) HK1046186B (es)
IL (2) IL144557A0 (es)
MX (1) MXPA01008301A (es)
NO (1) NO20014019L (es)
NZ (1) NZ513571A (es)
PL (1) PL349929A1 (es)
PT (1) PT1183680E (es)
TR (1) TR200102364T2 (es)
UA (1) UA73495C2 (es)
WO (1) WO2000049601A1 (es)
ZA (1) ZA200106118B (es)

Families Citing this family (120)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6603835B2 (en) 1997-09-08 2003-08-05 Ultratec, Inc. System for text assisted telephony
US7689416B1 (en) 1999-09-29 2010-03-30 Poirier Darrell A System for transferring personalize matter from one computer to another
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US8416925B2 (en) 2005-06-29 2013-04-09 Ultratec, Inc. Device independent text captioned telephone service
KR100834363B1 (ko) * 2003-06-02 2008-06-02 인터내셔널 비지네스 머신즈 코포레이션 음성 응답 시스템, 음성 응답 방법, 음성 서버, 음성 파일 처리 방법 및 기록 매체
CN101014997B (zh) * 2004-02-18 2012-04-04 皇家飞利浦电子股份有限公司 用于生成用于自动语音识别器的训练数据的方法和系统
US8515024B2 (en) 2010-01-13 2013-08-20 Ultratec, Inc. Captioned telephone service
US20060111917A1 (en) * 2004-11-19 2006-05-25 International Business Machines Corporation Method and system for transcribing speech on demand using a trascription portlet
US11258900B2 (en) 2005-06-29 2022-02-22 Ultratec, Inc. Device independent text captioned telephone service
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8457946B2 (en) * 2007-04-26 2013-06-04 Microsoft Corporation Recognition architecture for generating Asian characters
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
EP2427865A4 (en) * 2009-05-05 2014-01-08 Notevault Inc SYSTEM AND METHOD FOR MULTILINGUAL TRANSLATION SERVICE WITH AUTOMATED NOTIFICATION SERVICES
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US20120311585A1 (en) 2011-06-03 2012-12-06 Apple Inc. Organizing task items that represent tasks to perform
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
DE202011111062U1 (de) 2010-01-25 2019-02-19 Newvaluexchange Ltd. Vorrichtung und System für eine Digitalkonversationsmanagementplattform
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
CN102236645B (zh) * 2010-05-06 2016-03-30 上海五和际软件信息有限公司 基于语义逻辑的类自然语言人机对话装置
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
JP5463385B2 (ja) * 2011-06-03 2014-04-09 アップル インコーポレイテッド テキストデータとオーディオデータとの間のマッピングの自動作成
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US8930189B2 (en) 2011-10-28 2015-01-06 Microsoft Corporation Distributed user input to text generated by a speech to text transcription service
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
CN110442699A (zh) 2013-06-09 2019-11-12 苹果公司 操作数字助理的方法、计算机可读介质、电子设备和系统
US10389876B2 (en) 2014-02-28 2019-08-20 Ultratec, Inc. Semiautomated relay method and apparatus
US20180270350A1 (en) 2014-02-28 2018-09-20 Ultratec, Inc. Semiautomated relay method and apparatus
US20180034961A1 (en) 2014-02-28 2018-02-01 Ultratec, Inc. Semiautomated Relay Method and Apparatus
US10878721B2 (en) 2014-02-28 2020-12-29 Ultratec, Inc. Semiautomated relay method and apparatus
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
EP3480811A1 (en) 2014-05-30 2019-05-08 Apple Inc. Multi-command single utterance input method
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
CN105827417A (zh) * 2016-05-31 2016-08-03 安徽声讯信息技术有限公司 一种用于会议记录并可随时修改的语音速记装置
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK179549B1 (en) 2017-05-16 2019-02-12 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
CN109949813A (zh) * 2017-12-20 2019-06-28 北京君林科技股份有限公司 一种将语音转换为文字的方法、装置及系统
CN108573707B (zh) * 2017-12-27 2020-11-03 北京金山云网络技术有限公司 一种语音识别结果的处理方法、装置、设备及介质
CN110471659B (zh) * 2019-08-16 2023-07-21 珠海格力电器股份有限公司 多语言实现方法和系统、人机界面组态软件端和设备端
CN113077807B (zh) * 2019-12-17 2023-02-28 北京搜狗科技发展有限公司 一种语音数据的处理方法、装置及电子设备
US11539900B2 (en) 2020-02-21 2022-12-27 Ultratec, Inc. Caption modification and augmentation systems and methods for use by hearing assisted user
CN113808576A (zh) * 2020-06-16 2021-12-17 阿里巴巴集团控股有限公司 语音转换方法、装置及计算机系统

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4430726A (en) * 1981-06-18 1984-02-07 Bell Telephone Laboratories, Incorporated Dictation/transcription method and arrangement
JPS6191700A (ja) * 1984-10-11 1986-05-09 株式会社日立製作所 音声入力装置
JP2647234B2 (ja) * 1990-06-14 1997-08-27 シャープ株式会社 音声認識装置
IT1256823B (it) * 1992-05-14 1995-12-21 Olivetti & Co Spa Calcolatore portatile con annotazioni verbali.
ZA948426B (en) * 1993-12-22 1995-06-30 Qualcomm Inc Distributed voice recognition system
JPH07152787A (ja) * 1994-01-13 1995-06-16 Sony Corp 情報アクセスシステムおよび記録媒体
JP2655086B2 (ja) * 1994-06-21 1997-09-17 日本電気株式会社 電話回線音声入力システム
DE19530663C2 (de) * 1995-08-21 2001-05-03 Inova Gmbh Tech Entwicklungen Höhenversteller für einen Fahrzeugsicherheitsgurt
GB2303955B (en) * 1996-09-24 1997-05-14 Allvoice Computing Plc Data processing method and apparatus
US5875448A (en) * 1996-10-08 1999-02-23 Boys; Donald R. Data stream editing system including a hand-held voice-editing apparatus having a position-finding enunciator
US6122613A (en) * 1997-01-30 2000-09-19 Dragon Systems, Inc. Speech recognition using multiple recognizers (selectively) applied to the same input sample
US5995936A (en) * 1997-02-04 1999-11-30 Brais; Louis Report generation system and method for capturing prose, audio, and video by voice command and automatically linking sound and image to formatted text locations
GB2323693B (en) * 1997-03-27 2001-09-26 Forum Technology Ltd Speech to text conversion
JPH10282990A (ja) * 1997-04-04 1998-10-23 Sony Corp テキスト入力方法及び装置

Also Published As

Publication number Publication date
BR0008346A (pt) 2002-01-29
EA004352B1 (ru) 2004-04-29
TR200102364T2 (tr) 2002-06-21
HK1046186A1 (en) 2002-12-27
AU3368900A (en) 2000-09-04
CZ299508B6 (cs) 2008-08-20
CA2363561C (en) 2009-08-18
EA200100901A1 (ru) 2001-12-24
PT1183680E (pt) 2007-01-31
KR20010102280A (ko) 2001-11-15
DE60031113D1 (de) 2006-11-16
NO20014019L (no) 2001-10-18
ZA200106118B (en) 2003-01-15
NO20014019D0 (no) 2001-08-17
CZ20012936A3 (cs) 2002-02-13
UA73495C2 (en) 2005-08-15
WO2000049601A1 (en) 2000-08-24
ATE341810T1 (de) 2006-10-15
CN1144176C (zh) 2004-03-31
EP1183680A1 (en) 2002-03-06
CA2363561A1 (en) 2000-08-24
IL144557A0 (en) 2002-05-23
JP4601177B2 (ja) 2010-12-22
EP1183680B1 (en) 2006-10-04
JP2002542501A (ja) 2002-12-10
CN1341255A (zh) 2002-03-20
NZ513571A (en) 2004-01-30
EP1183680A4 (en) 2002-04-17
IL144557A (en) 2006-04-10
DE60031113T2 (de) 2007-05-10
AP2001002243A0 (en) 2001-09-30
PL349929A1 (en) 2002-10-21
ES2276674T3 (es) 2007-07-01
HK1046186B (zh) 2008-05-09

Similar Documents

Publication Publication Date Title
MXPA01008301A (es) Sistema automatizado de transcripcion y metodo que usa dos modelos de conversion de voz y correccion asistida por computadora.
US6961699B1 (en) Automated transcription system and method using two speech converting instances and computer-assisted correction
CA2351705C (en) System and method for automating transcription services
US7006967B1 (en) System and method for automating transcription services
US6704709B1 (en) System and method for improving the accuracy of a speech recognition program
US6490558B1 (en) System and method for improving the accuracy of a speech recognition program through repetitive training
EP1049072B1 (en) Graphical user interface and method for modifying pronunciations in text-to-speech and speech recognition systems
US6366882B1 (en) Apparatus for converting speech to text
US20020095290A1 (en) Speech recognition program mapping tool to align an audio file to verbatim text
US20080255837A1 (en) Method for locating an audio segment within an audio file
US6915258B2 (en) Method and apparatus for displaying and manipulating account information using the human voice
US20050131559A1 (en) Method for locating an audio segment within an audio file
AU3588200A (en) System and method for automating transcription services
JP3936351B2 (ja) 音声応答サービス装置
AU2004233462B2 (en) Automated transcription system and method using two speech converting instances and computer-assisted correction
AU776890B2 (en) System and method for improving the accuracy of a speech recognition program
GB2390930A (en) Foreign language speech recognition
WO2001093058A1 (en) System and method for comparing text generated in association with a speech recognition program

Legal Events

Date Code Title Description
FG Grant or registration