ES2228408T3 - Metodo y aparato analizador del lenguaje natural. - Google Patents
Metodo y aparato analizador del lenguaje natural.Info
- Publication number
- ES2228408T3 ES2228408T3 ES00301888T ES00301888T ES2228408T3 ES 2228408 T3 ES2228408 T3 ES 2228408T3 ES 00301888 T ES00301888 T ES 00301888T ES 00301888 T ES00301888 T ES 00301888T ES 2228408 T3 ES2228408 T3 ES 2228408T3
- Authority
- ES
- Spain
- Prior art keywords
- language
- oral
- syntactic
- entry
- analysis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 238000004458 analytical method Methods 0.000 claims abstract description 110
- 230000008569 process Effects 0.000 claims abstract description 35
- 238000012545 processing Methods 0.000 claims description 20
- 239000013598 vector Substances 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 4
- 238000000926 separation method Methods 0.000 claims description 3
- 210000002105 tongue Anatomy 0.000 claims description 2
- 230000004044 response Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 238000013459 approach Methods 0.000 description 7
- 238000013519 translation Methods 0.000 description 7
- 230000015572 biosynthetic process Effects 0.000 description 5
- 238000003786 synthesis reaction Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 239000004020 conductor Substances 0.000 description 4
- 238000003780 insertion Methods 0.000 description 4
- 230000037431 insertion Effects 0.000 description 4
- 238000006467 substitution reaction Methods 0.000 description 4
- 230000010006 flight Effects 0.000 description 3
- 235000013305 food Nutrition 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 235000012054 meals Nutrition 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000037361 pathway Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
Landscapes
- Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
Abstract
Método de análisis sintáctico de lengua oral implementada en un ordenador para procesar una frase de entrada (118), que comprende las fases de a. facilitar una pluralidad de gramáticas (140, 142) indicativas de temas predeterminados; b. generar una pluralidad de conjuntos de árboles de directorios de análisis sintáctico (150, 152) relacionada con dicha frase de entrada (118) utilizando dichas gramáticas; c. asociar etiquetas (164, 166) con palabras de dicha frase de entrada (118) utilizando dichos conjuntos de árboles de directorios de análisis sintáctico generados (150, 152); y d. generar valoraciones de dichas etiquetas (164, 166) basadas en los atributos de dichos conjuntos de árboles de directorios de análisis sintáctico (150, 152); y e. seleccionar etiquetas (164, 166) para su uso como representación analizada sintácticamente (180) de dicha frase de entrada (118) basándose en dicha valoración generada.
Description
Método y aparato analizador del leguaje
natural.
La presente invención se refiere al análisis de
la lengua oral y más particularmente a un analizador sintáctico del
lenguaje natural implementado en un ordenador.
Comprender el significado de una sentencia de
lenguaje natural es la piedra angular de muchos campos de la
ciencia con implicaciones tan amplias que se sitúan desde el modo
en el cual interactúan los humanos con los ordenadores o máquinas
hasta como interactúan con otros agentes inteligentes, humanos o
máquinas, a través de sistemas de traducción. La tarea se vuelve más
complicada cuando se obtiene la sentencia utilizando un sistema de
reconocimiento automático de la lengua oral (ASR), donde los
errores de reconocimiento tales como las inserciones, omisiones o
sustituciones pueden hacer que la sentencia se vuelva menos
inteligible incluso para un humano. Factores adicionales
relacionados con el usuario-interface también
pudieran introducir un elemento de falta de naturalidad en la
propio lengua del usuario, de modo que la sentencia reconocida
pudiera contener los efectos de vacilaciones del usuario: pausas,
repeticiones, frases o sentencias incompletas.
Debido a estos factores, el análisis sintáctico
de sentencias de lenguaje natural ocupa un área importante de los
sistemas relacionados con la lengua oral implementados en
ordenadores. No obstante, los planteamientos actuales de
analizadores sintácticos de lenguaje natural presentan poca
consistencia en la gestión de los errores antes mencionados de un
sistema de reconocimiento automático de la lengua oral.
En "A modular approach to spoken language
translation for large domains", M. Woszczyna et al.
Proceedings of AMTA-1998 18-31
Octubre de 1998, páginas 1-10, se describe un
sistema mecánico de traducción automática específicamente apropiado
para el diálogo oral en el cual el lenguaje se caracteriza por un
habla muy poco fluida que puede estar fragmentada y ser
gramaticalmente incorrecta, y en el cual se crea una malla de
árboles de análisis sintáctico que contengan todas las actuaciones
de sector posibles, donde una acción de sector puede incluir una
operación tal como pedir o dar información y consiste en tres
niveles de ilustración: consistencia de un acto de hablar, conceptos
y argumentos.
La presente invención soluciona las desventajas
antes mencionadas así como desventajas.
De acuerdo con lo enseñado por la presente
invención, se facilita un método y un aparato para el análisis
sintáctico de la lengua oral implementados en un ordenador para
procesar una frase de entrada. El método y el aparato incluyen
proporcionar una pluralidad de gramáticas que sean indicativas de
temas predeterminados. Se genera una pluralidad de conjuntos de
árboles de directorios de análisis sintáctico utilizando las
gramáticas y se asocian etiquetas con palabras de la frase de
entrada utilizando los conjuntos de árboles de directorio de
análisis sintáctico. Se generan valoraciones para las etiquetas
basándose en los atributos de los conjuntos de árboles de directorio
de análisis sintáctico y se seleccionan las etiquetas para el uso
como ilustración analizada sintácticamente de la frase introducida
basándose en las valoraciones generadas.
Para una mejor comprensión de la invención, su
objeto y ventajas, se deberá hacer referencia a la siguiente
descripción y a los dibujos adjuntos.
La Fig. 1 es un diagrama sinóptico que representa
los componentes implementados en el ordenador utilizados para llevar
a cabo un diálogo entre al menos dos personas de diferentes
lenguas.
La Fig. 2 es un diagrama sinóptico que representa
los componentes del sistema de la figura 1 con mayor detalle;
La Fig. 3 es un diagrama de generación de
etiquetas que representa la aplicación del proceso de generación de
etiquetas semánticas a una sentencia de entrada;
La Fig. 4 es un diagrama sinóptico que representa
los componentes del analizador sintáctico local de la presente
invención;
La Fig. 5 es un diagrama de generación de
etiquetas que representa la aplicación del proceso de generación de
etiquetas semánticas a una sentencia de entrada;
La figura 6 es un diagrama de árbol de análisis
sintáctico que representa un modelo de árbol de análisis sintáctico
para una sentencia de entrada;
La Fig. 7 es un diagrama de árbol de análisis
sintáctico que representa múltiples etiquetas que están siendo
generadas como candidatas durante las fases intermedias de análisis
sintáctico local;
La Fig. 8 es un diagrama de procesos que
representa la salida a diversos intervalos de la presente
invención;
La Fig. 9 es una pantalla de ordenador de una
gramática a modo de ejemplo;
La Fig. 10 es una pantalla de ordenador de un
conjunto de directorios de análisis sintáctico generado en una
sentencia de entrada;
La Fig. 11 es un conjunto de directorios de
análisis sintáctico gráfico que muestra una ilustración parcial en
un formato gráfico del conjunto de directorios de análisis
sintáctico de la Fig. 10;
La Fig. 12 es un diagrama de flujos que
representa las fases de funcionamiento asociadas a la presente
invención que se utilizan en una aplicación a modo de ejemplo; y
La Fig. 13 es un diagrama de flujos que
representa las fases de funcionamiento asociadas al procesamiento de
una sentencia de entrada que utiliza el analizador sintáctico local
de la presente invención.
La Fig. 1 representa un sistema de procesamiento
de lengua oral continuo de diálogo implementado en un ordenador para
permitir que dos personas que hablen diferentes lenguas se
comuniquen efectivamente. En el ejemplo no limitativo de la Fig. 1,
un comprador 20 desea comunicarse con el vendedor 22 con el fin de
comprar una mercancía. La dificultad se presenta porque el comprador
20 habla únicamente inglés mientras que el vendedor 22 solamente
habla japonés.
El sistema de procesamiento de lengua oral de
diálogo 24 de la presente invención utiliza un dispositivo de
reconocimiento de la lengua oral 26 para transformar el inglés del
mensaje oral del comprador 20 en una hilera de palabras. La hilera
de palabras es leída como texto por un módulo 28 que comprende la
lengua el cual extrae los componentes semánticos de la hilera.
Un conductor de diálogos 30 determina si el
comprador 20 ha facilitado suficiente información basándose en los
componentes semánticos determinados por el módulo 28 que entiende
la lengua. Si ha facilitado una cantidad suficiente de información,
el conductor de diálogos 30 permite que el módulo de traducción 32
traduzca el mensaje del comprador, a partir de unos componentes
semánticos determinados, al japonés. El módulo de traducción 32
traduce los componentes semánticos al japonés y realiza la síntesis
del mensaje por medio del módulo de respuesta 42 del ordenador con
el fin de vocalizar la traducción al japonés para que el vendedor
22 la oiga.
El vendedor 22 utiliza entonces el sistema de
procesamiento del lengua oral de diálogo 24 para contestar al
comprador 20. Por consiguiente, un dispositivo de reconocimiento del
japonés 36 y un módulo de comprensión del japonés 38 realizan,
respectivamente, el reconocimiento del mensaje oral del vendedor 22,
si el vendedor 22 hubiera facilitado información insuficiente.
Si el conductor de diálogos 30 determina que el
comprador 20 ha facilitado información insuficiente, para lograr una
meta predeterminada, (tal como la compra de una mercancía), el
conductor de diálogos 30 dará instrucciones al módulo de respuesta
34 del ordenador para que vocalice una respuesta que pedirá al
comprador 20 que facilite la
parte(s) de información que falta.
parte(s) de información que falta.
El modo de realización preferido es adecuado para
su implementación en un dispositivo de ordenador portátil 43 en el
cual el dispositivo es una herramienta que permite que el usuario
formule su petición en la lengua de llegada. Dicho dispositivo
manual portátil es apto para realizar una reserva de billetes/hotel
en un país extranjero, comprar una mercancía, como ayuda para
localizar un lugar o realizar cambio de divisas. El modo de
realización preferido permite que el usuario cambie de una tarea a
otra seleccionando en el dispositivo portátil la tarea que desee
realizar. En un modo de realización alternativo, se puede integrar
una tarjeta de memoria instantánea que sea única para cada tarea de
modo que el usuario pueda cambiar de una tarea a otra.
La Fig. 2 representa con más detalles componentes
del sistema de procesamiento de lengua oral de diálogo 24. En
particular, el módulo de comprensión de la lengua oral 28 incluye
un analizador sintáctico local 60 para identificar fragmentos
relacionados con tareas importantes predeterminadas. El módulo de
comprensión de la lengua oral 28 incluye asimismo un analizador
sintáctico global 62 para extraer la semántica global de la demanda
del
comprador.
comprador.
El novedoso analizador sintáctico local 60
utiliza, en el modo de realización preferido, pequeñas y múltiples
gramáticas junto con varias pasadas. y un único mecanismo de
valoración para que facilite hipótesis de análisis sintáctico. Por
ejemplo, el novedoso analizador sintáctico local reconoce con este
planteamiento, frases, tales como fechas, nombres de ciudades y
precios. Si una persona que habla dice "consígame un vuelo para
Boston el 23 de enero que incluya servicio de comida", el
analizador sintáctico local reconoce "Boston" como el nombre
de una ciudad, "23 de enero" como una fecha; y "comida"
como algo para comer. El analizador sintáctico global ensambla
estos segmentos (nombre de ciudad, fecha, etc.) y reconoce que la
persona que habla desea tomar un avión con ciertos requisitos.
El módulo de comprensión de lengua oral 28
incluye una base de datos de conocimientos 63 que codifica la
semántica de un campo (es decir, la meta a alcanzar). En este
sentido, la base de datos de conocimientos 63 es, de preferencia
una base de datos de un campo específico tal como se representa con
la referencia numérica 65 y es utilizada por el conductor de
diálogos 30 para determinar si es posible una actuación particular
relacionada para alcanzar una meta predeterminada,
El modo de realización preferido codifica la
semántica a través de una estructura de datos de trama 64. La
estructura de datos de trama 64 contiene ranuras vacías 66 que se
llenan cuando la interpretación semántica del analizador sintáctico
global 62 coincide con la trama. Por ejemplo, una estructura de
datos de trama (cuyo campo sea la compra de mercancías) incluye una
ranura vacía para especificar el precio que pide el comprador por la
mercancía. Si el comprador 20 ha facilitado el precio, entonces
esta ranura vacía se llena con esa información. No obstante, si
dicha trama particular precisa ser llenada después de que el
comprador haya facilitado inicialmente su petición, entonces el
conductor de diálogos 30 da instrucciones al módulo de respuesta 34
del ordenador para que pida al comprador 20 el precio que desee.
De preferencia, el módulo de respuesta 34 del
ordenador es multimodal ya que puede facilitar una respuesta a un
usuario a través de la síntesis, texto o gráfico del discurso. Por
ejemplo, si el usuario ha pedido direcciones para dirigirse a un
lugar determinado, la respuesta del ordenador puede visualizar un
mapa gráfico, siendo los términos del mapa traducidos por el módulo
de traducción 40. Aun más, el módulo de respuesta 40 del ordenador
puede dar direcciones orales al usuario a través del elemento de
audio 68. No obstante, debe entenderse que la presente invención no
se limita a tener los tres modos presentados ya que contiene uno o
más de estos modos del módulo de respuesta del ordenador 34.
El elemento de audio 68 utiliza la semántica que
ha sido reconocida para generar una sentencia en la lengua de
llegada del comprador basándose en el concepto semántico. Este
proceso de generación utiliza de preferencia un diccionario
bilingüe de sentencias en la lengua de partida y en la de llegada.
En un modo de realización alternativo, las sentencias son
automáticamente generadas basándose en sentencias tipo que se han
construido a partir de las ranuras disponibles en una trama de
semántica.
La estructura de datos de trama 64 incluye de
preferencia múltiples tramas las cuales cada una a su vez tienen
múltiples ranuras. Una trama puede tener ranuras dirigidas a
atributos de una camisa, tal como el color, tamaño y precio. Otra
trama puede tener ranuras dirigidas a atributos asociados al lugar
al cual debe ser enviada la camisa, tal como nombre, señas, número
de teléfono.
La siguiente referencia describe analizadores
sintácticos globales y tramas: R. Kuhn and R.D. Mori,
Spoken dialogue with Computers (Chapter 14: Sentence
Interpretation), Academic Press, Boston (1998).
El conductor de diálogos 30 utiliza el archivo de
datos históricos de diálogo 67 para ayudar a llenar las ranuras
vacías antes de pedir información al hablante. El archivo histórico
de diálogo 67 contiene un registro de operaciones de la
conversación que ha tenido lugar a través del dispositivo de la
presente invención. Por ejemplo, si un hablante dice "consígame
un vuelo para Boston el 23 de enero en el cual también se sirva
comida", el conductor de diálogos 30 examina el archivo de datos
históricos de diálogo 67 para comprobar que nombres de ciudades
puede el hablante haber mencionado en un intercambio de diálogo
anterior. Si el hablante ha mencionado que llamaba desde Detroit,
entonces el conductor de diálogos 30 llena la ranura vacía de la
ciudad de origen con el nombre de la ciudad "Detroit". Si se
ha llenado un número suficiente de ranuras, entonces la presente
invención pedirá al hablante que compruebe y confirme el plan de
vuelo. De este modo, si resultara que alguna suposición que haya
realizado el conductor de diálogos 30 mediante el uso del archivo de
datos históricos de diálogo 67 fuera incorrecta, entonces el
hablante puede corregir ese dato.
En otro modo de realización alternativo, el
módulo de respuesta del ordenador 34 recibe instrucciones del
conductor de diálogos 30 para que realice una búsqueda en la base
de datos a distancia 70 de la tienda con el fin de proporcionar
información al comprador 20 sobre la mercancía. En este ejemplo no
limitativo, el conductor de diálogos 30 puede dar instrucciones al
módulo de respuesta 34 del ordenador para que busque en la remota
base de datos 70 la gama de precios de la mercancía en la cual está
interesado el comprador 20. El modo de realización alternativo
mejora sustancialmente la calidad del diálogo entre el comprador 20
y el vendedor 22 al facilitar información al comprador 20 de modo
que el comprador 20 pueda formular una petición más informada al
vendedor 22.
El conductor de diálogos 30 desempeña un papel
integral en el diálogo al llevar a cabo un auténtico diálogo con el
comprador 20 antes de que dicho comprador se ponga en contacto con
el vendedor 22. Cuando desempeña dicho papel, el conductor de
diálogos 30, utilizando las particularidades de la presente
invención es capaz de conducir eficazmente el giro que tome un
auténtico diálogo que parece humano. El conductor de diálogos 30 es
capaz de tomar sus propias decisiones sobre que dirección va a
tomar el diálogo con el comprador 20 a continuación y cuando
iniciar cuando se tome una nueva dirección.
Por ejemplo, si el comprador 20 ha pedido cierto
tipo de camisa dentro de una gama de precios especificada, el
conductor de diálogos 30 determina si dicha camisa está disponible
dentro de dicha gama de precios. Dicha determinación se adopta a
través de la remota base de datos 70. En este ejemplo, el conductor
de diálogos 30 determina que no se dispone de dicha camisa dentro
de la gama de precios del comprador, no obstante, se dispone de
otro tipo de camisa dentro de dicha gama de precios. Así, el
conductor de diálogos 30 puede determinar si es factible una
actuación o meta del comprador y puede ayudar a dicho comprador a
que alcance dicha meta.
La presente invención analiza y extrae
semánticamente temas importantes y significativos a partir de un
texto de lenguaje natural estructurado que puede haberse generado
como salida de un sistema de reconocimiento automático de lengua
oral (ASR) utilizado por un sistema de comprensión de diálogo o de
lengua oral. La presente invención traduce la entrada de texto en
lengua natural a una nueva representación generando etiquetas bien
estructuradas que contengan información y datos sobre el tema, y
asociando cada etiqueta a los segmentos del texto de entrada que
contiene la información de la etiqueta. En un modo de realización
alternativo, se generan las etiquetas como lista aparte o como trama
semántica.
La figura 3 representa un ejemplo no limitativo
del papel del analizador sintáctico local de la presente invención
en un sistema de comprensión de lengua oral tal como, en un
especialista de reserva de viajes on line automático con un
interface de lengua oral. Los siguientes temas pueden ser metas
potenciales para la presente invención: horas de llegada y salida
de vuelos, y fechas posiblemente con gamas y limitaciones; nombres
de ciudades relacionadas con el vuelo; información sobre
tarifa/coste con importes en divisas; clase de asientos;
información sobre comidas; números de vuelo; nombres de las
aerolíneas; escalas del vuelo, etc.
El ejemplo incluye una posible sentencia de
entrada 100 tal como se genera de un sistema de reconocimiento
continuo de lengua oral y que contenga el reconocimiento de
errores. La salida correspondiente 102 es la posible interpretación
por la presente invención donde se han generado tres etiquetas, una
que corresponde a los nombres de ciudades 104, una a la hora 106, y
una a la fecha 108.
La capacidad es una característica de la presente
invención ya que la entrada puede contener sentencias
gramaticalmente incorrectas en inglés, tal como el ejemplo que
antecede, debido a los siguientes motivos: la entrada en el
dispositivo de reconocimiento es simple, al estilo de un diálogo,
con lengua natural y puede contener sentencias incompletas, frases
parciales, el reconocimiento de la lengua oral puede introducir
inserciones, omisiones o errores de reconocimiento incluso cuando
se considere correcta la lengua oral de entrada. La presente
invención trata eficazmente todo tipo de entradas y extrae tanta
información como sea posible.
La figura 4 representa los diversos componentes
del analizador sintáctico local novedoso 60 de la presente
invención. La presente invención, de preferencia utiliza técnicas
de análisis sintáctico generalizado en un planteamiento de
múltiples pasadas como computación de punto de referencia. Se
describe cada tema como un contexto sensitivo LR gramatical
(izquierda-derecha y derivación máxima a la
derecha), que permite ambigüedades. Las siguientes son referencias
relacionadas con las gramáticas LR sensibles al contexto: A.Aho y
J.D. Ullman. Principles of Compiler Design, Addison
Wesley Publishing Co., Reading, Massachusetts (1977); y N. Tomita,
Generalized LR Parsing
Kluwer Academic Publishers, Boston, Massachusetts (1991).
Kluwer Academic Publishers, Boston, Massachusetts (1991).
En cada pasada de la computación, se utiliza un
algoritmo de análisis sintáctico generalizado para generar de
preferencia cualquier árbol de análisis sintáctico (tanto completo
como parcial) independientemente para cada tema objetivo. Cada
pasada genera potencialmente varios árboles de análisis sintáctico
alternativo, representando cada árbol de análisis sintáctico una
posible interpretación diferente de un tema particular. Las
múltiples pasadas a través de vías de preferencia paralelas e
independientes dan por resultado una eliminación sustancial de
ambigüedades y de solapamiento de diferentes temas. La presente
invención es un modo sistemático de valoración de todos los posibles
árboles de análisis sintáctico posibles de modo que se seleccionen
los mejores candidatos N utilizando la información contextual
presente en el sistema.
El sistema de análisis sintáctico local 60 se
realiza en tres fases: análisis lexical 120; generación de conjunto
de árboles de análisis sintáctico paralelos para cada tema (por
ejemplo, los generadores 130 y 132); y análisis y síntesis de los
componentes de análisis sintáctico tal como se representa
generalmente con la referencia numérica 134. El modo de realización
preferido representa la estructura para las entradas y salidas del
analizador sintáctico local en el Anexo A que sigue.
Un hablante pronuncia una frase que es reconocida
por un dispositivo de reconocimiento automático 117 de lengua oral
que genera una sentencia de entrada 118. La fase de análisis
lexical 120 identifica los temas y genera etiquetas de éstos (que
no requieren gramáticas extensas) en la sentencia de entrada 118
utilizando filtros lexicales 126 y 128. Estos incluyen, por ejemplo,
nombres de ciudades; clases de asientos; información sobre comidas;
nombres de aerolíneas; e información sobre escalas. A este nivel,
basta normalmente con un escaneo de expresión ordinaria de la
sentencia de entrada 118 utilizando las palabras clave que figuran
en las etiquetas a modo de ejemplo mencionadas. Es igualmente en
esta fase que se realiza el etiquetado de palabras en la sentencia
de entrada que no forman parte del léxico de la gramática
particular. Se indican estas palabras utilizando una etiqueta X de
modo que dichas palabras sonoras sean sustituidas por la letra
"X".
La presente invención utiliza una estrategia de
análisis sintáctico general de alto nivel para describir y analizar
sintácticamente cada tema por separado y genera etiquetas y levanta
planos de los mismos en el flujo de entrada. Debido a la naturaleza
de texto de entrada 118 sin estructurar, cada analizador sintáctico
de temas individuales acepta de preferencia un lenguaje tan amplio
como sea posible, descartando todo excepto las palabras importantes,
que traten de errores de inserción o de supresión. El analizador
sintáctico de cada tema implica la creación de reglas gramaticales
sensibles al contexto que utilicen un lenguaje de especificación de
metanivel, muy similar al que se utiliza en el análisis sintáctico
LR. Los ejemplos de gramáticas incluyen la gramática A 140 y la
gramática B 142. Utilizando el planteamiento de la presente
invención, se describen las gramáticas de temas 140 y 142 como si
fueran una gramática tipo LR, que contenga redundancias sin
eliminar desviaciones y reducir conflictos. El resultado del
análisis sintáctico de una sentencia de entrada se compone de todos
los posibles análisis sintácticos posibles basados en las
especificaciones gramaticales.
Los generadores 130 y 132 generan conjuntos de
árboles de directorios de análisis sintáctico 150 y 152 para sus
temas. Se realiza la generación de etiquetas sintetizando la
información real encontrada en el árbol de análisis sintáctico
durante dicho análisis sintáctico.
En la figura 4 se representa la generación de
etiquetas mediante generadores 160 y 162 de etiquetas y de
valoraciones que generen, respectivamente etiquetas 164 y 166. Cada
etiqueta identificada transporta igualmente información sobre qué
conjunto de palabras de entrada en la sentencia de entrada están
cubiertas por la etiqueta. A continuación, la etiqueta sustituye su
conjunto cubierto. En el modo de realización preferido, la
información del contexto 167 se utiliza para la generación de
etiquetas y valoraciones, tales como mediante los generadores 160 y
162. Se utiliza la información de contexto 167 en la heurística de
valoración para ajustar las ponderaciones asociadas a una técnica
del factor de valoración heurística que se describe a continuación.
La información de contexto 167, de preferencia incluye el vector
168 de aceptación de la palabra y las ponderaciones 169 de contexto
de diálogo 169. No obstante, debe quedar entendido que la presente
invención no se limita al uso del vector de aceptación de palabra
168 y de las ponderaciones de contexto de diálogo 169 sino que
incluye igualmente el uso de uno excluyendo al otro, al igual que
la no utilización de la información de contexto 167 en la presente
invención.
El bloque 117 del proceso de reconocimiento
automático de lengua oral genera el vector de aceptación de palabra
168 que indica lo bien que han sido reconocidas las palabras en la
sentencia de entrada 118. El conductor de diálogos 30 genera
ponderaciones 169 de contexto del diálogo mediante la determinación
del estado del diálogo. Por ejemplo, el conductor de diálogos 30
pregunta a un usuario acerca de un tema en particular, tal como,
que hora de salida es la mejor. Debido a esta pregunta, el
conductor de diálogos 30 determina que el estado del diálogo está
orientado sobre la hora. El conductor de diálogos 30 facilita
ponderaciones 169 de contexto del diálogo con el fin de informar a
los procesos adecuados para que ponderen con mayor eficacia las
palabras detectadas orientadas sobre la hora.
El analizador sintáctico localizador de temas de
la fase anterior genera una cantidad importante de información que
necesita que sea analizada y combinada en conjunto para que forme
la salida final del analizador sintáctico local. La presente
invención es, de preferencia tan "agresiva" como sea posible al
localizar cada tema que dé por resultado la generación de múltiples
candidatas de etiquetas. Asimismo, en presencia de números o de
algunas palabras clave, tales como "entre", "antes",
"y", "o", "aproximadamente", etc. y, en especial, si
dichas palabras han sido introducidas o abandonadas debido a errores
de reconocimiento, es posible construir muchas candidatas de
etiquetas alternativas. Por ejemplo, la sentencia de entrada 220 de
la figura 5 pudiera haber sido el resultado de inserción o
supresión de errores. La fase de combinación de la presente
invención determina que etiqueta forma una interpretación con mayor
significado de la entrada. La presente invención define la
heurística y realiza una selección basada en ésta utilizando una
entrada de selección de mejores candidatos N. Cada etiqueta
generada corresponde a un juego de palabras en la hilera de palabras
de entrada llamado juego de cobertura de etiqueta.
Se utiliza una heurística que tiene en cuenta los
juegos de cobertura de las etiquetas utilizadas para generar una
valoración. La valoración depende a grandes rasgos del tamaño del
juego de cobertura, el tamaño en número de palabras de los espacios
entre los artículos cubiertos y las ponderaciones asignadas a la
presencia de algunas palabras clave. En el modo de realización
preferido, se utilizan el vector de aceptación derivado de ASR y la
información de contexto de diálogo para asignar prioridad a las
tarjetas. Por ejemplo, aplicando el análisis sintáctico de etiquetas
del coste, en primer lugar se retiran los números potencialmente
relacionados con el coste que sean los más fáciles de identificar
únicamente del flujo de entrada, y se dejan un menor número para
crear ambigüedades con otras etiquetas. De preferencia, se utiliza
la información de contexto del diálogo para ajustar las
prioridades.
Con referencia de nuevo a la figura 4, al final
de cada pasada, un procesador de mejoras N 170, selecciona las
mejores candidatas N basándose en las valoraciones asociadas a las
etiquetas y genera las etiquetas de temas, representando cada una
de las cuales la información encontrada en el árbol de análisis
sintáctico correspondiente. En cuanto se hayan descubierto de este
modo los temas, se pueden sustituir las palabras correspondientes
de entrada con la información de la etiqueta. Esta transformación
de sustitución elimina las palabras correspondientes del texto de
entrada en cuestión. La salida 180 de cada pasada es
retroalimentada a la siguiente pasada como nueva entrada, ya que las
sustituciones pueden ayudar a la eliminación de algunas
ambigüedades entre gramáticas competidoras o ayudar a generar
mejores árboles de análisis sintáctico al filtrar símbolos que se
solapan.
Cesa la computación cuando ya no se generan
etiquetas adicionales en la última pasada. La salida de la pasada
final se vuelve la salida del analizador sintáctico local al
analizador sintáctico global 62. Como cada fase solamente puede
reducir el número de palabras en su entrada y que la extensión del
texto de entrada es finita, el número de pasadas en la computación
del punto de referencia está linealmente limitado por el tamaño de
su entrada.
Se utilizan los siguientes factores novedosos de
valoración para calificar los árboles de análisis sintáctico
alternativos en los siguientes atributos de un árbol de análisis
sintáctico:
\bullet Número de símbolos terminales
\bullet Números de símbolos no terminales
\bullet Profundidad del árbol de análisis
sintáctico
\bullet Tamaños de los espacios entre los
símbolos terminales
\bullet Mediciones de aceptación ASR asociadas
a cada símbolo terminal
\bullet Ponderaciones ajustables al contexto
asociadas a cada símbolo terminal y no terminal.
Cada vía corresponde de preferencia a un tema
aparte que se puede desarrollar independientemente, que funciona en
una pequeña cantidad de datos, de un modo informáticamente
económico. La arquitectura de la presente invención es flexible y
modular, de este modo la incorporación de vías y gramáticas
adicionales, para nuevos temas, o el cambio de las heurísticas para
temas particulares es sencillo, lo que permite de este modo
desarrollar componentes reutilizables que puedan ser fácilmente
compartidos por diferentes sistemas.
La figura 6 presenta una ilustración no
limitativa de un árbol con relación a una descripción de la
heurística de valoración de etiquetas. La figura 6 representa una
hilera de entrada 250 y un árbol de análisis sintáctico 252 de
muestra. El árbol de análisis sintáctico con raíces tales como St
254 identifica la subsecuencia {w3, w4, w7, w8, w10}, como un
posible análisis sintáctico. Este análisis sintáctico tiene 5
símbolos terminales {w3, w4, w7, w8, w10}, con un espacios entre w4
y w7 (tamaño=2) y entre w8 y w10 (tamaño=1) o un tamaño de espacio
de separación total 3. El árbol del analizador sintético 252 tiene
cuatro no terminales: St 254, NT_{a} 256 NT_{b} 258 y NT_{c}
260. La profundidad del árbol de analizador sintético 252 es tres
debido a la forma transversal de St 254 a NT_{f} 258 a NT_{a}
256
a W3.
a W3.
Una valoración posible de este analizador
sintáctico es:
- # Terminales*10 - (Tamaño de espacio*1,5)-Profundidad
- +# No terminales = 50-4,5-3+4=46,5
La presente invención incluye asimismo la
utilización de ponderaciones no uniformes que puedan asignarse a los
puntos nodales terminales y no terminales. Igualmente, las
mediciones de aceptación se utilizan de preferencia para ajustar
las ponderaciones de uno o más factores de valoración. Por ejemplo,
se puede utilizar un algoritmo de relación de probabilidades para
computar las valoraciones de aceptación (ver, por ejemplo, la
siguiente referencia: R. Sukkar and Chin-Hui Lee,
Vocabulary Independent Discriminative Utterance Verification for
Non-Key Word Rejection in Sub-Word
Based Speech Recognition, IEEE Transactions on Speech and Audio
Processing, Vol. 4, Nº 6, pages
420-29 (1996).
420-29 (1996).
La figura 7 presenta otra ilustración no
limitativa de un árbol en relación con una descripción de la
heurística de valoración. Se representan cinco árboles de análisis
sintáctico con las referencias numéricas 270, 272, 274, 276 y 278.
Con relación a los cinco posibles árboles de análisis sintáctico y
etiquetas correspondientes representadas en la figura 7, se
utilizan los siguientes planteamientos:
Nº | Etiqueta | Nº palabras | Nº NT | Profundidad | Espacio | Valoración | Nivel |
1 | Hora[> 19:00] | 3 | 2 | 2 | 7 | 30+2-2-10,5=19,5 | 4 |
2 | Hora[>19:10] | 4 | 3 | 3 | 10 | 40+3.3-15=25,0 | 2 |
3 | Hora[> 7:00] | 2 | 1 | 1 | 1 | 20+1-1-1,5=18,5 | 5 |
4 | Hora[>7:10] | 3 | 2 | 2 | 4 | 30+2-2-6=20,0 | 3 |
5 | Fecha[\sim\sim 6/10] | 3 | 2 | 2 | 0 | 30+2-2-0=30 | 1 |
El sistema basado en las valoraciones da como
resultado que la Etiqueta nº 5 sea elegida como mejor candidata para
los objetivos de Fecha, esta selección elimina las Tarjetas nº 2 y
nº 4, para ser tomadas posteriormente en consideración debido al
solape con el léxico de la Tarjeta nº 1. Esto deja al analizador
sintáctico para la etiqueta nº 1 como el mejor analizador sintáctico
siguiente, de modo que se seleccionan las etiquetas nº 5 y nº
1.
La presente invención utiliza pasadas múltiples
tal como se ilustra en la figura 8. Con la referencia numérica 290,
se designan salidas de la presente invención en diferentes pasadas
en el procesamiento de la sentencia de entrada 294. El conjunto de
árboles de directorio de analizador sintáctico 296 se genera durante
la primera pasada y ayuda a generar la primera salida de pasada
298. La primera salida de pasada 298 tiene una etiqueta de hora 300
asociada con las palabras de la sentencia de entrada 294 "cinco
horas treinta minutos de la tarde").
La salida de la primera pasada 298 se utiliza
como entrada para un procesamiento de segunda pasada de sentencia de
entrada 294. Se genera el conjunto de árboles de directorios de
análisis sintáctico de la presente invención durante el
procesamiento de la segunda pasada y da por resultado que se genere
una tarjeta de coste 304. En un modo de realización de la presente
invención, la razón por la cual el procesamiento de la primera
pasada no realiza el análisis sintáctico de la parte de cien
dólares de la sentencia de entrada 294 se debe a la selección de la
mejor tarjeta N y del bloque de combinación 170 de la figura 4.
Durante la primera fase, debido al filtrado lexical y al análisis
sintáctico agresivo, el mejor coste según el análisis sintáctico es
"quinientos dólares", y la mejor hora según el análisis
sintáctico es el conjunto de árboles de directorios de análisis
sintáctico 296 para "después de las cinco horas treinta minutos
de la tarde". Como se comparte la palabra "cinco". el
proceso de selección invalida el mejor análisis sintáctico de coste
y genera la etiqueta de hora para "cinco horas y treinta minutos
de la tarde". No obstante, el final de la segunda pasada da por
resultado una hilera filtrada 308 que genera con éxito la etiqueta
de coste 304.
En el modo de realización preferido, cada tema
está expresado como una gramática LR(0) generalizada que
utiliza la siguiente sintaxis:
TemaGramática = Regla+,
- Regla ="*" | D "." |
\hskip2cm| D "." |,
- | D "=" | D* (" | " | D*)* "." |
- | D "," | D+ ".".
La sintaxis gramatical indica de modo informal
que la gramática está expresada como una serie de reglas
gramaticales, donde cada regla gramatical describe una regla de
sustitución sensible al contexto para un símbolo gramatical terminal
o no terminal.
La figura 9 representa una gramática a modo de
ejemplo para analizar sintácticamente el coste en dólares o en
yenes. La primera regla <*COSTE.> 320 declara que la raíz del
símbolo no terminal es COSTE.
Cada regla subsiguiente de la forma
<A=XYZ.> especifica un símbolo no terminal, A, y una regla de
sustitución donde se puede sustituir el símbolo A en una derivación
más hacia la derecha por los tres símbolos gramaticales de la
derecha, X Y Z, siendo cada uno de los cuales un símbolo terminal o
no terminal. Por ejemplo la regla 324:
- C_Gen= C_Num |
\hskip1cm
C_NumC_Divisa
define C_Gen como un no terminal
que puede reducirse con un número (C_Num) o un número seguido de un
símbolo de divisa (C_Divisa). Los símbolos terminales se definen
utilizando el <t:s1 s2.>. Por ejemplo, la regla
328:
- c_yen: yen yenes
define c-yen como
un símbolo terminal que combina con el "yen" o "yenes"
como próximo testigo en el flujo de
entrada.
La gramática de coste combina todas las palabras
que no están definidas como terminales según la regla X. Se utiliza
un filtro lexical para convertir todas las palabras de entrada que
no sean importantes para las reglas de COSTE con la palabra
"x". De conformidad con esto, la regla X combina con una o más
"x" consecutivas.
En la figura 10 se representa un ejemplo no
limitativo de análisis sintáctico de la sentencia 400: "vuelos de
menos de quinientos dólares". Cada línea representa la
aplicación de una regla gramatical, por ejemplo con la referencia
numérica 404:
- C_Dieces_2_3=c_núm_2_3
representa un punto nodular del
conjunto de árboles de directorios de análisis sintáctico donde el
símbolo gramatical C_Dieces cubre la gama [2-3], es
decir, la palabra "cinco". De modo similar, la línea
408:
- c_calificador_1_2: "menos",
representa el símbolo terminal
c_calificador que combina la gama [1-2], es decir
la palabra "menos". La regla 412 de símbolo de raíz, COST_0_5
cubre la totalidad de la gama que señala un análisis sintáctico con
éxito que da por resultado un único análisis sintáctico para la
totalidad de la entrada. Se representan otras reglas de símbolos de
raíz que poseen sus propios árboles de análisis sintáctico
ilustrado en la figura 10. Por ejemplo, en la figura 10 se
representa un árbol de análisis sintáctico para el símbolo de raíz
437. Si se utilizan múltiples análisis sintácticos, una regla
contiene las alternativas representadas con "I". Tiene que
observarse igualmente en un modo no limitativo como la primera
palabra "vuelos" es pasada por alto por la regla
X.
La figura 11 ilustra un árbol gráfico parcial de
los datos de la figura 10. Por ejemplo, la regla del símbolo de
raíz está designado con la referencia numérica 412 en la figura
11.
El método de generación de etiquetas preferido
utiliza un conjunto de árboles de directorio de análisis sintáctico
y genera las etiquetas tal como se indica en las especificaciones
de salida. El algoritmo de generación de etiquetas (llamado
reducir) utiliza una síntesis y planteamiento de herencia con el fin
de construir cada etiqueta utilizando la información que se
encuentra en el árbol de análisis sintáctico (nota: el uso del
nombre "reducir" en la presente es separado y diferente del
término reducir (como en las actuaciones de desviación/reducción)
utilizado en la literatura sobre análisis sintáctico LR). El
algoritmo reducir utilizado por el método de generación de etiqueta
funciona como sigue:
Entrada: nódulo: \alpha_i_j (cualquier
nódulo en el conjunto de árboles de directorio de análisis
sintáctico)
- 1.
- Si \alpha_i_j es una regla de terminal, volver al lado derecho (que es un testigo en el flujo de entrada en la posición i ) sin cambios o bien asignándole un significado - por ejemplo aplicando una conversión de ascii a numérico para un dígito, etc.)
- 2.
- retirar todas las reglas X del lado derecho, obteniendo una regla de la siguiente forma
\alpha- i _j=
\beta_{0}-i_{0}_j_{0}_\beta_{/}-i_{/}_j_{/}-\beta_{k}-i_{k}-j_{k'}.
- donde \beta \neq X.
- 3.
- Evaluar nuevos atributos, \alpha_i_j. mediante concatenación de resultados de reducir los términos del lado derecho, es decir:
\alpha_i_j.
\alpha = \Sigma_{i=o..k} reducir
(\beta_{i}_i_{i}_j_{i)}
- donde \Sigma es un operador de concatenación.
- 4.
- Heredar todos los atributos de cada término reducido en el lado derecho,
- por cada término, \beta_{i}_i_{i}_j_{i} en el lado derecho
- por cada atributo, \Phi E \beta_{i}_i_{i_ji}.AttrList
- añadir \Phi a la lista de atributos de nódulo:
\alpha_i_j.AttrList \cup =
\Phi
- heredar el valor del atributo:
\alpha_i_J.\Phi =
\beta_{i}_i_{i}_j_{i\cdot}
\Phi
- 5.
- Si fuera necesario, generar nuevos atributos para \alpha_i_j utilizando posiblemente los atributos heredados y computados. Todos los nuevos atributos son heredados por los nódulos de origen, hacia arriba en dirección al nódulo raíz. Este es el mecanismo general por el cual se pueden construir e inicializar las estructuras de las etiquetas.
\newpage
La figura 12 ilustra el funcionamiento de la
presente invención en una aplicación a modo de ejemplo de un
comprador que trata de comprar una camisa en particular mientras
habla en una primera lengua a un vendedor que habla en una segunda
lengua. El bloque de indicación de puesta en marcha 500 indica que
el bloque de proceso 504 está listo para ser procesado. En el
bloque de proceso 504, el comprador habla en una primera lengua
sobre una camisa en particular. En el bloque de proceso 508, la
lengua oral del comprador es reconocida y se determinan partes
predeterminadas de la lengua del comprador a través el analizador
sintáctico local de la presente invención en el bloque de proceso
512.
El bloque de proceso 516 determina las porciones
semánticas de lo que dice el comprador a través de un analizador
sintáctico global. El bloque de proceso 520 traduce las partes
semánticas determinadas a una segunda lengua que es entonces
vocalizada en el bloque de proceso 524. En el bloque de proceso 528,
cualquier respuesta del vendedor o del comprador es procesada según
la presente invención. Termina el procesamiento en el bloque de
proceso
532.
532.
La figura 13 ilustra las fases operacionales
asociadas a la arquitectura de múltiples pasadas del analizador
sintáctico local de la presente invención. El bloque de indicación
de puesta en marcha 550 indica que el bloque de proceso 554 está
siendo ejecutado en el cual se recibe una sentencia de entrada. El
bloque de proceso 567 realiza un reconocimiento automático de
lengua oral de la sentencia de entrada.
El bloque de iteración (repetición) 566 realiza
las siguientes fases para cada gramática. De preferencia, el
procesamiento de cada gramática se realiza sustancialmente al mismo
tiempo que el procesamiento de la segunda gramática. El bloque de
proceso 570 utiliza un filtro lexical en la sentencia de entrada
utilizando la gramática seleccionada por el bloque de iteración
566.
El bloque de proceso 574 genera un conjunto de
árboles de directorio de análisis sintáctico utilizando la gramática
seleccionada y el bloque de proceso 578 genera etiquetas para la
sentencia de entrada utilizando vectores de aceptación del bloque
de proceso 557 y utilizando ponderaciones de contexto del diálogo
del bloque de proceso 599 (si están disponibles, procedentes de
procesamientos anteriores del conductor de diálogos). Debe quedar
entendido, no obstante, que la presente invención no se limita al
uso de datos relacionados con el contexto en esta fase al procesar
sino que incluye también el uso de información sin contexto en esta
fase.
El bloque de proceso 582 genera una valoración
para las etiquetas que se generaron en el bloque de proceso 578. El
bloque de proceso 586 selecciona las mejores etiquetas N basándose
en la valoración generada por el bloque de proceso 582. El bloque
de proceso 590 genera la salida de etiqueta y el bloque de
terminación de iteración 594 repite el proceso hasta que cada
gramática haya sido utilizada.
Si cada gramática ha sido utilizada para una
pasada en particular, entonces el bloque de decisiones 598 pregunta
si se ha generado alguna etiqueta adicional. Si se han generado
etiquetas adicionales, entonces continúa el procesamiento en el
bloque de iteración 566. Si no se hubieran generado etiquetas
adicionales, entonces continúa el procesamiento en el bloque de
proceso 599. En el bloque de proceso 599, se realiza un análisis
sintáctico global y a continuación se procesa el conductor de
diálogos en el cual se determinan las ponderaciones del contexto
que se pudieran utilizar, si fuera necesario, en el siguiente
procesamiento de una sentencia de entrada. El procesamiento termina
en el bloque terminal 602.
Aunque se ha descrito la invención en su modo de
realización preferido, queda entendido que existen numerosas
aplicaciones e implementaciones para la presente invención. Por
consiguiente, la invención es capaz de ser modificada y cambiada
sin salirse del espíritu de la invención tal como se describe en las
reivindicaciones adjuntas.
Entrada: La hilera de texto ascii, s, que
contiene una secuencia de palabras w_{ji}, separadas por espacios
en blanco, sin ningún signo de puntuación. Las palabras están
formadas por letras minúsculas del alfabeto inglés y solamente de
una naturaleza (nota: sin dígitos).
donde
- s = W_{0} W_{1}...W_{n}
- W = [a-z']+
Salida: Hilera de texto ascii, salida, que
contiene una secuencia de palabras o etiquetas
separadas por espacios en blanco, sin signos de puntuación.
Claims (40)
1. Método de análisis sintáctico de lengua oral
implementada en un ordenador para procesar una frase de entrada
(118), que comprende las fases de
- a.
- facilitar una pluralidad de gramáticas (140, 142) indicativas de temas predeterminados;
- b.
- generar una pluralidad de conjuntos de árboles de directorios de análisis sintáctico (150, 152) relacionada con dicha frase de entrada (118) utilizando dichas gramáticas;
- c.
- asociar etiquetas (164, 166) con palabras de dicha frase de entrada (118) utilizando dichos conjuntos de árboles de directorios de análisis sintáctico generados (150, 152); y
- d.
- generar valoraciones de dichas etiquetas (164, 166) basadas en los atributos de dichos conjuntos de árboles de directorios de análisis sintáctico (150, 152); y
- e.
- seleccionar etiquetas (164, 166) para su uso como representación analizada sintácticamente (180) de dicha frase de entrada (118) basándose en dicha valoración generada.
2. El método de análisis sintáctico de la lengua
oral de la reivindicación comprendiendo asimismo la siguiente
fase:
- realizar dicha fase (b) con una pluralidad de iteraciones de modo que cada iteración produzca conjuntos de árboles de directorios de análisis sintáctico alternados.
3. El método de análisis sintáctico de la lengua
oral de la reivindicación 1 en el cual dicha fase (b) se realiza de
forma sustancialmente simultánea para cada una de dichas
gramáticas.
4. El método de análisis sintáctico de la lengua
oral de la reivindicación 3 que comprende asimismo la fase de:
- realizar dicha fase (b) con una pluralidad de iteraciones en las cuales cada iteración produce conjuntos de árboles de directorios de análisis sintáctico alternados con relación a cada una de dichas gramáticas.
5. El método de análisis sintáctico de la lengua
oral de la reivindicación 1 que comprende asimismo la fase de:
- generar valoraciones de dichas etiquetas basándose en factores seleccionados del grupo que consiste en el número de terminales, tamaño del espacio de separación, profundidad, número de no terminales y combinaciones de los mismos.
6. El método de análisis sintáctico de la lengua
oral de la reivindicación 5 que comprende asimismo la fase de:
- ponderar al menos dos de dichos factores de modo diferente.
7. El método de análisis sintáctico de la lengua
oral de la reivindicación 6 que comprende adicionalmente la fase
de:
- utilizar la información del contexto para ponderar al menos dos de dichos factores de modo diferente.
8. El método de análisis sintáctico de la
reivindicación 7 que comprende asimismo las fases de:
- generar un vector de aceptación de palabra para dicha frase de entrada sustancialmente durante el reconocimiento de la lengua oral de dicha frase de entrada; y
- ponderar al menos dos de dichos factores de modo diferente basándose en dicho vector de aceptación de palabra generado.
9. El método de análisis sintáctico de la lengua
oral de la reivindicación 7 u 8 que comprende asimismo las fases
de:
- generar una petición de información relacionada con un tema predeterminado;
- generar ponderaciones de contexto de diálogo basándose en dicha petición de información generada; y
- ponderar al menos dos de dichos factores basados de modo diferente en dichas ponderaciones de contexto de diálogo generado.
10. El método de análisis sintáctico de la lengua
oral de la reivindicación 7 que comprende asimismo las fases
de:
- utilizar dicho procesador de información de contexto sustancialmente de modo paralelo para realizar dicha fase (b).
11. El método de análisis sintáctico de la lengua
oral de la reivindicación 1 que comprende asimismo las fases
de:
- generar valoraciones de dichas etiquetas; y
- seleccionar las mejores etiquetas N para su uso en dicha representación analizada sintácticamente basándose en dichas valoraciones generadas.
12. El método de análisis sintáctico de la lengua
oral de la reivindicación 11 que comprende asimismo las fases
de:
- realizar dichas fases (b) y (c) con una pluralidad de iteraciones; y
- utilizar dichas mejores etiquetas N de una primera iteración como entrada relacionada con el procesamiento de dichas fases (b) y (c) de una segunda iteración.
13. El método de análisis sintáctico de la lengua
oral de la reivindicación 1 en el cual dichas etiquetas son
indicativas de dichos temas de dichas gramáticas.
14. El método de análisis sintáctico de la lengua
oral de la reivindicación 1 en la cual dicha frase de entrada es
gramaticalmente incorrecta con relación al menos a una porción de
dicha frase de entrada, comprendiendo asimismo dicho método las
fases de:
- generar una pluralidad de conjuntos de árboles de directorios de análisis sintáctico relacionados con dicha frase de entrada gramaticalmente incorrecta utilizando dichas gramáticas;
- asociar etiquetas con palabras de dicha frase de entrada gramaticalmente incorrecta utilizando dichos conjuntos de árboles de directorios de análisis sintáctico generados; y
- utilizar dichas etiquetas asociadas a dichas palabras como representación analizada sintácticamente de dicha frase de entrada gramaticalmente incorrecta.
15. El método de análisis sintáctico de la lengua
oral de la reivindicación 1 en el cual dichas gramáticas están
basadas en gramáticas sensibles al contexto de izquierda a
derecha.
16. El método de análisis sintáctico de la
reivindicación 1 en el cual dichas gramáticas están basadas en
gramáticas sensibles al contexto de izquierda a derecha y que
contenga ambigüedades.
17. El método de análisis sintáctico de la
reivindicación 1 que comprende asimismo las fases de:
- filtrar dicha frase de entrada a través de los filtros lexicales; y
- generar dicha pluralidad de conjuntos de árboles de directorios de análisis sintáctico basándose en dicha frase de entrada filtrada.
18. El método de análisis sintáctico de la lengua
oral de la reivindicación 1 que comprende asimismo la fase de:
- extraer componentes semánticos de dicha frase de entrada basándose en dichas etiquetas que están asociadas a dichas palabras.
19. El método de análisis sintáctico de la lengua
oral de la reivindicación 1 que comprende asimismo la fase de:
- facilitar un analizador sintáctico global para extraer dichos componentes semánticos de dicha frase de entrada basándose en dichas etiquetas que están asociadas a dichas palabras.
20. El método de análisis sintáctico de la lengua
oral de la reivindicación 19 que comprende asimismo la fase de:
- conducir, basándose en dichos componentes semánticos extraídos, el intercambio del diálogo entre un dispositivo de reconocimiento de la lengua oral y un usuario.
21. El método de análisis sintáctico de la lengua
oral de la reivindicación 19 que comprende asimismo la fase de:
- conducción basándose en dichos componentes semánticos extraídos del intercambio de diálogo entre dos usuarios que hablan diferentes lenguas.
22. Un aparato de análisis sintáctico de la
lengua oral implementado en un ordenador para procesar una frase de
entrada, que comprende:
- medios para facilitar una pluralidad de gramáticas (140, 142) indicativas de los temas predeterminados;
- un generador de conjunto de árboles de directorios de análisis sintáctico para generar una pluralidad de conjuntos de árboles de directorios de análisis sintáctico (150, 152) relacionados con dicha frase de entrada (118) utilizando dichas gramáticas;
- un generador de etiquetas para asociar etiquetas (164, 166) a palabras en dicha frase de entrada (118) utilizando dichos conjuntos de árboles de directorios de análisis sintáctico generados (150, 152);
- un generador de valoración de etiquetas para generar valoraciones de dichas etiquetas (164, 166) basándose en los atributos de dichos conjuntos de árboles de análisis sintáctico; y
- un seleccionador de etiquetas para su uso como representación analizada sintácticamente (180) de dicha frase de entrada (118) basándose en dichas valoraciones generadas.
23. El aparato de análisis sintáctico de la
lengua oral de la reivindicación 22 en el cual dicho generador de
conjunto de árboles de directorios de análisis sintáctico es
ejecutado con una pluralidad de iteraciones de modo que cada
iteración produzca conjuntos de árboles de directorio de análisis
sintáctico alternados.
24. El aparato de análisis sintáctico de la
lengua hablada de la reivindicación 22 en la cual en dicho
generador de conjuntos de árboles de directorio de análisis
sintáctico se ejecuta una pluralidad de iteraciones de modo que cada
iteración produzca conjuntos de árboles de análisis sintáctico
alternados con relación a cada una de dichas gramáticas.
25. El aparato de análisis sintáctico de la
lengua oral de la reivindicación 22 en el cual dicho generador de
valoración de etiquetas genera valoraciones para dichas etiquetas
basándose en los factores basados en la valoración seleccionados
del grupo que consiste en numerosos terminales, tamaño de espacio
de separación, profundidad, número de no terminales y combinaciones
de los mismos.
26. El aparato de análisis sintáctico de la
lengua oral de la reivindicación 25 en el cual dicho generador de
valoración de etiquetas pondera al menos dos de dichos factores de
modo diferente.
27. El aparato de análisis sintáctico de la
lengua oral de la reivindicación 26 en el cual el generador de
valoraciones de etiquetas utiliza información del contexto para
ponderar al menos dos de dichos factores de modo diferente.
28. El aparato de análisis sintáctico de la
lengua oral de la reivindicación 27 que comprende asimismo:
- un módulo de reconocimiento de la lengua hablada para realizar el reconocimiento de la lengua hablada de dicha frase de entrada y para generar un vector de aceptación de palabra sustancialmente para dicha frase de entrada.
- ponderando dicho generador de valoración de etiquetas al menos dos de dichos factores de modo diferente basándose en dicho vector de aceptación de palabra generado.
29. El aparato de análisis sintáctico de la
lengua hablada de la reivindicación 27 ó 28 que comporta
asimismo:
- un conductor de diálogos para generar una petición de información relacionada con un tema predeterminado, generando dicho conductor de diálogos ponderaciones de un contexto del diálogo basándose en dicha petición de información generada, ponderando dicho generador de valoración de etiquetas al menos dos de dichos factores de modo diferente basándose en dichas ponderaciones del contexto del diálogo generadas.
30. El aparato de análisis sintáctico de la
lengua oral de la reivindicación 22 que comprende asimismo:
- un generador de valoración de etiquetas para generar valoraciones de dichas tarjetas; y
- un selector de etiquetas para seleccionar las mejores etiquetas N para su uso en dicha representación analizada sintácticamente basándose en dichas valoraciones generadas.
31. El aparato de análisis sintáctico de la
lengua oral de la reivindicación 30 en el cual en dicho generador
de conjuntos de árboles de directorio de análisis sintáctico y
generador de etiquetas se ejecuta una pluralidad de iteraciones,
utilizando dichas mejores etiquetas N seleccionadas en una primera
iteración como entrada a dicho generador de conjunto de árboles de
directorio de análisis sintáctico y a dicho generador de etiquetas
durante una segunda iteración.
32. El aparato de análisis sintáctico de lengua
oral de la reivindicación 22 en el cual dichas etiquetas son
indicativas de dichos temas de dichas gramáticas.
33. El aparato de análisis sintáctico de la
lengua oral de la reivindicación 22 en el cual dicha frase de
entrada es gramaticalmente incorrecta con relación al menos a una
porción de dicha frase de entrada, generando dichos generadores de
conjuntos de árboles de directorios de análisis sintáctico una
pluralidad de conjuntos de árboles de directorio de análisis
sintáctico relacionados con dicha frase de entrada gramaticalmente
incorrecta utilizando dichas gramáticas, asociando dicho generador
de etiquetas, etiquetas con palabras de dicha frase de entrada
gramáticamente incorrecta utilizando dichos conjuntos de árboles de
directorios de análisis sintáctico generados, estando dichas
etiquetas asociadas a dichas palabras con una representación
analizada sintácticamente de dicha frase de entrada gramáticamente
incorrecta.
34. El aparato de análisis sintáctico de la
lengua oral de la reivindicación 22 en el cual dichas gramáticas
están basadas en gramáticas sensibles al contexto de izquierda a
derecha.
35. El aparato de análisis sintáctico de la
reivindicación 22 en el cual dichas gramáticas están basadas en
gramáticas sensibles al contexto de izquierda a derecha y que
contengan ambigüedades.
36. El aparato de análisis sintáctico de la
lengua oral de la reivindicación 22 que comprende asimismo:
- un filtro lexical para filtrar dicha frase de entrada, generando dicho generador de conjuntos de árboles de directorios de análisis sintáctico dicha pluralidad de conjuntos de árboles de directorio de análisis sintáctico basándose en dicha frase de entrada filtrada.
37. El aparato de análisis sintáctico de la
lengua oral de la reivindicación 22 que comprende asimismo:
- un extractor semántico para extraer componentes semánticos de dicha frase de entrada basándose en dichas etiquetas que están asociadas a dichas palabras.
38. El aparato de análisis sintáctico de la
lengua oral de la reivindicación 37 que comprende asimismo:
- un analizador sintáctico global para extraer componentes semánticos de dicha frase de entrada basándose en dichas etiquetas que están asociadas a dichas palabras.
39. El aparato de análisis sintáctico de la
lengua oral de la reivindicación 38 que comprende asimismo:
- un conductor de diálogos para conducir, basándose en los componentes semánticos extraídos, el intercambio de diálogo entre un dispositivo de reconocimiento de la lengua oral y un usuario.
40. El aparato de análisis sintáctico de la
lengua oral de la reivindicación 39 que comprende asimismo
- un conductor de diálogos para conducir, basándose en dichos componentes semánticos extraídos, el intercambio de diálogo entre dos usuarios que hablan diferente lengua.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US09/287,810 US6631346B1 (en) | 1999-04-07 | 1999-04-07 | Method and apparatus for natural language parsing using multiple passes and tags |
US287810 | 2002-11-05 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2228408T3 true ES2228408T3 (es) | 2005-04-16 |
Family
ID=23104455
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES00301888T Expired - Lifetime ES2228408T3 (es) | 1999-04-07 | 2000-03-08 | Metodo y aparato analizador del lenguaje natural. |
Country Status (4)
Country | Link |
---|---|
US (1) | US6631346B1 (es) |
EP (1) | EP1043711B1 (es) |
DE (1) | DE60014743T2 (es) |
ES (1) | ES2228408T3 (es) |
Families Citing this family (260)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1109152A1 (en) * | 1999-12-13 | 2001-06-20 | Sony International (Europe) GmbH | Method for speech recognition using semantic and pragmatic informations |
US7010489B1 (en) * | 2000-03-09 | 2006-03-07 | International Business Mahcines Corporation | Method for guiding text-to-speech output timing using speech recognition markers |
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
US20030023435A1 (en) * | 2000-07-13 | 2003-01-30 | Josephson Daryl Craig | Interfacing apparatus and methods |
TW472232B (en) * | 2000-08-11 | 2002-01-11 | Ind Tech Res Inst | Probability-base fault-tolerance natural language understanding method |
US7162422B1 (en) * | 2000-09-29 | 2007-01-09 | Intel Corporation | Apparatus and method for using user context information to improve N-best processing in the presence of speech recognition uncertainty |
US7149695B1 (en) * | 2000-10-13 | 2006-12-12 | Apple Computer, Inc. | Method and apparatus for speech recognition using semantic inference and word agglomeration |
US6879950B1 (en) * | 2000-10-19 | 2005-04-12 | Motorola, Inc. | System and method of decoding a packed representation of multiple parses |
US20020087316A1 (en) * | 2000-12-29 | 2002-07-04 | Lee Victor Wai Leung | Computer-implemented grammar-based speech understanding method and system |
US20020087313A1 (en) * | 2000-12-29 | 2002-07-04 | Lee Victor Wai Leung | Computer-implemented intelligent speech model partitioning method and system |
US20020087309A1 (en) * | 2000-12-29 | 2002-07-04 | Lee Victor Wai Leung | Computer-implemented speech expectation-based probability method and system |
US7574362B2 (en) | 2001-03-14 | 2009-08-11 | At&T Intellectual Property Ii, L.P. | Method for automated sentence planning in a task classification system |
US7729918B2 (en) * | 2001-03-14 | 2010-06-01 | At&T Intellectual Property Ii, Lp | Trainable sentence planning system |
WO2002073453A1 (en) * | 2001-03-14 | 2002-09-19 | At & T Corp. | A trainable sentence planning system |
US7072837B2 (en) * | 2001-03-16 | 2006-07-04 | International Business Machines Corporation | Method for processing initially recognized speech in a speech recognition session |
US6859771B2 (en) * | 2001-04-23 | 2005-02-22 | Microsoft Corporation | System and method for identifying base noun phrases |
US7003444B2 (en) * | 2001-07-12 | 2006-02-21 | Microsoft Corporation | Method and apparatus for improved grammar checking using a stochastic parser |
TW518483B (en) * | 2001-08-14 | 2003-01-21 | Ind Tech Res Inst | Phrase verification method using probability-oriented confidence tag |
US7308404B2 (en) * | 2001-09-28 | 2007-12-11 | Sri International | Method and apparatus for speech recognition using a dynamic vocabulary |
US6996519B2 (en) * | 2001-09-28 | 2006-02-07 | Sri International | Method and apparatus for performing relational speech recognition |
US7533020B2 (en) * | 2001-09-28 | 2009-05-12 | Nuance Communications, Inc. | Method and apparatus for performing relational speech recognition |
US6963832B2 (en) * | 2001-10-09 | 2005-11-08 | Hewlett-Packard Development Company, L.P. | Meaning token dictionary for automatic speech recognition |
ITFI20010199A1 (it) | 2001-10-22 | 2003-04-22 | Riccardo Vieri | Sistema e metodo per trasformare in voce comunicazioni testuali ed inviarle con una connessione internet a qualsiasi apparato telefonico |
US20030154071A1 (en) * | 2002-02-11 | 2003-08-14 | Shreve Gregory M. | Process for the document management and computer-assisted translation of documents utilizing document corpora constructed by intelligent agents |
US7805302B2 (en) * | 2002-05-20 | 2010-09-28 | Microsoft Corporation | Applying a structured language model to information extraction |
US7546382B2 (en) * | 2002-05-28 | 2009-06-09 | International Business Machines Corporation | Methods and systems for authoring of mixed-initiative multi-modal interactions and related browsing mechanisms |
TW559783B (en) * | 2002-05-31 | 2003-11-01 | Ind Tech Res Inst | Error-tolerant natural language understanding system and method integrating with confidence measure |
US7398209B2 (en) | 2002-06-03 | 2008-07-08 | Voicebox Technologies, Inc. | Systems and methods for responding to natural language speech utterance |
US7353165B2 (en) * | 2002-06-28 | 2008-04-01 | Microsoft Corporation | Example based machine translation system |
US7693720B2 (en) | 2002-07-15 | 2010-04-06 | Voicebox Technologies, Inc. | Mobile systems and methods for responding to natural language speech utterance |
US20030115062A1 (en) * | 2002-10-29 | 2003-06-19 | Walker Marilyn A. | Method for automated sentence planning |
US7318022B2 (en) * | 2003-06-12 | 2008-01-08 | Microsoft Corporation | Method and apparatus for training a translation disambiguation classifier |
US7475010B2 (en) * | 2003-09-03 | 2009-01-06 | Lingospot, Inc. | Adaptive and scalable method for resolving natural language ambiguities |
US7395497B1 (en) * | 2003-10-31 | 2008-07-01 | Emc Corporation | System and methods for processing large datasets |
US7853451B1 (en) * | 2003-12-18 | 2010-12-14 | At&T Intellectual Property Ii, L.P. | System and method of exploiting human-human data for spoken language understanding systems |
US20050216256A1 (en) * | 2004-03-29 | 2005-09-29 | Mitra Imaging Inc. | Configurable formatting system and method |
WO2006076398A2 (en) * | 2005-01-12 | 2006-07-20 | Metier Ltd | Predictive analytic method and apparatus |
KR100679043B1 (ko) * | 2005-02-15 | 2007-02-05 | 삼성전자주식회사 | 음성 대화 인터페이스 장치 및 방법 |
US8041570B2 (en) * | 2005-05-31 | 2011-10-18 | Robert Bosch Corporation | Dialogue management using scripts |
US7640160B2 (en) | 2005-08-05 | 2009-12-29 | Voicebox Technologies, Inc. | Systems and methods for responding to natural language speech utterance |
US7620549B2 (en) | 2005-08-10 | 2009-11-17 | Voicebox Technologies, Inc. | System and method of supporting adaptive misrecognition in conversational speech |
US7949529B2 (en) | 2005-08-29 | 2011-05-24 | Voicebox Technologies, Inc. | Mobile systems and methods of supporting natural language human-machine interactions |
US8265939B2 (en) | 2005-08-31 | 2012-09-11 | Nuance Communications, Inc. | Hierarchical methods and apparatus for extracting user intent from spoken utterances |
EP1934971A4 (en) | 2005-08-31 | 2010-10-27 | Voicebox Technologies Inc | DYNAMIC LANGUAGE SCRIPTURE |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US7633076B2 (en) | 2005-09-30 | 2009-12-15 | Apple Inc. | Automated response to and sensing of user activity in portable devices |
US8229745B2 (en) * | 2005-10-21 | 2012-07-24 | Nuance Communications, Inc. | Creating a mixed-initiative grammar from directed dialog grammars |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
DK2066662T3 (da) * | 2006-09-21 | 2013-01-07 | Kyorin Seiyaku Kk | Serinhydrolaseinhibitorer |
US9588958B2 (en) * | 2006-10-10 | 2017-03-07 | Abbyy Infopoisk Llc | Cross-language text classification |
US9495358B2 (en) * | 2006-10-10 | 2016-11-15 | Abbyy Infopoisk Llc | Cross-language text clustering |
US8073681B2 (en) | 2006-10-16 | 2011-12-06 | Voicebox Technologies, Inc. | System and method for a cooperative conversational voice user interface |
US7818176B2 (en) | 2007-02-06 | 2010-10-19 | Voicebox Technologies, Inc. | System and method for selecting and presenting advertisements based on natural language processing of voice-based input |
US9093073B1 (en) * | 2007-02-12 | 2015-07-28 | West Corporation | Automatic speech recognition tagging |
US20080221870A1 (en) * | 2007-03-08 | 2008-09-11 | Yahoo! Inc. | System and method for revising natural language parse trees |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US9286385B2 (en) * | 2007-04-25 | 2016-03-15 | Samsung Electronics Co., Ltd. | Method and system for providing access to information of potential interest to a user |
US7945441B2 (en) * | 2007-08-07 | 2011-05-17 | Microsoft Corporation | Quantized feature index trajectory |
US8135578B2 (en) * | 2007-08-24 | 2012-03-13 | Nuance Communications, Inc. | Creation and use of application-generic class-based statistical language models for automatic speech recognition |
US9053089B2 (en) | 2007-10-02 | 2015-06-09 | Apple Inc. | Part-of-speech tagging using latent analogy |
US8065293B2 (en) * | 2007-10-24 | 2011-11-22 | Microsoft Corporation | Self-compacting pattern indexer: storing, indexing and accessing information in a graph-like data structure |
US8620662B2 (en) | 2007-11-20 | 2013-12-31 | Apple Inc. | Context-aware unit selection |
US8140335B2 (en) | 2007-12-11 | 2012-03-20 | Voicebox Technologies, Inc. | System and method for providing a natural language voice user interface in an integrated voice navigation services environment |
US10002189B2 (en) | 2007-12-20 | 2018-06-19 | Apple Inc. | Method and apparatus for searching using an active ontology |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US8065143B2 (en) | 2008-02-22 | 2011-11-22 | Apple Inc. | Providing text input using speech data and non-speech data |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US9305548B2 (en) | 2008-05-27 | 2016-04-05 | Voicebox Technologies Corporation | System and method for an integrated, multi-modal, multi-device natural language voice services environment |
US8589161B2 (en) | 2008-05-27 | 2013-11-19 | Voicebox Technologies, Inc. | System and method for an integrated, multi-modal, multi-device natural language voice services environment |
US8296144B2 (en) * | 2008-06-04 | 2012-10-23 | Robert Bosch Gmbh | System and method for automated testing of complicated dialog systems |
US8464150B2 (en) | 2008-06-07 | 2013-06-11 | Apple Inc. | Automatic language identification for dynamic text processing |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US8762969B2 (en) * | 2008-08-07 | 2014-06-24 | Microsoft Corporation | Immutable parsing |
US20100057452A1 (en) * | 2008-08-28 | 2010-03-04 | Microsoft Corporation | Speech interfaces |
US8190423B2 (en) * | 2008-09-05 | 2012-05-29 | Trigent Software Ltd. | Word sense disambiguation using emergent categories |
US8768702B2 (en) | 2008-09-05 | 2014-07-01 | Apple Inc. | Multi-tiered voice feedback in an electronic device |
US8898568B2 (en) | 2008-09-09 | 2014-11-25 | Apple Inc. | Audio user interface |
US8712776B2 (en) | 2008-09-29 | 2014-04-29 | Apple Inc. | Systems and methods for selective text to speech synthesis |
US8583418B2 (en) | 2008-09-29 | 2013-11-12 | Apple Inc. | Systems and methods of detecting language and natural language strings for text to speech synthesis |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US9390167B2 (en) | 2010-07-29 | 2016-07-12 | Soundhound, Inc. | System and methods for continuous audio matching |
US9959870B2 (en) | 2008-12-11 | 2018-05-01 | Apple Inc. | Speech recognition involving a mobile device |
US8862252B2 (en) | 2009-01-30 | 2014-10-14 | Apple Inc. | Audio user interface for displayless electronic device |
US8326637B2 (en) | 2009-02-20 | 2012-12-04 | Voicebox Technologies, Inc. | System and method for processing multi-modal device interactions in a natural language voice services environment |
US8380507B2 (en) | 2009-03-09 | 2013-02-19 | Apple Inc. | Systems and methods for determining the language to use for speech generated by a text to speech engine |
US8090770B2 (en) * | 2009-04-14 | 2012-01-03 | Fusz Digital Ltd. | Systems and methods for identifying non-terrorists using social networking |
US10706373B2 (en) | 2011-06-03 | 2020-07-07 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US10540976B2 (en) | 2009-06-05 | 2020-01-21 | Apple Inc. | Contextual voice commands |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US9171541B2 (en) | 2009-11-10 | 2015-10-27 | Voicebox Technologies Corporation | System and method for hybrid processing in a natural language voice services environment |
US9502025B2 (en) | 2009-11-10 | 2016-11-22 | Voicebox Technologies Corporation | System and method for providing a natural language content dedication service |
US8682649B2 (en) | 2009-11-12 | 2014-03-25 | Apple Inc. | Sentiment prediction from textual data |
US8600743B2 (en) | 2010-01-06 | 2013-12-03 | Apple Inc. | Noise profile determination for voice-related feature |
US8381107B2 (en) | 2010-01-13 | 2013-02-19 | Apple Inc. | Adaptive audio feedback system and method |
US8311838B2 (en) | 2010-01-13 | 2012-11-13 | Apple Inc. | Devices and methods for identifying a prompt corresponding to a voice input in a sequence of prompts |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
WO2011089450A2 (en) | 2010-01-25 | 2011-07-28 | Andrew Peter Nelson Jerram | Apparatuses, methods and systems for a digital conversation management platform |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US8874434B2 (en) * | 2010-06-02 | 2014-10-28 | Nec Laboratories America, Inc. | Method and apparatus for full natural language parsing |
CN101894549A (zh) * | 2010-06-24 | 2010-11-24 | 中国科学院声学研究所 | 一种语音识别应用领域中的置信度快速计算方法 |
US8713021B2 (en) | 2010-07-07 | 2014-04-29 | Apple Inc. | Unsupervised document clustering using latent semantic density analysis |
US8719006B2 (en) | 2010-08-27 | 2014-05-06 | Apple Inc. | Combined statistical and rule-based part-of-speech tagging for text-to-speech synthesis |
US8719014B2 (en) | 2010-09-27 | 2014-05-06 | Apple Inc. | Electronic device with text error correction based on voice recognition data |
US10762293B2 (en) | 2010-12-22 | 2020-09-01 | Apple Inc. | Using parts-of-speech tagging and named entity recognition for spelling correction |
US10515147B2 (en) | 2010-12-22 | 2019-12-24 | Apple Inc. | Using statistical language models for contextual lookup |
US8781836B2 (en) | 2011-02-22 | 2014-07-15 | Apple Inc. | Hearing assistance system for providing consistent human speech |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US9035163B1 (en) | 2011-05-10 | 2015-05-19 | Soundbound, Inc. | System and method for targeting content based on identified audio and multimedia |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US20120310642A1 (en) | 2011-06-03 | 2012-12-06 | Apple Inc. | Automatically creating a mapping between text data and audio data |
US8812294B2 (en) | 2011-06-21 | 2014-08-19 | Apple Inc. | Translating phrases from one language into another using an order-based set of declarative rules |
US8706472B2 (en) | 2011-08-11 | 2014-04-22 | Apple Inc. | Method for disambiguating multiple readings in language conversion |
US8994660B2 (en) | 2011-08-29 | 2015-03-31 | Apple Inc. | Text correction processing |
US8762156B2 (en) | 2011-09-28 | 2014-06-24 | Apple Inc. | Speech recognition repair using contextual information |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
US8775442B2 (en) | 2012-05-15 | 2014-07-08 | Apple Inc. | Semantic search using a single-source semantic model |
WO2013185109A2 (en) | 2012-06-08 | 2013-12-12 | Apple Inc. | Systems and methods for recognizing textual identifiers within a plurality of words |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
US10957310B1 (en) | 2012-07-23 | 2021-03-23 | Soundhound, Inc. | Integrated programming framework for speech and text understanding with meaning parsing |
US9576574B2 (en) | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
US8935167B2 (en) | 2012-09-25 | 2015-01-13 | Apple Inc. | Exemplar-based latent perceptual modeling for automatic speech recognition |
US8473300B1 (en) * | 2012-09-26 | 2013-06-25 | Google Inc. | Log mining to modify grammar-based text processing |
US9472189B2 (en) | 2012-11-02 | 2016-10-18 | Sony Corporation | Language processing method and integrated circuit |
US9154629B2 (en) * | 2012-12-14 | 2015-10-06 | Avaya Inc. | System and method for generating personalized tag recommendations for tagging audio content |
KR20150104615A (ko) | 2013-02-07 | 2015-09-15 | 애플 인크. | 디지털 어시스턴트를 위한 음성 트리거 |
US10642574B2 (en) | 2013-03-14 | 2020-05-05 | Apple Inc. | Device, method, and graphical user interface for outputting captions |
US9733821B2 (en) | 2013-03-14 | 2017-08-15 | Apple Inc. | Voice control to diagnose inadvertent activation of accessibility features |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
US9977779B2 (en) | 2013-03-14 | 2018-05-22 | Apple Inc. | Automatic supplementation of word correction dictionaries |
US9368114B2 (en) | 2013-03-14 | 2016-06-14 | Apple Inc. | Context-sensitive handling of interruptions |
US10572476B2 (en) | 2013-03-14 | 2020-02-25 | Apple Inc. | Refining a search based on schedule items |
US10748529B1 (en) | 2013-03-15 | 2020-08-18 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
CN105144133B (zh) | 2013-03-15 | 2020-11-20 | 苹果公司 | 对中断进行上下文相关处理 |
WO2014144579A1 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | System and method for updating an adaptive speech recognition model |
CN105027197B (zh) | 2013-03-15 | 2018-12-14 | 苹果公司 | 训练至少部分语音命令系统 |
CN110096712B (zh) | 2013-03-15 | 2023-06-20 | 苹果公司 | 通过智能数字助理的用户培训 |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
EP3008641A1 (en) | 2013-06-09 | 2016-04-20 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
AU2014278595B2 (en) | 2013-06-13 | 2017-04-06 | Apple Inc. | System and method for emergency calls initiated by voice command |
US9177553B1 (en) * | 2013-06-25 | 2015-11-03 | Google Inc. | Identifying underserved command inputs |
US9183196B1 (en) * | 2013-06-25 | 2015-11-10 | Google Inc. | Parsing annotator framework from external services |
US10229106B2 (en) * | 2013-07-26 | 2019-03-12 | Nuance Communications, Inc. | Initializing a workspace for building a natural language understanding system |
US10339216B2 (en) * | 2013-07-26 | 2019-07-02 | Nuance Communications, Inc. | Method and apparatus for selecting among competing models in a tool for building natural language understanding models |
CN103400579B (zh) * | 2013-08-04 | 2015-11-18 | 徐华 | 一种语音识别系统和构建方法 |
CN105453026A (zh) | 2013-08-06 | 2016-03-30 | 苹果公司 | 基于来自远程设备的活动自动激活智能响应 |
US9747280B1 (en) * | 2013-08-21 | 2017-08-29 | Intelligent Language, LLC | Date and time processing |
US10102851B1 (en) * | 2013-08-28 | 2018-10-16 | Amazon Technologies, Inc. | Incremental utterance processing and semantic stability determination |
US10162813B2 (en) | 2013-11-21 | 2018-12-25 | Microsoft Technology Licensing, Llc | Dialogue evaluation via multiple hypothesis ranking |
US10832005B1 (en) | 2013-11-21 | 2020-11-10 | Soundhound, Inc. | Parsing to determine interruptible state in an utterance by detecting pause duration and complete sentences |
US9507849B2 (en) | 2013-11-28 | 2016-11-29 | Soundhound, Inc. | Method for combining a query and a communication command in a natural language computer system |
US10296160B2 (en) | 2013-12-06 | 2019-05-21 | Apple Inc. | Method for extracting salient dialog usage from live data |
US9292488B2 (en) | 2014-02-01 | 2016-03-22 | Soundhound, Inc. | Method for embedding voice mail in a spoken utterance using a natural language processing computer system |
US11295730B1 (en) | 2014-02-27 | 2022-04-05 | Soundhound, Inc. | Using phonetic variants in a local context to improve natural language understanding |
US9564123B1 (en) | 2014-05-12 | 2017-02-07 | Soundhound, Inc. | Method and system for building an integrated user profile |
US9620105B2 (en) | 2014-05-15 | 2017-04-11 | Apple Inc. | Analyzing audio input for efficient speech and music recognition |
US10592095B2 (en) | 2014-05-23 | 2020-03-17 | Apple Inc. | Instantaneous speaking of content on touch devices |
US9502031B2 (en) | 2014-05-27 | 2016-11-22 | Apple Inc. | Method for supporting dynamic grammars in WFST-based ASR |
US10289433B2 (en) | 2014-05-30 | 2019-05-14 | Apple Inc. | Domain specific language for encoding assistant dialog |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
TWI566107B (zh) | 2014-05-30 | 2017-01-11 | 蘋果公司 | 用於處理多部分語音命令之方法、非暫時性電腦可讀儲存媒體及電子裝置 |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US9734193B2 (en) | 2014-05-30 | 2017-08-15 | Apple Inc. | Determining domain salience ranking from ambiguous words in natural speech |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
EP3195145A4 (en) | 2014-09-16 | 2018-01-24 | VoiceBox Technologies Corporation | Voice commerce |
WO2016044321A1 (en) | 2014-09-16 | 2016-03-24 | Min Tang | Integration of domain information into state transitions of a finite state transducer for natural language processing |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US20160092956A1 (en) * | 2014-09-30 | 2016-03-31 | Jonathan Su | Garment size mapping |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
WO2016061309A1 (en) | 2014-10-15 | 2016-04-21 | Voicebox Technologies Corporation | System and method for providing follow-up responses to prior natural language inputs of a user |
US10614799B2 (en) | 2014-11-26 | 2020-04-07 | Voicebox Technologies Corporation | System and method of providing intent predictions for an utterance prior to a system detection of an end of the utterance |
US10431214B2 (en) | 2014-11-26 | 2019-10-01 | Voicebox Technologies Corporation | System and method of determining a domain and/or an action related to a natural language input |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US9711141B2 (en) | 2014-12-09 | 2017-07-18 | Apple Inc. | Disambiguating heteronyms in speech synthesis |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US10180989B2 (en) | 2015-07-24 | 2019-01-15 | International Business Machines Corporation | Generating and executing query language statements from natural language |
US10332511B2 (en) * | 2015-07-24 | 2019-06-25 | International Business Machines Corporation | Processing speech to text queries by optimizing conversion of speech queries to text |
US10339916B2 (en) | 2015-08-31 | 2019-07-02 | Microsoft Technology Licensing, Llc | Generation and application of universal hypothesis ranking model |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US9436446B1 (en) * | 2015-11-16 | 2016-09-06 | International Business Machines Corporation | System for automating calculation of a comprehensibility score for a software program |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10224034B2 (en) * | 2016-02-03 | 2019-03-05 | Hua Xu | Voice recognition system and construction method thereof |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179588B1 (en) | 2016-06-09 | 2019-02-22 | Apple Inc. | INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
WO2018023106A1 (en) | 2016-07-29 | 2018-02-01 | Erik SWART | System and method of disambiguating natural language processing requests |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
KR20180079759A (ko) * | 2017-01-02 | 2018-07-11 | 삼성전자주식회사 | 텍스트를 인식하는 방법 및 단말기 |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
DK179560B1 (en) | 2017-05-16 | 2019-02-18 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
US10528664B2 (en) | 2017-11-13 | 2020-01-07 | Accenture Global Solutions Limited | Preserving and processing ambiguity in natural language |
US10636421B2 (en) | 2017-12-27 | 2020-04-28 | Soundhound, Inc. | Parse prefix-detection in a human-machine interface |
US10747958B2 (en) * | 2018-12-19 | 2020-08-18 | Accenture Global Solutions Limited | Dependency graph based natural language processing |
US11281864B2 (en) * | 2018-12-19 | 2022-03-22 | Accenture Global Solutions Limited | Dependency graph based natural language processing |
US11705114B1 (en) * | 2019-08-08 | 2023-07-18 | State Farm Mutual Automobile Insurance Company | Systems and methods for parsing multiple intents in natural language speech |
US11810558B2 (en) * | 2021-05-26 | 2023-11-07 | International Business Machines Corporation | Explaining anomalous phonetic translations |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5418717A (en) * | 1990-08-27 | 1995-05-23 | Su; Keh-Yih | Multiple score language processing system |
US5745776A (en) * | 1995-04-19 | 1998-04-28 | Sheppard, Ii; Charles Bradford | Enhanced electronic dictionary |
-
1999
- 1999-04-07 US US09/287,810 patent/US6631346B1/en not_active Expired - Lifetime
-
2000
- 2000-03-08 ES ES00301888T patent/ES2228408T3/es not_active Expired - Lifetime
- 2000-03-08 DE DE60014743T patent/DE60014743T2/de not_active Expired - Fee Related
- 2000-03-08 EP EP00301888A patent/EP1043711B1/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
DE60014743D1 (de) | 2004-11-18 |
EP1043711A2 (en) | 2000-10-11 |
DE60014743T2 (de) | 2005-10-13 |
US6631346B1 (en) | 2003-10-07 |
EP1043711A3 (en) | 2003-09-17 |
EP1043711B1 (en) | 2004-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2228408T3 (es) | Metodo y aparato analizador del lenguaje natural. | |
US10796105B2 (en) | Device and method for converting dialect into standard language | |
KR102542914B1 (ko) | 다중언어 번역 장치 및 다중언어 번역 방법 | |
US20040167771A1 (en) | Method and system for reducing lexical ambiguity | |
JPH0855122A (ja) | 文脈タガー | |
Neme et al. | Pattern-and-root inflectional morphology: the Arabic broken plural | |
EP0365648A1 (en) | Natural language parsing software system | |
Drovo et al. | Named entity recognition in Bengali text using merged hidden Markov model and rule base approach | |
Adel et al. | Features for factored language models for code-Switching speech. | |
Shi et al. | Combining global models for parsing universal dependencies | |
Woods et al. | Mechanical inference problems in continuous speech understanding | |
Hori et al. | Statistical dialog management applied to WFST-based dialog systems | |
Wang et al. | Combination of CFG and n-gram modeling in semantic grammar learning. | |
Clark et al. | Learning auxiliary fronting with grammatical inference | |
CN117033722A (zh) | 一种金融防诈知识宣导方法、装置、设备及存储介质 | |
Pinter | Integrating approaches to word representation | |
Yamron et al. | The automatic component of the LINGSTAT machine-aided translation system | |
JP7327647B2 (ja) | 発話生成装置、発話生成方法、プログラム | |
KR100202292B1 (ko) | 한문어 문서 음성 변환 시스템을 위한 문서 분석기 | |
Behera | Odia parts of speech tagging corpora: suitability of statistical models | |
Nayel et al. | Named Entity Recognition for Arabic Medical Texts Using Deep Learning Models | |
Yellin et al. | Paths to relation extraction through semantic structure | |
JP2006343405A (ja) | 音声理解装置、音声理解方法、単語・意味表現組データベースの作成方法、そのプログラムおよび記憶媒体 | |
Ristad | GPSG-Recognition is NP-hard | |
Neme | An arabic language resource for computational morphology based on the semitic model |