WO2001095087A1 - Systeme de commande vocale d'une page stockee sur un serveur et telechargeable en vue de sa visualisation sur un dispositif client - Google Patents

Systeme de commande vocale d'une page stockee sur un serveur et telechargeable en vue de sa visualisation sur un dispositif client Download PDF

Info

Publication number
WO2001095087A1
WO2001095087A1 PCT/FR2001/001560 FR0101560W WO0195087A1 WO 2001095087 A1 WO2001095087 A1 WO 2001095087A1 FR 0101560 W FR0101560 W FR 0101560W WO 0195087 A1 WO0195087 A1 WO 0195087A1
Authority
WO
WIPO (PCT)
Prior art keywords
voice
page
dictionary
server
client device
Prior art date
Application number
PCT/FR2001/001560
Other languages
English (en)
Inventor
Bruno Gachie
Anselme Dewavrin
Original Assignee
Interactive Speech Technologies
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Interactive Speech Technologies filed Critical Interactive Speech Technologies
Priority to AU2001262476A priority Critical patent/AU2001262476A1/en
Publication of WO2001095087A1 publication Critical patent/WO2001095087A1/fr

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/957Browsing optimisation, e.g. caching or content distillation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/487Arrangements for providing information services, e.g. recorded voice services or time announcements
    • H04M3/493Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
    • H04M3/4936Speech interaction details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/487Arrangements for providing information services, e.g. recorded voice services or time announcements
    • H04M3/493Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
    • H04M3/4938Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals comprising a voice browser which renders and interprets, e.g. VoiceXML
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M7/00Arrangements for interconnection between switching centres
    • H04M7/006Networks other than PSTN/ISDN providing telephone service, e.g. Voice over Internet Protocol (VoIP), including next generation networks with a packet-switched transport layer
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/40Electronic components, circuits, software, systems or apparatus used in telephone systems using speech recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M7/00Arrangements for interconnection between switching centres
    • H04M7/0012Details of application programming interfaces [API] for telephone networks; Arrangements which combine a telephonic communication equipment and a computer, i.e. computer telephony integration [CPI] arrangements
    • H04M7/0018Computer Telephony Resource Boards

Definitions

  • the present invention relates to the voice control of pages accessible on a server via a telecommunications network, and more particularly of hypertext pages. It mainly, but not exclusively, finds its application to hypertext navigation by voice command on a telecommunications network of the Internet type.
  • server generally designates any computer system in which data is stored and which can be consulted remotely via a telecommunications network.
  • page designates any document intended to be displayed on a screen and stored on a server site at a given address.
  • client device generally designates any IT device capable of sending requests to a server site so that the latter sends back the data objects of the request, and in particular a specific page, for example identified in the request by its address on the server.
  • telecommunications network generally designates any means of communication allowing the exchange of data remotely between a server site and a client device; it can be a local area network (LAN) such as a company intranet or a long distance network (WAN) such as for example the Internet, or even a set of networks different and interconnected type.
  • LAN local area network
  • WAN long distance network
  • hypertext navigation systems are commonly used, which make it possible to navigate among a set of pages linked to each other by links also called hypertext links or hyper-links.
  • a hypertext page contains in addition to the basic text to be displayed on the screen, particular characters or sequences of characters which may or may not be an integral part of the basic text, and which constitute the hypertext links of the page.
  • these hyperlinks are an integral part of the basic text of the page, they are differentiated from the other characters on the basic page, for example by being underlined and / or displayed in another color, etc.
  • the client device is usually equipped with navigation software, also called browser.
  • navigation software also called browser.
  • the navigation software When a user selects a hypertext link in the page being viewed, the navigation software first establishes and automatically sends a request to the server, allowing the latter to send the page attached to the hypertext link which has been selected, and then displays the new page sent to it by the server on the screen.
  • activation systems In order to facilitate the activation of hypertext links in a hypertext navigation system, activation systems have already been proposed by voice command, in which the hypertext link is spoken by the user, and is recognized automatically by a recognition system. voice. These voice activation systems advantageously replace traditional manual activation systems (keyboard / mouse), and even become essential in all applications where it is not possible or desirable to implement a manual tool such as a keyboard or a mouse.
  • a manual tool such as a keyboard or a mouse.
  • An example of this type of application is voice navigation over the global Internet using WAP cell phones.
  • the “additional data” consist of a dictionary of phonemes, associated with a probability model.
  • the dictionary of phonemes and the associated probability model are automatically generated from the page by automatic analysis of the content of the document and automatic extraction of the links present in the document.
  • specific software called “manager” is used.
  • the main object of the present invention is a system which allows voice control of a page which is intended to be displayed on a client device capable of exchanging data with a remote server via a telecommunications network, and which overcomes the aforementioned drawbacks of existing systems.
  • voice command of a page we mean not only the voice activation of links associated with the page, but also and more generally the activation by voice of any command associated with the page viewed, the command not necessarily materialized by a word displayed on the screen of the client device but which can be hidden.
  • the execution of the command associated with a page can be of varied nature and is not limitative of the invention (activation of a hypertext link referring to a new page of the server, command of peripherals of the client device such as for example a printer, opening or closing windows on the client device, disconnecting the client device, connecting the client device to a new server, etc.).
  • the client device comprises means such as a microphone and an audio acquisition card, allowing the recording of a voice command spoken by a user, and means voice recognition allowing, from a recorded voice command, to automatically determine and command the execution of an action associated with this command.
  • the server includes in memory in connection with said page at least one dictionary of one or more voice links comprising for each voice link at least one audio recording of the voice command;
  • the client device is able to download each dictionary associated with the page into memory, and the voice recognition means of the client device comprise a voice recognition program which is designed to compare the audio recording corresponding to the voice command with the or audio recordings from each dictionary associated with the page.
  • FIG. 1 is a schematic representation of the main elements making up a voice control system according to the invention
  • FIG. 2 represents the main steps of a program of assistance for the creation of a dictionary of voice links characteristic of the invention, and of linking the dictionary created with a page of a server, with a view to voice control of this page,
  • FIG. 3 to 6 are examples of windows generated by the dictionary creation assistance program
  • FIG. 7 illustrates the main steps implemented by a client device in the download phase of a dictionary associated with a page provided by a server
  • FIG. 8 illustrates the main steps implemented by the voice recognition program executed locally by the client device.
  • the invention implements a computer server 1, to which one or more client devices 2 can be connected via a telecommunication network 3. More particularly, in the example illustrated, the computer server 1 usually hosts one or more websites, and the client devices are designed to connect to the server 1 via the global Internet network, and to exchange data with this server according to the usual IP communication protocol.
  • Each website hosted by the server 1 is made up of a plurality of html pages materialized by files in .htm format (figure 1 / page1.htm, etc.) and linked together by hyper-links. These pages are usually stored in a memory unit 4 accessible for reading and writing by the processing unit 5 of the server 1.
  • the server 1 also usually comprises input / output means 6, comprising at least one keyboard allowing a server administrator to enter data and / or commands, and at least one screen allowing the visualization of the server data, and in particular the visualization of the pages of a website.
  • the processing unit 5 includes in server memory server software A known per se, and in particular allowing the sending to a client 2 connected to the server 1 of the file or files corresponding to the client's request.
  • a client device 2 comprises, in known manner, a processing unit 7 able to be connected via a communication interface to the network 3, and also connected to input / output means 8, including at least one screen for viewing each page. html sent by the server 1.
  • the processing unit implements known navigation software B, also called browser (for example Netscape navigation software).
  • the invention the new means of which will now be detailed in the light of a particular embodiment, is not limited to an Internet type application, but can more generally be applied to any client architecture. / server regardless of the type of telecommunication network and the data exchange protocol used.
  • the client device can either be a landline, or include a mobile unit such as a mobile phone, WAP type, allowing access to the telecommunications network 3.
  • the invention is essentially based on the implementation, for each page of the server to which one wishes to associate a voice command function, of at least one dictionary of voice links, which is stored in the memory of the server 1 in connection with said page, and which has the particularity of containing for each voice command, at least one audio recording, preferably in compressed form, of the voice command.
  • each html page is associated in memory with a single dictionary materialized by a file having the same name as the page but with a different extension arbitrarily designated “.ias” in the rest of this description.
  • the html page materialized by the file page 1.htm is associated, in the memory of server 1, the dictionary file pagel .ias, etc.
  • the server 1 is equipped with a microphone 9 connected to an audio acquisition card 10 (known per se), which generally makes it possible to transform the analog signal delivered by microphone 9 into digital type information.
  • This audio acquisition card 10 communicates with the processing unit 5 of the server 1, and allows the latter to acquire via the microphone 9 voice recordings in digital form.
  • the processing unit 5 is further able to execute software C specific to the invention, a variant of which will be described below, and which makes it possible to assist the creator of a website in the construction of link dictionaries voice.
  • said client device 2 is also equipped with a microphone 11 and a audio acquisition card 12.
  • recognition automatic voice command of a voice command pronounced by the user of the client device 2 is performed locally by the processing unit 7 of the client device 2 , after downloading the dictionary file associated with the page being viewed.
  • a dictionary file contains one or more voice links recorded one after the other, each voice link having several concatenated attributes:
  • an audio recording also called an acoustic model
  • an audio recording also called an acoustic model
  • the “type” attribute of a voice link is used in particular to specify:
  • a voice link can be transcribed as follows:
  • this program is executed by the processing unit 5 of the server, after that the server administrator has chosen the corresponding option allowing the program to be launched. 5
  • this program may advantageously be made available to the creator of a website, by being implemented on a machine different from the server, the dictionary files (.ias) created using this program as well as the pages of the website then downloaded to the memory unit 4 of the server 2.
  • the creation of a dictionary file page
  • (M). ias associated with an html page begins (step 201) with the opening of the page file (m). htm of the page, followed by an automatic extraction of the hyperlinks present in the page (step 202) and the creation of a dictionary file page (m) .ias with opening of a window for viewing and modification and / or entering voice links from this dictionary (“Dictionary” window / step 203).
  • FIG. 3 shows an example of a window created at the end of step 203.
  • the function of creating a new voice link advantageously makes it possible to create a voice command, which does not necessarily correspond to a hyper link present on the page, and thereby offers the possibility of programming commands Varied voice commands, and what's more, hidden commands.
  • the aforementioned automatic extraction step (step 202) is optional, and is only justified by a concern for facilitating and speeding up the creation of the dictionary, while avoiding the user having to manually create in the dictionary the voice links corresponding to hyperlinks of the page and having to enter the corresponding URL addresses.
  • the program opens a second “link properties” window of the type illustrated in FIG. 4 (step 206), which allows the user to enter and / or modify the previously described attributes of a voice link.
  • the user has the possibility of selecting a first action button "Record” for recording a voice command by a male voice and a second action button “Record” for recording of a voice command by a female voice.
  • the program automatically executes an audio recording acquisition module.
  • This module once launched, allows the acquisition via the microphone 9 of an audio recording in digital form of the voice command (male or female voice as the case may be) for a given controlled period of time, and at the end of this time lapse performs an automatic compression of this recording by any known method of data compression, then saves this compressed audio recording in the dictionary file page (m) .ias
  • the program closes the corresponding “link properties” window (step 207), and once all the voice links in the dictionary page (m). ias have been created completely, the user orders the closing of the "Dictionary" window, and thereby the closing of the dictionary page (m). ias (step 208).
  • FIG. 5 illustrates an example of a “link property” window for the “Superior” voice link updated before closing the window
  • FIG. 6 illustrates an example of a “Dictionary” window updated before closing the page dictionary (m). ias.
  • the client device 2 requests the server 1 to send it an html page (for example the page file (m) .htm)
  • the browser (B) analyzes the page file (m) .htm and displays the content of the page on the screen as it receives the data relating to this page (figure 11 step 701).
  • step 702 1) stored in the RAM of the client device (step 702), and at the same time launches a voice recognition program also stored in RAM, in the event that this program has not already been launched (which is the case for example the first time during a session that a page (.htm) with dictionary (.ias) attached is received by the client device 2).
  • the browser then sends a request to the server 1 (step 703) so that the latter transmits to it the page (m) .ias dictionary file identified in the page (m) .htm file.
  • the browser (B) of the client device 2 After reception by the client device 2 of the dictionary file page (m) .ias, the browser (B) of the client device 2 sends the dictionary file to the extension module (D) (step 705).
  • This extension module (D) in turn creates a link between the dictionary file page (m) .ias and the voice recognition program (E) (step 706).
  • the extension module (D) analyzes the content of the dictionary file page (m) .ias and displays on the screen for the user, for example in a new window, the names (attribute "name ”) Of all the voice links in the dictionary file page (m) .ias, for which the value of the“ type ”attribute allows viewing (non-hidden voice commands), (step 706).
  • This function is provided by the voice recognition program (E), from a voice command entered by the user by means of the microphone 11 and by comparison with the dictionary file or files with which a link has been established. It should be noted here that the voice recognition program can be launched with several active plug-ins simultaneously.
  • the voice recognition program (E) awaits the detection of a sound by the microphone 11.
  • the voice recognition program performs compression of this recording, applying the same compression method as that used by the dictionary creation program (C).
  • the voice recognition program (E) automatically performs a comparison of the digital data corresponding to this compressed audio recording with the digital data of each compressed audio recording (male and female acoustic models) of the dictionary file page ( m). ias. (or in general of all the dictionary files for which a link with the voice recognition program is active), with a view to automatically deducing the voice link from the dictionary corresponding to the command spoken by the user.
  • each comparison of the compressed audio recordings is implemented according to the DTW (Dynamic Time Warping) method, and results in a note of recognition characterizing the similarity between the recordings. Only the highest note is then retained by the voice recognition program, and compared with a predetermined detection threshold below which it is considered that the word spoken has not been recognized as a voice command. If the highest score resulting from the above comparisons is above this threshold, the voice recognition program automatically recognizes the voice link corresponding to this note as the voice command spoken by the user.
  • DTW Dynamic Time Warping
  • the voice recognition being based on a comparison of digital audio recordings (audio recordings of the voice links of an .ias dictionary and of the audio recording of the voice command spoken by the user), voice recognition is greatly simplified and made more reliable, compared to phonetic type recognition systems such as that implemented in US-A-6,029,135. Also, one frees oneself from any dependence on a particular language.
  • the voice recognition program sends to the browser (B) (step 804) the action which is associated with this voice link and which is coded in the dictionary, that is to say in the particular example described previously the URL address of this voice link.
  • the browser (B) before sending the appropriate request to the server, unloads the page being viewed (page (m) .htm) as well as the associated extension module; which extension module before unloading breaks the link established between the voice recognition program (E) and the dictionary file ⁇ age (m) .ias. Then the operating steps are repeated in the above step (701).
  • each voice link is characterized by an address (URL), which is communicated to the browser of the client device when this voice link has been recognized by the voice recognition program, which then allows to the browser interact with the server so that the latter sends the resource corresponding to this address to the client device, for example a new page.
  • URL address
  • This however is not limitative of the invention.
  • this action coded in the attribute "address” can not only be an address locating a resource stored on the server 1, but could also be an address locating a resource (data, executable program, ...) stored locally at the client device 2 level, or a command code for an action executable by the client device such as for example, and without limitation, the command of a device locally at the client device level (printing of a document, opening or closing a window on the screen of the client device, stopping communication with the server and possibly putting in communication with a new server whose address would be specified in the "address” attribute, definitive disconnection of the client device in relation to telecommunication network 3, etc.).

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Data Mining & Analysis (AREA)
  • Information Transfer Between Computers (AREA)
  • Computer And Data Communications (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

Le système permet la commande vocale d'une page destinée à être visualisée sur un dispositif client (2), qui d'une part peut échanger des données avec un serveur (1) distant via un réseau de télécommunication (3), et qui d'autre part comprend des moyens (11, 12) permettant l'enregistrement d'une commande vocale prononcée par un utilisateur, et des moyens de reconnaissance vocale permettant, à partir d'une commande vocale enregistrée, de déterminer et de commander automatiquement l'exécution d'une action associée à cette commande vocale. Le serveur (1) comporte en mémoire, en lien avec ladite page (page (1).htm, ), au moins un dictionnaire (page (1).ias, ) d'un ou plusieurs liens vocaux comprenant pour chaque lien vocal au moins un enregistrement audio de la commande vocale; le dispositif client est apte à télécharger en mémoire chaque dictionnaire associé à la page, et les moyens de reconnaissance vocale du dispositif client (2) comportent un programme de reconnaissance vocale (E) qui est conçu pour réaliser une comparaison de l'enregistrement audio correspondant à la commande vocale avec le ou les enregistrements audio de chaque dictionnaire associé à la page.

Description

SYSTEME DE COMMANDE VOCALE D'UNE PAGE STOCKEE SUR UN
SERVEUR ET TELECHARGEABLE EN VUE DE SA VISUALISATION
SUR UN DISPOSITIF CLIENT
La présente invention concerne la commande vocale de pages accessibles sur un serveur via un réseau de télécommunication, et plus particulièrement de pages hypertextes. Elle trouve principalement, mais non exclusivement, son application à la navigation hypertexte par commande vocale sur un réseau de télécommunication de type Internet. Dans le présent texte, le terme « serveur » désigne d'une manière générale tout système informatique dans lequel sont stockées des données et qui est consultable à distance via un réseau de télécommunication.
Le terme « page » désigne tout document prévu pour être affiché sur un écran et stocké sur un site serveur à une adresse donnée.
Le terme « dispositif client » désigne d'une manière générale tout dispositf informatique apte à envoyer des requêtes à un site serveur pour que ce dernier lui envoie en retour les données objets de la requête, et en particulier un page déterminée, par exemple identifiée dans la requête par son adresse sur le serveur.
Le terme réseau de télécommunication désigne d'une manière générale tout moyen de communication permettant l'échange de données à distance entre un site serveur et un dispositif client ; il peut s'agir d'un réseau local (LAN) tel que l'intranet d'une entreprise ou encore d'un réseau longue distance (WAN) tel que par exemple le réseau Internet, ou encore d'un ensemble de réseaux de type différents et interconnectés.
Pour simplifier l'envoi à distance de pages entre un serveur et un dispositf client connecté à ce serveur via un réseau de télécommunication, on utilise couramment des systèmes de navigation hypertexte, qui permettent de naviguer parmi un ensemble de pages reliées les unes aux autres par des liens encore appelés liens hypertextes ou hyper-liens. En pratique, dans un système de navigation hypertexte, une page hypertexte contient en plus du texte de base devant être affiché à l'écran, des caractères ou séquences de caractères particuliers qui peuvent faire ou non partie intégrante du texte de base, et qui constituent les liens hypertextes de la page. Lorsque que ces liens hypertextes font partie intégrante du texte de base de la page, ils sont différenciés des autres caractères de la page de base, par exemple en étant soulignés et/ou visualisés dans une autre couleur, etc. Pour la gestion de la navigation hypertexte, le dispositif client est de manière usuelle équipé d'un logiciel de navigation, encore appelé navigateur. Lors de la sélection par un utilisateur d'un lien hypertexte dans la page en cours de visualisation, le logiciel de navigation dans un premier temps établit et envoie automatiquement une requête au serveur, permettant à ce dernier d'envoyer la page attachée au lien hypertexte qui a été sélectionné, et dans un second temps affiche à l'écran la nouvelle page qui lui est envoyée par le serveur.
Afin de faciliter l'activation des liens hypertextes dans un système de navigation hypertexte, on a déjà proposé des système d'activation par commande vocale, dans lesquels le lien hypertexte est prononcé par l'utilisateur, et est reconnu automatiquement par un système de reconnaissance vocale. Ces systèmes d'activation vocale remplacent avantageusement les systèmes d'activation manuelle traditionnels (clavier/souris), et deviennent même indispensables dans toutes les applications où il n'est pas envisageable ou souhaité de mettre œuvre un outil manuel tel qu'un clavier ou une souris. Un exemple de ce type d'application est la navigation vocale sur le réseau mondial internet au moyen de téléphones portables WAP.
A ce jour, tous les systèmes d'activation vocale de liens dans une page hypertexte sont essentiellement basés sur une analyse automatique
(« parsing ») de la page hypertexte, sur une détection automatique les liens présents dans la page, et sur la génération automatique de phonèmes à partir de chaque lien détecté. Plus particulièrement dans le brevet US-A- 6,029,135 , on décrit un système de navigation hypertexte par commande vocale qui peut être mis en oeuvre selon deux variantes : une première variante dite « run time » et une seconde variante dite « off line ». Dans la variante « off line », il est enseigné de faire générer par le producteur de pages hypertextes, « des données supplémentaires » pour la commande vocale de ces pages, lesquelles données supplémentaires sont téléchargées avec la page hypertexte depuis le serveur. Ces « données supplémentaires » sont utilisées par le « client » pour effectuer la reconnaissance vocale des mots prononcés par un utilisateur via un microphone, l'intelligence de reconnaissance vocale étant localisée au niveau du client. Dans l'unique mode de réalisation décrit, les «données supplémentaires » sont constituées par un dictionnaire de phonèmes, associé à un modèle de probabilité. Le dictionnaire de phonèmes et le modèle de probabilité associé sont générés automatiquement à partir de la page par analyse automatique du contenu du document et extraction automatique des liens présents dans le document. A cet effet, un logiciel spécifique appelé «manager » est utilisé.
Les solutions de l'art antérieur et en particulier celle retenue dans le brevet US-A- 6,029,135 présentent l'inconvénient majeur d'être basées sur une reconnaissance phonétique, ce qui d'une part complique la reconnaissance vocale, et est une source importante d'erreur , et ce qui d'autre part impose la mise en œuvre d'un logiciel complexe (« manager ») permettant la traduction automatique de chaque mot sous forme de phonèmes, et l'élaboration automatique de modèle de probabilité pour la mise en œuvre de la reconnaissance phonétique. Le logiciel de traduction phonétique est d'autant plus complexe si l'on souhaite par exemple intégrer différentes prononciations d'un mot, pour tenir compte de la langue. Egalement, ce type de solution présente l'inconvénient d'être dépendant d'une langue pour la transcription automatique du texte de la commande vers sa traduction en phonétique. Pour les raisons ci-dessus, ces solutions sont à ce jour relativement onéreuses, sont réservées à des systèmes de navigation professionnels très spécialisés, et sont donc peu adaptées à des applications dites grand public. La présente invention a pour principal objet un système qui permet la commande vocale d'une page qui est destinée à être visualisée sur un dispositif client apte à échanger des données avec un serveur distant via un réseau de télécommunication, et qui pallie les inconvénients précités des systèmes existants. Par commande vocale d'une page, on vise non seulement l'activation vocale de liens associés à la page, mais également et plus généralement l'activation par la voix de toute commande associée à la page visualisée, la commande n'étant pas nécessairement matérialisée par un mot visualisé sur l'écran du dispositif client mais pouvant être cachée. L'exécution de la commande associée à une page peut être de nature variée et n'est pas limitative de l'invention ( activation d'un lien hypertexte renvoyant sur une nouvelle page du serveur, commande de périphériques du dispositif client tel que par exemple une imprimante, ouverture ou fermeture de fenêtres sur le dispositif client, déconnexion du dispositif client, connexion du dispositif client sur un nouveau serveur etc.).
De manière connue, notamment par le brevet US-A- 6,029,135, le dispositif client comprend des moyens tels qu'un microphone et un carte d'acquisition audio, permettant l'enregistrement d'une commande vocale prononcée par un utilisateur, et des moyens de reconnaissance vocale permettant, à partir d'une commande vocale enregistrée, de déterminer et de commander automatiquement l'exécution une action associée à cette commande.
De manière caractéristique et essentielle selon l'invention, le serveur comporte en mémoire en lien avec ladite page au moins un dictionnaire d'un ou plusieurs liens vocaux comprenant pour chaque lien vocal au moins un enregistrement audio de la commande vocale ; le dispositif client est apte à télécharger en mémoire chaque dictionnaire associé à la page, et les moyens de reconnaissance vocale du dispositif client comportent un programme de reconnaissance vocale qui est conçu pour réaliser une comparaison de l'enregistrement audio correspondant à la commande vocale avec le ou les enregistrements audio de chaque dictionnaire associé à la page.
D'autres caractéristiques et avantages de l'invention apparaîtront plus clairement à la lumière de la description ci-après d'un exemple particulier de réalisation, laquelle description est donnée à titre d'exemple non limitatif et en référence aux dessins annexés sur lesquels :
- la figure 1 est une représentation schématique des principaux éléments composant un système de commande vocale conforme à l'invention,
- la figure 2 représente les principales étapes d'un programme d'aide à la création d'un dictionnaire de liens vocaux caractéristiques de l'invention, et de mise en relation du dictionnaire créé avec une page d'un serveur, en vue de la commande vocale de cette page,
- les figures 3 à 6 sont des exemples de fenêtres générées par le programme d'aide à la création de dictionnaires, - la figure 7 illustre les principales étapes mises en œuvre par un dispositif client dans la phase de téléchargement d'un dictionnaire associé à une page fournie par un serveur,
- la figure 8 illustre les principales étapes mises en œuvre par le programme de reconnaissance vocale exécuté en local par le dispositif client.
En référence à la figure 1 , dans un exemple particulier de réalisation, l'invention met en œuvre un serveur informatique 1 , sur lequel peuvent se connecter un ou plusieurs dispositifs clients 2 via un réseau de télécommunication 3. Plus particulièrement, dans l'exemple illustré, le serveur informatique 1 héberge de manière usuelle un ou plusieurs sites web, et les dispositifs clients sont conçus pour se connecter sur le serveur 1 via le réseau mondial Internet, et pour échanger des données avec ce serveur selon le protocole de communication IP usuel.
Chaque site web hébergé par le serveur 1 est constitué d'une pluralité de pages html matérialisées par des fichiers au format .htm (figure 1 / page1.htm, etc..) et reliés entre elles par des hyper-liens. Ces pages sont stockées de manière usuelle dans une unité mémoire 4 accessible en lecture et écriture par l'unité de traitement 5 du serveur 1. Outre l'unité mémoire 4 et l'unité de traitement 5, le serveur 1 comporte également de manière usuelle des moyens d'entrée/sortie 6, comprenant au moins un clavier permettant à un administrateur du serveur de saisir des données et/ou commandes, et au moins un écran permettant la visualisation des données du serveur, et notamment la visualisation des pages d'un site. Pour la gestion de l'échange de données avec un client 2 via le réseau 3, l'unité de traitement 5 comporte en mémoire vive un logiciel serveur A connu en soit, et permettant notamment l'envoi à un client 2 connecté au serveur 1 du ou des fichiers correspondant à la requête du client.
Un dispositif client 2 comporte de manière connue une unité de traitement 7 apte à être connectée via une interface de communication au réseau 3, et connectée également à des moyens d'entrée/sorties 8, dont au moins un écran pour la visualisation de chaque page html envoyée par le serveur 1. L'unité de traitement met en œuvre un logiciel de navigation B connu en soit, encore appelé navigateur (par exemple le logiciel de navigation de Netscape). L'invention, dont les moyens nouveaux vont à présent être détaillés à la lumière d'un exemple particulier de réalisation, n'est pas limitée à une application de type Internet, mas peut d'une manière plus générale être appliquée à toute architecture client/serveur indépendamment du type de réseau de télécommunication et du protocole d'échange de données utilisés. Egalement, le dispositif client peut indifféremment être un poste fixe, ou comprendre une unité mobile tel qu'un téléphone portable, de type WAP, permettant un accès au réseau de télécommunication 3.
L'invention repose de manière essentielle sur la mise en œuvre, pour chaque page du serveur à laquelle on souhaite associer une fonction de commande vocale, d'au moins un dictionnaire de liens vocaux, qui est stocké en mémoire du serveur 1 en lien avec ladite page, et qui présente la particularité de contenir pour chaque commande vocale, au moins un enregistrement audio, de préférence sous forme compressée, de la commande vocale. Dans l'exemple illustré sur la figure 1 , à chaque page html est associé en mémoire un unique dictionnaire matérialisé par un fichier comportant le même nom que la page mais avec une extension différente arbitrairement désignée « .ias » dans la suite de la présente description. Ainsi, à la page html matérialisée par le fichier page 1.htm est associé, en mémoire du serveur 1 , le fichier dictionnaire pagel .ias, etc.. Dans une autre variante, il est envisageable d'associer plusieurs dictionnaires à une même page.
Pour permettre la construction des fichiers dictionnaires ( .ias), le serveur l est équipé d'un microphone 9 connecté à une carte d'acquisition audio 10 (connue en soit), qui d'une manière générale permet de transformer le signal analogique délivré par le microphone 9 en une information de type numérique. Cette carte d'acquisition audio 10 communique avec l'unité de traitement 5 du serveur 1 , et permet à ce dernier d'effectuer l'acquisition via le microphone 9 d'enregistrements vocaux sous forme numérique. L'unité de traitement 5 est en outre apte à exécuter un logiciel C spécifique de l'invention, dont une variante sera décrite ci-après, et qui permet d'assister le créateur d'un site web dans la construction des dictionnaires de liens vocaux.
De manière similaire, afin de permettre l'acquisition par l'unité de traitement 7 d'un dispositif client 2 d'une commande vocale prononcée par l'utilisateur, ledit dispositif client 2 est également équipé d'un microphone 11 et d'une carte d'acquisition audio 12. Tel que cela sera expliqué de manière plus détaillée ultérieurement, la reconnaissance vocale automatique d'une commande vocale prononcée par l'utilisateur du dispositif client 2, en liaison avec une page en cours de visualisation sur l'écran du dispositif client 2, est réalisée en local par l'unité de traitement 7 du dispositif client 2, après téléchargement du fichier dictionnaire associé à la page en cours de visualisation.
Spécifications d'un Fichiers Dictionnaire (.ias)
Dans un exemple de réalisation, un fichier dictionnaire contient un ou plusieurs liens vocaux enregistrés les uns à la suite des autres, chaque lien vocal possédant plusieurs attributs concaténés :
1. le nom (qui correspond au mot phonétique de la commande vocale qui doit être prononcé par l'utilisateur pour activer le lien) ;
2. le type 3. l'adresse (plus communément appelée URL) permettant de localiser sur le serveur la ressource associée à la commande vocale ;
4. la cible ( c'est-à-dire le nom de la fenêtre dans la quelle doit d'afficher la nouvelle page) ;
5. un enregistrement audio ( encore appelé modèle acoustique) masculin 6. un enregistrement audio ( encore appelé modèle acoustique) féminin
L'attribut « type » d'un lien vocal est utilisé notamment pour spécifier :
- qu'il s'agit bien d'un lien vocal et pour le différencier par exemple des hyper lien d'une page html sans possibilité de commande vocale, - s'il s'agit d'un lien dont le nom apparaît dans le texte de la page associée ,
- si ce lien doit être caché ou si au contraire le nom du lien peut être affiché sur l'écran du dispositif client 2 dans une fenêtre spécifique contenant pour l'utilisateur les noms de tous les liens (non cachés) qu'il peut activer par la voix. Plus particulièrement, à titre d'exemple , en langage C++, un lien vocal peut être transcrit de la manière suivante :
Figure imgf000011_0001
Programme de construction d'un fichier Dictionnaire (figure 2)
Les principales étapes du programme de création d'un fichier dictionnaire vont à présent être expliquées en référence principalement à la figure 2. Dans l'exemple de la figure 1 , ce programme est exécuté par l'unité de traitement 5 du serveur, après que l'administrateur du serveur ait choisi l'option correspondante permettant le lancement du programme. 5 Néanmoins, dans une autre application, ce programme pourra avantageusement être mis à la disposition du créateur d'un site web, en étant mis en œuvre sur une machine différente du serveur, les fichiers dictionnaires (.ias) créés à l'aide de ce programme ainsi que les pages du sites web étant ensuite téléchargés dans l'unité mémoire 4 du serveur 2. En référence à la figure 2, la création d'un fichier dictionnaire page
(m). ias associé à une page html commence (étape 201 ) par l'ouverture du fichier page (m). htm de la page, suivie d'une extraction automatique des hyper liens présents dans la page (étape 202) et de la création d'un fichier dictionnaire page(m).ias avec ouverture d'une fenêtre de visualisation et de modification et/ou saisie de liens vocaux de ce dictionnaire (fenêtre « Dictionnaire » / étape 203). On a représenté sur la figure 3, un exemple de fenêtre créée à l'issue de l'étape 203. Dans cet exemple, ont été détectés et extraits automatiquement de la page(m).htm trois hyper liens, et pour chacun des ces hyper-liens a été créé automatiquement dans le dictionnaire associé page(m).ias, un lien vocal dont l'attribut adresse contient l'adresse URL de l'hyper lien correspondant retrouvé automatiquement dans le fichier page (m). htm.
A partir de cette première fenêtre (figure 3), il est possible soit de sélectionner dans la fenêtre de la figure 3 un lien existant dans le dictionnaire ( étape 204), soit de créer un nouveau lien vocal dans le dictionnaire (étape 205) en sélectionnant la commande appropriée dans un menu géré par la fenêtre de la figure 3.
Il convient ici de souligner que la fonction de création d'un nouveau lien vocal permet avantageusement de créer une commande vocale, qui ne correspond pas nécessairement à un hyper lien présent dans la page, et par là-même offre la possibilité de programmer des commandes vocales variées, et qui plus est des commandes cachées. Egalement, l'étape précitée d'extraction automatique (étape 202) est facultative, et ne se justifie que par un soucis de faciliter et d'accélérer la création du dictionnaire, en évitant à l'utilisateur de devoir créer manuellement dans le dictionnaire les liens vocaux correspondant à des hyper-liens de la page et de devoir saisir les adresses URL correspondantes.
En cas de sélection d'un lien vocal existant ou de création d'un nouveau lien vocal, le programme ouvre une deuxième fenêtre « propriétés du lien » du type de celle illustrée sur la figure 4 (étape 206), qui permet à l'utilisateur de saisir et/ou modifier les attributs précédemment décrit d'un lien vocal.
En particulier, dans cette fenêtre l'utilisateur a la possibilité de sélectionner un premier bouton d'action « Enreg » pour l'enregistrement d'une commande vocale par une voix masculine et un second bouton d'action « Enreg » pour l'enregistrement d'une commande vocale par une voix féminine. Lorsque l'utilisateur sélectionne l'un des boutons d'action précités, le programme exécute automatiquement un module d'acquisition d'un enregistrement audio. Ce module, une fois lancé permet l'acquisition via le microphone 9 d'un enregistrement audio sous forme numérique de la commande vocale ( voix masculine ou féminine selon le cas) pendant un laps de temps donné contrôlé, et à l'issue de ce laps de temps réalise une compression automatique de cet enregistrement par tout procédé connu de compression de données, puis sauvegarde cet enregistrement audio compressé dans le fichier dictionnaire page(m).ias Une fois que l'utilisateur a validé que toutes les propriétés d'un lien vocal ont été saisies ou modifiées, le programme ferme la fenêtre « propriétés du lien » correspondante (étape 207), et une fois que tous les liens vocaux du dictionnaire page (m). ias ont été créés de manière complète, l'utilisateur commande la fermeture de la fenêtre « Dictionnaire » , et par là-même la fermeture du dictionnaire page (m). ias (étape 208). La figure 5 illustre un exemple de fenêtre « propriété du lien » pour le lien vocal « Supérieur » mise à jour avant fermeture de la fenêtre ; la figure 6 illustre un exemple de fenêtre « Dictionnaire » mise à jour avant fermeture du dictionnaire page (m). ias. Une fois un dictionnaire page(m).ias complètement créé, le programme crée automatiquement (étape 209) un lien entre la page (fichier page(m).htm ) et le dictionnaire associé (fichier page(m).ias). et ferme le fichier dictionnaire (page(m).ias). Dans une variante de réalisation, ce lien est créé par insertion du nom (page(m).ias) du dictionnaire associé dans le fichier (page(m).htm) de la page. Un exemple d'implémentation du fichier page(m).htm est donné ci-dessous : <html> <head>
<TITLE> ( titre du fichier de la page html) </TITLE> </head>
<body;
<a href = <"suivante.htm"> Suivante</a><br> <a href = <'precedente.htm"> Précédente</a><br> <a href = <"superieur.htm"> Supérieur</a><br>
<p><embed src="page(m).ias" pluginspage="" type="application/x- NavigationByVoice" width="120" heigth="50"></embed></ρ>
</body>
</html>
La phase de transmission d'un dictionnaire entre le serveur 1 et un dispositif client 2 ainsi que la phase de reconnaissance vocale vont à présent être détaillées en référence aux figures 1 , 7 et 8.
Transmission d'un dictionnaires (.ias)
Initialement à l'aide du programme navigateur (B), le dispositif client 2 demande au serveur 1 de lui envoyer une page html ( par exemple le fichier page(m).htm) De manière usuelle, le navigateur (B) analyse le fichier page(m).htm et affiche sur l'écran le contenu de la page au fur et à mesure où il reçoit les données afférentes à cette page ( figure 11 étape 701 ). Au cours de l'analyse automatique du fichier page(m).htm, lorsque le navigateur détecte l'information selon laquelle un dictionnaire est attaché à cette page ( détection de src="page(m).ias" dans le fichier), il charge un module d'extension D (figure 1) stocké en mémoire vive du dispositif client (étape 702), et parallèlement lance un programme de reconnaissance vocale également stocké en mémoire vive, pour le cas ou ce programme n'aurait pas déjà été lancé ( ce qui est le cas par exemple la première fois où au cours d'une session une page (.htm) avec dictionnaire (.ias) attaché est reçue par le dispositif client 2).
Le navigateur envoie ensuite une requête au serveur 1 (étape 703) afin que celui ci lui transmette le fichier dictionnaire page(m).ias identifié dans le fichier page(m).htm.
Après réception par le dispositif client 2 du fichier dictionnaire page(m).ias, le navigateur (B) du dispositif client 2 envoie le fichier dictionnaire au module d'extension (D) (étape 705). Ce module d'extension (D) crée à son tour un lien entre le fichier dictionnaire page(m).ias et le programme de reconnaissance vocale (E) (étape 706). Ensuite (étape 707), le module d'extension (D) analyse le contenu du fichier dictionnaire page(m).ias et affiche à l'écran pour l'utilisateur, par exemple dans une nouvelle fenêtre, les noms (attribut « nom ») de tous les liens vocaux du fichier dictionnaire page(m).ias, pour lesquels la valeur de l'attribut « type » autorise une visualisation (commandes vocales non cachées), (étape 706). Reconnaissance vocale
Cette fonction est assurée par le programme de reconnaissance vocale (E), à partir d'une commande vocale entrée par l'utilisateur au moyen du microphone 11 et par comparaison avec le ou les fichiers dictionnaires avec lequel un lien a été établi. Il convient ici de souligner que le programme de reconnaissance vocale peut être lancé avec simultanément plusieurs module d'extension actifs.
Plus particulièrement, en référence à la figure 8, une fois lancé le programme de reconnaissance vocale (E) est dans l'attente de la détection d'un son par le microphone 11. Lorsque l'utilisateur du dispositif client prononce une commande à la voix, celle-ci est enregistrée automatiquement sous forme numérique ( étape 801 ), et le programme de reconnaissance vocal effectue une compression de cette enregistrement, en appliquant la même méthode de compression que celle utilisée par le programme (C) de création de dictionnaires. Ensuite (étape 803), le programme de reconnaissance vocale (E) effectue automatiquement une comparaison des données numériques correspondant à cet l'enregistrement audio compressé avec les données numériques de chaque enregistrement audio compressé (modèles acoustiques masculins et féminins) du fichier dictionnaire page (m). ias. (ou d'une manière générale de tous les fichiers dictionnaires pour lesquels un lien avec le programme de reconnaissance vocale est actif), en vue d'en déduire automatiquement le lien vocal du dictionnaire correspondant à la commande prononcée par l'utilisateur.
Plus particulièrement, dans une variante de réalisation de l'invention chaque comparaison des enregistrements audio compressés est mise en œuvre selon la méthode DTW (Dynamic Time Warping), et donne pour résultat une note de reconnaissance caractérisant le similitude entre les enregistrements. Seule la note la plus élevée est ensuite retenue par le programme de reconnaissance vocale, et comparée avec un seuil de détection prédéterminé en dessous duquel il est considéré que le mot prononcé n'a pas été reconnu comme une commande vocale. Si la note la plus élevée résultant des comparaisons précitées est supérieure à ce seuil, le programme de reconnaissance vocale reconnaît automatiquement le lien vocal correspondant à cette note comme étant la commande vocale prononcée par l'utilisateur.
De manière avantageuse selon l'invention, la reconnaissance vocale étant basée sur une comparaison d'enregistrements audio numériques (enregistrements audios des liens vocaux d'un dictionnaire .ias et de l'enregistrement audio de la commande vocale prononcée par l'utilisateur), on simplifie et on fiabilise très largement la reconnaissance vocale, comparativement à des systèmes de reconnaissance de type phonétique tel que celui mis en œuvre dans le brevet US-A- 6,029,135. Egalement, on s'affranchit de toute dépendance à une langue particulière. Après reconnaissance d'un lien vocal, le programme de reconnaissance vocale envoie au navigateur (B) (étape 804) l'action qui est associée à ce lien vocal et qui est codée dans le dictionnaire, c'est-à- dire dans l'exemple particulier décrit précédemment l'adresse URL de ce lien vocal. Si l'action associée correspond au chargement et à l'affichage d'une nouvelle page identifiée par son adresse URL, le navigateur (B), avant l'envoi de la requête appropriée au serveur , décharge la page en cours de visualisation ( page(m).htm ) ainsi que le module d'extension qui lui est associé; lequel module d'extension avant déchargement casse le lien établi entre le programme de reconnaissance vocale (E) et le fichier dictionnaire ρage(m).ias. Ensuite les étapes de fonctionnement sont reprises à l'étape (701 ) précitée.
Dans l'exemple particulier de réalisation qui a été décrit, chaque lien vocal est caractérisé par une adresse (URL), qui est communiquée au navigateur du dispositif client lorsque ce lien vocal a été reconnu par le programme de reconnaissance vocal, ce qui permet ensuite au navigateur de dialoguer avec le serveur afin que ce dernier envoie au dispositif client la ressource correspondant à cette adresse, et par exemple une nouvelle page. Ceci n'est toutefois pas limitatif de l'invention. On peut généraliser l'utilisation de cet attribut « adresse »d'un lien vocal pour coder d'une manière générale l'action qui est associée à la commande vocale définie par le lien vocal, et qui doit être automatiquement exécutée lors de la reconnaissance automatique d'un lien vocal par le programme de reconnaissance vocale. Ainsi, cette action codée dans l'attribut « adresse », peut non seulement être une adresse localisant une ressource stockée sur le serveur 1 , mais pourrait également être une adresse localisant une ressource (données, programme exécutable, ...) stockée en local au niveau du dispositif client 2, ou un code de commande d'une action exécutable par le dispositif client tel que par exemple , et de manière non limitative, la commande d'un périphérique en local au niveau du dispositif client (impression d'un document, ouverture ou fermeture d'une fenêtre sur l'écran du dispositif client, arrêt de la communication avec le serveur et éventuellement mise en communication avec un nouveau serveur dont l'adresse serait spécifiée dans l'attribut «adresse », déconnexion définitive du dispositif client par rapport au réseau de télécommunication 3, etc.).

Claims

REVENDICATIONS
1. Système pour la commande vocale d'une page destinée à être visualisée sur un dispositif client (2), qui d'une part peut échanger des données avec un serveur (1) distant via un réseau de télécommunication (3), et qui d'autre part comprend des moyens (11 ,12) permettant l'enregistrement d'une commande vocale prononcée par un utilisateur, et des moyens de reconnaissance vocale permettant, à partir d'une commande vocale enregistrée, de déterminer et de commander automatiquement l'exécution d'une action associée à cette commande vocale, caractérisé en ce que le serveur (1 ) comporte en mémoire, en lien avec ladite page, au moins un dictionnaire d'un ou plusieurs liens vocaux comprenant pour chaque lien vocal au moins un enregistrement audio de la commande vocale, en ce que le dispositif client est apte à télécharger en mémoire chaque dictionnaire associé à la page, et en ce que les moyens de reconnaissance vocale du dispositif client (2) comportent un programme de reconnaissance vocale (E) qui est conçu pour réaliser une comparaison de l'enregistrement audio correspondant à la commande vocale avec le ou les enregistrements audio de chaque dictionnaire associé à la page.
2. Système selon la revendication 1 caractérisé en ce qu'un lien vocal comporte plusieurs enregistrements audio de la commande vocale, dont au moins un enregistrement d'une voix féminine et un enregistrement d'une voix masculine.
3. Système selon la revendication 1 ou 2 caractérisé en ce que la page du serveur (1 ) comporte une information identifiant le ou les dictionnaires associés, et en ce que le dispositif client (2) est conçu d'une part pour détecter cette information lors de la visualisation de la page, et d'autre part en cas de détection de cette information pour envoyer une requête au serveur (1) afin que ce dernier lui envoie le dictionnaire identifié par cette information.
4. Système selon l'une des revendications 1 à 3 caractérisé en ce que chaque lien vocal d'un dictionnaire comporte une adresse permettant de localiser une ressource.
5. Système selon l'une des revendications 1 à 4 caractérisé en ce que chaque lien vocal d'un dictionnaire comporte un nom de la commande vocale, et en ce que le dispositif client est conçu, après réception d'un dictionnaire, pour lire et afficher les noms de tout ou partie des liens vocaux de ce dictionnaire.
6. Système selon la revendication 5 caractérisé en ce que le chaque lien vocal d'un dictionnaire comporte un attribut (« type ») permettant de spécifier si une commande vocale doit être cachée ou non, et en ce que le dispositif client (2) est conçu, après réception d'un dictionnaire, pour lire et afficher les noms uniquement des liens vocaux dont la valeur de l'attribut « type » autorise la visualisation.
7. Serveur de données comportant une unité de traitement (5) et unité mémoire (4) qui est accessible au moins en lecture par l'unité de traitement (5), et dans laquelle sont stockées une pluralité de pages destinées à être visualisées sur un dispositif client (2) après téléchargement via un réseau de télécommunication (3), caractérisé en ce que l'unité mémoire (4) comporte en lien avec chaque page au moins un dictionnaire d'un ou plusieurs liens vocaux, chaque lien vocal comportant au moins un enregistrement audio d'une commande vocale.
8. Serveur selon la revendication 7 caractérisé en ce que chaque page du serveur comporte une information identifiant le ou les dictionnaires associés.
9. Serveur selon la revendication 7 ou 8 caractérisé en ce que chaque lien vocal comporte une adresse permettant de localiser une ressource, de préférence dans l'unité mémoire (4) du serveur (1 ).
10. Dispositif client (2) qui d'une part est apte à échanger des données avec un serveur (1 ) distant et à télécharger et visualiser des pages de données stockées en mémoire du serveur (1), et qui d'autre part comprend des moyens (11 ,12) permettant l'enregistrement d'une commande vocale prononcée par un utilisateur, et des moyens de reconnaissance vocale permettant, à partir d'une commande vocale enregistrée, de déterminer et de commander automatiquement l'exécution une action associée à cette commande, caractérisé en ce que le dispositif client (2) est conçu pour télécharger en mémoire depuis le serveur (1) un dictionnaire qui est associé à une page visualisée et qui contient un ou plusieurs liens vocaux, chaque lien vocal comprenant au moins un enregistrement audio d'une commande vocale, et en ce que les moyens de reconnaissance vocale du dispositif client (2) comportent un programme de reconnaissance vocale (E) qui est conçu pour réaliser une comparaison de l'enregistrement audio correspondant à la commande vocale prononcée par un utilisateur avec le ou les enregistrements audio de chaque dictionnaire qui a été téléchargé.
11. Support mémoire (4) sur lequel est stockée au moins une page qui est visualisable sur un dispositif client (2) et qui comporte une pluralité d'instructions lisibles par le dispositif client, les instructions représentant le contenu de la page et incluant une information qui identifie au moins un dictionnaire associé à la page, ledit dictionnaire comprenant un ou plusieurs liens vocaux, un lien vocal comprenant au moins un enregistrement audio d'une commande vocale, ladite information, une fois lue par le dispositif client, déclenchant le téléchargement depuis un serveur (1) distant dudit dictionnaire.
PCT/FR2001/001560 2000-06-08 2001-05-21 Systeme de commande vocale d'une page stockee sur un serveur et telechargeable en vue de sa visualisation sur un dispositif client WO2001095087A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
AU2001262476A AU2001262476A1 (en) 2000-06-08 2001-05-21 Voice-operated system for controlling a page stored on a server and capable of being downloaded for display on client device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0007359A FR2810125B1 (fr) 2000-06-08 2000-06-08 Systeme de commande vocale d'une page stockee sur un serveur et telechargeable en vue de sa visualisation sur un dispositif client
FR00/07359 2000-06-08

Publications (1)

Publication Number Publication Date
WO2001095087A1 true WO2001095087A1 (fr) 2001-12-13

Family

ID=8851103

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2001/001560 WO2001095087A1 (fr) 2000-06-08 2001-05-21 Systeme de commande vocale d'une page stockee sur un serveur et telechargeable en vue de sa visualisation sur un dispositif client

Country Status (4)

Country Link
US (1) US20020010585A1 (fr)
AU (1) AU2001262476A1 (fr)
FR (1) FR2810125B1 (fr)
WO (1) WO2001095087A1 (fr)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1209660A2 (fr) * 2000-11-23 2002-05-29 International Business Machines Corporation Navigation vocale dans des applications sur internet
US7146323B2 (en) 2000-11-23 2006-12-05 International Business Machines Corporation Method and system for gathering information by voice input

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6728681B2 (en) * 2001-01-05 2004-04-27 Charles L. Whitham Interactive multimedia book
US9374451B2 (en) * 2002-02-04 2016-06-21 Nokia Technologies Oy System and method for multimodal short-cuts to digital services
FR2836249A1 (fr) * 2002-02-18 2003-08-22 Converge Online Procede de synchronisation des interactions multimodales dans la presentation d'un contenu multimodal sur un support multimodal
US8611919B2 (en) * 2002-05-23 2013-12-17 Wounder Gmbh., Llc System, method, and computer program product for providing location based services and mobile e-commerce
US7483525B2 (en) * 2003-05-23 2009-01-27 Navin Chaddha Method and system for selecting a communication channel with a recipient device over a communication network
JP4891072B2 (ja) * 2003-06-06 2012-03-07 ザ・トラスティーズ・オブ・コロンビア・ユニバーシティ・イン・ザ・シティ・オブ・ニューヨーク ウェブ・ページを音声付勢するためのシステム及び方法
US20050277410A1 (en) * 2004-06-10 2005-12-15 Sony Corporation And Sony Electronics, Inc. Automated voice link initiation
US8768711B2 (en) * 2004-06-17 2014-07-01 Nuance Communications, Inc. Method and apparatus for voice-enabling an application
US20080080678A1 (en) * 2006-09-29 2008-04-03 Motorola, Inc. Method and system for personalized voice dialogue
DE102007042582A1 (de) * 2007-09-07 2009-03-12 Audi Ag Verfahren zum Entwickeln einer Dialogstruktur für ein künstliches Sprachsystem
US8453058B1 (en) 2012-02-20 2013-05-28 Google Inc. Crowd-sourced audio shortcuts
TWI619115B (zh) * 2014-12-30 2018-03-21 鴻海精密工業股份有限公司 會議記錄裝置及其自動生成會議記錄的方法
US20170374529A1 (en) * 2016-06-23 2017-12-28 Diane Walker Speech Recognition Telecommunications System with Distributable Units

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5355433A (en) * 1990-03-26 1994-10-11 Ricoh Company, Ltd. Standard pattern comparing system for eliminating duplicative data entries for different applications program dictionaries, especially suitable for use in voice recognition systems
EP0847179A2 (fr) * 1996-12-04 1998-06-10 AT&T Corp. Système et méthode d'interface vocale aux informations hyperliées
WO1999048088A1 (fr) * 1998-03-20 1999-09-23 Inroad, Inc. Navigateur web a commande vocale

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4440598C1 (de) * 1994-11-14 1996-05-23 Siemens Ag Durch gesprochene Worte steuerbares Hypertext-Navigationssystem, Hypertext-Dokument für dieses Navigationssystem und Verfahren zur Erzeugung eines derartigen Dokuments
US6188985B1 (en) * 1997-01-06 2001-02-13 Texas Instruments Incorporated Wireless voice-activated device for control of a processor-based host system
US6101472A (en) * 1997-04-16 2000-08-08 International Business Machines Corporation Data processing system and method for navigating a network using a voice command
US6157705A (en) * 1997-12-05 2000-12-05 E*Trade Group, Inc. Voice control of a server
US6636831B1 (en) * 1999-04-09 2003-10-21 Inroad, Inc. System and process for voice-controlled information retrieval

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5355433A (en) * 1990-03-26 1994-10-11 Ricoh Company, Ltd. Standard pattern comparing system for eliminating duplicative data entries for different applications program dictionaries, especially suitable for use in voice recognition systems
EP0847179A2 (fr) * 1996-12-04 1998-06-10 AT&T Corp. Système et méthode d'interface vocale aux informations hyperliées
WO1999048088A1 (fr) * 1998-03-20 1999-09-23 Inroad, Inc. Navigateur web a commande vocale

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1209660A2 (fr) * 2000-11-23 2002-05-29 International Business Machines Corporation Navigation vocale dans des applications sur internet
EP1209660A3 (fr) * 2000-11-23 2002-11-20 International Business Machines Corporation Navigation vocale dans des applications sur internet
US7146323B2 (en) 2000-11-23 2006-12-05 International Business Machines Corporation Method and system for gathering information by voice input

Also Published As

Publication number Publication date
FR2810125A1 (fr) 2001-12-14
FR2810125B1 (fr) 2004-04-30
AU2001262476A1 (en) 2001-12-17
US20020010585A1 (en) 2002-01-24

Similar Documents

Publication Publication Date Title
WO2001095087A1 (fr) Systeme de commande vocale d&#39;une page stockee sur un serveur et telechargeable en vue de sa visualisation sur un dispositif client
EP0974221B1 (fr) Dispositif de commande vocale pour radiotelephone, notamment pour utilisation dans un vehicule automobile
EP1404094B1 (fr) Système de téléchargement de contenu multimédia et procédé associé
EP1585110B1 (fr) Système d&#39;application vocale
US20020165719A1 (en) Servers for web enabled speech recognition
US20030009517A1 (en) Web enabled recognition architecture
WO2015049198A1 (fr) Procede de dialogue entre une machine, telle qu&#39;un robot humanoïde, et un interlocuteur humain, produit programme d&#39;ordinateur et robot humanoïde pour la mise en œuvre d&#39;un tel procede
EP2215626A1 (fr) Systeme d&#39;interpretation simultanee automatique
FR2991222A1 (fr) Systeme et procede pour generer des comportements contextuels d&#39;un robot mobile executes en temps reel
EP2419823A1 (fr) Procede d&#39;assistance au developpement ou a l&#39;utilisation d&#39;un systeme complexe
EP2164237A1 (fr) Procédé et système de communication pour l&#39;affichage d&#39;un lien vers un service à partir d&#39;une expression énoncée en cours de conversation
EP1194868B1 (fr) Methode et systeme de creation de documents electroniques - auto-publiants et adaptatifs
EP1839213A1 (fr) Procede de generation d&#39;index textuel a partir d&#39;une annotation vocale
FR2867583A1 (fr) Correcteur semantique, syntaxique et/ou lexical et procede d&#39;interaction vocale, support d&#39;enregistrement et programme d&#39;ordinateur pour sa mise en oeuvre
EP3032410A1 (fr) Procédé de fourniture d&#39;un service informatique et système informatique pour la mise en oeuvre du procédé
EP0790553B1 (fr) Outil de génération et d&#39;exécution de commandes à interface graphique
FR2884380A1 (fr) Procede et systeme de generation automatique de composants pour la conception de services vocaux.
FR3003966A1 (fr) Procede d&#39;adaptation dynamique d&#39;un environnement logiciel execute a partir d&#39;un terminal de communication d&#39;un utilisateur, au cours d&#39;une communication entre l&#39;utilisateur et au moins un interlocuteur.
EP4198971A1 (fr) Method for selecting voice contents recorded in a database, according to their veracity factor
WO2024033192A1 (fr) Procédé et dispositif de construction d&#39;une base de connaissance dans le but d&#39;utiliser de manière transverse des fonctions applicatives d&#39;une pluralité de logiciels
JP2022100498A (ja) 情報処理装置、制御方法、プログラム
FR3136881A1 (fr) Procédé et dispositif d’identification et d’extension du contexte de saisie d’un utilisateur, pour effectuer des suggestions contextualisées quelle que soit l’application logicielle utilisée.
CA3143967A1 (fr) Systemes et procedes permettant de gerer des requetes vocales a l&#39;aide d&#39;informations de prononciation
FR3130422A1 (fr) Procédé de sélection de contenus vocaux en- registrés dans une base de données, en fonction de leur facteur de véracité.
CN115730048A (zh) 一种会话处理方法、装置、电子设备及可读存储介质

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NO NZ PL PT RO RU SD SE SG SI SK SL TJ TM TR TT TZ UA UG US UZ VN YU ZA ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZW AM AZ BY KG KZ MD RU TJ TM AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR BF BJ CF CG CI CM GA GN GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
REG Reference to national code

Ref country code: DE

Ref legal event code: 8642

122 Ep: pct application non-entry in european phase
NENP Non-entry into the national phase

Ref country code: JP