JP2002304194A - System, method and program for inputting voice and/or mouth shape information - Google Patents

System, method and program for inputting voice and/or mouth shape information

Info

Publication number
JP2002304194A
JP2002304194A JP2001317031A JP2001317031A JP2002304194A JP 2002304194 A JP2002304194 A JP 2002304194A JP 2001317031 A JP2001317031 A JP 2001317031A JP 2001317031 A JP2001317031 A JP 2001317031A JP 2002304194 A JP2002304194 A JP 2002304194A
Authority
JP
Japan
Prior art keywords
input
voice
mouth shape
user
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001317031A
Other languages
Japanese (ja)
Other versions
JP2002304194A5 (en
Inventor
Masanobu Kujirada
雅信 鯨田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2001317031A priority Critical patent/JP2002304194A/en
Publication of JP2002304194A publication Critical patent/JP2002304194A/en
Publication of JP2002304194A5 publication Critical patent/JP2002304194A5/en
Pending legal-status Critical Current

Links

Landscapes

  • Mobile Radio Communication Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a system, a method and a program for inputting a voice/ mouth shape information mixture so as to prevent the occurrence of leaking secret information (includes privacy information) that may occur, while inputting the information using only voice, and to provide a highly accurate information inputting. SOLUTION: The system, the method and the program are provided with a voice input means which is used to input voice uttered by a user, a mouth shape information inputting means which is used to input an image of the mouth shape of the user and an input contents determining means which is used to determine the inputted contents of the user, based on the information from the voice input means and the information from the mouth shape information input means. When the strength of the voice inputted into the voice input means is equal to or less than a prescribed level, the input contents determining means determines the inputted contents by the user, based on the information from the mouth shape information input means.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、携帯電話、PDA(携
帯情報端末)、パソコンなどにユーザーが情報を入力す
るためのシステム、方法、プログラムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a system, a method, and a program for allowing a user to input information into a mobile phone, a PDA (Personal Digital Assistant), a personal computer, and the like.

【0002】[0002]

【従来の技術】従来より、携帯電話、PDA、パソコン
などにユーザーが音声で情報を入力する方式が知られて
いる。また、携帯電話、PDA、パソコンなどに、ユー
ザーが口形状(唇の形状)により情報を入力する方式
(読唇機能)が提案され、特許や特許出願なども複数存
在している。
2. Description of the Related Art Conventionally, there has been known a method in which a user inputs information by voice to a mobile phone, a PDA, a personal computer, or the like. In addition, a method (lip reading function) in which a user inputs information in a mouth shape (lip shape) to a mobile phone, a PDA, a personal computer, and the like has been proposed, and there are a plurality of patents and patent applications.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来か
ら提案されている方法は、音声入力のときは入力された
音声のみから情報を入力する方式であり、また、読唇入
力のときは読唇のみで情報を入力する方式であり、両者
を混合した入力方式はまだ発案されていない。一般に、
音声のみの入力によるときは、パスワードなどの秘密情
報を入力するときに、その秘密情報が周囲の人に聞かれ
て秘密情報が漏れてしまうという問題がある。また、読
唇機能のみによるときは、入力内容の精度が低下してし
まうという問題がある。本発明はこのような従来技術の
問題点を解決するものであって、音声入力のみによると
きの秘密情報(プライバシー情報を含む)の漏洩を防ぐ
と共に、高精度な情報入力を可能にすることができる音
声及び/又は口形状入力のためのシステム、方法、プロ
グラムを提供することを目的とする。
However, the conventionally proposed method is a method of inputting information only from the input voice at the time of voice input, and the method of inputting information only by lip reading at the time of lip reading input. And an input method that mixes the two has not been proposed yet. In general,
When only voice is input, when inputting secret information such as a password, there is a problem that the secret information is heard by surrounding people and the secret information is leaked. In addition, when only the lip reading function is used, there is a problem that the accuracy of the input content is reduced. SUMMARY OF THE INVENTION The present invention is to solve such a problem of the prior art, and it is possible to prevent leakage of secret information (including privacy information) only by voice input and to enable highly accurate information input. It is an object to provide a system, a method and a program for voice and / or mouth shape input that can be performed.

【0004】[0004]

【課題を解決するための手段】(用語説明)本発明にお
いて、「秘密情報」は、プライバシー情報を含む。本発
明において、「口形状」は、「唇形状」を含む。
(Explanation of Terms) In the present invention, "secret information" includes privacy information. In the present invention, “mouth shape” includes “lip shape”.

【0005】(本発明の内容)本発明の内容は、本明細
書の特許請求の範囲に記載したとおりのものである。よ
って、本明細書の特許請求の範囲の内容を、ここに援用
することとする(前記特許請求の範囲の記載をここに転
写することによる重複記載は省略する)。なお、本発明
においては、本明細書の特許請求の範囲の中に記載され
ているシステム(装置)のアイデアは、全て、「方法」
「プログラム」としても捉えることができる。すなわ
ち、本発明においては、本明細書の特許請求の範囲の中
において「システム(装置)」の形で記載された発明の
内容は、全て、「方法」「プログラム」の形でも記載す
ることができ、「方法」「プログラム」の形でも実現す
ることができる。すなわち、本発明においては、本明細
書の特許請求の範囲の中において、末尾に「システム
(装置)」という文字が記載された発明は、その全て
が、末尾に「方法」「プログラム」という文字で把握・
記載される発明とすることができる。すなわち、本明細
書の特許請求の範囲の内容は、その全てが「方法の発
明」「プログラムの発明」としても構成することがで
き、そのように「方法の発明」「プログラムの発明」と
して構成される発明も、本発明の範囲内である。本発明
の「プログラムの発明」の実施形態には、例えば、AS
P(アプリケーションサービスプロバイダー)がプログ
ラムをユーザーにインターネットなどのネットワークを
介して送信する場合における、その送信対象であるプロ
グラムなどが、含まれる。
(Content of the present invention) The content of the present invention is as described in the claims of the present specification. Therefore, the contents of the claims of the present specification are incorporated herein (duplicate description by transferring the description of the claims herein is omitted). In the present invention, all ideas of the system (apparatus) described in the claims of this specification are referred to as “methods”.
It can be understood as a "program". That is, in the present invention, all the contents of the invention described in the form of “system (apparatus)” in the claims of the present specification can also be described in the form of “method” and “program”. It can be realized in the form of "method" or "program". That is, in the present invention, in the claims of the present specification, all the inventions in which the letters "system (apparatus)" are described at the end thereof have the letters "method" and "program" at the end. Grasp by
The described invention can be the described invention. That is, the contents of the claims in this specification can all be configured as “method inventions” and “program inventions”, and as such, are configured as “method inventions” and “program inventions”. Invented inventions are also within the scope of the present invention. Embodiments of the “program invention” of the present invention include, for example, AS
When the P (application service provider) transmits the program to the user via a network such as the Internet, the transmission target program is included.

【0006】[0006]

【発明の実施の形態】実施形態1.図1は本発明の実施
形態1を示すもので、携帯電話に搭載された本実施形態
1による音声・口形状混合入力システムを示す概略ブロ
ック図である。図1において、1はユーザーの音声を入
力するための音声入力部で、例えばマイクなどで構成さ
れる。2はユーザーの口(唇)の形状を画像入力するた
めの口形状入力部で、例えばCCDカメラなどで構成さ
れる。3は前記音声入力部1から入力された音声を、音
声と文字を関連付けて記録した音声データベース3aを
参照して、対応する文字に変換するための音声文字変換
部である。4は前記口形状入力部2から入力された口
(唇)形状を、口(唇)形状と文字を関連付けて記録し
た口形状データベース4aを参照して、対応する文字に
変換するための口形状文字変換部である。5は前記音声
文字変換部3からの出力と前記口形状文字変換部4から
の出力とに基づいて、ユーザーからの入力内容を決定す
るための入力内容決定部である。6は前記入力内容決定
部5からの出力を他の情報機器(記録装置を含む)にネ
ットワークを介して送信するための送信部(モデムなど
で構成される)、7は前記入力内容決定部5からの出力
を記録するための図1の携帯電話に内蔵された記録部
(メモリ)である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiment 1 FIG. FIG. 1 shows a first embodiment of the present invention, and is a schematic block diagram showing a mixed voice / mouth shape input system according to the first embodiment mounted on a mobile phone. In FIG. 1, reference numeral 1 denotes a voice input unit for inputting a user's voice, which is composed of, for example, a microphone. Reference numeral 2 denotes a mouth shape input unit for inputting an image of the shape of the mouth (lips) of the user, and is constituted by, for example, a CCD camera. Reference numeral 3 denotes a voice / character conversion unit for converting the voice input from the voice input unit 1 into a corresponding character by referring to a voice database 3a in which voice and characters are associated and recorded. Reference numeral 4 denotes a mouth shape for converting the mouth (lip) shape input from the mouth shape input unit 2 into a corresponding character by referring to a mouth shape database 4a recorded in association with the mouth (lip) shape and the character. It is a character conversion unit. Reference numeral 5 denotes an input content determining unit for determining the input content from the user based on the output from the voice character converting unit 3 and the output from the mouth-shaped character converting unit 4. Reference numeral 6 denotes a transmission unit (comprising a modem or the like) for transmitting an output from the input content determination unit 5 to another information device (including a recording device) via a network, and 7 denotes the input content determination unit 5 2 is a recording unit (memory) built in the mobile phone of FIG. 1 for recording an output from the mobile phone.

【0007】また、図1において、8は、前記音声入力
部1に入力された音声の大きさ(レベル)を判定し、そ
の入力された音声の大きさが所定のレベルよりも小さい
ときは、そのことを示す信号を前記入力内容決定部5に
出力するための音声レベル判定部である。いま、前記入
力内容決定部5が、前記音声ケベル判定部8から、前記
音声入力部1に入力されたユーザーからの音声の大きさ
が所定のレベルよりも小さいこと(例えば、ユーザーか
らの音声の大きさが、人間の耳ではほとんど聞き取れな
い程の小さいレベルのものであること)を示す信号を受
信したときは、前記入力内容決定部5は、自動的に、前
記口形状入力部2から入力された口形状のみに基づいて
(より具体的には、前記口形状文字変換部4からの出力
のみに基づいて)、ユーザーからの入力内容を決定する
ようにしている。すなわち、本実施形態1においては、
前記音声入力部1から入力されるユーザーの音声が所定
レベルよりも低い(小さい)ときは、前記入力内容決定
部5は、前記音声レベル判定部8からの信号を受けて、
自動的に、前記口形状入力部2から入力された口形状の
情報(この口形状の情報に対応する文字情報)のみに基
づいて、ユーザーからの入力内容を決定するようにして
いる。よって、本実施形態1では、ユーザーがその口か
ら所定レベル以上の(例えば、通常の人間の耳に聞き取
れる大きさと同じかそれ以上の)音声を発しているとき
は、ユーザーの音声と口形状との両方の情報に基づい
て、ユーザーからの入力内容を決定するようにし、ユー
ザーがその口から所定レベル以上の(例えば、通常の人
間の耳に聞き取れる大きさと同じかそれ以上の)音声を
発していないときは、ユーザーの口形状の情報のみに基
づいて、ユーザーからの入力内容を決定するようにして
いる。
In FIG. 1, reference numeral 8 denotes the loudness (level) of the voice input to the voice input unit 1, and when the level of the input voice is smaller than a predetermined level, This is a sound level determination unit for outputting a signal indicating this to the input content determination unit 5. Now, the input content determining unit 5 determines that the volume of the voice from the user input to the voice input unit 1 is smaller than a predetermined level (for example, the voice of the user). When the input content determination unit 5 receives a signal indicating that the size is of such a small level that the human ear can hardly hear it, the input content determination unit 5 automatically inputs the signal from the mouth shape input unit 2. The input content from the user is determined based only on the mouth shape that has been input (more specifically, based only on the output from the mouth shape character conversion unit 4). That is, in the first embodiment,
When the user's voice input from the voice input unit 1 is lower (lower) than a predetermined level, the input content determination unit 5 receives a signal from the voice level determination unit 8,
The input contents from the user are automatically determined based only on the mouth shape information (character information corresponding to the mouth shape information) input from the mouth shape input unit 2. Therefore, in the first embodiment, when the user is emitting a sound of a predetermined level or more from the mouth (for example, the same size or higher than a size that can be heard by a normal human ear), the user's voice and the shape of the mouth are compared. The input from the user is determined based on both pieces of information, and the user utters a sound from his / her mouth at a predetermined level or more (for example, at least as large as can be heard by a normal human ear). When there is no such information, the input content from the user is determined based on only the information on the mouth shape of the user.

【0008】よって、本実施形態1によれば、ユーザー
は、通常は、自分の口から通常人に話すのと同様の大き
さの音声を発して情報を入力するようにすればよい(こ
の場合は、ユーザーからの音声と口形状との両方の情報
により、ユーザーからの入力内容が決定される)。そし
て、ユーザーは、特別の場合、すなわち、パスワードや
クレジトカード番号などの秘密情報を入力する場合とき
だけは、そのときだけ、通常よりも小さな声又はほとん
ど(全く)周囲に聞き取れない声などの「所定レベルよ
りも低いレベルの音声を発する」(この「所定レベルよ
りも低いレベルの音声を発する」場合の中には、「全く
音声を発しないで、口を動かすだけ」の場合をも含む)
ようにすればよい(この場合は、ユーザーからの口形状
の情報のみに基づいて、ユーザーからの入力内容が決定
される)。このように、本実施形態1では、ユーザー
は、通常の秘密でない情報の入力(この場合は、周囲に
情報の内容が聞こえてもよいので、音声入力で入力する
ことができる)と、パスワードなどの秘密情報の入力
(この場合は、周囲に情報の内容が聞かれてしまうとま
ずい)とを、秘密情報のところだけ音声を所定レベルよ
りも小さくする(周囲に聞こえないような小さい音で話
すか、全く音声を出さないで口の形状だけ話すのと同様
に動かす)ようにすることにより、シームレスに連続的
に、行うことができるようになる。したがって、本実施
形態1によれば、例えば、ユーザーがインターネット上
のバーチャルショップとの間で商品の購入の注文を音声
入力により行っているとき、商品の注文や価格の確認な
どの秘密情報でない情報については所定レベル以上の音
声で情報を入力し、自己のパスワードや生年月日やクレ
ジットカード番号などの秘密情報(プライバシー情報を
含む)を入力するときは、そのときだけ、所定レベル以
下の音声により(周囲に聞き取れないような小さい声を
出すか、又は、全く声を出さないで)情報を入力するこ
とができる。すなわち、本実施形態1によれば、ユーザ
ーは、通常は音声を発して入力しながら、その途中にプ
ライバシーなどの秘密情報の入力が必要なときは、その
ときだけ、所定レベル以下の音声にする(全く音声を発
しないようにすることを含む)ようにして、その秘密情
報が周囲の人に聞かれてしまうことを防止し、その秘密
情報の入力が終わった後は、また通常どおり、通常の音
声を発して入力を継続することができる。
Therefore, according to the first embodiment, the user may normally input a piece of information by uttering a voice of the same size as speaking to a normal person from his / her own mouth (in this case, In this case, the input content from the user is determined by both the voice from the user and the information of the mouth shape. Only in special cases, that is, when inputting secret information such as a password or a credit card number, the user is required to enter a “predetermined voice” such as a voice lower than usual or a voice almost inaudible (at all). Emit a sound at a level lower than the level "(" Speaking a sound at a level lower than the predetermined level "includes" move the mouth without sound at all ")
(In this case, the input content from the user is determined based only on the mouth shape information from the user). As described above, in the first embodiment, the user inputs normal non-confidential information (in this case, the contents of the information may be heard around the user, so that the information can be input by voice input), a password, and the like. (In this case, it is not good to hear the contents of the information in the surroundings), it is necessary to make the sound lower than the predetermined level only for the secret information (speak with a small sound that cannot be heard by the surroundings). In other words, it is possible to perform the operation seamlessly and continuously by performing the same operation as speaking only the shape of the mouth without producing any sound. Therefore, according to the first embodiment, for example, when a user makes an order to purchase a product with a virtual shop on the Internet by voice input, information that is not confidential information such as a product order or a price confirmation. If you enter information with a voice higher than the predetermined level, and enter secret information (including privacy information) such as your password, date of birth, credit card number, etc. Information can be input (either in a quiet voice that is inaudible to the surroundings, or not at all). That is, according to the first embodiment, the user normally emits a voice and inputs the voice, and when it is necessary to input confidential information such as privacy in the middle of the voice, only at that time, makes the voice lower than a predetermined level. (Including not making any sound) to prevent the confidential information from being heard by people around you, And the input can be continued.

【0009】実施形態2.上記の実施形態1では、図1
の音声文字変換部3(及び音声入力部1)と、口形状文
字変換部4(及び口形状入力部2)とは、同時に並行的
に動作するようにしているが、本実施形態2では、通常
は(すなわちユーザーが音声を所定レベル以上の音で発
しているときは)、前記音声文字変換部3(及び音声入
力部1)のみを作動させて音声入力方式によりデータ入
力を行うようにし、ユーザーからの音声が所定レベル以
下になったときだけ、自動的に、前記口形状文字変換部
4(及び口形状入力部2)を作動させて口形状入力方式
によりデータ入力を行うようにしてもよい。すなわち、
この実施形態2では、実施形態1と異なって、図1の音
声文字変換部3(及び音声入力部1)と、口形状文字変
換部4(及び口形状入力部2)とを、いずれか一方のみ
が作動して両者が同時には作動しないようにするという
「トレードオフの関係」にしている。
Embodiment 2 In the first embodiment, FIG.
Although the voice character conversion unit 3 (and the voice input unit 1) and the mouth shape character conversion unit 4 (and the mouth shape input unit 2) operate in parallel at the same time, in the second embodiment, Normally (i.e., when the user emits a voice with a sound of a predetermined level or more), only the voice character conversion unit 3 (and the voice input unit 1) is operated to perform data input by a voice input method, Only when the voice from the user falls below a predetermined level, the mouth shape character conversion unit 4 (and the mouth shape input unit 2) is automatically activated to input data by the mouth shape input method. Good. That is,
In the second embodiment, unlike the first embodiment, one of the speech character conversion unit 3 (and the speech input unit 1) and the mouth shape character conversion unit 4 (and the mouth shape input unit 2) shown in FIG. It is a "trade-off relationship" that only operates and not both at the same time.

【0010】[0010]

【発明の効果】本発明によれば、ユーザーは、通常は音
声を発して音声で入力しながら(上記の実施形態1の場
合は、音声入力と口形状入力との両者の方式を混合させ
て入力内容を決定しながら)、その途中にプライバシー
などの秘密情報の入力が必要なときは、そのときだけ、
所定レベル以下の音声にする(全く音声を発しないよう
にすることを含む)ようにして口形状のみからデータ入
力を行うようにして、その秘密情報が周囲の人に聞かれ
てしまうことを防止し、その秘密情報の入力が終わった
後は、また通常どおり、通常の音声を発して音声入力で
入力を継続する(上記の実施形態1の場合は、音声入力
と口形状入力との両者の方式を混合させて入力内容を決
定することを継続する)ことができる。よって、本発明
によれば、ユーザーは、通常の秘密でない情報の入力
(この場合は、周囲に情報の内容が聞こえてもよいの
で、音声入力で入力することができる)と、パスワード
などの秘密情報の入力(この場合は、周囲に情報の内容
が聞かれてしまうとまずい)とを、秘密情報のところだ
け音声を所定レベルよりも小さくする(周囲に聞こえな
いような小さい音で話すか、全く音声を出さないで口の
形状だけ話すのと同様に動かす)ようにすることによ
り、シームレスに且つ連続的に、行うことができるよう
になる。
According to the present invention, the user normally emits voice and inputs the voice (in the case of the first embodiment, the user mixes both the voice input and the mouth shape input). If you need to enter confidential information such as privacy during the process,
Prevents the secret information from being heard by surrounding people by inputting data only from the mouth shape by making the sound below a predetermined level (including making no sound at all) Then, after the input of the secret information is completed, a normal voice is emitted and the input is continued by the voice input as usual (in the case of the first embodiment, both the voice input and the mouth shape input are performed). It is possible to continue to determine the input contents by mixing the methods). Therefore, according to the present invention, the user can input normal non-secret information (in this case, the contents of the information can be heard around, so that the user can input by voice input) and secret information such as a password. The input of information (in this case, it is bad if the contents of the information are heard by others) means that the sound is lower than the predetermined level only for the secret information (speaking with a small sound that can not be heard by others, (Similar to speaking only the shape of the mouth without any sound) so that it can be performed seamlessly and continuously.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施形態1を示す概略ブロック図。FIG. 1 is a schematic block diagram showing a first embodiment of the present invention.

─────────────────────────────────────────────────────
────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成14年4月8日(2002.4.8)[Submission date] April 8, 2002 (2002.4.8)

【手続補正1】[Procedure amendment 1]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】全図[Correction target item name] All figures

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図1】 FIG.

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 ユーザーからの音声を入力するための音
声入力手段と、 ユーザーの口形状の画像を入力するための口形状入力手
段と、 前記音声入力手段からの情報及び/又は前記口形状入力
手段からの情報に基づいて、ユーザーによる入力内容を
決定するための入力内容決定手段と、を備えたことを特
徴とする音声及び/又は口形状入力のためのシステム。
1. A voice input means for inputting voice from a user, a mouth shape input means for inputting an image of a user's mouth shape, information from the voice input means and / or the mouth shape input Means for determining input contents by the user based on information from the means. A system for inputting voice and / or mouth shape, comprising:
【請求項2】 請求項1において、前記入力内容決定手
段は、前記音声入力手段に入力される音声の大きさが所
定のレベルよりも小さいときは、自動的に、前記口形状
入力手段からの情報に基づいてユーザーによる入力内容
を決定するものである、ことを特徴とする音声及び/又
は口形状入力のためのシステム。
2. The apparatus according to claim 1, wherein the input content determining means automatically outputs the voice from the mouth shape input means when the volume of the voice input to the voice input means is smaller than a predetermined level. A system for voice and / or mouth shape input, wherein the input content of a user is determined based on information.
【請求項3】 ユーザーからの音声を入力することと、
ユーザーの口形状の画像を入力することとの双方又はい
ずれか一方を行うステップと、 前記の入力された音声の情報及び/又は前記の入力され
た口形状の情報に基づいて、ユーザーによる入力内容を
決定するステップと、を含むことを特徴とする音声及び
/又は口形状入力のための方法。
3. Inputting a voice from a user;
Inputting an image of a user's mouth shape, and / or inputting an image of the user's mouth shape; and input content by the user based on the input voice information and / or the input mouth shape information. And determining a speech and / or mouth shape input.
【請求項4】 請求項3において、前記入力内容決定の
ステップにおいて、前記のユーザーから入力された音声
の大きさが所定のレベルよりも小さいときは、自動的
に、前記の入力された口形状の情報に基づいてユーザー
による入力内容を決定するものである、ことを特徴とす
る音声・口形状混合入力のための方法。
4. The input mouth shape according to claim 3, wherein in the input content determination step, when the volume of the voice input from the user is smaller than a predetermined level, the input mouth shape is automatically set. A method for mixed input of voice and mouth shape, characterized in that the input content by the user is determined based on the information of the user.
【請求項5】 ユーザーからの音声を入力することと、
ユーザーの口形状の画像を入力することとの双方又はい
ずれか一方を行う機能と、 前記の入力された音声の情報及び/又は前記の入力され
た口形状の情報に基づいて、ユーザーによる入力内容を
決定する機能と、を実現するための音声及び/又は口形
状入力のためのコンピュータプログラム。
5. Inputting a voice from a user,
A function of inputting an image of a user's mouth shape and / or a function of inputting an image of the user's mouth shape based on the input voice information and / or the input mouth shape information; And a computer program for inputting voice and / or mouth shape for realizing the function.
【請求項6】 請求項5において、前記入力内容決定の
機能においては、前記のユーザーから入力された音声の
大きさが所定のレベルよりも小さいときは、自動的に、
前記の入力された口形状の情報に基づいて、ユーザーに
よる入力内容を決定するものである、ことを特徴とする
音声及び/又は口形状入力のためのコンピュータプログ
ラム。
6. The input content determination function according to claim 5, wherein when the volume of the voice input from the user is smaller than a predetermined level,
A computer program for voice and / or mouth shape input, wherein the input content by a user is determined based on the input information on the mouth shape.
JP2001317031A 2001-02-05 2001-10-15 System, method and program for inputting voice and/or mouth shape information Pending JP2002304194A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001317031A JP2002304194A (en) 2001-02-05 2001-10-15 System, method and program for inputting voice and/or mouth shape information

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2001028641 2001-02-05
JP2001-28641 2001-02-05
JP2001317031A JP2002304194A (en) 2001-02-05 2001-10-15 System, method and program for inputting voice and/or mouth shape information

Publications (2)

Publication Number Publication Date
JP2002304194A true JP2002304194A (en) 2002-10-18
JP2002304194A5 JP2002304194A5 (en) 2006-03-23

Family

ID=26608939

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001317031A Pending JP2002304194A (en) 2001-02-05 2001-10-15 System, method and program for inputting voice and/or mouth shape information

Country Status (1)

Country Link
JP (1) JP2002304194A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003280677A (en) * 2002-03-12 2003-10-02 Matsushita Electric Ind Co Ltd Factorization for generating library of mouth shape
JP2006079456A (en) * 2004-09-10 2006-03-23 Nippon Signal Co Ltd:The Utterance identification method and password collation device using it
CN104409075A (en) * 2014-11-28 2015-03-11 深圳创维-Rgb电子有限公司 Voice identification method and system
WO2016150001A1 (en) * 2015-03-24 2016-09-29 中兴通讯股份有限公司 Speech recognition method, device and computer storage medium

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003280677A (en) * 2002-03-12 2003-10-02 Matsushita Electric Ind Co Ltd Factorization for generating library of mouth shape
JP2006079456A (en) * 2004-09-10 2006-03-23 Nippon Signal Co Ltd:The Utterance identification method and password collation device using it
JP4553667B2 (en) * 2004-09-10 2010-09-29 日本信号株式会社 Utterance identification method and password verification device using the same
CN104409075A (en) * 2014-11-28 2015-03-11 深圳创维-Rgb电子有限公司 Voice identification method and system
WO2016082267A1 (en) * 2014-11-28 2016-06-02 深圳创维-Rgb电子有限公司 Voice recognition method and system
US10262658B2 (en) 2014-11-28 2019-04-16 Shenzhen Skyworth-Rgb Eletronic Co., Ltd. Voice recognition method and system
WO2016150001A1 (en) * 2015-03-24 2016-09-29 中兴通讯股份有限公司 Speech recognition method, device and computer storage medium

Similar Documents

Publication Publication Date Title
FI115868B (en) speech synthesis
US20200125643A1 (en) Mobile translation application and method
US7313522B2 (en) Voice synthesis system and method that performs voice synthesis of text data provided by a portable terminal
JP2002304194A (en) System, method and program for inputting voice and/or mouth shape information
US6501751B1 (en) Voice communication with simulated speech data
US20180300316A1 (en) System and method for performing message translations
JP2008205972A (en) Communication terminal, voice message transmission device and voice message transmission system
EP1402515B1 (en) Method of processing a text, gesture, facial expression, and/or behavior description comprising a test of the authorization for using corresponding profiles for synthesis
JP2003283672A (en) Conference call system
JP6511189B1 (en) Information processing system and transcription method
JP2000259389A (en) Interaction recording system and interaction recording synthesizer
KR20020020585A (en) System and method for managing conversation -type interface with agent and media for storing program source thereof
JP2007259427A (en) Mobile terminal unit
KR20040025029A (en) Image Data Transmission Method through Inputting Data of Letters in Wired/Wireless Telecommunication Devices
JP2002374366A (en) Communications equipment and communication system
KR100553066B1 (en) Method of Voice-out for Keypad input in Mobile Phone
JP7507859B2 (en) Interaction method and electronic device
JP3694698B2 (en) Music data generation system, music data generation server device
JP2002304194A5 (en) Input system using voice and lip shape
JP2007163875A (en) Voice synthesizer and voice synthesis program
JP5902436B2 (en) COMMUNICATION DEVICE, PROGRAM, AND VOICE DATA TRANSMISSION METHOD
KR20230044647A (en) Voice recording device for covid-19
JP2023114250A (en) Conference server and conference system
EP4176372A1 (en) Multilingual conversation tool
KR100595390B1 (en) Method and system of providing emo sound service

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040922

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040922

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060912

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070130