JP2005033568A - Silent communication system - Google Patents
Silent communication system Download PDFInfo
- Publication number
- JP2005033568A JP2005033568A JP2003271166A JP2003271166A JP2005033568A JP 2005033568 A JP2005033568 A JP 2005033568A JP 2003271166 A JP2003271166 A JP 2003271166A JP 2003271166 A JP2003271166 A JP 2003271166A JP 2005033568 A JP2005033568 A JP 2005033568A
- Authority
- JP
- Japan
- Prior art keywords
- data
- character string
- character
- image
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Input (AREA)
- Telephone Function (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、無音声通信システムに関し、特に、音声を発することなく通話を可能とする無音声通信システムに関する。 The present invention relates to a voiceless communication system, and more particularly, to a voiceless communication system that enables a telephone call without producing a voice.
従来の無音声通話手段としては、口唇形状から音声を認識して信号を送信する送信器と、前記信号を受信して音声に復号する受信器とからなる音声処理装置及び電話装置が知られている(特許文献1、図6、11、段落0039参照)。
As conventional silent voice communication means, there are known a voice processing device and a telephone device comprising a transmitter for recognizing a voice from a lip shape and transmitting a signal, and a receiver for receiving the signal and decoding it into a voice. (See
図9は、特許文献1記載の装置の構成を示す図である。この装置の送信器は図9(a)に示すように、口唇形状の画像データを入力し当該口唇形状の画像データに応じた音声合成用元データを出力する口唇形状認識部1aと、前記音声合成用元データから音声合成、符号化及び送信をそれぞれ行う音声合成部2a、音声符号化部3a及び送信部4aとを備え、受信部5a及び音声復号化部6aを備える受信器側と声を出さずに通話を可能としようとするものである。口唇形状認識部91は図9(b)に示すように、口唇付近の形状を撮影してデータを出力する入力部1bと、画像データに対応する音声合成用元データがデータベース5bとして格納されたメモリ部4bと、入力部1bからの画像データに応じた音声合成用元データをデータ出力部3bに出力する制御部2bから構成されている。
FIG. 9 is a diagram illustrating a configuration of the apparatus described in
従来の音声処理装置及び電話装置は、口唇等により発語しようとする音声データを生成することが可能であるとしているが、単に、画像データに対応する音声合成用元データをデータベースに基づいて生成することが開示されているにすぎず、ユーザが意図する音声を正しく生成するための具体的、論理的な認識処理の開示はなされていない。 Conventional speech processing devices and telephone devices are capable of generating speech data to be spoken by the lips, but simply generate original data for speech synthesis corresponding to image data based on the database. However, there is no disclosure of a specific logical recognition process for correctly generating a voice intended by the user.
(目的)
本発明の目的は、ユーザの口部の形状を認識し該形状に応じ意図した正しい音声を出力する新規な無音声通信システムを提供することにある。
本発明の目的は、口部の形状の認識に対するユーザの確認操作を含む音声の無音声通信システムを提供することにある。
本発明の他の目的は、口部の形状を撮影するためのマスクを用いた無音声通信システムを提供することにある。
(the purpose)
An object of the present invention is to provide a novel silent communication system that recognizes the shape of a user's mouth and outputs a correct voice intended according to the shape.
An object of the present invention is to provide a voiceless voice communication system including a user's confirmation operation for recognizing a mouth shape.
Another object of the present invention is to provide a voiceless communication system using a mask for photographing the shape of the mouth.
本発明は音声発話が困難な状況等においての通話を可能とするために、ユーザが発話する際の口の形を識別し音声合成することで正しい音声発話を行う新規な手段を提供する。本発明の無音声通話システムは、口部を撮影する画像撮影部と、撮影した画像データから文字データを生成する画像解析部と、前記文字データから文字列データを生成する文字列変換部と、前記文字列データから音声データを合成する音声合成出力部と、前記音声データを音声に変換する音声出力部(例えば図1の12)と、前記文字列データを外部出力部に出力するか否かを選択する認識結果判定スイッチ(例えば図1の9)と、を備え、更に、画像データの口部の形状と文字データとの関係をデータベースとする基本口形画像データベースを備え、前記画像解析部は、前記基本口形画像データベースを参照して前記撮影画像の口部の形状から文字データを生成することを特徴とする。 The present invention provides a novel means for performing correct voice utterance by identifying a mouth shape when a user speaks and synthesizing the voice in order to enable a call in a situation where voice utterance is difficult. The voiceless call system of the present invention includes an image photographing unit for photographing the mouth, an image analyzing unit for generating character data from the photographed image data, a character string converting unit for generating character string data from the character data, A voice synthesis output unit that synthesizes voice data from the character string data, a voice output unit (for example, 12 in FIG. 1) that converts the voice data into voice, and whether or not to output the character string data to an external output unit A recognition result determination switch (for example, 9 in FIG. 1), and a basic mouth shape image database in which the relationship between the shape of the mouth portion of the image data and the character data is used as a database. Character data is generated from the shape of the mouth of the photographed image with reference to the basic mouth image database.
また、文字列データの作成タイミングを制御する認識開始通知スイッチを備え、前記認識開始通知スイッチの操作時点を文字列の区切りとして、前記文字列変換部は前記画像解析部から入力した当該時点までの文字データを文字列データに変換して出力することを特徴とし、又は、前記画像解析部は同じ文字データが一定数連続した時点で、当該連続する文字データの後続の文字データを間引いて前記文字列変換部に出力するとともに、当該時点までの文字データを文字列データとして出力するように前記文字列変換部を制御することを特徴とする。 Also, a recognition start notification switch for controlling the creation timing of the character string data is provided, and the operation point of the recognition start notification switch is used as a character string delimiter, and the character string conversion unit is connected to the time point input from the image analysis unit. Character data is converted into character string data and output, or when the same character data continues for a certain number of times, the image analysis unit thins out the character data subsequent to the continuous character data and The character string conversion unit is controlled to output to the column conversion unit and to output the character data up to the time point as character string data.
更に、語彙群を収録した語彙データベースと使用頻度を記録した選択頻度データベースを備え、前記文字列変換部は、前記語彙データベース及び選択頻度データベースを参照して1ないし複数の文字例データを使用頻度順に認識結果判定スイッチにより音声合成出力部に順次出力することを特徴とし、口部を覆い該口部を撮影するためのマスクを備え、少なくとも口部を照明する照明部と口部を撮影する前記画像撮影部を前記マスクの内側に配置したことを特徴とする。 Furthermore, a vocabulary database that records vocabulary groups and a selection frequency database that records usage frequencies are provided, and the character string conversion unit refers to the vocabulary database and the selection frequency database to generate one or more character example data in order of frequency of use. The image that is sequentially output to the speech synthesis output unit by a recognition result determination switch, includes a mask for covering the mouth and photographing the mouth, and at least the illumination unit that illuminates the mouth and the image for photographing the mouth The imaging unit is arranged inside the mask.
より具体的には、照明部3で照らされたユーザの口の部分を、タイマー部2で設定された時間間隔毎に画像撮影部1で撮影し、その結果を画像解析部4に通知する。画像解析部4は基本口形画像データベース5を参照し、その口の形が何の文字を発する際の形に類似するかを判断し、その結果を文字データで文字列変換部6に出力する。文字列変換部6は文字データを複数ならべた文字列データを語彙データベース7の内容と比較し、当該文字列データに近い語彙を複数検索し、その語彙の中から選択頻度データベース8上で使用頻度の高い語彙順の1ないし複数の文字列データを候補として音声合成出力部10に出力する。音声合成出力部10は文字列データを音声データに変換してイヤホン12に出力する。ユーザはイヤホン12からの可聴音によりユーザの意図したものか否かを判定し、それぞれ認識OK又は認識NGとして出力可能な認識結果判定スイッチ13を操作することにより、それぞれ音声データを外部出力部11に出力するか、又は次候補の音声データを外部出力部11に出力する。認識OKの場合、音声合成出力部10は音声データを外部出力部11に出力するとともに、当該文字列データを選択頻度データベース8に登録し、そうでない場合は次の候補をイヤホン12から出力する処理を繰り返すことで音声発語を実現する。(図3)
More specifically, the portion of the user's mouth illuminated by the
本発明によれば、口部の形状から文字データに、前記文字データを文字列データに、前記文字列データを音声データに順次変換することで音声の合成を実現し、ユーザは一切発声する必要がなく、口の動きと手の操作で発話内容を決定することができるから、ユーザが発話したい正しい内容をスピーカや電話機のマイク端子等に出力することで相手と通信することが可能である。電車内など発話できない環境内や身体的な問題で声を発声することができない等において極めて有効である。 According to the present invention, voice synthesis is realized by sequentially converting the shape of the mouth into character data, the character data into character string data, and the character string data into voice data, and the user needs to speak at all. Therefore, the content of the utterance can be determined by the movement of the mouth and the operation of the hand, so that it is possible to communicate with the other party by outputting the correct content that the user wants to utter to the speaker or the microphone terminal of the telephone. This is extremely effective in environments where speech cannot be spoken, such as in trains, or inability to speak due to physical problems.
また、口の動きに関連して認識開始のタイミングを制御するスイッチと認識結果の判定用のスイッチを用いる構成とすることにより、ユーザの意図した正しい音声データを確実に合成することが可能である。また、一定時間発話を停止する等、同じ文字データが一定数連続するような口の動かし方により、文字列区切りとして文字列変換を開始する構成とすることにより、スイッチ操作をすることなく当該時点までの文字列データを生成し音声データに変換して自動的に発声することが可能である。 In addition, by using a switch that controls the recognition start timing in relation to the movement of the mouth and a switch for determining the recognition result, it is possible to reliably synthesize correct voice data intended by the user. . In addition, by changing the mouth so that a certain number of the same character data continues, such as when utterance is stopped for a certain time, the character string conversion is started as a character string delimiter, so that the current point in time without switching It is possible to generate character string data up to and convert it into voice data and automatically utter it.
また、内側に照明部及び画像撮影部を備えユーザの口部を覆い隠すマスクを使用することにより、ユーザが使用する場所の明るさに影響を受けることなく、また、ユーザが発話したい内容を周囲にいるユーザ以外から悟られること無く発声することが可能である。 In addition, by using a mask that includes an illumination unit and an image capturing unit on the inside and covers the user's mouth, the brightness of the location used by the user is not affected, and the user wants to speak It is possible to speak without being understood by users other than those who are in
(構成の説明)
図1は本発明の無音声通信システムの一実施の形態を示す図である。本実施の形態の無音声通信システムは、ユーザの口の付近(口部)を撮影し画像データ(画像)を出力する画像撮影部1と、一定時間間隔毎に画像撮影部1の撮影動作を行わせる信号を出力するタイマー部2と、ユーザの口部を明るく照らすための照明部3と、画像撮影部1で撮影された画像を解析する画像解析部4と、ユーザが特定の文字を発声する際にどのような口の形になっているかの画像、つまり特定の文字と該特定の文字に対応するユーザの口の形の画像との関係を記録した基本口形画像データベース5と、画像解析部4の結果から推測される文字列を出力する文字列変換部6と、文字列変換部6で文字列を生成する際の語彙データである語彙データベース7と、過去にユーザが選択した文字列と該文字列毎の利用頻度を保存した選択頻度データベース8と、文字を文字列に変換するタイミングをユーザから文字列変換部6に通知するための認識開始通知スイッチ9と、文字列を音声として出力する音声合成出力部10と、音声を外部に出力するための外部出力部11と、ユーザが音声合成部10の出力を聞くためのイヤホン12と、音声合成部10の出力から認識結果がユーザの意図する文字列か否かを判断し、ユーザが文字列変換部6に通知するための認識結果判定スイッチ13と、から構成されている。
(Description of configuration)
FIG. 1 is a diagram showing an embodiment of a voiceless communication system according to the present invention. The silent communication system of the present embodiment includes an
各部の構成及び機能について説明する。
画像撮影部1は、ユーザの口の形を静止画として撮影するための撮影装置である。タイマー部2は一定時間間隔毎にユーザの口の形を撮影するためのタイミング信号を出力する前記時間間隔を設定可能なタイマーである。タイマー部2から一定時間毎に画像撮影部1に撮影の指示信号を送り、画像撮影部1は該指示信号によりユーザの口を撮影する。照明部3は、画像撮影部1による撮影対象のユーザの口の部分を明るく照らし、鮮明な画像の撮影を可能とする。
The configuration and function of each part will be described.
The
画像解析部4は、画像撮影部1で撮影された画像を解析し、当該画像のユーザの口の形から、通常ユーザが発声する際にもっとも近い音を特定し、当該音に対応する文字データ(文字)を出力する。基本口形画像データベース5は、通常ユーザが発声する音とその際の口の形の画像データとの関係をデータベースとしたものであり、画像解析部4が画像のユーザの口の形から音を特定する際に参照される。
The image analysis unit 4 analyzes the image captured by the
文字列変換部6は、画像解析部4から出力される複数の文字を集めて、ユーザが発声している文字を結合するとともに、語彙データベース7及び選択頻度データベース8を参照して出力する文字列の候補を特定する機能を備えている。ここで語彙データベース7は、文字列変換部6がユーザの発声しようとする文字列を特定する際に参照される語彙群であり、文字列変換部6は語彙データベース7からユーザの発声しようとする文字列を探し出して文字列を特定する。また、選択頻度データベース8は、ユーザが過去に選択した文字列の頻度データをデータベースとしたものであり、文字列変換部6での文字列の特定において参照される。
The character
認識開始通知スイッチ9は、ユーザが手動で操作するスイッチであり、ユーザが認識開始通知スイッチ9を押下することで、それまでに画像解析部4から文字列変換部6に出力された文字を文字列に変換するよう通知するための機能を備えている。
The recognition
音声合成出力部10は、文字列変換部6で特定した文字列を外部出力部11、もしくはイヤホン12から音声出力する機能を有する。イヤホン12は、音声合成出力部10の出力をユーザに対して音声として出力し、当該音声の出力を外部出力部11へ出力するか否かをユーザにより判断可能とするものであり、外部出力部11は音声出力を携帯電話機等の音声入力部に出力する機能を備える。
The voice
認識結果判定スイッチ13は、文字列変換部6での文字列の特定結果についてイヤホン12から出力される音声に基づいて、ユーザがその良否を判断し、その音声出力を外部出力部11へ出力するか又は当該文字列を廃棄して文字列変換部6での次の候補である新たな文字列の特定を指示するか等を選択する機能を備える。認識結果判定スイッチ13からの指示が認識OKの場合、その音声出力を外部出力部11に切り替え出力する機能を備えている。また、当該文字列は選択頻度データベース8に登録される。また、認識結果判定スイッチ13からの指示が認識NGの場合、当該音声出力は廃棄される。
Based on the sound output from the
図2は本実施の形態の画像撮影手段を示す図である。ユーザの口の部分に装着可能なマスク部A1と、ユーザの耳に装着可能なイヤホン部A2と、手に持ち操作可能なスイッチ部A4と、外部機器等と接続可能な外部出力部A3とから構成される。本例ではマスク部A1には、図1に示す画像撮影部1のみ、又は画像撮影部1ないし選択頻度データベース8及び音声合成出力部10を設けることができ、また、スイッチ部A4には図1に示す認識開始通知スイッチ9と認識結果判定スイッチ13が設けられる。ユーザはマスク部A1を口の部分に装着し、イヤホン部A2を耳に装着し、音声を発することなく口を動かし、認識された文字列の音声をイヤホン部A2により確認してスイッチ部A4を操作して口部による正しい音声の認識結果のみを音声合成出力から外部出力部11に出力する。
FIG. 2 is a diagram showing the image photographing means of the present embodiment. From a mask part A1 that can be worn on the user's mouth, an earphone part A2 that can be worn on the user's ear, a switch part A4 that can be held and operated by the hand, and an external output part A3 that can be connected to an external device or the like. Composed. In this example, only the
(動作の説明)
次に、図1、2、3、4、5及び6を参照して本実施の形態の動作について詳細に説明する。
図3は本実施の形態の動作フローチャートを示す図である。ユーザは声を出さずに任意の文字を発話するように口だけを動かす(ステップB1)。この間にタイマー部2は固定時間間隔(1秒)が経過する毎に画像撮影部1に撮影指示の信号を通知する。画像撮影部1はこの通知を受ける毎にユーザの口を撮影し(ステップB3)、撮影した画像を画像解析部4に送信する(ステップB4)。なお、画像の撮影間隔が通常の会話等の語間より長い1秒間隔に設定したことにより、当該間隔に応じてユーザは文字を区切って発話するように口を動かす必要がある。
(Description of operation)
Next, the operation of the present embodiment will be described in detail with reference to FIGS.
FIG. 3 is a diagram showing an operation flowchart of the present embodiment. The user moves his / her mouth only to speak any character without speaking (step B1). During this period, the
図4は画像解析部4の動作フローチャートを示す図である。画像解析部4では画像撮影部1で撮影した画像を受信し(ステップC1)、基本口形画像データベース5から1つの画像データ(画像)を取り出し(ステップC2)、両者のマッチングの比較をして一致の度合いを数値化する(ステップC3)。基本口形画像データベース5内の画像の全点についてこれを繰り返し(ステップC4)、類似度合いの大きい口の形に対応する声を判定し、その文字データ(文字)を文字列変換部6に送信する(ステップC5)。
FIG. 4 is a flowchart illustrating the operation of the image analysis unit 4. The image analysis unit 4 receives the image captured by the image capturing unit 1 (step C1), takes out one image data (image) from the basic mouth image database 5 (step C2), and compares the matching between the two to match. The degree of is numerically expressed (step C3). This is repeated for all points in the image in the basic mouth image database 5 (step C4), the voice corresponding to the mouth shape having a high degree of similarity is determined, and the character data (characters) is transmitted to the
図5は文字列変換部6の動作フローチャートを示す図であり、図6は語彙データベースのデータの構成を示す図である。文字列変換部6では、受信した1字1字の文字データをまとめて文字列データ(文字列)に変換する処理を行う。文字列変換部6では、ユーザが認識開始通知スイッチ9を押すまで、画像解析部4から受信した文字情報を受信した順に結合し文字列化する(ステップD1およびステップD2)。認識開始通知スイッチ9が押されたら、文字列変換部6は、語彙データベース7から1つのデータを読み出す(ステップD3)。このとき読み出されるデータは図6に示すように、口の形から発せられる母音や”ん”等により構成される音データと、音データと対になる出力単語データから構成される。文字列変換部6は、音データと画像解析部4から受信した文字により作られた文字列を比較し一致度合いを数値化し(ステップD4)、出力単語データと対にして保持する。これを語彙データベース7内の全てのデータに対して実施し(ステップD5)、完了時に一致度が高い順に出力単語データの値を並べ、一番一致度の高い出力単語データを音声合成出力部10に出力する。
FIG. 5 is a diagram showing an operation flowchart of the
音声合成出力部10は受信した出力単語データをイヤホン12に出力する。ユーザはその内容を聞き、ユーザの意図する結果であれば、ユーザにより認識結果判定スイッチ13の認識OKボタンが押下される。認識OKボタンによる通知は音声合成出力部10に通知され、音声合成出力部10から当該出力単語データが外部出力部11に出力される。また、ユーザが意図しない結果であれば、ユーザにより認識結果判定スイッチ13の認識NGボタンが押下される。認識NGボタンによる通知は文字列変換部6に通知され、文字列変換部6はこの通知により次に一致度の高い出力単語データを音声合成出力部10に出力し、音声合成出力部10は再び当該出力単語データをイヤホン12に出力し、ユーザによる判定が行われ、以上と同様な処理が行われる。以上の処理によりユーザが発声することなく、発話したい内容を正しく出力することが可能となる。
The speech
(他の実施の形態)
次に、本発明の第2の実施の形態について図面を参照して詳細に説明する。
図7は、本発明の第2の実施の形態を示す図である。第2の実施の形態は、通常の会話における発語に近い口の動きによって画像認識及び音声合成を可能とし、文字変換のタイミングもユーザから通知する操作を不要としたものである。
(Other embodiments)
Next, a second embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 7 is a diagram showing a second embodiment of the present invention. In the second embodiment, image recognition and speech synthesis are enabled by mouth movements close to speech in normal conversation, and an operation for notifying the timing of character conversion from the user is unnecessary.
本実施の形態では、図1に示すような認識開始通知スイッチ9を不要とし、また、連続的に画像を解析する画像解析部(以下、「連続画像解析部」という。)14を備える。タイマー部15は1秒よりも短い時間間隔のn秒毎に画像撮影部1に信号を送り、画像撮影部1はn秒毎にユーザの口の形を撮影し、連続画像解析部14に画像を連続的に送信する。連続画像解析部14は文字列変換部6に変換開始をも通知するように構成し、図1に示すような認識開始通知スイッチ9を不要としている。
In the present embodiment, the recognition
このため連続画像解析部14は、画像撮影部1で撮影された画像を基本口形画像データベース5の画像と連続して比較する機能に加え、1秒より短い時間間隔で画像を撮影することにより同じ口の形を重複して撮影した場合、この重複する後続の画像を排除するため不要な画像情報を間引く、例えば3個以上、同じ文字が連続して認識される場合にユーザの発話の区切りと認識し、当該連続する同一文字から後続の文字、例えば最初の1文字以外の全てを間引いて、文字列変換部6に先頭の文字データを出力するとともに、文字列変換部6に対して認識開始を通知する機能を有する。
For this reason, the continuous
図8は第2の実施の形態の動作フローチャートを示す図である。以下、図7および図8を参照して第2の実施の形態の動作について説明する。
第2の実施の形態は、第1の実施の形態と比較して、タイマー部2から通知される撮影間隔がn(<1)秒であること、画像撮影部1で撮影された画像は連続画像解析部14が入力して文字データを認識し文字列変換部6に通知するとともに、連続画像解析部14が文字列変換部6に文字列データの特定等の認識開始を通知すること等以外は第1の実施の形態と同様である。
FIG. 8 is a diagram showing an operation flowchart of the second embodiment. The operation of the second embodiment will be described below with reference to FIGS.
Compared with the first embodiment, the second embodiment is that the shooting interval notified from the
図8を参照すると、第2の実施の形態では、連続画像解析部14の内部処理用に記憶された文字列を初期化し(ステップE1)、その後、画像撮影部1で撮影された画像は、連続画像解析部14に送られる(ステップE2)。連続画像解析部14では、第1の実施の形態の画像解析部4と同様に、基本口形画像データベース5の画像と受信した画像を1データ読み込み(ステップE3)、マッチングの比較を行い、一致の度合いを数値化する(ステップE4)。これを基本口形画像データベース5の全件に対して行い(ステップE5)、全件チェック完了時に、一致の度合いが最大となるものに対応する文字を既に格納されている内部処理用の文字列の後ろに結合する(ステップE6)とともに文字列変換部6に文字データを出力する。ここで、3個以上、同じ文字が連続して結合しないかぎりステップE2の処理から繰り返して内部処理用の文字列の結合を継続する(ステップE7、NO)。
また、ステップE7において、3個以上、同じ文字が連続して結合した場合(ステップE7、YES)、ユーザの発話の区切りと認識し、連続する同一文字から最初の1文字以外全て間引いて(ステップE8)、文字列変換部6に先頭の文字データを出力するとともに、文字列変換部6に対して認識開始を通知する(ステップE9)。
以上の連続画像解析部14の動作による文字データ及び認識開始の通知に基づいて行われる文字変換部6の以降の動作は第1の実施の形態の動作と同様である。
Referring to FIG. 8, in the second embodiment, a character string stored for internal processing of the continuous
In step E7, when three or more identical characters are continuously combined (step E7, YES), it is recognized as a break of the user's utterance, and all but the first one character is thinned out from the same consecutive characters (step E8) The head character data is output to the
The subsequent operation of the
以上のように、第1の実施の形態では、ユーザが口を動かす動作を1秒間隔ごとに行わなくてはならないため発話に当たる口の動きを円滑に行うことができないが、本実施の形態では、タイマー部2の通知間隔のn秒の値をそれより小さくすることで、ユーザが口を動かす際に1字1字間隔をあけずに行うことができ、また認識開始の制御も口の動きを止めたり口を閉じる等の通常の会話の仕草等により特定文字データを連続出力させることで可能であり、所定の文字列毎にユーザがスイッチ操作で通知する必要がないためより円滑な無音声通話を行うことが可能である。
As described above, in the first embodiment, the user must move the mouth at intervals of one second, and thus the mouth movement corresponding to the speech cannot be smoothly performed. By making the n second value of the notification interval of the
1 画像撮影部
2 タイマー部
3 照明部
4 画像解析部
5 基本口形画像データベース
6 文字列変換部
7 語彙データベース
8 選択頻度データベース
9 認識開始通知スイッチ
10 音声合成出力部
11 外部出力部
12 イヤホン
13 認識結果判定スイッチ
14 連続画像解析部
A1 マスク部
A2 スイッチ部
A3 外部出力部
A4 スイッチ部
DESCRIPTION OF
Claims (7)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003271166A JP4189744B2 (en) | 2003-07-04 | 2003-07-04 | Voiceless communication system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003271166A JP4189744B2 (en) | 2003-07-04 | 2003-07-04 | Voiceless communication system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005033568A true JP2005033568A (en) | 2005-02-03 |
JP4189744B2 JP4189744B2 (en) | 2008-12-03 |
Family
ID=34209125
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003271166A Expired - Fee Related JP4189744B2 (en) | 2003-07-04 | 2003-07-04 | Voiceless communication system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4189744B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8942982B2 (en) | 2006-11-22 | 2015-01-27 | Seiko Epson Corporation | Semiconductor integrated circuit device and electronic instrument |
-
2003
- 2003-07-04 JP JP2003271166A patent/JP4189744B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8942982B2 (en) | 2006-11-22 | 2015-01-27 | Seiko Epson Corporation | Semiconductor integrated circuit device and electronic instrument |
Also Published As
Publication number | Publication date |
---|---|
JP4189744B2 (en) | 2008-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI383377B (en) | Multi-sensory speech recognition system and method | |
JP4713111B2 (en) | Speaking section detecting device, speech recognition processing device, transmission system, signal level control device, speaking section detecting method | |
US5960393A (en) | User selectable multiple threshold criteria for voice recognition | |
JP2000215021A (en) | Voice control input method for portable input device | |
JPH096390A (en) | Voice recognition interactive processing method and processor therefor | |
JP2009178783A (en) | Communication robot and its control method | |
US20170364516A1 (en) | Linguistic model selection for adaptive automatic speech recognition | |
JP2000068882A (en) | Radio communication equipment | |
US20240221718A1 (en) | Systems and methods for providing low latency user feedback associated with a user speaking silently | |
JP2018013549A (en) | Speech content recognition device | |
KR20190059046A (en) | Voice recognition system | |
JP2003037826A (en) | Substitute image display and tv phone apparatus | |
US20220180886A1 (en) | Methods for clear call under noisy conditions | |
JP2012073361A (en) | Speech recognizer and speech recognition method | |
JP2024531884A (en) | Decoding detected silent speech | |
JP3838159B2 (en) | Speech recognition dialogue apparatus and program | |
JP4189744B2 (en) | Voiceless communication system | |
JP3891023B2 (en) | Interpreter system and program | |
JP2002229592A (en) | Speech recognizer | |
KR102000282B1 (en) | Conversation support device for performing auditory function assistance | |
JP2000311077A (en) | Sound information input device | |
JP7143579B2 (en) | voice input device | |
KR100553437B1 (en) | wireless telecommunication terminal and method for transmitting voice message using speech synthesizing | |
JP2006276470A (en) | Device and system for voice conversation | |
JP2000122678A (en) | Controller for speech recogniging equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060613 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20071112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080128 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080324 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080821 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080903 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110926 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120926 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130926 Year of fee payment: 5 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |