JP2002182680A - 操作指示装置 - Google Patents
操作指示装置Info
- Publication number
- JP2002182680A JP2002182680A JP2000385021A JP2000385021A JP2002182680A JP 2002182680 A JP2002182680 A JP 2002182680A JP 2000385021 A JP2000385021 A JP 2000385021A JP 2000385021 A JP2000385021 A JP 2000385021A JP 2002182680 A JP2002182680 A JP 2002182680A
- Authority
- JP
- Japan
- Prior art keywords
- command
- unit
- voice
- instruction
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Image Input (AREA)
Abstract
作指示装置を提供すること。 【解決手段】 コマンド解析部12は、カメラ10によ
って撮影された画像に基づいて利用者のジェスチャーの
内容を特定し、複数のコマンド(操作指示)候補を出力
する。コマンド解析部18は、マイクロホン16によっ
て集音される音声に基づいて利用者の発声した音声の内
容を特定し、複数のコマンド候補を出力する。コマンド
作成部22は、各コマンド解析部12、18のそれぞれ
から出力されるコマンド候補を統合して一のコマンドを
設定し、このコマンドをナビゲーション装置2に出力す
る。コマンド作成部22から出力されたコマンドの内容
が利用者の意図に合致していない場合には、各コマンド
解析部12、18による解析処理に用いられる画像DB
14と音声DB20の内容がそれぞれ修正される。
Description
ェスチャーによって操作対象装置に対して操作指示を行
う操作指示装置に関する。
ーション装置等、各種装置を使用する場合には、装置本
体等に備わっている操作ボタン、あるいはリモートコン
トロールユニット等を用いて操作指示が行われていた。
術など各種認識技術の発達により、音声やジェスチャー
等により操作指示を行う手法が提案されている。例え
ば、特開平10−031551号公報には、音声認識に
よる認識結果と画像認識による認識結果とを統合するこ
とにより認識結果の精度向上を図った「ヒューマンイン
ターフェースシステム」が開示されている。このヒュー
マンインターフェースシステムでは、人口網膜チップや
CCDからなる画像センサにより人間のジェスチャーを
画像情報として入力するとともに、マイク等からなる音
声入力装置により人間の音声を音声情報として入力し、
所定の認識アルゴリズムにしたがってジェスチャーおよ
び音声の内容を認識し、これらに基づいて家電製品やゲ
ーム装置等からなる操作対象装置に対して操作指示を入
力している。
スチャー等には各利用者の個性が含まれるために、認識
技術そのものの精度が向上しても、認識結果に基づいて
設定される操作指示の内容の精度を向上させることは難
しい。例えば、「手を左右に振る」というジェスチャー
を考えると、ある利用者はこのジェスチャーにより「違
う」という意思を示しているが、別の利用者は「停止」
という意思を示している、というような場合がある。す
なわち、同じジェスチャーであっても、利用者の意図す
る操作指示の内容は、各利用者の個性によって差が生じ
る。このような場合には、画像認識技術の進展により
「手を左右に振る」というジェスチャー自体を認識する
精度が向上したとしても、その認識結果から各利用者の
所望する操作指示の内容を精度良く判断して、的確な操
作指示を設定することが難しいという問題がある。
たものであり、その目的は、操作指示の認識精度を高め
ることができる操作指示装置を提供することにある。
ために、本発明の操作指示装置は、操作者が操作対象装
置に対して行った操作指示の内容を判定するために、音
声入力手段、操作音声解析手段、撮影手段、操作動作解
析手段、操作指示決定手段、操作指示判定手段、学習手
段を備えている。音声入力手段は、操作者による操作音
声を取り込む。操作音声解析手段は、操作音声の内容を
解析する。撮影手段は、操作者の身体を撮影する。操作
動作解析手段は、撮影手段によって撮影された画像を解
析することにより、操作者が身体を動かすことによって
表現した操作動作(ジェスチャー)の内容を解析する。
操作指示決定手段は、操作音声解析手段および操作動作
解析手段のそれぞれの解析結果に基づいて、操作指示の
内容を決定する。操作指示判定手段は、操作指示決定手
段によって決定された操作指示の内容の適否を判定す
る。学習手段は、操作指示判定手段による判定結果を操
作音声解析手段および操作動作解析手段のそれぞれの解
析動作に反映させる。
の内容と、画像認識処理によって解析された操作動作の
内容とに基づいて操作指示内容が決定され、その操作指
示に応じた操作対象装置の動作が実行された場合に、操
作指示内容の適否が判定されて各解析動作に反映させる
学習処理が行われるため、操作指示の認識精度を高める
ことができる。
段をさらに備え、上述した操作指示判定手段は、感情判
定手段によって判定された操作者の感情に基づいて操作
指示の内容の適否を判定することが望ましい。誤って認
識された操作指示に基づいて操作対象装置が動作する
と、操作者は感情を害することが多い。したがって、操
作者の感情を判定することにより、認識した操作指示内
容が妥当なものであるか否かを判定することができ、操
作部を操作するなどの特別な操作を行うことなく認識結
果に対する学習処理を行うことができる。
して与えられた操作指示の内容が操作のやり直しを指示
するものである場合に、否定的な判定を行うことが望ま
しい。誤って認識された操作指示に基づいて操作対象装
置が動作した場合に、操作者は、正しい動作を操作対象
装置に行わせるために、再度内容が異なる操作のやり直
しを指示することが多い。したがって、このような操作
状況に基づいて、認識結果の誤りを判断することがで
き、認識結果の適否のみを指示するための特別な操作を
行うことなく学習処理を行うことができる。
段をさらに備え、上述した個人識別手段によって識別さ
れた個人毎に、操作音声解析手段、操作動作解析手段、
学習手段のそれぞれにおける動作を行うことが望まし
い。個人毎に異なる発声状態や動作の癖等を学習させる
ことができるため、操作指示の認識精度を高めることが
できる。
作動作解析手段のそれぞれは、複数の操作指示候補とそ
れぞれに対応する該当確率を抽出する解析動作を行い、
操作指示決定手段は、操作音声解析手段および操作動作
解析手段のそれぞれによって抽出された操作指示候補と
該当確率とに基づいて、最も該当確率が高い操作指示の
内容を決定することが望ましい。該当確率が付加された
複数の操作指示候補が操作音声解析手段と操作動作解析
手段のそれぞれにより抽出され、これらに基づいて最も
該当確率が高い操作指示の内容が決定されるので、操作
者の意図に合致している可能性の高い操作指示の内容を
決定することができる。
態のコマンド入力装置について、図面を参照しながら説
明する。図1は、本実施形態のコマンド入力装置1の構
成を示す図である。本実施形態のコマンド入力装置1
は、利用者(操作者)が音声およびジェスチャーによっ
てナビゲーション装置2に対して各種のコマンド(操作
指示)を入力するためのものであり、カメラ10、コマ
ンド解析部12、18、画像データベース(DB)1
4、マイクロホン16、音声データベース(DB)2
0、コマンド作成部22、コマンド判定部24、画像D
B修正部26、音声DB修正部28、個人認証装置30
を含んで構成されている。
を撮影して画像信号に変換する。コマンド解析部12
は、カメラ10によって撮影された画像に基づいて利用
者が行ったジェスチャーの内容を特定し、そのジェスチ
ャーにより指示される可能性のある複数のコマンド候補
を出力する。これらのコマンド候補のそれぞれには、各
コマンド候補が利用者の意図した操作指示内容に一致す
る確率(以後、この確率を「該当確率」と称する)が付
加されている。例えば、あるジェスチャーに対して、コ
マンドaの該当確率が50%、コマンドbの該当確率が
30%、コマンドcの該当確率が20%というような形
式でコマンド候補と該当確率が出力される。
り行われる画像認識処理に必要な画像解析用データを格
納している。この画像DB14には、複数の利用者に対
応する複数の画像解析用データが格納されており、上述
したコマンド解析部12による解析処理は、個人認証装
置30による認証結果に基づいて各利用者毎に画像解析
用データを使い分けて行われる。
声を集音し、音声信号を出力する。コマンド解析部18
は、マイクロホン16によって集音される音声に対して
所定の音声認識処理を行って利用者の発声した操作音声
の内容を特定し、その操作音声の内容により指示される
可能性のある複数のコマンド候補を出力する。これらの
コマンド候補のそれぞれについても、上述したコマンド
解析部12から出力されるコマンド候補と同様に、各コ
マンドに対して該当確率が付加されている。
り行われる音声認識処理に必要な音声解析用データを格
納している。この音声DB20についても、複数の利用
者に対応する複数の音声解析用データが格納されてお
り、上述したコマンド解析部18による解析処理は、個
人認証装置30による認証結果に基づいて各利用者毎に
音声解析用データを使い分けて行われる。
2から出力されるコマンド候補とコマンド解析部18か
ら出力されるコマンド候補を統合して、利用者の意図に
合致していると考えられる一のコマンドを判断し、この
コマンドをナビゲーション装置2に出力する。
いて具体的に説明する。例えば、あるジェスチャーに対
応して、コマンド解析部12から3つのコマンド候補が
「コマンドa:50%、コマンドb:30%、コマンド
c:20%」と出力され、同様に、ある操作音声に対応
して、コマンド解析部18から3つのコマンド候補が
「コマンドa:50%、コマンドd:30%、コマンド
b:20%」と出力された場合を考える。この場合に
は、コマンド解析部12から出力された第1優先候補
(該当確率の値が最も高いコマンド候補)とコマンド解
析部18から出力された第1優先候補とが「コマンド
a」で一致していることから、コマンド作成部22は、
このコマンドaをナビゲーション装置2に向けて出力す
る。
ンド解析部12から3つのコマンド候補が「コマンド
a:50%、コマンドd:40%、コマンドb:10
%」と出力され、同様に、ある操作音声に対応して、コ
マンド解析部18から3つのコマンド候補が「コマンド
d:50%、コマンドa:30%、コマンドc:20
%」と出力された場合を想定する。このように第1優先
候補同士が一致していない場合には、コマンド作成部2
2は、コマンド解析部12から出力されたコマンド候補
とコマンド解析部18から出力されたコマンド候補の両
方に共通に含まれるコマンドを探し、コマンドに付加さ
れている該当確率どうしの積を求める。上述した例で
は、コマンドaとコマンドdが共通に含まれているの
で、コマンドaについては該当確率の積が1500(=
50×30)、コマンドdについては該当確率の積が2
000(=40×50)と求められる。そして、コマン
ド作成部22は、これらの該当確率の積を比較し、その
値が最も大きいコマンド(上述した例ではコマンドd)
をナビゲーション装置2に向けて出力する。
2からナビゲーション装置2に対して出力されたコマン
ドの内容が利用者の意図に合致していたか否かを判定
し、否定的な判定結果が得られた場合には、画像DB修
正部26に対して画像DB14の内容を修正するよう指
示するとともに、音声DB修正部28に対して音声DB
20の内容を修正するよう指示する。本実施形態のコマ
ンド判定部24は、コマンド作成部22からナビゲーシ
ョン装置2に対してコマンドが出力されてから比較的に
短い所定時間(例えば、数秒間)内に、このコマンドと
異なる内容のコマンドの入力がナビゲーション装置2に
備わった操作部(図示せず)を用いて行われた場合に、
コマンド作成部22から出力されたコマンドの内容が利
用者の意図に合致していなかったと判定する。
4から指示があった場合に、画像DB14に格納された
画像解析用データの内容を修正する学習処理を行う。例
えば、画像DB修正部26は、利用者が行ったジェスチ
ャーAに対応してコマンド作成部22からコマンドaが
出力され、このコマンドaが利用者の意図に合致しなか
った場合には、このコマンドaの該当確率を低い値に修
正する。このような学習処理を行うことにより、利用者
が次にジェスチャーAを行った場合には、コマンドaが
選択される可能性が低くなる。すなわち、学習処理を行
うことにより、各利用者の個性を反映して画像解析用デ
ータの内容を更新することができる。
4から指示があった場合に、音声DB20に格納された
音声解析用データの内容を修正する学習処理を行う。例
えば、音声DB修正部28は、利用者が発声した操作音
声Bに対応してコマンド作成部22からコマンドbが出
力され、このコマンドbが利用者の意図に合致しなかっ
た場合には、このコマンドbの該当確率を低い値に修正
する。このような学習処理を行うことにより、利用者が
次に操作音声Bを発声した場合には、コマンドbが選択
される可能性が低くなる。すなわち、学習処理を行うこ
とにより、各利用者の個性を反映して音声解析用データ
の内容を更新することができる。
ている候補者の中から、コマンド入力を行う利用者を特
定する所定の個人認証処理を行う。個人認証処理の具体
的な方法としては、指紋認識や網膜認識などのバイオメ
トリクス技術を使う方法や、所定のパスワードを入力す
る方法、磁気カード等を用いる方法など各種の方法が考
えられるが、いずれの方法を採用してもよい。個人認証
装置30による認証結果、すなわち「コマンド入力を行
う利用者が誰であるか」を示す情報は、各コマンド解析
部12、18に出力される。
示す図である。同図に示す個人認証装置30は、指紋認
識技術を用いて利用者の特定を行うものであり、指紋読
取部32、指紋DB34、指紋認識部36を含んで構成
されている。指紋読取部32は、所定の読み取り面上に
置かれた利用者の指から指紋を読み取ってデジタルデー
タ(指紋データ)に変換し、指紋認識部36に出力す
る。
ば、人差し指)から採取した指紋データをその候補者に
関する情報(氏名など)と関連付けて格納している。指
紋認識部36は、指紋読取部32から出力される指紋デ
ータと、指紋DB34に予め登録されている各候補者の
指紋データとを比較し、入力された指紋を有する人を特
定する所定の指紋認識処理を行い、認識結果を各コマン
ド解析部12、18に出力する。
に、コマンド解析部18、音声DB20が操作音声解析
手段に、カメラ10が撮影手段に、コマンド解析部1
2、画像DB14が操作動作解析手段に、コマンド作成
部22が操作指示決定手段に、コマンド判定部24が操
作指示判定手段に、画像DB修正部26、音声DB修正
部28が学習手段に、個人認証装置30が個人識別手段
にそれぞれ対応している。
うな構成を有しており、次にその動作を説明する。図3
は、コマンド入力装置1の動作手順を示す流れ図であ
る。コマンド解析部12は、画像DB14に格納された
画像解析用データを用いて、カメラ10によって撮影さ
れた画像に対して所定の画像認識処理を行い、利用者の
行ったジェスチャーの内容を特定し、対応する複数のコ
マンド候補を抽出する(ステップ100)。
に格納された音声解析用データを用いて、マイクロホン
16によって集音される音声に対して所定の音声認識処
理を行い、利用者の発声した操作音声の内容を特定し、
対応する複数のコマンド候補を抽出する(ステップ10
1)。なお、ステップ100の動作とステップ101の
動作は、並行して行ったり、順番を入れ替えるようにし
てもよい。
コマンド候補がそれぞれ抽出されると、コマンド作成部
22は、コマンド解析部12により抽出された第1優先
候補のコマンドと、コマンド解析部18から出力された
第1優先候補のコマンドとでその内容が一致しているか
否かを判定する(ステップ102)。
る場合には、ステップ102で肯定判断が行われ、コマ
ンド作成部22は、この第1優先候補のコマンドをナビ
ゲーション装置2に向けて出力する(ステップ10
3)。また、第1優先候補のコマンドが一致していない
場合には、ステップ102で否定判断が行われ、コマン
ド作成部22は、各コマンド候補の該当確率を考慮して
上述した所定の計算を行って一のコマンドを選択し、こ
のコマンドをナビゲーション装置2に向けて出力する
(ステップ104)。
る」というジェスチャーを行い、このジェスチャーに対
応したコマンド候補として、第1優先候補が「いやだ:
50%」、第2優先候補が「違う:30%」、第3優先
候補が「停止:20%」とそれぞれ出力され、(2)上
述したジェスチャーとともに利用者が「ストップ」とい
う操作音声を発声し、この操作音声に対応したコマンド
候補として、第1優先候補が「停止:90%」、第2優
先候補が「違う:7%」、第3優先候補が「いやだ:3
%」とそれぞれ出力された場合を考える。この場合に各
コマンドについての該当確率の積は、コマンド「いや
だ」については150(=50×3)、コマンド「違
う」については210(30×7)、コマンド「停止」
については1800(90×20)とそれぞれ計算され
るため、コマンド作成部22は、該当確率の積が最も大
きいコマンドである「停止」を選択して出力する。
出力されると、次に、コマンド判定部24は、利用者が
ナビゲーション装置2に備わった操作部(図示せず)を
用いて、コマンド作成部22から出力されたコマンドと
異なる内容のコマンドの入力を行ったか否かを判定する
(ステップ105)。
合には、ステップ105で否定判断が行われ、コマンド
判定部24は、所定時間(例えば、数秒間)が経過した
か否かを判定する(ステップ106)。所定時間が経過
しない間は、ステップ106で否定判断が行われ、上述
したステップ105に戻り、以降の処理が繰り返され
る。
行われた場合には、ステップ105で肯定判断が行わ
れ、コマンド判定部24は、画像DB修正部26に対し
て画像DB14の内容を修正するよう指示するととも
に、音声DB修正部28に対して音声DB20の内容を
修正するように指示する。
ンド作成部22から出力されたコマンドに対応して、画
像DB14の内容を修正する(ステップ107)。具体
的には、画像DB修正部26は、コマンド作成部22か
ら出力されたコマンドに対応する該当確率を所定量だけ
低い値に設定する。これにより、以降の処理において
は、同じジェスチャーが行われた場合にも、このコマン
ドが選択される確率が低くなり、利用者の個性を反映さ
せることができる。なお、一つのコマンドの該当確率だ
けを低くすると、各コマンドの該当確率の合計が100
%にならなくなってしまうため、実際には一つのコマン
ドの該当確率を下げると同時に、他のコマンドの該当確
率を上げる必要がある。
作成部22から出力されたコマンドに対応して、音声D
B20の内容を修正する(ステップ108)。具体的に
は、音声DB修正部28は、コマンド作成部22から出
力されたコマンドに対応する該当確率を所定量だけ低い
値に設定する。これにより、以降の処理においては、同
じ音声が入力された場合にも、このコマンドが選択され
る確率が低くなり、利用者の個性を反映させることがで
きる。
スチャーに対応して、ナビゲーション装置2に対して各
種のコマンドを入力するとともに、コマンドの内容の適
否に応じた学習処理を行う一連の処理が終了する。とこ
ろで、上述した実施形態では、コマンド作成部22から
コマンドが出力されてから所定時間内にこのコマンドと
異なる内容のコマンドの入力が利用者により行われた場
合に、コマンド入力装置1からナビゲーション装置2に
対して出力されたコマンドの内容が利用者の意図に合致
していないと判断していたが、この判断を利用者の感情
に基づいて行うようにしてもよい。
内容の判定を行う場合のコマンド入力装置1aの構成を
示す図である。図4に示すコマンド入力装置1aは、カ
メラ10、コマンド解析部12、18、画像DB14、
マイクロホン16、音声DB20、コマンド作成部2
2、コマンド判定部24a、画像DB修正部26、音声
DB修正部28、感情認識装置40を含んで構成されて
いる。図1に示したコマンド入力装置1との相違点は、
(1)個人認証機能を備えた感情認識装置40が追加さ
れた点と、(2)これに伴って個人認証装置30が省略
された点と、(3)コマンド判定部24が感情認識結果
に基づいて処理を行うコマンド判定部24aに置き換え
られた点である。以下、主に両者の相違点に着目して、
コマンド入力装置1aの構成および動作を説明する。
する処理を行い、感情認識結果として、「喜」、
「怒」、「哀」、「楽」のいずれかを出力する。また、
感情認識装置40は、個人認証機能も備えており、個人
認証結果に基づいて複数の利用者についてそれぞれの個
性を考慮した感情認識処理を行う。この感情認識装置4
0が感情判定手段に対応している。感情認識装置40の
詳細構成については後述する。
22からナビゲーション装置2に対して出力されたコマ
ンドの内容が利用者の意図に合致していたか否かを判定
し、否定的な判定結果が得られた場合には、画像DB1
4および音声DB20の内容を修正するよう画像DB修
正部26と音声DB修正部28に指示する。具体的に
は、コマンド判定部24aは、感情認識装置40から出
力される感情認識結果が否定的な内容、具体的には
「怒」または「哀」である場合にコマンドの内容が利用
者の意図に合致していなかったと判定する。
成を説明する。図5は、感情認識装置40の詳細構成を
示す図である。感情認識装置40は、マイクロホン5
0、音声認識部52、カメラ54、画像認識部56、セ
ンサ58、動作認識部60、個性DB62、個性認識部
64、感情認識部66、70、74、音声DB68、画
像DB72、動作DB76、重み付け処理部78、個性
データ修正部80を含んで構成されている。
声を集音して電気信号に変換する。音声認識部52は、
マイクロホン50によって集音された利用者の音声信号
を解析して音声認識を行い、利用者が発声した言葉を特
定する。また、音声認識部52は、音声認識を行った結
果に基づいて、利用者の音声の特徴量を抽出する。音声
認識部52によって抽出される特徴量としては、例え
ば、声の高さや大きさ、話す際の一文字毎の発声間隔等
が考えられる。
画像認識部56は、カメラ54によって撮影された利用
者の表情を解析して特徴量を抽出する。画像認識部56
によって抽出される特徴量としては、例えば、顔に含ま
れる目、眉毛、口等の各要素の位置や大きさ、あるいは
これらの要素の動きが考えられる。具体的には、目の輪
郭、目の角度、眉の角度、口の開き具合、あるいは、単
位時間当たりの瞬きの回数などが考えられる。
気信号に変換する。ここで、本明細書では、利用者の手
足や頭部等の身体の各部位の位置や動きに加えて、体
温、発汗量等、利用者の身体の状態に関して測定可能な
物理量を全て含めて「動作」と表現するものとする。し
たがって、本実施形態のセンサ58は、温度センサ、圧
力センサ、位置センサ等の各種のセンサから構成されて
いる。本実施形態におけるセンサ58の具体的な設置場
所としては、運転席のハンドルやシート、その他運転席
周辺の空間が考えられる。
出された利用者の動作を解析して特徴量を抽出する。具
体的には、例えば、ハンドルに圧力センサを設置し、こ
れに加わる圧力の変化を調べることによって手の動きを
調べることができ、これより手を頻繁に動かしているか
どうかや、ハンドルを強く握っているかどうか等の情報
が得られる。また、シートやその他の場所に位置センサ
を設置することにより、利用者の座高、頭の位置、肩の
位置等の情報を得ることもできる。
づいて個人を特定する、すなわち、個人認証を行うため
の個人特定用データと、利用者の感情を認識する際の判
断基準とするための個性データグループを格納してい
る。個人特定用データとしては、例えば、利用者が所定
の言葉を発声した際の音声の波形パターンや、あごの輪
郭、座高等の要素、すなわち、感情の変化によらず値が
ほぼ一定であるような要素が考慮されており、各利用者
に対応するデータが登録されている。
情を有していない状態、言い換えると利用者がどの感情
を有している可能性も同じ確率であると見なすことがで
きる状態において、音声、表情、動作の各々に関して有
している特徴量をまとめたデータグループが格納されて
いる。このデータグループが上述した「個性データグル
ープ」に対応する。また、個性データグループに含まれ
る各特徴量を「個性データ」と称することとする。
2、画像認識部56、動作認識部60のそれぞれによっ
て抽出される各特徴量の一部または全部を取得し、個性
DB62に格納された個人特定用データを検索して、取
得した特徴量と一致する個人特定用データがあるか否か
を調べる。取得した特徴量と一致する個人特定用データ
が見つかった場合には、個性認識部64は、この個人特
定用データを有する利用者に対応する個性データグルー
プを読み出して各感情認識部66、70、74に向けて
出力する。例えば、個人特定用データを検索した結果、
利用者Aのものと一致した場合であれば、利用者Aに対
応する個性データグループが読み出される。
て抽出された音声に関する特徴量と個性認識部64から
入力される個性データグループに基づいて利用者の音声
の状態を判断し、判断した音声の状態と音声DB68に
格納されたデータテーブルに基づいて利用者の感情
(喜、怒、哀、楽)を認識する。感情認識部66(感情
認識部72、74も同様)による感情認識結果は、例え
ば、「喜」が30%、「怒」が55%、「哀」が10
%、「楽」が5%というように、各感情を利用者が有す
る可能性を確率で表すことにより与えられる。上述した
例であれば、利用者が有している可能性の高い感情は
「怒」ということになる。音声DB68は、感情認識部
66によって判断される利用者の音声の状態と上述した
4つの感情との関係を示すデータテーブルを格納してい
る。
て抽出された表情に関する特徴量と個性認識部64から
入力される個性データグループに基づいて利用者の表情
の状態を判断するとともに、判断した表情の状態と画像
DB72に格納されたデータテーブルに基づいて利用者
の感情を認識する。画像DB72は、感情認識部70に
よって判断される利用者の表情の状態と上述した4つの
感情との関係を示すデータテーブルを格納している。
て抽出された動作に関する特徴量と個性認識部64から
入力される個性データグループに基づいて利用者の動作
の状態を判断するとともに、判断した動作の状態と動作
DB76に格納されたデータテーブルに基づいて利用者
の感情を認識する。動作DB76は、感情認識部74に
よって判断される利用者の表情の状態と上述した4つの
感情との関係を示すデータテーブルを格納している。
6、70、74から出力された感情認識結果に対して所
定の重み付け処理を行って統合し、最終的な感情認識結
果を求める。具体的には、音声情報に基づいて得られた
感情認識結果を{Ah、Aa、As、Ae}、画像情報
に基づいて得られた感情認識結果を{Vh、Va、V
s、Ve}、動作情報に基づいて得られた感情認識結果
を{Mh、Ma、Ms、Me}とおき、これらに対応す
る重み付け係数をそれぞれ、{Ph、Pa、Ps、P
e}、{Qh、Qa、Qs、Qe}、{Rh、Ra、R
s、Re}とおくと、各感情認識結果に対する重み付け
処理は、以下に示した(1)〜(4)式によって求めら
れる。ここで、各感情認識結果および各重み付け係数に
付加された添え字は、「h」が「喜」に対応し、「a」
が「怒」に対応し、「s」が「哀」に対応し、「e」が
「楽」に対応しているものとする。
うに実験的に決定される。
声、画像、動作のそれぞれから得られた感情認識結果を
統合した感情認識結果が得られる。その後、重み付け処
理部78は、(1)〜(4)式によって得られた感情認
識結果の中で、最も値の大きい感情を選択し、これを最
終的な感情認識結果として出力する。具体的には、例え
ば、“利用者が「A」であり、感情認識結果が「喜」で
ある”といった情報が重み付け処理部78から出力され
る。重み付け処理部78によって求められた感情認識結
果は、感情認識装置40からの出力として、コマンド判
定部24aへ出力される。また、個人認証結果は、各コ
マンド解析部12、18にそれぞれ出力される。
から出力された個性データグループと音声認識部52、
画像認識部56、動作認識部60のそれぞれによって抽
出された各特徴量に基づいて、個性データグループに含
まれる各個性データを利用者の個性に対応して修正する
処理を行う。
成を有しており、次にその動作を説明する。図6は、利
用者の感情に基づいてコマンド内容の判定を行う場合の
コマンド入力装置1aの部分的な動作手順を示す流れ図
である。コマンド入力装置1aの基本的な動作手順は、
上述したコマンド入力装置1における動作手順と同様で
あり、上述した図3に示したステップ105の処理をス
テップ109の処理に置き換えた点が異なっている。
0から否定的な感情認識結果(「怒」または「哀」)が
出力されたか否かを判定する(ステップ109)。否定
的な感情認識結果が出力されない場合には、ステップ1
09で否定判断が行われ、次にコマンド判定部24a
は、所定時間(例えば、数秒間)が経過したか否かを判
定する(ステップ106)。所定時間が経過しない間
は、ステップ106で否定判断が行われ、上述したステ
ップ105に戻り、以降の処理が繰り返される。
された場合には、ステップ109で肯定判断が行われ、
コマンド判定部24aは、画像DB修正部26に対して
画像DB14の内容を修正するよう指示するとともに、
音声DB修正部28に対して音声DB20の内容を修正
するように指示する。その後、ステップ107以降の処
理が行われることにより、画像DB14および音声DB
20の内容が修正され、一連の処理が終了する。
置では、各コマンド解析部12、18により解析された
操作音声およびジェスチャー(操作動作)の内容に基づ
いてコマンドの内容が決定され、そのコマンドに応じて
ナビゲーション装置2の動作が実行された場合にコマン
ドの内容の適否が判定され、否定的な判定結果が得られ
た場合には画像DB14および音声DB20の内容を修
正する学習処理が行われるため、コマンドの認識精度を
高めることができる。
有無、または、利用者の感情認識結果のいずれかを調べ
ることにより、コマンドの内容が利用者の意図に合致し
ているか否かが判定されるため、利用者に特別な操作を
行わせることなく認識結果に対する学習処理を行うこと
ができる。また、該当確率が付加された複数のコマンド
が各コマンド解析部12、18のそれぞれから出力さ
れ、これらに基づいて最も該当確率が高い操作指示の内
容が決定されるので、操作者の意図に合致している可能
性の高い操作指示の内容を決定することができるという
利点もある。
ものではなく、本発明の要旨の範囲内において種々の変
形実施が可能である。例えば、感情認識装置40を備え
たコマンド入力装置1a(図4参照)においては、カメ
ラ10と感情認識装置40内のカメラ54、マイクロホ
ン16と感情認識装置40内のマイクロホン50のそれ
ぞれを共用にして構成の簡略化を図るようにしてもよ
い。同様に、各コマンド解析部12および18には、音
声認識機能や画像認識機能が含まれているので、感情認
識装置40内の音声認識部52および画像認識部56に
より行われる処理を各コマンド解析部12および18で
行うようにして、構成の簡略化を図ることもできる。
におけるコマンド入力の有無、または、利用者の感情認
識結果のいずれかを調べることにより、コマンドの内容
が利用者の意図に合致しているか否かを判定していた
が、コマンド入力の有無と感情認識結果の両者を併用し
て判定を行ってもよい。
者による使用を考慮して、個人認証装置30等の個人認
証手段を設けて、各利用者の個性に対応したコマンド作
成処理を行っていたが、一の利用者だけが使用する場合
などには、個人認証装置30等の個人認証手段を省略し
てコストダウンを図るようにしてもよい。
は、上述したナビゲーション装置2に限定されるもので
はなく、他の各種装置であってもよい。例えば、電子レ
ンジ等の家電装置をコマンド入力の対象とした場合に
は、調理等の作業中においても、家電装置に備わった操
作ボタン等を操作することなく各種の操作指示を入力す
ることができる。同様に、車載用のCDプレーヤ等のオ
ーディオ装置をコマンド入力の対象とした場合には、オ
ーディオ装置に備わった操作ボタン等を操作することな
く、選局や音量調整等の操作指示を入力することができ
る。
音声および操作動作の内容の解析結果に基づいて操作指
示内容が決定されており、その操作指示に応じた操作対
象装置の動作が実行された場合に、操作指示内容の適否
が判定され、各解析動作に反映させる学習処理が行われ
るため、操作指示の認識精度を高めることができる。
である。
る。
行う場合のコマンド入力装置の構成を示す図である。
行う場合のコマンド入力装置の部分的な動作手順を示す
流れ図である。
Claims (5)
- 【請求項1】 操作者が操作対象装置に対して行った操
作指示の内容を判定する操作指示装置であって、 前記操作者による操作音声を取り込む音声入力手段と、 前記操作音声の内容を解析する操作音声解析手段と、 前記操作者の身体を撮影する撮影手段と、 前記撮影手段によって撮影された画像を解析することに
より、前記操作者が身体を動かすことによって表現され
た操作動作の内容を解析する操作動作解析手段と、 前記操作音声解析手段および前記操作動作解析手段のそ
れぞれの解析結果に基づいて、前記操作指示の内容を決
定する操作指示決定手段と、 前記操作指示決定手段によって決定された前記操作指示
の内容の適否を判定する操作指示判定手段と、 前記操作指示判定手段による判定結果を前記操作音声解
析手段および前記操作動作解析手段のそれぞれの解析動
作に反映させる学習手段と、 を備えることを特徴とする操作指示装置。 - 【請求項2】 請求項1において、 前記操作者の感情を判定する感情判定手段をさらに備
え、 前記操作指示判定手段は、前記感情判定手段によって判
定された前記操作者の感情に基づいて前記操作指示の内
容の適否を判定することを特徴とする操作指示装置。 - 【請求項3】 請求項1において、 前記操作指示判定手段は、連続して与えられた前記操作
指示の内容が操作のやり直しを指示するものである場合
に、否定的な判定を行うことを特徴とする操作指示装
置。 - 【請求項4】 請求項1〜3のいずれかにおいて、 前記操作者の個人を識別する個人識別手段をさらに備
え、 前記個人識別手段によって識別された個人毎に、前記操
作音声解析手段、前記操作動作解析手段、前記学習手段
のそれぞれにおける動作を行うことを特徴とする操作指
示装置。 - 【請求項5】 請求項1〜4のいずれかにおいて、 前記操作音声解析手段および前記操作動作解析手段のそ
れぞれは、複数の操作指示候補とそれぞれに対応する該
当確率を抽出する解析動作を行い、 前記操作指示決定手段は、前記操作音声解析手段および
前記操作動作解析手段のそれぞれによって抽出された前
記操作指示候補と前記該当確率とに基づいて、最も該当
確率が高い前記操作指示の内容を決定することを特徴と
する操作指示装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000385021A JP4294853B2 (ja) | 2000-12-19 | 2000-12-19 | 操作指示装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000385021A JP4294853B2 (ja) | 2000-12-19 | 2000-12-19 | 操作指示装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002182680A true JP2002182680A (ja) | 2002-06-26 |
JP4294853B2 JP4294853B2 (ja) | 2009-07-15 |
Family
ID=18852365
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000385021A Expired - Fee Related JP4294853B2 (ja) | 2000-12-19 | 2000-12-19 | 操作指示装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4294853B2 (ja) |
Cited By (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004240154A (ja) * | 2003-02-06 | 2004-08-26 | Hitachi Ltd | 情報認識装置 |
JP2007218933A (ja) * | 2006-02-14 | 2007-08-30 | Hitachi Ltd | 会話音声分析方法、及び、会話音声分析装置 |
JP2008162376A (ja) * | 2006-12-27 | 2008-07-17 | Takata Corp | 車両用作動システム、車両 |
US7437488B2 (en) | 2003-12-17 | 2008-10-14 | Denso Corporation | Interface for car-mounted devices |
US7702130B2 (en) | 2004-12-20 | 2010-04-20 | Electronics And Telecommunications Research Institute | User interface apparatus using hand gesture recognition and method thereof |
JP2010128015A (ja) * | 2008-11-25 | 2010-06-10 | Toyota Central R&D Labs Inc | 音声認識の誤認識判定装置及び音声認識の誤認識判定プログラム |
JP2011103111A (ja) * | 2009-11-10 | 2011-05-26 | Inst For Information Industry | 視聴覚を結合した動作認識システムおよびその認識方法 |
JP2011130762A (ja) * | 2009-12-22 | 2011-07-07 | Ind Technol Res Inst | 語意認識機能付き食品製造装置 |
WO2013179985A1 (ja) | 2012-05-30 | 2013-12-05 | 日本電気株式会社 | 情報処理システム、情報処理方法、通信端末、情報処理装置およびその制御方法と制御プログラム |
JP2014206903A (ja) * | 2013-04-15 | 2014-10-30 | オムロン株式会社 | 表情推定装置、制御方法、制御プログラム、および記録媒体 |
JP2016004270A (ja) * | 2014-05-30 | 2016-01-12 | アップル インコーポレイテッド | 手動始点/終点指定及びトリガフレーズの必要性の低減 |
JPWO2013190956A1 (ja) * | 2012-06-19 | 2016-05-26 | 株式会社Nttドコモ | 機能実行指示システム、機能実行指示方法及び機能実行指示プログラム |
JP2016540276A (ja) * | 2013-09-30 | 2016-12-22 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 既知の、まだ着用されていないセンサの使用によるジェスチャ検出システムの分類 |
US9865248B2 (en) | 2008-04-05 | 2018-01-09 | Apple Inc. | Intelligent text-to-speech conversion |
JP2018060248A (ja) * | 2016-09-30 | 2018-04-12 | 本田技研工業株式会社 | 処理結果異常検出装置、処理結果異常検出プログラム、処理結果異常検出方法及び移動体 |
US9966060B2 (en) | 2013-06-07 | 2018-05-08 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9971774B2 (en) | 2012-09-19 | 2018-05-15 | Apple Inc. | Voice-based media searching |
US9986419B2 (en) | 2014-09-30 | 2018-05-29 | Apple Inc. | Social reminders |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US10049675B2 (en) | 2010-02-25 | 2018-08-14 | Apple Inc. | User profiling for voice input processing |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10079014B2 (en) | 2012-06-08 | 2018-09-18 | Apple Inc. | Name recognition system |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10269345B2 (en) | 2016-06-11 | 2019-04-23 | Apple Inc. | Intelligent task discovery |
US10318871B2 (en) | 2005-09-08 | 2019-06-11 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US10356243B2 (en) | 2015-06-05 | 2019-07-16 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10354011B2 (en) | 2016-06-09 | 2019-07-16 | Apple Inc. | Intelligent automated assistant in a home environment |
US10410637B2 (en) | 2017-05-12 | 2019-09-10 | Apple Inc. | User-specific acoustic models |
JP2019159378A (ja) * | 2018-03-07 | 2019-09-19 | ヤフー株式会社 | 管理装置、管理方法および管理プログラム |
US10482874B2 (en) | 2017-05-15 | 2019-11-19 | Apple Inc. | Hierarchical belief states for digital assistants |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US10706841B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Task flow identification based on user intent |
US10755703B2 (en) | 2017-05-11 | 2020-08-25 | Apple Inc. | Offline personal assistant |
JP2020141235A (ja) * | 2019-02-27 | 2020-09-03 | パナソニックIpマネジメント株式会社 | 機器制御システム、機器制御方法及びプログラム |
US10791176B2 (en) | 2017-05-12 | 2020-09-29 | Apple Inc. | Synchronization and task delegation of a digital assistant |
US10795541B2 (en) | 2009-06-05 | 2020-10-06 | Apple Inc. | Intelligent organization of tasks items |
US10810274B2 (en) | 2017-05-15 | 2020-10-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
US10904611B2 (en) | 2014-06-30 | 2021-01-26 | Apple Inc. | Intelligent automated assistant for TV user interactions |
JP2021039326A (ja) * | 2019-09-05 | 2021-03-11 | サウンドハウンド,インコーポレイテッド | 問合せの検出および訂正のためのシステムおよび方法 |
JP2021057057A (ja) * | 2016-05-06 | 2021-04-08 | ザ ボード オブ トラスティーズ オブ ザ レランド スタンフォード ジュニア ユニバーシティー | 精神障害の療法のためのモバイルおよびウェアラブルビデオ捕捉およびフィードバックプラットフォーム |
JP2021079042A (ja) * | 2019-11-22 | 2021-05-27 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
US11080012B2 (en) | 2009-06-05 | 2021-08-03 | Apple Inc. | Interface for a virtual digital assistant |
US11217255B2 (en) | 2017-05-16 | 2022-01-04 | Apple Inc. | Far-field extension for digital assistant services |
-
2000
- 2000-12-19 JP JP2000385021A patent/JP4294853B2/ja not_active Expired - Fee Related
Cited By (57)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004240154A (ja) * | 2003-02-06 | 2004-08-26 | Hitachi Ltd | 情報認識装置 |
US7437488B2 (en) | 2003-12-17 | 2008-10-14 | Denso Corporation | Interface for car-mounted devices |
US7702130B2 (en) | 2004-12-20 | 2010-04-20 | Electronics And Telecommunications Research Institute | User interface apparatus using hand gesture recognition and method thereof |
US10318871B2 (en) | 2005-09-08 | 2019-06-11 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
JP2007218933A (ja) * | 2006-02-14 | 2007-08-30 | Hitachi Ltd | 会話音声分析方法、及び、会話音声分析装置 |
JP2008162376A (ja) * | 2006-12-27 | 2008-07-17 | Takata Corp | 車両用作動システム、車両 |
US9865248B2 (en) | 2008-04-05 | 2018-01-09 | Apple Inc. | Intelligent text-to-speech conversion |
JP2010128015A (ja) * | 2008-11-25 | 2010-06-10 | Toyota Central R&D Labs Inc | 音声認識の誤認識判定装置及び音声認識の誤認識判定プログラム |
US10795541B2 (en) | 2009-06-05 | 2020-10-06 | Apple Inc. | Intelligent organization of tasks items |
US11080012B2 (en) | 2009-06-05 | 2021-08-03 | Apple Inc. | Interface for a virtual digital assistant |
JP2011103111A (ja) * | 2009-11-10 | 2011-05-26 | Inst For Information Industry | 視聴覚を結合した動作認識システムおよびその認識方法 |
JP2011130762A (ja) * | 2009-12-22 | 2011-07-07 | Ind Technol Res Inst | 語意認識機能付き食品製造装置 |
US10706841B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Task flow identification based on user intent |
US11423886B2 (en) | 2010-01-18 | 2022-08-23 | Apple Inc. | Task flow identification based on user intent |
US10049675B2 (en) | 2010-02-25 | 2018-08-14 | Apple Inc. | User profiling for voice input processing |
US9489951B2 (en) | 2012-05-30 | 2016-11-08 | Nec Corporation | Information processing system, information processing method, communication terminal, information processing apparatus, and control method and control program thereof |
WO2013179985A1 (ja) | 2012-05-30 | 2013-12-05 | 日本電気株式会社 | 情報処理システム、情報処理方法、通信端末、情報処理装置およびその制御方法と制御プログラム |
US10079014B2 (en) | 2012-06-08 | 2018-09-18 | Apple Inc. | Name recognition system |
JPWO2013190956A1 (ja) * | 2012-06-19 | 2016-05-26 | 株式会社Nttドコモ | 機能実行指示システム、機能実行指示方法及び機能実行指示プログラム |
US9971774B2 (en) | 2012-09-19 | 2018-05-15 | Apple Inc. | Voice-based media searching |
JP2014206903A (ja) * | 2013-04-15 | 2014-10-30 | オムロン株式会社 | 表情推定装置、制御方法、制御プログラム、および記録媒体 |
US9966060B2 (en) | 2013-06-07 | 2018-05-08 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
JP2016540276A (ja) * | 2013-09-30 | 2016-12-22 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 既知の、まだ着用されていないセンサの使用によるジェスチャ検出システムの分類 |
US11810562B2 (en) | 2014-05-30 | 2023-11-07 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US11133008B2 (en) | 2014-05-30 | 2021-09-28 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
JP2016004270A (ja) * | 2014-05-30 | 2016-01-12 | アップル インコーポレイテッド | 手動始点/終点指定及びトリガフレーズの必要性の低減 |
US10904611B2 (en) | 2014-06-30 | 2021-01-26 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9986419B2 (en) | 2014-09-30 | 2018-05-29 | Apple Inc. | Social reminders |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US10356243B2 (en) | 2015-06-05 | 2019-07-16 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
JP2021057057A (ja) * | 2016-05-06 | 2021-04-08 | ザ ボード オブ トラスティーズ オブ ザ レランド スタンフォード ジュニア ユニバーシティー | 精神障害の療法のためのモバイルおよびウェアラブルビデオ捕捉およびフィードバックプラットフォーム |
US11937929B2 (en) | 2016-05-06 | 2024-03-26 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and methods for using mobile and wearable video capture and feedback plat-forms for therapy of mental disorders |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10354011B2 (en) | 2016-06-09 | 2019-07-16 | Apple Inc. | Intelligent automated assistant in a home environment |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10269345B2 (en) | 2016-06-11 | 2019-04-23 | Apple Inc. | Intelligent task discovery |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US10553215B2 (en) | 2016-09-23 | 2020-02-04 | Apple Inc. | Intelligent automated assistant |
JP2018060248A (ja) * | 2016-09-30 | 2018-04-12 | 本田技研工業株式会社 | 処理結果異常検出装置、処理結果異常検出プログラム、処理結果異常検出方法及び移動体 |
US10475470B2 (en) | 2016-09-30 | 2019-11-12 | Honda Motor Co., Ltd. | Processing result error detection device, processing result error detection program, processing result error detection method, and moving entity |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US10755703B2 (en) | 2017-05-11 | 2020-08-25 | Apple Inc. | Offline personal assistant |
US10791176B2 (en) | 2017-05-12 | 2020-09-29 | Apple Inc. | Synchronization and task delegation of a digital assistant |
US11405466B2 (en) | 2017-05-12 | 2022-08-02 | Apple Inc. | Synchronization and task delegation of a digital assistant |
US10410637B2 (en) | 2017-05-12 | 2019-09-10 | Apple Inc. | User-specific acoustic models |
US10810274B2 (en) | 2017-05-15 | 2020-10-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
US10482874B2 (en) | 2017-05-15 | 2019-11-19 | Apple Inc. | Hierarchical belief states for digital assistants |
US11217255B2 (en) | 2017-05-16 | 2022-01-04 | Apple Inc. | Far-field extension for digital assistant services |
JP2019159378A (ja) * | 2018-03-07 | 2019-09-19 | ヤフー株式会社 | 管理装置、管理方法および管理プログラム |
WO2020175293A1 (ja) * | 2019-02-27 | 2020-09-03 | パナソニックIpマネジメント株式会社 | 機器制御システム、機器制御方法及びプログラム |
JP2020141235A (ja) * | 2019-02-27 | 2020-09-03 | パナソニックIpマネジメント株式会社 | 機器制御システム、機器制御方法及びプログラム |
JP2021039326A (ja) * | 2019-09-05 | 2021-03-11 | サウンドハウンド,インコーポレイテッド | 問合せの検出および訂正のためのシステムおよび方法 |
US11263198B2 (en) | 2019-09-05 | 2022-03-01 | Soundhound, Inc. | System and method for detection and correction of a query |
JP7066667B2 (ja) | 2019-09-05 | 2022-05-13 | サウンドハウンド,インコーポレイテッド | 問合せの検出および訂正のための方法、プログラム、および、システム |
JP2021079042A (ja) * | 2019-11-22 | 2021-05-27 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
JP7254682B2 (ja) | 2019-11-22 | 2023-04-10 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP4294853B2 (ja) | 2009-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4294853B2 (ja) | 操作指示装置 | |
JP6465077B2 (ja) | 音声対話装置および音声対話方法 | |
JP3678421B2 (ja) | 音声認識装置及び音声認識方法 | |
US7373301B2 (en) | Method for detecting emotions from speech using speaker identification | |
US8416998B2 (en) | Information processing device, information processing method, and program | |
JP4481663B2 (ja) | 動作認識装置、動作認識方法、機器制御装置及びコンピュータプログラム | |
WO2016150001A1 (zh) | 语音识别的方法、装置及计算机存储介质 | |
CN108133709B (zh) | 语音识别装置和语音识别方法 | |
US10195748B2 (en) | Humanoid robot | |
JP6866715B2 (ja) | 情報処理装置、感情認識方法、及び、プログラム | |
JPWO2006109515A1 (ja) | 操作者認識装置、操作者認識方法、および、操作者認識プログラム | |
WO2010085221A1 (en) | Method to control media with face detection and hot spot motion | |
CN111199032A (zh) | 身份认证的方法以及装置 | |
JP2001083984A (ja) | インタフェース装置 | |
WO2019171780A1 (ja) | 個人識別装置および特徴収集装置 | |
JP4730812B2 (ja) | 個人認証装置、個人認証処理方法、そのためのプログラム及び記録媒体 | |
WO2019235190A1 (ja) | 情報処理装置、情報処理方法、プログラム及び対話システム | |
WO2021166811A1 (ja) | 情報処理装置および行動モード設定方法 | |
JP6798258B2 (ja) | 生成プログラム、生成装置、制御プログラム、制御方法、ロボット装置及び通話システム | |
CN113643707A (zh) | 一种身份验证方法、装置和电子设备 | |
JP2829014B2 (ja) | 音声認識装置及び方法 | |
JPH0728488A (ja) | 情報処理方法及び装置 | |
JP4254400B2 (ja) | 画像生成装置およびその画像生成方法、ならびにコンピュータ読み取り可能な記録媒体 | |
JP2016143050A (ja) | 音声認識装置および音声認識方法 | |
JP2014182452A (ja) | 情報処理装置及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060131 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080707 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080722 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080922 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090224 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090407 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090409 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120417 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120417 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130417 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130417 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140417 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |