JP2002182680A - 操作指示装置 - Google Patents

操作指示装置

Info

Publication number
JP2002182680A
JP2002182680A JP2000385021A JP2000385021A JP2002182680A JP 2002182680 A JP2002182680 A JP 2002182680A JP 2000385021 A JP2000385021 A JP 2000385021A JP 2000385021 A JP2000385021 A JP 2000385021A JP 2002182680 A JP2002182680 A JP 2002182680A
Authority
JP
Japan
Prior art keywords
command
unit
voice
instruction
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000385021A
Other languages
English (en)
Other versions
JP4294853B2 (ja
Inventor
Koichi Sato
幸一 佐藤
Takashi Tokuyama
孝 徳山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2000385021A priority Critical patent/JP4294853B2/ja
Publication of JP2002182680A publication Critical patent/JP2002182680A/ja
Application granted granted Critical
Publication of JP4294853B2 publication Critical patent/JP4294853B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Image Input (AREA)

Abstract

(57)【要約】 【課題】 操作指示の認識精度を高めることができる操
作指示装置を提供すること。 【解決手段】 コマンド解析部12は、カメラ10によ
って撮影された画像に基づいて利用者のジェスチャーの
内容を特定し、複数のコマンド(操作指示)候補を出力
する。コマンド解析部18は、マイクロホン16によっ
て集音される音声に基づいて利用者の発声した音声の内
容を特定し、複数のコマンド候補を出力する。コマンド
作成部22は、各コマンド解析部12、18のそれぞれ
から出力されるコマンド候補を統合して一のコマンドを
設定し、このコマンドをナビゲーション装置2に出力す
る。コマンド作成部22から出力されたコマンドの内容
が利用者の意図に合致していない場合には、各コマンド
解析部12、18による解析処理に用いられる画像DB
14と音声DB20の内容がそれぞれ修正される。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、操作者が音声やジ
ェスチャーによって操作対象装置に対して操作指示を行
う操作指示装置に関する。
【0002】
【従来の技術】従来、電子レンジ等の家電装置やナビゲ
ーション装置等、各種装置を使用する場合には、装置本
体等に備わっている操作ボタン、あるいはリモートコン
トロールユニット等を用いて操作指示が行われていた。
【0003】また最近では、音声認識技術や画像認識技
術など各種認識技術の発達により、音声やジェスチャー
等により操作指示を行う手法が提案されている。例え
ば、特開平10−031551号公報には、音声認識に
よる認識結果と画像認識による認識結果とを統合するこ
とにより認識結果の精度向上を図った「ヒューマンイン
ターフェースシステム」が開示されている。このヒュー
マンインターフェースシステムでは、人口網膜チップや
CCDからなる画像センサにより人間のジェスチャーを
画像情報として入力するとともに、マイク等からなる音
声入力装置により人間の音声を音声情報として入力し、
所定の認識アルゴリズムにしたがってジェスチャーおよ
び音声の内容を認識し、これらに基づいて家電製品やゲ
ーム装置等からなる操作対象装置に対して操作指示を入
力している。
【0004】
【発明が解決しようとする課題】ところで、音声やジェ
スチャー等には各利用者の個性が含まれるために、認識
技術そのものの精度が向上しても、認識結果に基づいて
設定される操作指示の内容の精度を向上させることは難
しい。例えば、「手を左右に振る」というジェスチャー
を考えると、ある利用者はこのジェスチャーにより「違
う」という意思を示しているが、別の利用者は「停止」
という意思を示している、というような場合がある。す
なわち、同じジェスチャーであっても、利用者の意図す
る操作指示の内容は、各利用者の個性によって差が生じ
る。このような場合には、画像認識技術の進展により
「手を左右に振る」というジェスチャー自体を認識する
精度が向上したとしても、その認識結果から各利用者の
所望する操作指示の内容を精度良く判断して、的確な操
作指示を設定することが難しいという問題がある。
【0005】本発明は、このような点に鑑みて創作され
たものであり、その目的は、操作指示の認識精度を高め
ることができる操作指示装置を提供することにある。
【0006】
【課題を解決するための手段】上述した課題を解決する
ために、本発明の操作指示装置は、操作者が操作対象装
置に対して行った操作指示の内容を判定するために、音
声入力手段、操作音声解析手段、撮影手段、操作動作解
析手段、操作指示決定手段、操作指示判定手段、学習手
段を備えている。音声入力手段は、操作者による操作音
声を取り込む。操作音声解析手段は、操作音声の内容を
解析する。撮影手段は、操作者の身体を撮影する。操作
動作解析手段は、撮影手段によって撮影された画像を解
析することにより、操作者が身体を動かすことによって
表現した操作動作(ジェスチャー)の内容を解析する。
操作指示決定手段は、操作音声解析手段および操作動作
解析手段のそれぞれの解析結果に基づいて、操作指示の
内容を決定する。操作指示判定手段は、操作指示決定手
段によって決定された操作指示の内容の適否を判定す
る。学習手段は、操作指示判定手段による判定結果を操
作音声解析手段および操作動作解析手段のそれぞれの解
析動作に反映させる。
【0007】音声認識処理によって解析された操作音声
の内容と、画像認識処理によって解析された操作動作の
内容とに基づいて操作指示内容が決定され、その操作指
示に応じた操作対象装置の動作が実行された場合に、操
作指示内容の適否が判定されて各解析動作に反映させる
学習処理が行われるため、操作指示の認識精度を高める
ことができる。
【0008】また、操作者の感情を判定する感情判定手
段をさらに備え、上述した操作指示判定手段は、感情判
定手段によって判定された操作者の感情に基づいて操作
指示の内容の適否を判定することが望ましい。誤って認
識された操作指示に基づいて操作対象装置が動作する
と、操作者は感情を害することが多い。したがって、操
作者の感情を判定することにより、認識した操作指示内
容が妥当なものであるか否かを判定することができ、操
作部を操作するなどの特別な操作を行うことなく認識結
果に対する学習処理を行うことができる。
【0009】また、上述した操作指示判定手段は、連続
して与えられた操作指示の内容が操作のやり直しを指示
するものである場合に、否定的な判定を行うことが望ま
しい。誤って認識された操作指示に基づいて操作対象装
置が動作した場合に、操作者は、正しい動作を操作対象
装置に行わせるために、再度内容が異なる操作のやり直
しを指示することが多い。したがって、このような操作
状況に基づいて、認識結果の誤りを判断することがで
き、認識結果の適否のみを指示するための特別な操作を
行うことなく学習処理を行うことができる。
【0010】また、操作者の個人を識別する個人識別手
段をさらに備え、上述した個人識別手段によって識別さ
れた個人毎に、操作音声解析手段、操作動作解析手段、
学習手段のそれぞれにおける動作を行うことが望まし
い。個人毎に異なる発声状態や動作の癖等を学習させる
ことができるため、操作指示の認識精度を高めることが
できる。
【0011】また、上述した操作音声解析手段および操
作動作解析手段のそれぞれは、複数の操作指示候補とそ
れぞれに対応する該当確率を抽出する解析動作を行い、
操作指示決定手段は、操作音声解析手段および操作動作
解析手段のそれぞれによって抽出された操作指示候補と
該当確率とに基づいて、最も該当確率が高い操作指示の
内容を決定することが望ましい。該当確率が付加された
複数の操作指示候補が操作音声解析手段と操作動作解析
手段のそれぞれにより抽出され、これらに基づいて最も
該当確率が高い操作指示の内容が決定されるので、操作
者の意図に合致している可能性の高い操作指示の内容を
決定することができる。
【0012】
【発明の実施の形態】以下、本発明を適用した一実施形
態のコマンド入力装置について、図面を参照しながら説
明する。図1は、本実施形態のコマンド入力装置1の構
成を示す図である。本実施形態のコマンド入力装置1
は、利用者(操作者)が音声およびジェスチャーによっ
てナビゲーション装置2に対して各種のコマンド(操作
指示)を入力するためのものであり、カメラ10、コマ
ンド解析部12、18、画像データベース(DB)1
4、マイクロホン16、音声データベース(DB)2
0、コマンド作成部22、コマンド判定部24、画像D
B修正部26、音声DB修正部28、個人認証装置30
を含んで構成されている。
【0013】カメラ10は、利用者が行うジェスチャー
を撮影して画像信号に変換する。コマンド解析部12
は、カメラ10によって撮影された画像に基づいて利用
者が行ったジェスチャーの内容を特定し、そのジェスチ
ャーにより指示される可能性のある複数のコマンド候補
を出力する。これらのコマンド候補のそれぞれには、各
コマンド候補が利用者の意図した操作指示内容に一致す
る確率(以後、この確率を「該当確率」と称する)が付
加されている。例えば、あるジェスチャーに対して、コ
マンドaの該当確率が50%、コマンドbの該当確率が
30%、コマンドcの該当確率が20%というような形
式でコマンド候補と該当確率が出力される。
【0014】画像DB14は、コマンド解析部12によ
り行われる画像認識処理に必要な画像解析用データを格
納している。この画像DB14には、複数の利用者に対
応する複数の画像解析用データが格納されており、上述
したコマンド解析部12による解析処理は、個人認証装
置30による認証結果に基づいて各利用者毎に画像解析
用データを使い分けて行われる。
【0015】マイクロホン16は、利用者が発声した音
声を集音し、音声信号を出力する。コマンド解析部18
は、マイクロホン16によって集音される音声に対して
所定の音声認識処理を行って利用者の発声した操作音声
の内容を特定し、その操作音声の内容により指示される
可能性のある複数のコマンド候補を出力する。これらの
コマンド候補のそれぞれについても、上述したコマンド
解析部12から出力されるコマンド候補と同様に、各コ
マンドに対して該当確率が付加されている。
【0016】音声DB20は、コマンド解析部18によ
り行われる音声認識処理に必要な音声解析用データを格
納している。この音声DB20についても、複数の利用
者に対応する複数の音声解析用データが格納されてお
り、上述したコマンド解析部18による解析処理は、個
人認証装置30による認証結果に基づいて各利用者毎に
音声解析用データを使い分けて行われる。
【0017】コマンド作成部22は、コマンド解析部1
2から出力されるコマンド候補とコマンド解析部18か
ら出力されるコマンド候補を統合して、利用者の意図に
合致していると考えられる一のコマンドを判断し、この
コマンドをナビゲーション装置2に出力する。
【0018】ここで、一のコマンドを決定する方法につ
いて具体的に説明する。例えば、あるジェスチャーに対
応して、コマンド解析部12から3つのコマンド候補が
「コマンドa:50%、コマンドb:30%、コマンド
c:20%」と出力され、同様に、ある操作音声に対応
して、コマンド解析部18から3つのコマンド候補が
「コマンドa:50%、コマンドd:30%、コマンド
b:20%」と出力された場合を考える。この場合に
は、コマンド解析部12から出力された第1優先候補
(該当確率の値が最も高いコマンド候補)とコマンド解
析部18から出力された第1優先候補とが「コマンド
a」で一致していることから、コマンド作成部22は、
このコマンドaをナビゲーション装置2に向けて出力す
る。
【0019】また、あるジェスチャーに対応して、コマ
ンド解析部12から3つのコマンド候補が「コマンド
a:50%、コマンドd:40%、コマンドb:10
%」と出力され、同様に、ある操作音声に対応して、コ
マンド解析部18から3つのコマンド候補が「コマンド
d:50%、コマンドa:30%、コマンドc:20
%」と出力された場合を想定する。このように第1優先
候補同士が一致していない場合には、コマンド作成部2
2は、コマンド解析部12から出力されたコマンド候補
とコマンド解析部18から出力されたコマンド候補の両
方に共通に含まれるコマンドを探し、コマンドに付加さ
れている該当確率どうしの積を求める。上述した例で
は、コマンドaとコマンドdが共通に含まれているの
で、コマンドaについては該当確率の積が1500(=
50×30)、コマンドdについては該当確率の積が2
000(=40×50)と求められる。そして、コマン
ド作成部22は、これらの該当確率の積を比較し、その
値が最も大きいコマンド(上述した例ではコマンドd)
をナビゲーション装置2に向けて出力する。
【0020】コマンド判定部24は、コマンド作成部2
2からナビゲーション装置2に対して出力されたコマン
ドの内容が利用者の意図に合致していたか否かを判定
し、否定的な判定結果が得られた場合には、画像DB修
正部26に対して画像DB14の内容を修正するよう指
示するとともに、音声DB修正部28に対して音声DB
20の内容を修正するよう指示する。本実施形態のコマ
ンド判定部24は、コマンド作成部22からナビゲーシ
ョン装置2に対してコマンドが出力されてから比較的に
短い所定時間(例えば、数秒間)内に、このコマンドと
異なる内容のコマンドの入力がナビゲーション装置2に
備わった操作部(図示せず)を用いて行われた場合に、
コマンド作成部22から出力されたコマンドの内容が利
用者の意図に合致していなかったと判定する。
【0021】画像DB修正部26は、コマンド判定部2
4から指示があった場合に、画像DB14に格納された
画像解析用データの内容を修正する学習処理を行う。例
えば、画像DB修正部26は、利用者が行ったジェスチ
ャーAに対応してコマンド作成部22からコマンドaが
出力され、このコマンドaが利用者の意図に合致しなか
った場合には、このコマンドaの該当確率を低い値に修
正する。このような学習処理を行うことにより、利用者
が次にジェスチャーAを行った場合には、コマンドaが
選択される可能性が低くなる。すなわち、学習処理を行
うことにより、各利用者の個性を反映して画像解析用デ
ータの内容を更新することができる。
【0022】音声DB修正部28は、コマンド判定部2
4から指示があった場合に、音声DB20に格納された
音声解析用データの内容を修正する学習処理を行う。例
えば、音声DB修正部28は、利用者が発声した操作音
声Bに対応してコマンド作成部22からコマンドbが出
力され、このコマンドbが利用者の意図に合致しなかっ
た場合には、このコマンドbの該当確率を低い値に修正
する。このような学習処理を行うことにより、利用者が
次に操作音声Bを発声した場合には、コマンドbが選択
される可能性が低くなる。すなわち、学習処理を行うこ
とにより、各利用者の個性を反映して音声解析用データ
の内容を更新することができる。
【0023】個人認証装置30は、あらかじめ登録され
ている候補者の中から、コマンド入力を行う利用者を特
定する所定の個人認証処理を行う。個人認証処理の具体
的な方法としては、指紋認識や網膜認識などのバイオメ
トリクス技術を使う方法や、所定のパスワードを入力す
る方法、磁気カード等を用いる方法など各種の方法が考
えられるが、いずれの方法を採用してもよい。個人認証
装置30による認証結果、すなわち「コマンド入力を行
う利用者が誰であるか」を示す情報は、各コマンド解析
部12、18に出力される。
【0024】図2は、個人認証装置30の構成の一例を
示す図である。同図に示す個人認証装置30は、指紋認
識技術を用いて利用者の特定を行うものであり、指紋読
取部32、指紋DB34、指紋認識部36を含んで構成
されている。指紋読取部32は、所定の読み取り面上に
置かれた利用者の指から指紋を読み取ってデジタルデー
タ(指紋データ)に変換し、指紋認識部36に出力す
る。
【0025】指紋DB34は、所定の候補者の指(例え
ば、人差し指)から採取した指紋データをその候補者に
関する情報(氏名など)と関連付けて格納している。指
紋認識部36は、指紋読取部32から出力される指紋デ
ータと、指紋DB34に予め登録されている各候補者の
指紋データとを比較し、入力された指紋を有する人を特
定する所定の指紋認識処理を行い、認識結果を各コマン
ド解析部12、18に出力する。
【0026】上述したマイクロホン16が音声入力手段
に、コマンド解析部18、音声DB20が操作音声解析
手段に、カメラ10が撮影手段に、コマンド解析部1
2、画像DB14が操作動作解析手段に、コマンド作成
部22が操作指示決定手段に、コマンド判定部24が操
作指示判定手段に、画像DB修正部26、音声DB修正
部28が学習手段に、個人認証装置30が個人識別手段
にそれぞれ対応している。
【0027】本実施形態のコマンド入力装置1はこのよ
うな構成を有しており、次にその動作を説明する。図3
は、コマンド入力装置1の動作手順を示す流れ図であ
る。コマンド解析部12は、画像DB14に格納された
画像解析用データを用いて、カメラ10によって撮影さ
れた画像に対して所定の画像認識処理を行い、利用者の
行ったジェスチャーの内容を特定し、対応する複数のコ
マンド候補を抽出する(ステップ100)。
【0028】またコマンド解析部18は、音声DB20
に格納された音声解析用データを用いて、マイクロホン
16によって集音される音声に対して所定の音声認識処
理を行い、利用者の発声した操作音声の内容を特定し、
対応する複数のコマンド候補を抽出する(ステップ10
1)。なお、ステップ100の動作とステップ101の
動作は、並行して行ったり、順番を入れ替えるようにし
てもよい。
【0029】各コマンド解析部12、18により複数の
コマンド候補がそれぞれ抽出されると、コマンド作成部
22は、コマンド解析部12により抽出された第1優先
候補のコマンドと、コマンド解析部18から出力された
第1優先候補のコマンドとでその内容が一致しているか
否かを判定する(ステップ102)。
【0030】第1優先候補のコマンド同士が一致してい
る場合には、ステップ102で肯定判断が行われ、コマ
ンド作成部22は、この第1優先候補のコマンドをナビ
ゲーション装置2に向けて出力する(ステップ10
3)。また、第1優先候補のコマンドが一致していない
場合には、ステップ102で否定判断が行われ、コマン
ド作成部22は、各コマンド候補の該当確率を考慮して
上述した所定の計算を行って一のコマンドを選択し、こ
のコマンドをナビゲーション装置2に向けて出力する
(ステップ104)。
【0031】例えば、(1)利用者が「顔を左右に振
る」というジェスチャーを行い、このジェスチャーに対
応したコマンド候補として、第1優先候補が「いやだ:
50%」、第2優先候補が「違う:30%」、第3優先
候補が「停止:20%」とそれぞれ出力され、(2)上
述したジェスチャーとともに利用者が「ストップ」とい
う操作音声を発声し、この操作音声に対応したコマンド
候補として、第1優先候補が「停止:90%」、第2優
先候補が「違う:7%」、第3優先候補が「いやだ:3
%」とそれぞれ出力された場合を考える。この場合に各
コマンドについての該当確率の積は、コマンド「いや
だ」については150(=50×3)、コマンド「違
う」については210(30×7)、コマンド「停止」
については1800(90×20)とそれぞれ計算され
るため、コマンド作成部22は、該当確率の積が最も大
きいコマンドである「停止」を選択して出力する。
【0032】ナビゲーション装置2に対してコマンドが
出力されると、次に、コマンド判定部24は、利用者が
ナビゲーション装置2に備わった操作部(図示せず)を
用いて、コマンド作成部22から出力されたコマンドと
異なる内容のコマンドの入力を行ったか否かを判定する
(ステップ105)。
【0033】利用者によるコマンド入力が行われない場
合には、ステップ105で否定判断が行われ、コマンド
判定部24は、所定時間(例えば、数秒間)が経過した
か否かを判定する(ステップ106)。所定時間が経過
しない間は、ステップ106で否定判断が行われ、上述
したステップ105に戻り、以降の処理が繰り返され
る。
【0034】所定時間内に利用者によるコマンド入力が
行われた場合には、ステップ105で肯定判断が行わ
れ、コマンド判定部24は、画像DB修正部26に対し
て画像DB14の内容を修正するよう指示するととも
に、音声DB修正部28に対して音声DB20の内容を
修正するように指示する。
【0035】指示を受けた画像DB修正部26は、コマ
ンド作成部22から出力されたコマンドに対応して、画
像DB14の内容を修正する(ステップ107)。具体
的には、画像DB修正部26は、コマンド作成部22か
ら出力されたコマンドに対応する該当確率を所定量だけ
低い値に設定する。これにより、以降の処理において
は、同じジェスチャーが行われた場合にも、このコマン
ドが選択される確率が低くなり、利用者の個性を反映さ
せることができる。なお、一つのコマンドの該当確率だ
けを低くすると、各コマンドの該当確率の合計が100
%にならなくなってしまうため、実際には一つのコマン
ドの該当確率を下げると同時に、他のコマンドの該当確
率を上げる必要がある。
【0036】同様に、音声DB修正部28は、コマンド
作成部22から出力されたコマンドに対応して、音声D
B20の内容を修正する(ステップ108)。具体的に
は、音声DB修正部28は、コマンド作成部22から出
力されたコマンドに対応する該当確率を所定量だけ低い
値に設定する。これにより、以降の処理においては、同
じ音声が入力された場合にも、このコマンドが選択され
る確率が低くなり、利用者の個性を反映させることがで
きる。
【0037】このようにして、利用者の音声およびジェ
スチャーに対応して、ナビゲーション装置2に対して各
種のコマンドを入力するとともに、コマンドの内容の適
否に応じた学習処理を行う一連の処理が終了する。とこ
ろで、上述した実施形態では、コマンド作成部22から
コマンドが出力されてから所定時間内にこのコマンドと
異なる内容のコマンドの入力が利用者により行われた場
合に、コマンド入力装置1からナビゲーション装置2に
対して出力されたコマンドの内容が利用者の意図に合致
していないと判断していたが、この判断を利用者の感情
に基づいて行うようにしてもよい。
【0038】図4は、利用者の感情に基づいてコマンド
内容の判定を行う場合のコマンド入力装置1aの構成を
示す図である。図4に示すコマンド入力装置1aは、カ
メラ10、コマンド解析部12、18、画像DB14、
マイクロホン16、音声DB20、コマンド作成部2
2、コマンド判定部24a、画像DB修正部26、音声
DB修正部28、感情認識装置40を含んで構成されて
いる。図1に示したコマンド入力装置1との相違点は、
(1)個人認証機能を備えた感情認識装置40が追加さ
れた点と、(2)これに伴って個人認証装置30が省略
された点と、(3)コマンド判定部24が感情認識結果
に基づいて処理を行うコマンド判定部24aに置き換え
られた点である。以下、主に両者の相違点に着目して、
コマンド入力装置1aの構成および動作を説明する。
【0039】感情認識装置40は、利用者の感情を認識
する処理を行い、感情認識結果として、「喜」、
「怒」、「哀」、「楽」のいずれかを出力する。また、
感情認識装置40は、個人認証機能も備えており、個人
認証結果に基づいて複数の利用者についてそれぞれの個
性を考慮した感情認識処理を行う。この感情認識装置4
0が感情判定手段に対応している。感情認識装置40の
詳細構成については後述する。
【0040】コマンド判定部24aは、コマンド作成部
22からナビゲーション装置2に対して出力されたコマ
ンドの内容が利用者の意図に合致していたか否かを判定
し、否定的な判定結果が得られた場合には、画像DB1
4および音声DB20の内容を修正するよう画像DB修
正部26と音声DB修正部28に指示する。具体的に
は、コマンド判定部24aは、感情認識装置40から出
力される感情認識結果が否定的な内容、具体的には
「怒」または「哀」である場合にコマンドの内容が利用
者の意図に合致していなかったと判定する。
【0041】次に、上述した感情認識装置40の詳細構
成を説明する。図5は、感情認識装置40の詳細構成を
示す図である。感情認識装置40は、マイクロホン5
0、音声認識部52、カメラ54、画像認識部56、セ
ンサ58、動作認識部60、個性DB62、個性認識部
64、感情認識部66、70、74、音声DB68、画
像DB72、動作DB76、重み付け処理部78、個性
データ修正部80を含んで構成されている。
【0042】マイクロホン50は、利用者が発声した音
声を集音して電気信号に変換する。音声認識部52は、
マイクロホン50によって集音された利用者の音声信号
を解析して音声認識を行い、利用者が発声した言葉を特
定する。また、音声認識部52は、音声認識を行った結
果に基づいて、利用者の音声の特徴量を抽出する。音声
認識部52によって抽出される特徴量としては、例え
ば、声の高さや大きさ、話す際の一文字毎の発声間隔等
が考えられる。
【0043】カメラ54は、利用者の表情を撮影する。
画像認識部56は、カメラ54によって撮影された利用
者の表情を解析して特徴量を抽出する。画像認識部56
によって抽出される特徴量としては、例えば、顔に含ま
れる目、眉毛、口等の各要素の位置や大きさ、あるいは
これらの要素の動きが考えられる。具体的には、目の輪
郭、目の角度、眉の角度、口の開き具合、あるいは、単
位時間当たりの瞬きの回数などが考えられる。
【0044】センサ58は、利用者の動作を検出して電
気信号に変換する。ここで、本明細書では、利用者の手
足や頭部等の身体の各部位の位置や動きに加えて、体
温、発汗量等、利用者の身体の状態に関して測定可能な
物理量を全て含めて「動作」と表現するものとする。し
たがって、本実施形態のセンサ58は、温度センサ、圧
力センサ、位置センサ等の各種のセンサから構成されて
いる。本実施形態におけるセンサ58の具体的な設置場
所としては、運転席のハンドルやシート、その他運転席
周辺の空間が考えられる。
【0045】動作認識部60は、センサ58を用いて検
出された利用者の動作を解析して特徴量を抽出する。具
体的には、例えば、ハンドルに圧力センサを設置し、こ
れに加わる圧力の変化を調べることによって手の動きを
調べることができ、これより手を頻繁に動かしているか
どうかや、ハンドルを強く握っているかどうか等の情報
が得られる。また、シートやその他の場所に位置センサ
を設置することにより、利用者の座高、頭の位置、肩の
位置等の情報を得ることもできる。
【0046】個性DB62は、利用者の有する個性に基
づいて個人を特定する、すなわち、個人認証を行うため
の個人特定用データと、利用者の感情を認識する際の判
断基準とするための個性データグループを格納してい
る。個人特定用データとしては、例えば、利用者が所定
の言葉を発声した際の音声の波形パターンや、あごの輪
郭、座高等の要素、すなわち、感情の変化によらず値が
ほぼ一定であるような要素が考慮されており、各利用者
に対応するデータが登録されている。
【0047】また、個性DB62は、利用者が特定の感
情を有していない状態、言い換えると利用者がどの感情
を有している可能性も同じ確率であると見なすことがで
きる状態において、音声、表情、動作の各々に関して有
している特徴量をまとめたデータグループが格納されて
いる。このデータグループが上述した「個性データグル
ープ」に対応する。また、個性データグループに含まれ
る各特徴量を「個性データ」と称することとする。
【0048】個性認識部64は、上述した音声認識部5
2、画像認識部56、動作認識部60のそれぞれによっ
て抽出される各特徴量の一部または全部を取得し、個性
DB62に格納された個人特定用データを検索して、取
得した特徴量と一致する個人特定用データがあるか否か
を調べる。取得した特徴量と一致する個人特定用データ
が見つかった場合には、個性認識部64は、この個人特
定用データを有する利用者に対応する個性データグルー
プを読み出して各感情認識部66、70、74に向けて
出力する。例えば、個人特定用データを検索した結果、
利用者Aのものと一致した場合であれば、利用者Aに対
応する個性データグループが読み出される。
【0049】感情認識部66は、音声認識部52によっ
て抽出された音声に関する特徴量と個性認識部64から
入力される個性データグループに基づいて利用者の音声
の状態を判断し、判断した音声の状態と音声DB68に
格納されたデータテーブルに基づいて利用者の感情
(喜、怒、哀、楽)を認識する。感情認識部66(感情
認識部72、74も同様)による感情認識結果は、例え
ば、「喜」が30%、「怒」が55%、「哀」が10
%、「楽」が5%というように、各感情を利用者が有す
る可能性を確率で表すことにより与えられる。上述した
例であれば、利用者が有している可能性の高い感情は
「怒」ということになる。音声DB68は、感情認識部
66によって判断される利用者の音声の状態と上述した
4つの感情との関係を示すデータテーブルを格納してい
る。
【0050】感情認識部70は、画像認識部56によっ
て抽出された表情に関する特徴量と個性認識部64から
入力される個性データグループに基づいて利用者の表情
の状態を判断するとともに、判断した表情の状態と画像
DB72に格納されたデータテーブルに基づいて利用者
の感情を認識する。画像DB72は、感情認識部70に
よって判断される利用者の表情の状態と上述した4つの
感情との関係を示すデータテーブルを格納している。
【0051】感情認識部74は、動作認識部60によっ
て抽出された動作に関する特徴量と個性認識部64から
入力される個性データグループに基づいて利用者の動作
の状態を判断するとともに、判断した動作の状態と動作
DB76に格納されたデータテーブルに基づいて利用者
の感情を認識する。動作DB76は、感情認識部74に
よって判断される利用者の表情の状態と上述した4つの
感情との関係を示すデータテーブルを格納している。
【0052】重み付け処理部78は、各感情認識部6
6、70、74から出力された感情認識結果に対して所
定の重み付け処理を行って統合し、最終的な感情認識結
果を求める。具体的には、音声情報に基づいて得られた
感情認識結果を{Ah、Aa、As、Ae}、画像情報
に基づいて得られた感情認識結果を{Vh、Va、V
s、Ve}、動作情報に基づいて得られた感情認識結果
を{Mh、Ma、Ms、Me}とおき、これらに対応す
る重み付け係数をそれぞれ、{Ph、Pa、Ps、P
e}、{Qh、Qa、Qs、Qe}、{Rh、Ra、R
s、Re}とおくと、各感情認識結果に対する重み付け
処理は、以下に示した(1)〜(4)式によって求めら
れる。ここで、各感情認識結果および各重み付け係数に
付加された添え字は、「h」が「喜」に対応し、「a」
が「怒」に対応し、「s」が「哀」に対応し、「e」が
「楽」に対応しているものとする。
【0053】 喜=Ph・Ah+Qh・Vh+Rh・Mh …(1) 怒=Pa・Aa+Qa・Va+Ra・Ma …(2) 哀=Ps・As+Qs・Vs+Rs・Ms …(3) 楽=Pe・Ae+Qe・Ve+Re・Me …(4) なお、各重み付け係数は、適切な認識結果が得られるよ
うに実験的に決定される。
【0054】上述した(1)〜(4)式に基づいて、音
声、画像、動作のそれぞれから得られた感情認識結果を
統合した感情認識結果が得られる。その後、重み付け処
理部78は、(1)〜(4)式によって得られた感情認
識結果の中で、最も値の大きい感情を選択し、これを最
終的な感情認識結果として出力する。具体的には、例え
ば、“利用者が「A」であり、感情認識結果が「喜」で
ある”といった情報が重み付け処理部78から出力され
る。重み付け処理部78によって求められた感情認識結
果は、感情認識装置40からの出力として、コマンド判
定部24aへ出力される。また、個人認証結果は、各コ
マンド解析部12、18にそれぞれ出力される。
【0055】個性データ修正部80は、個性認識部64
から出力された個性データグループと音声認識部52、
画像認識部56、動作認識部60のそれぞれによって抽
出された各特徴量に基づいて、個性データグループに含
まれる各個性データを利用者の個性に対応して修正する
処理を行う。
【0056】コマンド入力装置1aは上述したような構
成を有しており、次にその動作を説明する。図6は、利
用者の感情に基づいてコマンド内容の判定を行う場合の
コマンド入力装置1aの部分的な動作手順を示す流れ図
である。コマンド入力装置1aの基本的な動作手順は、
上述したコマンド入力装置1における動作手順と同様で
あり、上述した図3に示したステップ105の処理をス
テップ109の処理に置き換えた点が異なっている。
【0057】コマンド判定部24aは、感情認識装置4
0から否定的な感情認識結果(「怒」または「哀」)が
出力されたか否かを判定する(ステップ109)。否定
的な感情認識結果が出力されない場合には、ステップ1
09で否定判断が行われ、次にコマンド判定部24a
は、所定時間(例えば、数秒間)が経過したか否かを判
定する(ステップ106)。所定時間が経過しない間
は、ステップ106で否定判断が行われ、上述したステ
ップ105に戻り、以降の処理が繰り返される。
【0058】所定時間内に否定的な感情認識結果が出力
された場合には、ステップ109で肯定判断が行われ、
コマンド判定部24aは、画像DB修正部26に対して
画像DB14の内容を修正するよう指示するとともに、
音声DB修正部28に対して音声DB20の内容を修正
するように指示する。その後、ステップ107以降の処
理が行われることにより、画像DB14および音声DB
20の内容が修正され、一連の処理が終了する。
【0059】このように、本実施形態のコマンド入力装
置では、各コマンド解析部12、18により解析された
操作音声およびジェスチャー(操作動作)の内容に基づ
いてコマンドの内容が決定され、そのコマンドに応じて
ナビゲーション装置2の動作が実行された場合にコマン
ドの内容の適否が判定され、否定的な判定結果が得られ
た場合には画像DB14および音声DB20の内容を修
正する学習処理が行われるため、コマンドの認識精度を
高めることができる。
【0060】特に、所定時間内におけるコマンド入力の
有無、または、利用者の感情認識結果のいずれかを調べ
ることにより、コマンドの内容が利用者の意図に合致し
ているか否かが判定されるため、利用者に特別な操作を
行わせることなく認識結果に対する学習処理を行うこと
ができる。また、該当確率が付加された複数のコマンド
が各コマンド解析部12、18のそれぞれから出力さ
れ、これらに基づいて最も該当確率が高い操作指示の内
容が決定されるので、操作者の意図に合致している可能
性の高い操作指示の内容を決定することができるという
利点もある。
【0061】なお、本発明は上記実施形態に限定される
ものではなく、本発明の要旨の範囲内において種々の変
形実施が可能である。例えば、感情認識装置40を備え
たコマンド入力装置1a(図4参照)においては、カメ
ラ10と感情認識装置40内のカメラ54、マイクロホ
ン16と感情認識装置40内のマイクロホン50のそれ
ぞれを共用にして構成の簡略化を図るようにしてもよ
い。同様に、各コマンド解析部12および18には、音
声認識機能や画像認識機能が含まれているので、感情認
識装置40内の音声認識部52および画像認識部56に
より行われる処理を各コマンド解析部12および18で
行うようにして、構成の簡略化を図ることもできる。
【0062】また、上述した実施形態では、所定時間内
におけるコマンド入力の有無、または、利用者の感情認
識結果のいずれかを調べることにより、コマンドの内容
が利用者の意図に合致しているか否かを判定していた
が、コマンド入力の有無と感情認識結果の両者を併用し
て判定を行ってもよい。
【0063】また、上述した実施形態では、複数の利用
者による使用を考慮して、個人認証装置30等の個人認
証手段を設けて、各利用者の個性に対応したコマンド作
成処理を行っていたが、一の利用者だけが使用する場合
などには、個人認証装置30等の個人認証手段を省略し
てコストダウンを図るようにしてもよい。
【0064】また、コマンドを入力する対象となる装置
は、上述したナビゲーション装置2に限定されるもので
はなく、他の各種装置であってもよい。例えば、電子レ
ンジ等の家電装置をコマンド入力の対象とした場合に
は、調理等の作業中においても、家電装置に備わった操
作ボタン等を操作することなく各種の操作指示を入力す
ることができる。同様に、車載用のCDプレーヤ等のオ
ーディオ装置をコマンド入力の対象とした場合には、オ
ーディオ装置に備わった操作ボタン等を操作することな
く、選局や音量調整等の操作指示を入力することができ
る。
【0065】
【発明の効果】上述したように、本発明によれば、操作
音声および操作動作の内容の解析結果に基づいて操作指
示内容が決定されており、その操作指示に応じた操作対
象装置の動作が実行された場合に、操作指示内容の適否
が判定され、各解析動作に反映させる学習処理が行われ
るため、操作指示の認識精度を高めることができる。
【図面の簡単な説明】
【図1】一実施形態のコマンド入力装置の構成を示す図
である。
【図2】個人認証装置の構成の一例を示す図である。
【図3】コマンド入力装置の動作手順を示す流れ図であ
る。
【図4】利用者の感情に基づいてコマンド内容の判定を
行う場合のコマンド入力装置の構成を示す図である。
【図5】感情認識装置の詳細構成を示す図である。
【図6】利用者の感情に基づいてコマンド内容の判定を
行う場合のコマンド入力装置の部分的な動作手順を示す
流れ図である。
【符号の説明】
1、1a コマンド入力装置 2 ナビゲーション装置 10 カメラ 12、18 コマンド解析部 14 画像DB(データベース) 16 マイクロホン 20 音声DB 22 コマンド作成部 24 コマンド判定部 26 画像DB修正部 28 音声DB修正部 30 個人認証装置 40 感情認識装置
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 15/06 G10L 3/00 521M 15/10 531N 17/00 545A 15/24 551F 571Q Fターム(参考) 5B047 AA25 CB22 DC09 5B057 BA02 BA04 CA08 CA12 CA16 CB08 CB12 CB16 CC01 DA12 DB02 DB09 DC33 5D015 AA03 AA06 GG01 GG06 HH04 KK01 LL07

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】 操作者が操作対象装置に対して行った操
    作指示の内容を判定する操作指示装置であって、 前記操作者による操作音声を取り込む音声入力手段と、 前記操作音声の内容を解析する操作音声解析手段と、 前記操作者の身体を撮影する撮影手段と、 前記撮影手段によって撮影された画像を解析することに
    より、前記操作者が身体を動かすことによって表現され
    た操作動作の内容を解析する操作動作解析手段と、 前記操作音声解析手段および前記操作動作解析手段のそ
    れぞれの解析結果に基づいて、前記操作指示の内容を決
    定する操作指示決定手段と、 前記操作指示決定手段によって決定された前記操作指示
    の内容の適否を判定する操作指示判定手段と、 前記操作指示判定手段による判定結果を前記操作音声解
    析手段および前記操作動作解析手段のそれぞれの解析動
    作に反映させる学習手段と、 を備えることを特徴とする操作指示装置。
  2. 【請求項2】 請求項1において、 前記操作者の感情を判定する感情判定手段をさらに備
    え、 前記操作指示判定手段は、前記感情判定手段によって判
    定された前記操作者の感情に基づいて前記操作指示の内
    容の適否を判定することを特徴とする操作指示装置。
  3. 【請求項3】 請求項1において、 前記操作指示判定手段は、連続して与えられた前記操作
    指示の内容が操作のやり直しを指示するものである場合
    に、否定的な判定を行うことを特徴とする操作指示装
    置。
  4. 【請求項4】 請求項1〜3のいずれかにおいて、 前記操作者の個人を識別する個人識別手段をさらに備
    え、 前記個人識別手段によって識別された個人毎に、前記操
    作音声解析手段、前記操作動作解析手段、前記学習手段
    のそれぞれにおける動作を行うことを特徴とする操作指
    示装置。
  5. 【請求項5】 請求項1〜4のいずれかにおいて、 前記操作音声解析手段および前記操作動作解析手段のそ
    れぞれは、複数の操作指示候補とそれぞれに対応する該
    当確率を抽出する解析動作を行い、 前記操作指示決定手段は、前記操作音声解析手段および
    前記操作動作解析手段のそれぞれによって抽出された前
    記操作指示候補と前記該当確率とに基づいて、最も該当
    確率が高い前記操作指示の内容を決定することを特徴と
    する操作指示装置。
JP2000385021A 2000-12-19 2000-12-19 操作指示装置 Expired - Fee Related JP4294853B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000385021A JP4294853B2 (ja) 2000-12-19 2000-12-19 操作指示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000385021A JP4294853B2 (ja) 2000-12-19 2000-12-19 操作指示装置

Publications (2)

Publication Number Publication Date
JP2002182680A true JP2002182680A (ja) 2002-06-26
JP4294853B2 JP4294853B2 (ja) 2009-07-15

Family

ID=18852365

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000385021A Expired - Fee Related JP4294853B2 (ja) 2000-12-19 2000-12-19 操作指示装置

Country Status (1)

Country Link
JP (1) JP4294853B2 (ja)

Cited By (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004240154A (ja) * 2003-02-06 2004-08-26 Hitachi Ltd 情報認識装置
JP2007218933A (ja) * 2006-02-14 2007-08-30 Hitachi Ltd 会話音声分析方法、及び、会話音声分析装置
JP2008162376A (ja) * 2006-12-27 2008-07-17 Takata Corp 車両用作動システム、車両
US7437488B2 (en) 2003-12-17 2008-10-14 Denso Corporation Interface for car-mounted devices
US7702130B2 (en) 2004-12-20 2010-04-20 Electronics And Telecommunications Research Institute User interface apparatus using hand gesture recognition and method thereof
JP2010128015A (ja) * 2008-11-25 2010-06-10 Toyota Central R&D Labs Inc 音声認識の誤認識判定装置及び音声認識の誤認識判定プログラム
JP2011103111A (ja) * 2009-11-10 2011-05-26 Inst For Information Industry 視聴覚を結合した動作認識システムおよびその認識方法
JP2011130762A (ja) * 2009-12-22 2011-07-07 Ind Technol Res Inst 語意認識機能付き食品製造装置
WO2013179985A1 (ja) 2012-05-30 2013-12-05 日本電気株式会社 情報処理システム、情報処理方法、通信端末、情報処理装置およびその制御方法と制御プログラム
JP2014206903A (ja) * 2013-04-15 2014-10-30 オムロン株式会社 表情推定装置、制御方法、制御プログラム、および記録媒体
JP2016004270A (ja) * 2014-05-30 2016-01-12 アップル インコーポレイテッド 手動始点/終点指定及びトリガフレーズの必要性の低減
JPWO2013190956A1 (ja) * 2012-06-19 2016-05-26 株式会社Nttドコモ 機能実行指示システム、機能実行指示方法及び機能実行指示プログラム
JP2016540276A (ja) * 2013-09-30 2016-12-22 クゥアルコム・インコーポレイテッドQualcomm Incorporated 既知の、まだ着用されていないセンサの使用によるジェスチャ検出システムの分類
US9865248B2 (en) 2008-04-05 2018-01-09 Apple Inc. Intelligent text-to-speech conversion
JP2018060248A (ja) * 2016-09-30 2018-04-12 本田技研工業株式会社 処理結果異常検出装置、処理結果異常検出プログラム、処理結果異常検出方法及び移動体
US9966060B2 (en) 2013-06-07 2018-05-08 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9971774B2 (en) 2012-09-19 2018-05-15 Apple Inc. Voice-based media searching
US9986419B2 (en) 2014-09-30 2018-05-29 Apple Inc. Social reminders
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10049675B2 (en) 2010-02-25 2018-08-14 Apple Inc. User profiling for voice input processing
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10079014B2 (en) 2012-06-08 2018-09-18 Apple Inc. Name recognition system
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10269345B2 (en) 2016-06-11 2019-04-23 Apple Inc. Intelligent task discovery
US10318871B2 (en) 2005-09-08 2019-06-11 Apple Inc. Method and apparatus for building an intelligent automated assistant
US10356243B2 (en) 2015-06-05 2019-07-16 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10354011B2 (en) 2016-06-09 2019-07-16 Apple Inc. Intelligent automated assistant in a home environment
US10410637B2 (en) 2017-05-12 2019-09-10 Apple Inc. User-specific acoustic models
JP2019159378A (ja) * 2018-03-07 2019-09-19 ヤフー株式会社 管理装置、管理方法および管理プログラム
US10482874B2 (en) 2017-05-15 2019-11-19 Apple Inc. Hierarchical belief states for digital assistants
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US10706841B2 (en) 2010-01-18 2020-07-07 Apple Inc. Task flow identification based on user intent
US10755703B2 (en) 2017-05-11 2020-08-25 Apple Inc. Offline personal assistant
JP2020141235A (ja) * 2019-02-27 2020-09-03 パナソニックIpマネジメント株式会社 機器制御システム、機器制御方法及びプログラム
US10791176B2 (en) 2017-05-12 2020-09-29 Apple Inc. Synchronization and task delegation of a digital assistant
US10795541B2 (en) 2009-06-05 2020-10-06 Apple Inc. Intelligent organization of tasks items
US10810274B2 (en) 2017-05-15 2020-10-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
US10904611B2 (en) 2014-06-30 2021-01-26 Apple Inc. Intelligent automated assistant for TV user interactions
JP2021039326A (ja) * 2019-09-05 2021-03-11 サウンドハウンド,インコーポレイテッド 問合せの検出および訂正のためのシステムおよび方法
JP2021057057A (ja) * 2016-05-06 2021-04-08 ザ ボード オブ トラスティーズ オブ ザ レランド スタンフォード ジュニア ユニバーシティー 精神障害の療法のためのモバイルおよびウェアラブルビデオ捕捉およびフィードバックプラットフォーム
JP2021079042A (ja) * 2019-11-22 2021-05-27 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US11080012B2 (en) 2009-06-05 2021-08-03 Apple Inc. Interface for a virtual digital assistant
US11217255B2 (en) 2017-05-16 2022-01-04 Apple Inc. Far-field extension for digital assistant services

Cited By (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004240154A (ja) * 2003-02-06 2004-08-26 Hitachi Ltd 情報認識装置
US7437488B2 (en) 2003-12-17 2008-10-14 Denso Corporation Interface for car-mounted devices
US7702130B2 (en) 2004-12-20 2010-04-20 Electronics And Telecommunications Research Institute User interface apparatus using hand gesture recognition and method thereof
US10318871B2 (en) 2005-09-08 2019-06-11 Apple Inc. Method and apparatus for building an intelligent automated assistant
JP2007218933A (ja) * 2006-02-14 2007-08-30 Hitachi Ltd 会話音声分析方法、及び、会話音声分析装置
JP2008162376A (ja) * 2006-12-27 2008-07-17 Takata Corp 車両用作動システム、車両
US9865248B2 (en) 2008-04-05 2018-01-09 Apple Inc. Intelligent text-to-speech conversion
JP2010128015A (ja) * 2008-11-25 2010-06-10 Toyota Central R&D Labs Inc 音声認識の誤認識判定装置及び音声認識の誤認識判定プログラム
US10795541B2 (en) 2009-06-05 2020-10-06 Apple Inc. Intelligent organization of tasks items
US11080012B2 (en) 2009-06-05 2021-08-03 Apple Inc. Interface for a virtual digital assistant
JP2011103111A (ja) * 2009-11-10 2011-05-26 Inst For Information Industry 視聴覚を結合した動作認識システムおよびその認識方法
JP2011130762A (ja) * 2009-12-22 2011-07-07 Ind Technol Res Inst 語意認識機能付き食品製造装置
US10706841B2 (en) 2010-01-18 2020-07-07 Apple Inc. Task flow identification based on user intent
US11423886B2 (en) 2010-01-18 2022-08-23 Apple Inc. Task flow identification based on user intent
US10049675B2 (en) 2010-02-25 2018-08-14 Apple Inc. User profiling for voice input processing
US9489951B2 (en) 2012-05-30 2016-11-08 Nec Corporation Information processing system, information processing method, communication terminal, information processing apparatus, and control method and control program thereof
WO2013179985A1 (ja) 2012-05-30 2013-12-05 日本電気株式会社 情報処理システム、情報処理方法、通信端末、情報処理装置およびその制御方法と制御プログラム
US10079014B2 (en) 2012-06-08 2018-09-18 Apple Inc. Name recognition system
JPWO2013190956A1 (ja) * 2012-06-19 2016-05-26 株式会社Nttドコモ 機能実行指示システム、機能実行指示方法及び機能実行指示プログラム
US9971774B2 (en) 2012-09-19 2018-05-15 Apple Inc. Voice-based media searching
JP2014206903A (ja) * 2013-04-15 2014-10-30 オムロン株式会社 表情推定装置、制御方法、制御プログラム、および記録媒体
US9966060B2 (en) 2013-06-07 2018-05-08 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
JP2016540276A (ja) * 2013-09-30 2016-12-22 クゥアルコム・インコーポレイテッドQualcomm Incorporated 既知の、まだ着用されていないセンサの使用によるジェスチャ検出システムの分類
US11810562B2 (en) 2014-05-30 2023-11-07 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US11133008B2 (en) 2014-05-30 2021-09-28 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
JP2016004270A (ja) * 2014-05-30 2016-01-12 アップル インコーポレイテッド 手動始点/終点指定及びトリガフレーズの必要性の低減
US10904611B2 (en) 2014-06-30 2021-01-26 Apple Inc. Intelligent automated assistant for TV user interactions
US9986419B2 (en) 2014-09-30 2018-05-29 Apple Inc. Social reminders
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US10356243B2 (en) 2015-06-05 2019-07-16 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
JP2021057057A (ja) * 2016-05-06 2021-04-08 ザ ボード オブ トラスティーズ オブ ザ レランド スタンフォード ジュニア ユニバーシティー 精神障害の療法のためのモバイルおよびウェアラブルビデオ捕捉およびフィードバックプラットフォーム
US11937929B2 (en) 2016-05-06 2024-03-26 The Board Of Trustees Of The Leland Stanford Junior University Systems and methods for using mobile and wearable video capture and feedback plat-forms for therapy of mental disorders
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10354011B2 (en) 2016-06-09 2019-07-16 Apple Inc. Intelligent automated assistant in a home environment
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10269345B2 (en) 2016-06-11 2019-04-23 Apple Inc. Intelligent task discovery
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10553215B2 (en) 2016-09-23 2020-02-04 Apple Inc. Intelligent automated assistant
JP2018060248A (ja) * 2016-09-30 2018-04-12 本田技研工業株式会社 処理結果異常検出装置、処理結果異常検出プログラム、処理結果異常検出方法及び移動体
US10475470B2 (en) 2016-09-30 2019-11-12 Honda Motor Co., Ltd. Processing result error detection device, processing result error detection program, processing result error detection method, and moving entity
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US10755703B2 (en) 2017-05-11 2020-08-25 Apple Inc. Offline personal assistant
US10791176B2 (en) 2017-05-12 2020-09-29 Apple Inc. Synchronization and task delegation of a digital assistant
US11405466B2 (en) 2017-05-12 2022-08-02 Apple Inc. Synchronization and task delegation of a digital assistant
US10410637B2 (en) 2017-05-12 2019-09-10 Apple Inc. User-specific acoustic models
US10810274B2 (en) 2017-05-15 2020-10-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
US10482874B2 (en) 2017-05-15 2019-11-19 Apple Inc. Hierarchical belief states for digital assistants
US11217255B2 (en) 2017-05-16 2022-01-04 Apple Inc. Far-field extension for digital assistant services
JP2019159378A (ja) * 2018-03-07 2019-09-19 ヤフー株式会社 管理装置、管理方法および管理プログラム
WO2020175293A1 (ja) * 2019-02-27 2020-09-03 パナソニックIpマネジメント株式会社 機器制御システム、機器制御方法及びプログラム
JP2020141235A (ja) * 2019-02-27 2020-09-03 パナソニックIpマネジメント株式会社 機器制御システム、機器制御方法及びプログラム
JP2021039326A (ja) * 2019-09-05 2021-03-11 サウンドハウンド,インコーポレイテッド 問合せの検出および訂正のためのシステムおよび方法
US11263198B2 (en) 2019-09-05 2022-03-01 Soundhound, Inc. System and method for detection and correction of a query
JP7066667B2 (ja) 2019-09-05 2022-05-13 サウンドハウンド,インコーポレイテッド 問合せの検出および訂正のための方法、プログラム、および、システム
JP2021079042A (ja) * 2019-11-22 2021-05-27 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7254682B2 (ja) 2019-11-22 2023-04-10 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Also Published As

Publication number Publication date
JP4294853B2 (ja) 2009-07-15

Similar Documents

Publication Publication Date Title
JP4294853B2 (ja) 操作指示装置
JP6465077B2 (ja) 音声対話装置および音声対話方法
JP3678421B2 (ja) 音声認識装置及び音声認識方法
US7373301B2 (en) Method for detecting emotions from speech using speaker identification
US8416998B2 (en) Information processing device, information processing method, and program
JP4481663B2 (ja) 動作認識装置、動作認識方法、機器制御装置及びコンピュータプログラム
WO2016150001A1 (zh) 语音识别的方法、装置及计算机存储介质
CN108133709B (zh) 语音识别装置和语音识别方法
US10195748B2 (en) Humanoid robot
JP6866715B2 (ja) 情報処理装置、感情認識方法、及び、プログラム
JPWO2006109515A1 (ja) 操作者認識装置、操作者認識方法、および、操作者認識プログラム
WO2010085221A1 (en) Method to control media with face detection and hot spot motion
CN111199032A (zh) 身份认证的方法以及装置
JP2001083984A (ja) インタフェース装置
WO2019171780A1 (ja) 個人識別装置および特徴収集装置
JP4730812B2 (ja) 個人認証装置、個人認証処理方法、そのためのプログラム及び記録媒体
WO2019235190A1 (ja) 情報処理装置、情報処理方法、プログラム及び対話システム
WO2021166811A1 (ja) 情報処理装置および行動モード設定方法
JP6798258B2 (ja) 生成プログラム、生成装置、制御プログラム、制御方法、ロボット装置及び通話システム
CN113643707A (zh) 一种身份验证方法、装置和电子设备
JP2829014B2 (ja) 音声認識装置及び方法
JPH0728488A (ja) 情報処理方法及び装置
JP4254400B2 (ja) 画像生成装置およびその画像生成方法、ならびにコンピュータ読み取り可能な記録媒体
JP2016143050A (ja) 音声認識装置および音声認識方法
JP2014182452A (ja) 情報処理装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060131

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080722

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090407

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090409

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120417

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120417

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130417

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130417

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140417

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees