JP6584731B2 - ジェスチャ操作装置及びジェスチャ操作方法 - Google Patents

ジェスチャ操作装置及びジェスチャ操作方法 Download PDF

Info

Publication number
JP6584731B2
JP6584731B2 JP2019524773A JP2019524773A JP6584731B2 JP 6584731 B2 JP6584731 B2 JP 6584731B2 JP 2019524773 A JP2019524773 A JP 2019524773A JP 2019524773 A JP2019524773 A JP 2019524773A JP 6584731 B2 JP6584731 B2 JP 6584731B2
Authority
JP
Japan
Prior art keywords
gesture
recognition result
control unit
acquisition unit
voice recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2019524773A
Other languages
English (en)
Other versions
JPWO2018235191A1 (ja
Inventor
尚嘉 竹裏
尚嘉 竹裏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6584731B2 publication Critical patent/JP6584731B2/ja
Publication of JPWO2018235191A1 publication Critical patent/JPWO2018235191A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Description

この発明は、認識されたジェスチャに割り当てられた機能を示す機能情報を出力するジェスチャ操作装置に関するものである。
近年、ジェスチャによって種々の機器を操作するためのジェスチャ操作装置が普及し始めている。ジェスチャ操作装置は、ユーザのジェスチャを認識し、認識されたジェスチャに割り当てられた機能を示す機能情報を、当該機能を実行する機器に出力する。このようなジェスチャ操作装置を用いると、例えば、ユーザが手を左から右に移動させることで、オーディオ機器で再生中の曲の次の曲が再生される。ジェスチャ操作装置には、このように、ジェスチャと実行される機能との対応付けが登録されている。ユーザは、自分の好みに合わせ、ジェスチャと実行される機能との対応付けを新たに登録したい場合がある。
例えば特許文献1には、複数のセグメント領域を有するタッチパネルと、タッチパネルの隣接する複数のセグメント領域からなる登録パターンに機能を対応付けて記憶するパターン記憶手段と、ユーザが連続的に接触した複数のセグメント領域を入力パターンとして認識するパターン認識手段とを備え、登録パターンと一致しない入力パターンに、ユーザの操作入力に応じて選択された機能を対応付けて記憶する携帯端末装置が記載されている。
特許第5767106号公報
上記特許文献1の携帯端末装置では、ユーザは、新たな登録パターンと対応付けて記憶させたい機能を、タッチパネル等を用いた手動操作によって選択する必要がある。このため、手動操作によって当該機能を選択する手順が分からない場合等、登録作業に手間及び時間が掛かってしまっていた。
この発明は、上記のような課題を解決するためになされたもので、ジェスチャと当該ジェスチャによって実行される機能を示す機能情報との対応付けを、手動操作によって登録する場合に比べて少ない手間及び時間で登録することができるジェスチャ操作装置を得ることを目的とする。
この発明に係るジェスチャ操作装置は、認識されたジェスチャに割り当てられた機能を示す機能情報を出力するものであって、認識されたジェスチャが示されたジェスチャ認識結果を取得するジェスチャ認識結果取得部と、発話音声が音声認識されて発話意図に対応する機能情報が示された音声認識結果を取得する音声認識結果取得部と、ジェスチャ認識結果取得部により取得されたジェスチャ認識結果に示されるジェスチャと、音声認識結果取得部により取得された音声認識結果に示される機能情報とを対応付けて登録する制御部とを備えることを特徴とするものである。
この発明によれば、ジェスチャ認識結果取得部により取得されたジェスチャ認識結果に示されるジェスチャと、音声認識結果取得部により取得された音声認識結果に示される機能情報とを対応付けて登録することにより、ジェスチャと機能情報との対応付けを、手動操作によって登録する場合に比べて少ない手間及び時間で登録することができる。
実施の形態1に係るジェスチャ操作装置及びその周辺の構成を示すブロック図である。 ジェスチャと機能情報との対応付けの一例を示す図である。 図3A及び図3Bは、実施の形態1に係るジェスチャ操作装置のハードウェア構成例を示す図である。 図4A及び図4Bは、実行状態におけるジェスチャ操作装置の動作を示すフローチャートである。 登録状態におけるジェスチャ操作装置の動作を示すフローチャートである。 ジェスチャと機能情報との対応付けの一例を示す図である。 実施の形態1に係るジェスチャ操作装置の変形例を示すブロック図である。 実施の形態2に係るジェスチャ操作装置及びその周辺の構成を示すブロック図である。
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、実施の形態1に係るジェスチャ操作装置2及びその周辺の構成を示すブロック図である。ジェスチャ操作装置2は、HMI(Human Machine Interface)ユニット1に内蔵されている。実施の形態1では、HMIユニット1が車両に搭載されている場合を例に説明する。
HMIユニット1は、エアコン17等の車載機器を制御する機能、ナビゲーション機能、及び、オーディオ機能等を有する。
具体的には、HMIユニット1は、音声認識装置13による搭乗者の発話音声の認識結果である音声認識結果、ジェスチャ認識装置11による搭乗者のジェスチャの認識結果であるジェスチャ認識結果、及び、指示入力部14が出力する操作信号等を取得する。そして、HMIユニット1は、取得した音声認識結果、ジェスチャ認識結果及び操作信号に応じた処理を実行する。例えば、HMIユニット1は、エアコン17に対して空調の開始を指示する指示信号を出力するなど、車載機器に対して指示信号を出力する。また、例えば、HMIユニット1は、表示装置15に対して、画像の表示を指示する指示信号を出力する。また、例えば、HMIユニット1は、スピーカ16に対して、音声の出力を指示する指示信号を出力する。
なお、「搭乗者」とは、HMIユニット1が搭載された車両に搭乗している者である。「搭乗者」は、ジェスチャ操作装置2等のユーザでもある。また、「搭乗者のジェスチャ」とは、搭乗者が当該車両内で行ったジェスチャであり、「搭乗者の発話音声」とは、搭乗者が当該車両内で発話した音声である。
次に、ジェスチャ操作装置2の概要について説明する。
ジェスチャ操作装置2は、動作状態として実行状態と登録状態という2つの異なる動作状態を有している。実行状態は、搭乗者のジェスチャに応じた機能を実行する制御が行われる状態である。登録状態は、搭乗者のジェスチャに対して機能を割り当てる制御が行われる状態である。実施の形態1では、デフォルトの動作状態は実行状態であり、搭乗者が指示入力部14を操作して動作状態の切替を指示することで、実行状態から登録状態へと動作状態が切替わる。
動作状態が実行状態である場合、ジェスチャ操作装置2は、ジェスチャ認識装置11から搭乗者のジェスチャの認識結果であるジェスチャ認識結果を取得し、当該ジェスチャに割り当てられている機能が実行されるよう制御する。
一方、動作状態が登録状態である場合、ジェスチャ操作装置2は、ジェスチャ認識装置11から搭乗者のジェスチャの認識結果であるジェスチャ認識結果を取得することに加えて、音声認識装置13から搭乗者の発話音声の認識結果である音声認識結果を取得する。そして、ジェスチャ操作装置2は、当該ジェスチャに音声認識結果に基づいた機能を割り当てる。すなわち、動作状態が登録状態である場合、ジェスチャ操作装置2は、搭乗者が発話によってジェスチャ操作装置2に対して伝えた意図を、搭乗者のジェスチャの操作意図として登録する。
搭乗者は、ジェスチャ操作装置2が登録状態のときに、ジェスチャを行うとともに、当該ジェスチャの操作意図を伝える発話を行うことによって、ジェスチャ操作装置2に、当該ジェスチャに対する機能の割り当てを行わせることができる。このため、搭乗者がジェスチャに割り当てたい機能を指示入力部14を操作して選択し登録する場合に比べて、少ない手間及び時間での登録が可能となる。また、搭乗者は、ジェスチャに割り当てる機能を自分の好みで自由に決めることができるので、ジェスチャによる機器操作を直感的に利用することができるようになる。
次に、図1に示す各構成について詳細に説明する。
ジェスチャ認識装置11は、車両内を撮像する赤外線カメラ等である撮像装置10から、撮像画像を取得する。ジェスチャ認識装置11は、当該撮像画像を解析して、搭乗者のジェスチャを認識し、当該ジェスチャが示されたジェスチャ認識結果を作成してジェスチャ操作装置2へ出力する。ジェスチャ認識装置11が認識の対象とするジェスチャとしては、1種類以上のジェスチャが予め定められており、ジェスチャ認識装置11は、当該予め定められたジェスチャの情報を有しているものとする。したがって、ジェスチャ認識装置11が認識する搭乗者のジェスチャは、予め定められたジェスチャのうち、いずれの種類のジェスチャであるかが特定されたジェスチャであり、この点は、ジェスチャ認識結果が示すジェスチャについても同様である。なお、撮像画像の解析によるジェスチャの認識は、公知の技術であるので、説明を省略する。
音声認識装置13は、車両内に設けられたマイク12から、搭乗者の発話音声を取得する。音声認識装置13は、当該発話音声を対象として音声認識処理を行い、音声認識結果を作成してジェスチャ操作装置2へ出力する。音声認識結果には、少なくとも搭乗者の発話意図に対応する機能情報が示されている。機能情報とは、HMIユニット1及びエアコン17等により実行される機能を示す情報である。音声認識結果には、他にも、搭乗者の発話音声をそのままテキスト化した情報等が示されていてもよい。なお、発話音声から発話意図を認識し、搭乗者が実行を望む機能を特定することは、公知の技術であるので、説明を省略する。
指示入力部14は、搭乗者の手動操作を受け付け、当該手動操作に対応する操作信号をHMI制御部3へ出力する。指示入力部14は、ボタン等のハードウェアキーであってもよいし、タッチパネル等のソフトウェアキーであってもよい。また、指示入力部14は、ハンドル等に一体的に設置されていてもよいし、装置として単体のものであってもよい。
HMI制御部3は、指示入力部14が出力した操作信号又はジェスチャ操作装置2が出力した機能情報に応じて、エアコン17等の車載機器、又は、後述のナビゲーション制御部6及びオーディオ制御部7等に対して指示信号を出力する。また、HMI制御部3は、ナビゲーション制御部6が出力した画像情報を後述の表示制御部4へ出力する。また、HMI制御部3は、ナビゲーション制御部6又はオーディオ制御部7が出力した音声情報を後述の音声出力制御部5へ出力する。
表示制御部4は、表示装置15に対して、HMI制御部3が出力した画像情報が示す画像を表示するよう指示信号を出力する。表示装置15は、例えば、HUD(Head Up Display)又はCID(Center Information Display)である。
音声出力制御部5は、スピーカ16に対して、HMI制御部3が出力した音声情報が示す音声を出力するよう指示信号を出力する。
ナビゲーション制御部6は、HMI制御部3が出力した指示信号に応じた周知のナビゲーション処理を行う。例えば、ナビゲーション制御部6は、地図データを用いて施設検索又は住所検索等の種々の検索を行う。また、ナビゲーション制御部6は、搭乗者が指示入力部14を用いて設定した目的地について、当該目的地までの経路を計算する。ナビゲーション制御部6は、処理結果を画像情報又は音声情報として作成し、HMI制御部3へ出力する。
オーディオ制御部7は、HMI制御部3が出力した指示信号に応じた音声処理を行う。例えば、オーディオ制御部7は、不図示の記憶部に記憶された楽曲の再生処理を行って音声情報を作成し、HMI制御部3へ出力する。また、オーディオ制御部7は、ラジオ放送波を処理してラジオの音声情報を作成し、HMI制御部3へ出力する。
ジェスチャ操作装置2は、ジェスチャ認識結果取得部2a、音声認識結果取得部2b、記憶部2c及び制御部2dを有する。
ジェスチャ認識結果取得部2aは、ジェスチャ認識装置11から、認識されたジェスチャが示されたジェスチャ認識結果を取得する。ジェスチャ認識結果取得部2aは、取得したジェスチャ認識結果を制御部2dへ出力する。
音声認識結果取得部2bは、音声認識装置13から、発話音声が音声認識されて発話意図に対応する機能情報が示された音声認識結果を取得する。音声認識結果取得部2bは、取得した音声認識結果を制御部2dへ出力する。
記憶部2cは、ジェスチャ認識装置11において認識対象となっているジェスチャと、当該ジェスチャにより実行される機能を示す機能情報とを、対応付けて記憶している。例えば、図2に示すように、「左手を右から左へ移動」というジェスチャに、エアコン17を起動する「エアコンON」という機能情報が対応付けられている。なお、ジェスチャ認識装置11において認識対象となっている各ジェスチャには、初期設定として、予め何らかの機能情報が対応付けられている。
制御部2dは、動作状態として実行状態と登録状態という2つの異なる動作状態を有している。
制御部2dは、動作状態が実行状態である場合、ジェスチャ認識結果取得部2aから取得したジェスチャ認識結果に対する処理と、音声認識結果取得部2bから取得した音声認識結果に対する処理とを、互いに独立して行う。
具体的には、制御部2dは、ジェスチャ認識結果取得部2aからジェスチャ認識結果を取得した場合、記憶部2cを参照して当該ジェスチャ認識結果に示されるジェスチャに対応付けられた機能情報を、HMI制御部3へ出力する。一方、制御部2dは、音声認識結果取得部2bから音声認識結果を取得した場合、当該音声認識結果に示される機能情報をHMI制御部3へ出力する。
また、制御部2dは、動作状態が登録状態である場合、ジェスチャ認識結果取得部2aから取得したジェスチャ認識結果と、音声認識結果取得部2bから取得した音声認識結果とを用いて、ジェスチャと機能情報とを対応付けて記憶部2cに登録する。なお、この登録処理の際に、既に各ジェスチャに予め何らかの機能情報が対応付けられていた場合は、上書きでの登録が行われる。
具体的には、制御部2dは、動作状態が登録状態に切替わった場合、ジェスチャ認識結果及び音声認識結果の両方の取得を完了するか、または、後述の登録可能時間が経過するまで、ジェスチャ認識結果及び音声認識結果の取得を試みる。そして、制御部2dは、ジェスチャ認識結果及び音声認識結果の両方を取得した場合、ジェスチャ認識結果に示されるジェスチャと、音声認識結果に示される機能情報とを対応付けて記憶部2cに登録する。その後、制御部2dは、動作状態が実行状態へ切替わる。
制御部2dにおいては、搭乗者がジェスチャと機能情報との対応付けを登録できる時間である登録可能時間が、予め設定されている。制御部2dは、動作状態が実行状態から登録状態へ切替わってから登録可能時間が経過した場合、取得したジェスチャ認識結果又は音声認識結果を破棄して、動作状態を登録状態から実行状態へ切替える。なお、登録可能時間は、搭乗者による変更が可能なものとされていてもよい。
実施の形態1では、制御部2dのデフォルトの動作状態は実行状態であるとする。搭乗者が、指示入力部14を操作して実行状態から登録状態へと動作状態の切替を指示すると、当該指示を示す操作信号がHMI制御部3を介して制御部2dへ出力され、制御部2dの動作状態が登録状態へと切替わる。
次に、ジェスチャ操作装置2のハードウェア構成例について、図3A及び図3Bを用いて説明する。
ジェスチャ操作装置2の記憶部2cは、後述のメモリ102のような、各種の記憶装置で構成される。
ジェスチャ操作装置2のジェスチャ認識結果取得部2a、音声認識結果取得部2b及び制御部2dの各機能は、処理回路により実現される。当該処理回路は、専用のハードウェアであっても、メモリに格納されるプログラムを実行するCPU(Central Processing Unit)であってもよい。CPUは、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ又はDSP(Digital Signal Processor)とも呼ばれる。
図3Aは、ジェスチャ認識結果取得部2a、音声認識結果取得部2b及び制御部2dの各部の機能を、専用のハードウェアである処理回路101で実現した場合のハードウェア構成例を示す図である。処理回路101は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、若しくはFPGA(Field Programmable Gate Array)、又はこれらを組み合わせたものが該当する。ジェスチャ認識結果取得部2a、音声認識結果取得部2b及び制御部2dの各部の機能を別個の処理回路101を組み合わせて実現してもよいし、各部の機能を1つの処理回路101で実現してもよい。
図3Bは、ジェスチャ認識結果取得部2a、音声認識結果取得部2b及び制御部2dの各部の機能を、メモリ102に格納されるプログラムを実行するCPU103で実現した場合のハードウェア構成例を示す図である。この場合、ジェスチャ認識結果取得部2a、音声認識結果取得部2b及び制御部2dの各部の機能は、ソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組合せにより実現される。ソフトウェア及びファームウェアはプログラムとして記述され、メモリ102に格納される。CPU103は、メモリ102に格納されたプログラムを読み出して実行することにより、ジェスチャ認識結果取得部2a、音声認識結果取得部2b及び制御部2dの各部の機能を実現する。すなわち、ジェスチャ操作装置2は、後述する図4A、図4B及び図5のフローチャートで示すステップST1〜ST28が結果的に実行されることになるプログラム等を格納するためのメモリ102を有する。また、これらのプログラムは、ジェスチャ認識結果取得部2a、音声認識結果取得部2b及び制御部2dの各部の手順又は方法をコンピュータに実行させるものであるとも言える。ここで、メモリ102は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、若しくはEEPROM(Electrically Erasable Programmable ROM)等の、不揮発性若しくは揮発性の半導体メモリ、又は、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、若しくはDVD(Digital Versatile Disc)等のディスク状の記録媒体等が該当する。
なお、ジェスチャ認識結果取得部2a、音声認識結果取得部2b及び制御部2dの各部の機能について、一部を専用のハードウェアで実現し、一部をソフトウェア又はファームウェアで実現するようにしてもよい。例えば、ジェスチャ認識結果取得部2a及び音声認識結果取得部2bについては専用のハードウェアとしての処理回路でその機能を実現し、制御部2dについては処理回路がメモリに格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
このように、処理回路は、ハードウェア、ソフトウェア、ファームウェア又はこれらの組合せによって、上記のジェスチャ認識結果取得部2a、音声認識結果取得部2b及び制御部2dの各部の機能を実現することができる。
なお、HMI制御部3、表示制御部4、音声出力制御部5、ナビゲーション制御部6、オーディオ制御部7、ジェスチャ認識装置11及び音声認識装置13についても、ジェスチャ操作装置2と同様に、図3Aに示す処理回路101、又は、図3Bに示すメモリ102及びCPU103で実現することができる。
次に、上記のように構成されたジェスチャ操作装置2の動作について、図4A、図4B及び図5に示すフローチャートを用いて説明する。まず、制御部2dの動作状態が実行状態である場合の動作を、図4A及び図4Bに示すフローチャートを用いて説明する。
図4Aのフローチャートは、搭乗者が発話し、音声認識結果取得部2bが音声認識結果を取得して制御部2dへ出力した場合の動作を示すものである。
制御部2dは、音声認識結果取得部2bが出力した音声認識結果を取得する(ステップST1)。
続いて、制御部2dは、取得した音声認識結果に示される機能情報をHMI制御部3へ出力する(ステップST2)。
例えば、搭乗者が「エアコンをつけて」と発話すると、音声認識装置13が「エアコンON」という機能情報を示す音声認識結果を、ジェスチャ操作装置2へ出力する。続いて、音声認識結果取得部2bは、当該音声認識結果を取得し制御部2dへ出力する。制御部2dは、当該音声認識結果に示される機能情報をHMI制御部3へ出力する。HMI制御部3は、制御部2dが出力した機能情報「エアコンON」に応じて、エアコン17に対して起動を指示する指示信号を出力する。当該指示信号を受けて、エアコン17は起動を始める。
図4Bのフローチャートは、搭乗者がジェスチャを行い、ジェスチャ認識結果取得部2aがジェスチャ認識結果を取得して制御部2dへ出力した場合の動作を示すものである。
制御部2dは、ジェスチャ認識結果取得部2aが出力したジェスチャ認識結果を取得する(ステップST11)。
続いて、制御部2dは、記憶部2cを参照して当該ジェスチャ認識結果に示されるジェスチャに対応付けられた機能情報を取得する(ステップST12)。
続いて、制御部2dは、取得した機能情報をHMI制御部3へ出力する(ステップST13)。
例えば、搭乗者が左手を右から左へ移動させると、ジェスチャ認識装置11が「左手を右から左へ移動」というジェスチャが示されたジェスチャ認識結果を、ジェスチャ認識結果取得部2aへ出力する。続いて、ジェスチャ認識結果取得部2aは、取得したジェスチャ認識結果を制御部2dへ出力する。制御部2dは、記憶部2cを参照して、当該ジェスチャ認識結果に示されるジェスチャ「左手を右から左へ移動」に対応付けられている機能情報を取得する。図2の例であれば、制御部2dは、「エアコンON」を取得する。制御部2dは、取得した機能情報をHMI制御部3へ出力する。HMI制御部3は、制御部2dが出力した機能情報「エアコンON」に応じて、エアコン17に対して起動を指示する指示信号を出力する。当該指示信号を受けて、エアコン17は起動を始める。
図5のフローチャートは、制御部2dの動作状態が登録状態である場合の動作を示すものである。すなわち、図5では、搭乗者からの指示により制御部2dの動作状態が実行状態から登録状態へと切替えられた場合の動作が示されている。
まず、制御部2dは、登録待ち時間を初期化して、登録待ち時間の計測を開始する(ステップST21)。登録待ち時間とは、制御部2dの動作状態が実行状態から登録状態へと切替わったときからの経過時間のことである。
続いて、制御部2dは、登録待ち時間が登録可能時間以下であるかを判定する(ステップST22)。
登録待ち時間が登録可能時間を超えている場合(ステップST22;NO)、制御部2dは、動作状態を登録状態から実行状態へと切替えて、登録状態での処理を終了する。
一方、登録待ち時間が登録可能時間以下である場合(ステップST22;YES)、制御部2dは、音声認識結果及びジェスチャ認識結果の取得を並列して行う。
具体的には、制御部2dは、音声認識結果を取得済みであるかを判定する(ステップST23)。制御部2dは、音声認識結果を取得していない場合(ステップST23;NO)、音声認識結果取得部2bからの音声認識結果の取得を試みて(ステップST24)、その後にステップST27の処理へ移る。
一方、制御部2dは、音声認識結果を取得している場合(ステップST23;YES)、ステップST27の処理へ移る。
ステップST23,ST24の処理と並列して、制御部2dは、ジェスチャ認識結果を取得済みであるかを判定する(ステップST25)。制御部2dは、ジェスチャ認識結果を取得していない場合(ステップST25;NO)、ジェスチャ認識結果取得部2aからのジェスチャ認識結果の取得を試みて(ステップST26)、その後にステップST27の処理へ移る。
一方、制御部2dは、ジェスチャ認識結果を取得している場合(ステップST25;YES)、ステップST27の処理へ移る。
続いて、制御部2dは、音声認識結果及びジェスチャ認識結果の両方を取得済みであるかを判定する(ステップST27)。制御部2dは、音声認識結果及びジェスチャ認識結果のうち取得していない認識結果がある場合(ステップST27;NO)、ステップST22の処理へ戻る。
一方、制御部2dは、音声認識結果及びジェスチャ認識結果の両方を取得済みの場合(ステップST27;YES)、音声認識結果に示される機能情報とジェスチャ認識結果に示されるジェスチャとを対応付けて記憶部2cに登録する(ステップST28)。
ステップST28の後、制御部2dは、ステップST22で登録待ち時間が登録可能時間を超えていると判定された場合(ステップST22;NO)と同様に、動作状態を登録状態から実行状態へと切替えて、登録状態での処理を終了する。
ここで、搭乗者が「左手を右から左へ移動」というジェスチャによってラジオを起動することが可能なように登録を行いたいと考えた場合を例に説明する。
搭乗者は、制御部2dの動作状態を実行状態から登録状態へと切替えた後、登録可能時間内に、左手を右から左へ移動させるとともに、「ラジオを聴きたい」と発話する。
音声認識装置13は、「ラジオを聴きたい」という発話音声を対象として音声認識処理を行う。そして、音声認識装置13は、搭乗者の発話意図である「ラジオを起動」に対応する機能情報である「ラジオON」が示された音声認識結果を、音声認識結果取得部2bへ出力する。制御部2dは、当該音声認識結果を音声認識結果取得部2bを介して取得する(ステップST23,ST24)。
また、ジェスチャ認識装置11は、撮像装置10から取得した撮像画像を解析し、「左手を右から左へ移動」というジェスチャが示されたジェスチャ認識結果を、ジェスチャ認識結果取得部2aへ出力する。制御部2dは、当該ジェスチャ認識結果をジェスチャ認識結果取得部2aを介して取得する(ステップST25,ST26)。
そして、制御部2dは、例えば図2に示すように記憶部2cに登録されている「左手を右から左へ移動」というジェスチャに対応する機能情報を、「エアコンON」という機能情報から「ラジオON」という機能情報に上書きして登録する。記憶部2cに登録されている上書き後のジェスチャと機能情報との対応付けを、図6に示す。その後、制御部2dは、動作状態を登録状態から実行状態へと切替えて、登録状態での処理を終了する。
これにより、以後、搭乗者は、左手を右から左へ移動させることにより、ラジオを起動させることができるようになる。
以上のように、実施の形態1に係るジェスチャ操作装置2は、ジェスチャ認識結果に示されるジェスチャと、音声認識結果に示される機能情報、すなわち搭乗者の発話意図とを対応付けて登録する。
搭乗者は、手動操作とは異なる手段である発話によって、ジェスチャの操作意図をジェスチャ操作装置2に伝えること、すなわちジェスチャに対応する機能情報を登録することができる。したがって、搭乗者は、手動操作によってジェスチャの操作意図をジェスチャ操作装置2に伝える場合に比べて少ない手間及び時間での登録が可能となる。
また、搭乗者は、自分の好みでジェスチャと機能情報との対応付けを決めることができるので、ジェスチャによる機器操作を直感的に利用することができるようになる。
また、音声認識装置13から取得した音声認識結果を用いる実施の形態1に係るジェスチャ操作装置2によって、搭乗者は、複雑な意図をジェスチャの操作意図としてジェスチャ操作装置2に伝えて、当該ジェスチャに当該複雑な意図すなわち機能情報を対応付けて登録することができる。
例えば、搭乗者がジェスチャ操作装置2の動作状態を登録状態に切替えて、登録可能時間内に「左手を右から左へ移動」というジェスチャを行うとともに、「メールを作成“今から帰る”」と発話することによって、搭乗者は、当該ジェスチャに対して、「メール作成画面を表示する」という機能と「メール本文に“今から帰る”と入力する」という複数の機能を1回の発話で対応付けて登録することができる。
搭乗者は、手動操作によるメールの作成方法を知っていたとしても、メール作成画面を表示するために複数の手動操作を行った上で、メール本文に文字を入力する必要があるので、手間及び時間が掛かる。これに対し、実施の形態1に係るジェスチャ操作装置2は、音声認識装置13から取得した音声認識結果を用いるようにしているので、搭乗者は、1つのジェスチャに対して1回の発話で複数の機能を登録することができる。これにより、手動操作によって今から帰るというメールを作成する場合に比べて、ユーザは、直感的なジェスチャ操作だけで当該メールを作成できるので、メールの作成に掛かる手間及び時間が少なくなる。
なお、ジェスチャ操作装置2は、搭乗者のジェスチャに機能情報を対応付けて登録することに加え、当該ジェスチャと対になるジェスチャに、当該機能情報と対になる機能情報を自動的に登録するようにしてもよい。
この場合、制御部2dが参照可能なように、記憶部2cには、ジェスチャ認識装置11において認識対象となっているジェスチャごとに対となるジェスチャが予め記憶されている。また、記憶部2cには、機能情報ごとに対となる機能情報についても予め記憶されている。
そして、制御部2dは、取得したジェスチャ認識結果に示される第1ジェスチャに対応付けて、取得した音声認識結果に示される第1機能情報を記憶部2cに登録する際、第1ジェスチャと対になる第2機能情報、及び、第1ジェスチャと対になる第2ジェスチャを特定する。
続いて、制御部2dは、記憶部2cにおいて第2ジェスチャに対応付けられている機能情報を、特定した第2機能情報で上書きして登録する。
例えば、搭乗者によって「左手を右から左に移動」というジェスチャに「ラジオON」という機能情報が対応付けて登録された場合、制御部2dは、当該ジェスチャと対になる「左手を左から右に移動」というジェスチャに当該機能情報と対になる「ラジオOFF」という機能情報を自動的に対応付けて登録する。
また、上記では、ジェスチャ操作装置2は、動作状態が実行状態であっても、音声認識装置13から音声認識結果を取得するものとした。このとき、HMI制御部3は、ジェスチャ操作装置2を介して機能情報を取得する。しかしながら、ジェスチャ操作装置2は、動作状態が実行状態である場合、音声認識装置13から音声認識結果を取得しないようにしてもよい。この場合、HMI制御部3は、音声認識装置13から直接に音声認識結果を取得して、当該音声認識結果に示される機能情報を認識するようにすればよい。なお、図1では、HMI制御部3が、音声認識装置13から直接に音声認識結果を取得する場合に必要な接続線の記載は省略している。
具体的には、制御部2dは、動作状態が実行状態である場合、音声認識結果取得部2bに対して、音声認識装置13から音声認識結果を取得しないよう指示する。また、HMI制御部3は、音声認識装置13から直接に音声認識結果を取得するように自身の制御の切り替えを行う。そして、制御部2dは、動作状態が登録状態へと切替わった場合に、音声認識結果取得部2bに対して、音声認識装置13から音声認識結果を取得するよう指示する。また、HMI制御部3は、ジェスチャ操作装置2を介して機能情報を取得するように自身の制御の切り替えを行う。
また、上記のジェスチャ操作装置2では、登録可能時間が設けられ、当該時間内であれば、ジェスチャと発話が異なるタイミングで行われても、ジェスチャと機能情報とが対応付けられて登録がなされるものとした。しかしながら、ジェスチャと発話がほぼ同時に行われた場合に限って、ジェスチャと機能情報とが対応付けられて登録がなされるようにしてもよい。また、登録可能時間が設けられている場合、ジェスチャと発話の順序に決まりが設けられていてもよいし、ジェスチャと発話の順序は問われないようにしてもよい。
また、ジェスチャ操作装置2は、動作状態が登録状態の場合、表示装置15にジェスチャ認識装置11が認識可能なジェスチャの種類が表示されるように制御してもよい。具体的には、ジェスチャ認識装置11が認識可能なジェスチャの画像情報を記憶部2cに記憶しておき、動作状態が登録状態に切替わったとき、制御部2dが当該画像情報をHMI制御部3へ出力するようにする。
このようにすると、搭乗者は、登録に使えるジェスチャについて分からなくてもマニュアル等を調べる必要が無くなり、利便性がよい。
また、ジェスチャと機能情報との対応付けは、個人ごとに登録されるようにしてもよい。この場合、例えば、ジェスチャ認識装置11又は音声認識装置13が、個人を認証する個人認証装置として機能する。ジェスチャ認識装置11は、撮像装置10から取得した撮像画像を用いて、顔認証等により個人を認証することができる。また、音声認識装置13は、マイク12から取得した発話音声を用いて、声紋認証等により個人を認証することができる。個人認証装置は、認証した個人を示した認証結果をジェスチャ操作装置2へ出力する。
ジェスチャ操作装置2は、図7に示すように、認証結果を取得する認証結果取得部2eを有し、認証結果取得部2eは、取得した認証結果を制御部2dへ出力する。
制御部2dは、登録状態においてジェスチャ認識結果と音声認識結果とを取得した場合、認証結果を用いて、個人ごとに、当該ジェスチャ認識結果に示されるジェスチャと当該音声認識結果に示される機能情報とを対応付けて登録する。これにより、例えば、「左手を右から左に移動」というジェスチャに対応付けられた機能情報が、ユーザAの場合は「ラジオON」、ユーザBの場合は「エアコンON」というようになる。
そして、制御部2dは、実行状態においてジェスチャ認識結果を取得した場合、認証結果に示される個人を対象に、当該ジェスチャ認識結果に示されるジェスチャに対応付けられた機能情報を特定する。これにより、例えば、ユーザAが「左手を右から左に移動」というジェスチャを行った場合、ラジオが起動し、ユーザBが同じジェスチャを行った場合、エアコンが起動することになる。
このように、個人ごとにジェスチャと機能情報との対応付けが登録されることで、利便性が向上する。
また、上記のジェスチャ操作装置2は車両に搭載されており、車両内の機器を操作するためにジェスチャ操作装置2が使われるものとして説明した。しかしながら、ジェスチャ操作装置2は、車両内の機器に限らず、様々な機器を操作するためのものとして使うことができる。例えば、住宅内で電化製品をジェスチャで操作するために、ジェスチャ操作装置2が使われてもよい。この場合のジェスチャ操作装置2等のユーザは、車両の搭乗者に限られない。
実施の形態2.
実施の形態2では、撮像装置10の撮像範囲に複数の人物が存在し得る場合の形態について説明する。この場合、ジェスチャ操作装置2は、登録状態において、発話した人物のジェスチャを対象に処理を行う。つまり、例えば車両内において、助手席にいる搭乗者が、ジェスチャと機能情報とを対応付けて登録したいと考え発話をした場合、ジェスチャ操作装置2は、助手席にいる搭乗者のジェスチャを登録の処理に用いる。これにより、助手席にいる搭乗者がジェスチャを行う前に運転席にいる搭乗者がジェスチャをしてしまうなどして、助手席にいる搭乗者が意図したものとは異なる登録が行われてしまうことを防ぐ。
図8は、実施の形態2に係るジェスチャ操作装置2及びその周辺の構成を示すブロック図である。実施の形態2でも、ジェスチャ操作装置2が車両に搭載されている場合を例に説明する。また、実施の形態1で既に説明した構成と同一又は相当する機能を有する構成については、同一の符号を付し、適宜その説明を省略又は簡略化する。
撮像装置10は、例えばダッシュボードの中央部分に設置され、運転席及び助手席を撮像範囲として含む画角のカメラである。撮像装置10は、作成した撮像画像をジェスチャ認識装置11に出力するのに加え、発話者特定装置18へも出力する。
ジェスチャ認識装置11は、撮像装置10から取得した撮像画像を解析して、運転席にいる搭乗者のジェスチャ及び助手席にいる搭乗者のジェスチャを認識する。そして、ジェスチャ認識装置11は、認識したジェスチャと、当該ジェスチャを行った人物との対応が示されたジェスチャ認識結果を作成して、ジェスチャ操作装置2へ出力する。
発話者特定装置18は、撮像装置10から取得した撮像画像を解析して、運転席にいる搭乗者と助手席にいる搭乗者のどちらが発話したかを特定する。撮像画像を用いた発話者の特定方法は、口の開閉の動きに基づいて特定する方法など、公知の技術を用いればよく、説明を省略する。発話者特定装置18は、特定された発話者が示された特定結果を作成して、ジェスチャ操作装置2へ出力する。
特定結果取得部2fは、発話者特定装置18から特定結果を取得し、制御部2dへ出力する。
なお、発話者特定装置18及び特定結果取得部2fは、図3Aに示す処理回路101、又は、図3Bに示すメモリ102及びCPU103で実現することができる。
発話者の特定は、制御部2dの指示によって行われる。つまり、制御部2dは、登録状態において、音声認識結果取得部2bから音声認識結果を取得すると、特定結果取得部2fに対して発話者特定装置18から特定結果を取得するよう指示する。すると、特定結果取得部2fは、発話者特定装置18に対して特定結果の出力を指示する。
発話者特定装置18は、過去設定時間分の撮像画像を不図示の記憶部を用いて保持しており、特定結果取得部2fからの指示を受けて、発話者を特定する。
制御部2dは、特定結果取得部2fから特定結果を取得すると、当該特定結果とジェスチャ認識結果取得部2aから取得したジェスチャ認識結果とを用いて、発話者のジェスチャを認識する。そして、制御部2dは、発話者のジェスチャと、音声認識結果取得部2bから取得した音声認識結果に示される機能情報とを対応付けて記憶部2cに登録する。例えば、特定結果が運転席にいる搭乗者を発話者として示している場合、制御部2dは、ジェスチャ認識結果に示される運転席にいる搭乗者のジェスチャと、音声認識結果に示される機能情報とを対応付けて記憶部2cに登録する。
このように、制御部2dは、ジェスチャ認識結果と特定結果とを用いることで、音声認識結果取得部2bにより取得された音声認識結果に示される機能情報に対して、発話者のジェスチャを適切に対応付けて登録する。
以上のように、実施の形態2に係るジェスチャ操作装置2は、複数人のジェスチャが認識される場合でも、発話者のジェスチャを、音声認識結果に示される機能情報と対応付けて登録する。したがって、実施の形態2に係るジェスチャ操作装置2は、実施の形態1と同様の効果を有するとともに、発話者にとって意図せぬジェスチャが登録されてしまうのを防ぐことができる。
なお、上記では、撮像装置10の撮像範囲が、運転席及び助手席を含むものとして説明したが、更に後部座席も含むような、より広範囲のものであってもよい。
また、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態においての任意の構成要素の省略が可能である。
以上のように、この発明に係るジェスチャ操作装置は、ジェスチャと機能情報との対応付けを、手動操作によって登録する場合に比べて少ない手間及び時間で登録することができるので、例えば車両に搭載して、車両内の機器を操作するための装置として用いるのに適している。
1 HMIユニット、2 ジェスチャ操作装置、2a ジェスチャ認識結果取得部、2b 音声認識結果取得部、2c 記憶部、2d 制御部、2e 認証結果取得部、2f 特定結果取得部、3 HMI制御部、4 表示制御部、5 音声出力制御部、6 ナビゲーション制御部、7 オーディオ制御部、10 撮像装置、11 ジェスチャ認識装置、12 マイク、13 音声認識装置、14 指示入力部、15 表示装置、16 スピーカ、17 エアコン、18 発話者特定装置、101 処理回路、102 メモリ、103 CPU。

Claims (7)

  1. 認識されたジェスチャに割り当てられた機能を示す機能情報を出力するジェスチャ操作装置であって、
    認識されたジェスチャが示されたジェスチャ認識結果を取得するジェスチャ認識結果取得部と、
    発話音声が音声認識されて発話意図に対応する機能情報が示された音声認識結果を取得する音声認識結果取得部と、
    前記ジェスチャ認識結果取得部により取得されたジェスチャ認識結果に示されるジェスチャと、前記音声認識結果取得部により取得された音声認識結果に示される機能情報とを対応付けて登録する制御部とを備えることを特徴とするジェスチャ操作装置。
  2. 前記制御部は、動作状態として登録状態と実行状態とを有し、
    前記制御部は、動作状態が登録状態である場合は、前記ジェスチャ認識結果取得部により取得されたジェスチャ認識結果に示されるジェスチャと、前記音声認識結果取得部により取得された音声認識結果に示される機能情報とを対応付けて登録し、動作状態が実行状態である場合は、前記ジェスチャ認識結果取得部により取得されたジェスチャ認識結果に示されるジェスチャに対応付けられた機能情報を出力することを特徴とする請求項1記載のジェスチャ操作装置。
  3. 前記制御部は、第1ジェスチャと第1機能情報とを対応付けて登録すると、当該第1機能情報と対になる第2機能情報を、当該第1ジェスチャと対になる第2ジェスチャと対応付けて登録することを特徴とする請求項1記載のジェスチャ操作装置。
  4. 前記制御部は、動作状態が登録状態になってから登録可能時間内に前記ジェスチャ認識結果取得部により取得されたジェスチャ認識結果に示されるジェスチャと、動作状態が登録状態になってから前記登録可能時間内に前記音声認識結果取得部により取得された音声認識結果に示される機能情報とを対応付けて登録することを特徴とする請求項2記載のジェスチャ操作装置。
  5. 認証された個人が示された認証結果を取得する認証結果取得部を備え、
    前記制御部は、前記認証結果取得部により取得された認証結果を用いて、個人ごとに、前記ジェスチャ認識結果取得部により取得されたジェスチャ認識結果に示されるジェスチャと、前記音声認識結果取得部により取得された音声認識結果に示される機能情報とを対応付けて登録することを特徴とする請求項1記載のジェスチャ操作装置。
  6. 特定された発話者が示された特定結果を取得する特定結果取得部を備え、
    前記ジェスチャ認識結果取得部は、認識されたジェスチャと当該ジェスチャを行った人物との対応が示されたジェスチャ認識結果を取得し、
    前記制御部は、当該ジェスチャ認識結果と前記特定結果取得部により取得された特定結果とを用いて、前記音声認識結果取得部により取得された音声認識結果に示される機能情報に対して、発話者のジェスチャを対応付けて登録することを特徴とする請求項1記載のジェスチャ操作装置。
  7. 認識されたジェスチャに割り当てられた機能を示す機能情報を出力するジェスチャ操作装置のジェスチャ操作方法であって、
    ジェスチャ認識結果取得部が、認識されたジェスチャが示されたジェスチャ認識結果を取得するジェスチャ認識結果取得ステップと、
    音声認識結果取得部が、発話音声が音声認識されて発話意図に対応する機能情報が示された音声認識結果を取得する音声認識結果取得ステップと、
    制御部が、前記ジェスチャ認識結果取得ステップにより取得されたジェスチャ認識結果に示されるジェスチャと、前記音声認識結果取得ステップにより取得された音声認識結果に示される機能情報とを対応付けて登録する制御ステップとを備えることを特徴とするジェスチャ操作方法。
JP2019524773A 2017-06-21 2017-06-21 ジェスチャ操作装置及びジェスチャ操作方法 Expired - Fee Related JP6584731B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/022847 WO2018235191A1 (ja) 2017-06-21 2017-06-21 ジェスチャ操作装置及びジェスチャ操作方法

Publications (2)

Publication Number Publication Date
JP6584731B2 true JP6584731B2 (ja) 2019-10-02
JPWO2018235191A1 JPWO2018235191A1 (ja) 2019-11-07

Family

ID=64736972

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019524773A Expired - Fee Related JP6584731B2 (ja) 2017-06-21 2017-06-21 ジェスチャ操作装置及びジェスチャ操作方法

Country Status (5)

Country Link
US (1) US20200201442A1 (ja)
JP (1) JP6584731B2 (ja)
CN (1) CN110770693A (ja)
DE (1) DE112017007546T5 (ja)
WO (1) WO2018235191A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10782986B2 (en) 2018-04-20 2020-09-22 Facebook, Inc. Assisting users with personalized and contextual communication content
US11676220B2 (en) 2018-04-20 2023-06-13 Meta Platforms, Inc. Processing multimodal user input for assistant systems
US11715042B1 (en) 2018-04-20 2023-08-01 Meta Platforms Technologies, Llc Interpretability of deep reinforcement learning models in assistant systems
US11886473B2 (en) 2018-04-20 2024-01-30 Meta Platforms, Inc. Intent identification for agent matching by assistant systems
KR102272309B1 (ko) * 2019-03-15 2021-07-05 엘지전자 주식회사 차량 제어 장치
JP7254345B2 (ja) 2019-08-26 2023-04-10 株式会社Agama-X 情報処理装置及びプログラム
JP2021060655A (ja) * 2019-10-03 2021-04-15 株式会社リクルート 順番管理システム、順番管理端末、およびプログラム
US20230056993A1 (en) 2020-02-28 2023-02-23 Nec Corporation Authentication terminal, entrance/exit management system, entrance/exit management method, and program
CN113467604A (zh) * 2020-05-28 2021-10-01 海信集团有限公司 一种数据交互方法以及相关设备
KR102472956B1 (ko) * 2020-08-25 2022-12-01 네이버 주식회사 사용자 인증 방법 및 시스템
CN114613362A (zh) * 2022-03-11 2022-06-10 深圳地平线机器人科技有限公司 设备控制方法和装置、电子设备和介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2993872B2 (ja) * 1995-10-16 1999-12-27 株式会社エイ・ティ・アール音声翻訳通信研究所 マルチモーダル情報統合解析装置
JPH1173297A (ja) * 1997-08-29 1999-03-16 Hitachi Ltd 音声とジェスチャによるマルチモーダル表現の時間的関係を用いた認識方法
JP4031255B2 (ja) * 2002-02-13 2008-01-09 株式会社リコー ジェスチャコマンド入力装置
JP3837505B2 (ja) * 2002-05-20 2006-10-25 独立行政法人産業技術総合研究所 ジェスチャ認識による制御装置のジェスチャの登録方法
US7180500B2 (en) * 2004-03-23 2007-02-20 Fujitsu Limited User definable gestures for motion controlled handheld devices
KR100978929B1 (ko) * 2008-06-24 2010-08-30 한국전자통신연구원 기준 제스처 데이터 등록방법, 이동단말의 구동방법 및이를 수행하는 이동단말
CN102207783A (zh) * 2010-03-31 2011-10-05 鸿富锦精密工业(深圳)有限公司 可自定义触摸动作的电子装置及方法
US20110314427A1 (en) * 2010-06-18 2011-12-22 Samsung Electronics Co., Ltd. Personalization using custom gestures
US20130204457A1 (en) * 2012-02-06 2013-08-08 Ford Global Technologies, Llc Interacting with vehicle controls through gesture recognition
US9600169B2 (en) * 2012-02-27 2017-03-21 Yahoo! Inc. Customizable gestures for mobile devices
US10620709B2 (en) * 2013-04-05 2020-04-14 Ultrahaptics IP Two Limited Customized gesture interpretation
KR20160071732A (ko) * 2014-12-12 2016-06-22 삼성전자주식회사 음성 입력을 처리하는 방법 및 장치

Also Published As

Publication number Publication date
CN110770693A (zh) 2020-02-07
US20200201442A1 (en) 2020-06-25
DE112017007546T5 (de) 2020-02-20
WO2018235191A1 (ja) 2018-12-27
JPWO2018235191A1 (ja) 2019-11-07

Similar Documents

Publication Publication Date Title
JP6584731B2 (ja) ジェスチャ操作装置及びジェスチャ操作方法
US8484033B2 (en) Speech recognizer control system, speech recognizer control method, and speech recognizer control program
JP4304952B2 (ja) 車載制御装置、並びにその操作説明方法をコンピュータに実行させるプログラム
JP2017090613A (ja) 音声認識制御システム
JP6604151B2 (ja) 音声認識制御システム
JP2017090612A (ja) 音声認識制御システム
JP6767082B2 (ja) 車内通話制御装置、車内通話システムおよび車内通話制御方法
US20180217985A1 (en) Control method of translation device, translation device, and non-transitory computer-readable recording medium storing a program
JP2017090614A (ja) 音声認識制御システム
JP4660592B2 (ja) カメラ制御装置、カメラ制御方法、カメラ制御プログラムおよび記録媒体
JP4410378B2 (ja) 音声認識方法および装置
JP6522009B2 (ja) 音声認識システム
JP2024505968A (ja) 乗員発話検出方法及び装置、電子機器並びに記憶媒体
JP6385624B2 (ja) 車載情報処理装置、車載装置および車載情報処理方法
JP4478146B2 (ja) 音声認識システム、音声認識方法およびそのプログラム
CN107548483B (zh) 控制方法、控制装置、系统以及包括这样的控制装置的机动车辆
JP7003268B2 (ja) 車載情報装置および携帯端末との連携方法
JP2007057805A (ja) 車両用情報処理装置
JP6717537B2 (ja) 操作制限制御装置及び操作制限制御方法
KR101710695B1 (ko) 차량용 음성 인식을 위한 마이크로폰 제어 시스템 및 그 제어 방법
JP7407665B2 (ja) 音声出力制御装置および音声出力制御プログラム
JP2018180424A (ja) 音声認識装置および音声認識方法
WO2024070080A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2000250592A (ja) 音声認識操作システム
JP2008233009A (ja) カーナビゲーション装置及びカーナビゲーション装置用プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190516

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190516

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190628

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190903

R150 Certificate of patent or registration of utility model

Ref document number: 6584731

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees