JP2012008772A - ジェスチャ認識装置、ジェスチャ認識方法およびプログラム - Google Patents

ジェスチャ認識装置、ジェスチャ認識方法およびプログラム Download PDF

Info

Publication number
JP2012008772A
JP2012008772A JP2010143651A JP2010143651A JP2012008772A JP 2012008772 A JP2012008772 A JP 2012008772A JP 2010143651 A JP2010143651 A JP 2010143651A JP 2010143651 A JP2010143651 A JP 2010143651A JP 2012008772 A JP2012008772 A JP 2012008772A
Authority
JP
Japan
Prior art keywords
gesture
information
input
prediction
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010143651A
Other languages
English (en)
Other versions
JP5601045B2 (ja
Inventor
Yoshito Oki
嘉人 大木
Osamu Shigeta
脩 繁田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010143651A priority Critical patent/JP5601045B2/ja
Priority to US13/084,092 priority patent/US8756508B2/en
Priority to EP11165877.9A priority patent/EP2400371B1/en
Priority to CN2011101691450A priority patent/CN102298442A/zh
Publication of JP2012008772A publication Critical patent/JP2012008772A/ja
Application granted granted Critical
Publication of JP5601045B2 publication Critical patent/JP5601045B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/177Editing, e.g. inserting or deleting of tables; using ruled lines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback

Abstract

【課題】ジェスチャの予測情報を用いて、適切なジェスチャフィードバックを行うことが可能な、ジェスチャ認識装置、ジェスチャ認識方法およびプログラムを提供する。
【解決手段】所定の入力期間内に入力される一連のジェスチャ情報に基づきジェスチャを認識する認識処理部17と、一連のジェスチャ情報のうち途中まで入力されたジェスチャ情報からジェスチャを予測するジェスチャ予測部19と、ジェスチャの予測結果に関する予測情報をユーザに通知する予測情報通知部21とを備える。ユーザUは、予測情報の通知を通じて、ジェスチャ情報の入力を継続することで、どのようなジェスチャが認識されうるかを確認することができる。
【選択図】図1

Description

本発明は、ジェスチャ認識装置、ジェスチャ認識方法およびプログラムに関する。
近年、ユーザの動作や発話として入力されるジェスチャを認識し、システム等を制御することが一般的に行われつつある(下記特許文献1)。ジェスチャ認識では、ビデオカメラやマイクに入力される動作や発話に基づく一連のジェスチャ情報を用いてジェスチャが認識される。一連のジェスチャ情報は、例えば、物体の動作過程を捉えた一連の画像やキーワード等の発話過程を捉えた一連の音声に基づく情報である。
ところで、ジェスチャ認識では、ジェスチャ認識が適用されるシステムの利便性を向上する上で、ジェスチャ情報の入力に対するフィードバック(以下、ジェスチャフィードバックとも称する。)が重要となる。適切なジェスチャフィードバックにより、ジェスチャ情報の誤入力の訂正をユーザに促し、ジェスチャの入力方法をユーザに教示することが可能となる。
従来、ジェスチャフィードバックとして、ユーザの動作過程を示す映像をディスプレイ等に表示することが知られている。この場合、ユーザは、映像の確認を通じて、ジェスチャ情報の入力状況を直感的に理解することができる。また、ユーザの動作過程を示す映像に代えて、ユーザの動作過程を示す軌跡等の情報を表示することも知られている。
特開2006−209563号公報
しかし、いずれの方法も、途中まで入力されたジェスチャ情報からジェスチャを予測し、ジェスチャの予測結果に関する予測情報をユーザに通知するものではない。ここで、ジェスチャの予測情報は、ジェスチャの予測結果自体でもよく、ジェスチャの予測結果の信頼度でもよい。ジェスチャの予測情報は、ジェスチャ情報の入力を継続することで、どのようなジェスチャが認識されうるかを示し、場合によっては、そのジェスチャがどの程度の信頼度をもって認識されうるか否かを示す指標となりうる。このため、従来、ジェスチャ情報の誤入力の訂正をユーザに促したり、ジェスチャの入力方法をユーザに教示したりできず、適切なジェスチャフィードバックが十分に行われていなかった。
そこで、本発明は、ジェスチャの予測情報を用いて、適切なジェスチャフィードバックを行うことが可能な、ジェスチャ認識装置、ジェスチャ認識方法およびプログラムを提供しようとするものである。
本発明のある観点によれば、所定の入力期間内に入力される一連のジェスチャ情報に基づきジェスチャを認識する認識部と、一連のジェスチャ情報のうち途中まで入力されたジェスチャ情報からジェスチャを予測する予測部と、ジェスチャの予測結果に関する予測情報をユーザに通知する通知部とを備えるジェスチャ認識装置が提供される。
上記ジェスチャの予測情報は、ジェスチャの予測結果の信頼度を含んでもよい。
上記予測結果の信頼度は、一連のジェスチャ情報に対して途中まで入力されたジェスチャ情報の比率として表されてもよい。
上記予測結果の信頼度は、比率が高いほど急激に増加してもよい。
上記通知部は、予測結果の信頼度が所定閾値以上になると、予測情報の通知を開始してもよい。
上記通知部は、入力期間内に一連のジェスチャ情報が入力されないと、予測情報の通知を終了してもよい。
上記通知部は、入力期間内に一連のジェスチャ情報が入力されない頻度が所定閾値以上になると、認識可能なジェスチャの一覧を通知してもよい。
上記ジェスチャ情報をユーザに通知する第2の通知部をさらに備えてもよい。
上記ジェスチャ情報として画像情報を入力するための入力部をさらに備えてもよい。
上記ジェスチャ情報として音声情報を入力するための入力部をさらに備えてもよい。
また、本発明の別の観点によれば、所定の入力期間内に入力される一連のジェスチャ情報に基づきジェスチャを認識するステップを含み、認識ステップにおいて、一連のジェスチャ情報のうち途中まで入力されたジェスチャ情報からジェスチャを予測し、ジェスチャの予測結果に関する予測情報をユーザに通知するステップをさらに含むジェスチャ認識方法が提供される。
また、本発明の別の観点によれば、上記ジェスチャ認識方法をコンピュータに実行させるためのプログラムが提供される。ここで、プログラムは、コンピュータ読取り可能な記録媒体を用いて提供されてもよく、通信手段等を介して提供されてもよい。
以上説明したように本発明によれば、ジェスチャの予測情報を用いて、適切なジェスチャフィードバックを行うことが可能な、ジェスチャ認識装置、ジェスチャ認識方法およびプログラムを提供することができる。
本発明の実施形態に係るジェスチャ認識装置の概要を示す図である。 ジェスチャ認識装置の主要な機能構成を示すブロック図である。 ジェスチャ認識装置の動作を示すフロー図である。 予測結果および予測結果の信頼度の通知例を示す図(1/5)である。 予測結果および予測結果の信頼度の通知例を示す図(2/5)である。 予測結果および予測結果の信頼度の通知例を示す図(3/5)である。 予測結果および予測結果の信頼度の通知例を示す図(4/5)である。 予測結果および予測結果の信頼度の通知例を示す図(5/5)である。 予測結果および予測結果の信頼度の他の通知例を示す図(1/3)である。 予測結果および予測結果の信頼度の他の通知例を示す図(2/3)である。 予測結果および予測結果の信頼度の他の通知例を示す図(3/3)である。 予測結果および予測結果の信頼度の他の通知例を示す図(1/2)である。 予測結果および予測結果の信頼度の他の通知例を示す図(2/2)である。 ジェスチャ一覧の通知例を示す図である。 予測結果の信頼度の通知例を示す図(1/3)である。 予測結果の信頼度の通知例を示す図(2/3)である。 予測結果の信頼度の通知例を示す図(3/3)である。 予測結果の信頼度の他の通知例を示す図(1/2)である。 予測結果の信頼度の他の通知例を示す図(2/2)である。 変形例に係るジェスチャ認識装置の主要な機能構成を示すブロック図である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
[1.ジェスチャ認識装置の概要]
まず、図1を参照して、本発明の実施形態に係るジェスチャ認識装置1の概要について説明する。図1に示すように、ジェスチャ認識装置1は、ジェスチャの予測結果に関する予測情報を用いて、適切なジェスチャフィードバックを行う。
ジェスチャ認識装置1は、パーソナルコンピュータ、テレビジョン受像機、携帯情報端末、携帯電話等の情報処理装置である。ジェスチャ認識装置1には、ビデオカメラ等の動画像センサ11から動画像信号が入力され、マイク等の音声センサ(不図示)から音声信号が入力される。なお、ジェスチャ認識装置1と動画像/音声センサは、一体に構成されてもよく、別体に構成されてもよい。
ジェスチャ認識装置1は、動画像センサ11の前面でユーザUが所定の動作を行うと、動画像信号に基づき動作ジェスチャを認識し、音声センサの周囲でユーザUが所定の発話を行うと、音声信号に基づき発話ジェスチャを認識する。ここで、動作ジェスチャは、物体O(手等)の動作過程を捉えた一連の画像からなるジェスチャ情報に基づき認識され、発話ジェスチャは、キーワード等の発話過程を捉えた一連の音声に基づくジェスチャ情報を用いて認識される。
動作ジェスチャとしては、例えば、動画像センサ11の前面で物体Oを左右に移動させるフリックジェスチャ、動画像センサ11の前面を物体Oで遮蔽する遮蔽ジェスチャが挙げられる。発話ジェスチャとしては、例えば、音声センサの周囲で所定の語・句・節・文等を発話するジェスチャが挙げられる。
ここで、楽曲再生アプリケーションへの適用を想定すれば、例えば、左・右のフリックジェスチャが再生送り・戻しに各々に対応し、遮蔽ジェスチャが再生停止に対応する。また、例えば、発話「サイセイ テイシ」が楽曲の再生停止に対応し、発話「サイセイ オクリ」、「サイセイ モドシ」が再生送り・戻しに各々に対応してもよい。同様に所定の動作ジェスチャと発話ジェスチャの組合せが各種の処理に対応してもよい。
ジェスチャ認識装置1は、以下の手順で、ジェスチャの予測結果に関する予測情報を用いて、適切なジェスチャフィードバックを行う。前述したように、ジェスチャ認識装置1では、所定の入力期間内に入力される一連のジェスチャ情報を用いてジェスチャが認識される。ジェスチャが認識されると、認識されたジェスチャに対応する処理が実行される。
そして、ジェスチャの認識過程において、一連のジェスチャ情報のうち途中まで入力されたジェスチャ情報からジェスチャが予測され、ジェスチャの予測情報がユーザUに通知される。ここで、ジェスチャの予測情報は、ジェスチャの予測結果自体でもよく、予測結果の信頼度でもよい。
図1には、予測情報の通知例が示されている。ジェスチャ認識装置1では、センサ前面の映像がリアルタイムで捉えられ、ディスプレイDに表示される。ユーザUがジェスチャの入力を開始すると、ジェスチャの予測情報がディスプレイDに表示される。図1に示す例では、ユーザUが手Oを右方向に移動することで、右フリックジェスチャの入力が予測され、右フリックジェスチャを特定するアイコンIと、予測結果の信頼度を示すレベルメータLが表示される。この例では、手Oを右方向にさらに移動すると、予測結果の信頼度が増加し、レベルメータLの表示が更新される。そして、手Oを右方向に所定距離まで移動すると、右フリックジェスチャが認識され、右フリックジェスチャに対応する処理が実行される。
これにより、ユーザUは、予測情報の通知を通じて、ジェスチャ情報の入力を継続することで、どのようなジェスチャが認識されうるかを確認することができる。よって、ユーザUは、期待通りの予測情報が得られない場合には、ジェスチャ情報の誤入力に気付き、入力を訂正することができる。また、ユーザUは、ジェスチャ情報を試行錯誤的に入力して予測情報を確認することで、ジェスチャの入力方法を直感的に理解することもできる。
[2.ジェスチャ認識装置の構成]
つぎに、図2を参照して、ジェスチャ認識装置1の主要な機能構成について説明する。なお、以下では、ユーザUの手Oの動作からなるジェスチャを認識する場合について説明する。
図2に示すように、ジェスチャ認識装置1は、動画像センサ11、動画像処理部13、ジェスチャ情報通知部(第2の通知部)15、認識処理部(認識部)17、ジェスチャ予測部(予測部)19、予測情報通知部(通知部)21、処理実行部23、ジェスチャ情報記憶部25、照合情報記憶部27を含んで構成される。
動画像センサ11は、センサ前面の情景を撮像し、撮像結果を示す動画像信号を生成する。センサ前面の情景は、認識対象となる物体Oの画像や背景の画像からなる。
動画像処理部13は、動画像センサ11から供給される動画像信号を処理し、ジェスチャ情報を生成する。ジェスチャ情報は、物体Oの動作を示す情報である。ジェスチャ情報は、ジェスチャ情報記憶部25に一時記憶される。
ジェスチャ情報通知部15は、動画像処理部13から供給されるジェスチャ情報をユーザUに通知する。ジェスチャ情報は、手Oの動作過程を示す映像情報として通知されてもよく、手Oの動作過程を示す音声情報として通知されてもよい。ジェスチャ情報通知部15では、ジェスチャ情報が不図示のディスプレイDやスピーカを通じてユーザUに通知される。
認識処理部17は、ジェスチャ情報記憶部25からジェスチャ情報を読出し、照合情報記憶部27から照合情報を読出し、照合情報に基づきジェスチャ情報を処理する。認識処理部17では、一連のジェスチャ情報と認識対象となる各ジェスチャの照合情報が照合され、照合結果が生成される。照合情報は、ジェスチャを認識するために一連のジェスチャ情報と照合されるべき情報であり、認識対象となる各ジェスチャについて予め設定されている。例えば、動作ジェスチャの照合情報は、所定方向に移動する物体Oの移動パターン(移動方向・距離・速度等)として設定される。照合結果は、一連のジェスチャ情報により表される移動パターンと、各ジェスチャの照合情報により表される移動パターンの類似度に相当する。
ジェスチャ予測部19は、認識処理部17から供給される照合結果に基づき、入力されようとしているジェスチャを予測する。ジェスチャ予測部19では、最も高い類似度を示すジェスチャがジェスチャの予測結果として特定される。また、予測されたジェスチャの類似度が予測結果の信頼度として特定される。ジェスチャの予測情報は、ジェスチャの予測結果に関する情報であり、ジェスチャの予測結果自体および/または予測結果の信頼度からなる。ここで、ジェスチャの予測結果は、ジェスチャ情報の入力を継続することで、どのようなジェスチャが認識されうるかを示し、予測結果の信頼度は、そのジェスチャがどの程度の信頼度をもって認識されうるか否かを示す指標となる。
予測情報通知部21は、ジェスチャ予測部19から供給されるジェスチャの予測情報をユーザUに通知する。予測情報は、画像情報として通知されてもよく、音声情報として通知されてもよい。予測情報通知部21では、予測情報が不図示のディスプレイDやスピーカ等を通じてユーザUに通知される。
処理実行部23は、ジェスチャの認識結果に基づき、認識されたジェスチャに対応する処理を実行する。処理実行部23では、例えば、左・右フリックジェスチャが認識されると、楽曲の再生送り・戻し処理が実行され、遮蔽ジェスチャが認識されると、再生停止処理が実行される。
動画像センサ11は、ビデオカメラ等の画像入力装置として構成される。動画像処理部13、ジェスチャ情報通知部15、認識処理部17、ジェスチャ予測部19、予測情報通知部21、処理実行部23は、CPU、DSP等のプロセッサを伴う情報処理装置として構成される。ジェスチャ情報通知部15および予測情報通知部21は、不図示のディスプレイDやスピーカに接続される。ジェスチャ情報記憶部25および照合情報記憶部27は、メモリ等の内部記憶装置や外部記憶装置として構成される。
上記構成要素の機能は、少なくとも一部が回路等のハードウェアとして実現されてもよく、プログラム等のソフトウェアとして実現されてもよい。また、各構成要素をソフトウェアとして実現する場合、プロセッサ上で実行されるプログラムを通じて各構成要素の機能が実現される。
[3.ジェスチャ認識装置の動作]
つぎに、図3から図7を参照して、ジェスチャ認識装置1の動作について説明する。図3に示すように、ジェスチャ認識装置1では、ジェスチャの入力開始が判定される(ステップS11)。動画像センサ11では、センサ前面の情景が撮像され、撮像結果を示す動画像信号が生成される。動画像処理部13では、動画像信号からフレーム画像が生成される。
ここで、ジェスチャの入力開始は、センサ前面における認識対象の存在に基づき判定されてもよい。この場合、認識処理部17では、パターン認識等の技術を用いて、認識対象となる物体Oがフレーム画像に含まれているかが判定される。そして、判定結果が肯定的であれば入力が開始されたと判定される。なお、認識処理部17では、フレーム画像よりも粗い解像度で生成された濃淡画像に、認識対象となる物体Oが含まれているかが判定されてもよい。
また、ジェスチャの入力開始は、センサ前面における認識対象の移動状態に基づき判定されてもよい。この場合、動画像処理部13では、フレーム画像よりも粗い解像度の濃淡画像が生成される。そして、濃淡画像のフレーム差分、つまり変化領域に基づき動き領域が検出され、動き領域の重心位置がジェスチャ情報として生成される。ジェスチャ情報は、ジェスチャ情報記憶部25に一時記憶される。そして、所定期間におけるジェスチャ情報に基づき、認識対象となる物体Oが所定の移動パターンで移動を開始しているかが判定される。そして、判定結果が肯定的であれば入力が開始されたと判定される。
ここで、入力が開始されたと判定されると、処理タイマ(不図示)が起動され(ステップS13)、ステップS15以降の処理が開始される。一方、入力が開始されたと判定されなければ、ステップS11の判定処理が繰返される。
入力が開始されたと判定されると、処理タイマに基づき所定の入力期間の経過が判定される(ステップS15)。入力期間は、一連のジェスチャ情報に基づきジェスチャを認識するために十分な期間(数分の1秒から数秒等)として設定されている。
つぎに、入力開始の判定処理時と同様に、センサ前面の情景を表す動画像信号が入力される(ステップS17)。動画像センサ11では、センサ前面の情景が撮像され、撮像結果を示す動画像信号が生成される。動画像処理部13では、例えば、以下のような動画像処理が行われる。
動画像処理部13では、まず、動画像信号からフレーム画像が生成され、フレーム画像よりも粗い解像度の濃淡画像が生成される。そして、濃淡画像のフレーム差分、つまり変化領域に基づき動き領域が検出され、動き領域の重心位置がジェスチャ情報として生成される。濃淡画像を用いることで、動き領域を効率的に検出することができる。
ジェスチャ情報通知部15では、認識対象自体および/または認識対象の動作を示す情報として、ジェスチャ情報がユーザUに通知される。ジェスチャ情報は、ジェスチャ情報の生成順序に関連付けて、ジェスチャ情報記憶部25に一時記憶される。ジェスチャ情報記憶部25には、少なくとも入力期間に亘ってジェスチャ情報が一時記憶される。
つぎに、認識処理が実行される(ステップS19)。認識処理部17では、入力期間の開始時点から入力された一連のジェスチャ情報がジェスチャ情報記憶部25から読出される。なお、認識対象の移動状態に基づき入力開始を判定した場合、判定処理に用いられたジェスチャ情報が一連のジェスチャ情報に含まれてもよい。また、認識対象となる各ジェスチャの照合情報が照合情報記憶部27から読出される。つぎに、一連のジェスチャ情報と認識対象となる各ジェスチャの照合情報が照合され、照合結果が生成される。
つぎに、照合結果が所定の第1の閾値以上であるかが判定される(ステップS21)。認識処理部17では、いずれかのジェスチャの照合結果が第1の閾値以上の類似度を示しているかが判定される。第1の閾値は、認識対象となるジェスチャを適切に認識できる程度の類似度として、認識処理に要求される精度に応じて設定される。これにより、認識対象となるジェスチャのいずれかが認識されたかが判定される。
例えば、フリックジェスチャの類似度は、ジェスチャが認識されるまでに移動すべき距離に対する、実際に移動した距離の比率として表される。類似度は、移動すべき距離に対する移動した距離の比率をパラメータとする関数として表されてもよい。この場合、類似度は、距離の比率が比較的低い場合には、距離の比率に応じて緩やかに増加し、距離の比率が比較的高い場合には、距離の比率に応じて急激に増加してもよい。
ここで、いずれかのジェスチャが認識された場合、処理実行部23では、認識されたジェスチャに対応する処理が実行される(ステップS29)。そして、認識処理を終了するかが判定され(ステップS31)、判定結果が肯定的であれば処理が終了し、否定的であれば処理がステップS11に復帰する。なお、認識処理の終了は、ステップS11からS29の途中における任意のタイミングで判定されてもよい。
一方、いずれのジェスチャも認識されなかった場合、入力されようとしているジェスチャが予測される(ステップS23)。ジェスチャ予測部19では、認識処理部17から供給される照合結果に基づき、最も高い類似度を示すジェスチャがジェスチャの予測結果として特定され、予測されたジェスチャの類似度が予測結果の信頼度として特定される。
つぎに、予測結果の信頼度が所定の第2の閾値以上であるかが判定される(ステップS25)。予測情報通知部21では、ジェスチャ予測部19から供給される予測結果の信頼度が第2の閾値以上であるかが判定される。第2の閾値は、認識対象となるジェスチャのうちいずれかの開始が認識されうる程度の類似度として、認識処理に要求される認識精度に応じて設定される。ここで、第2の閾値は、ジェスチャの認識に用いる第1の閾値よりも低い類似度として設定される。これにより、認識対象となるジェスチャのうちいずれかの開始が認識されうるかが判定される。
ここで、予測情報通知部21では、判定結果が肯定的であれば、ジェスチャの予測結果自体および/または予測結果の信頼度がユーザUに通知され(ステップS27)、否定的であれば、ユーザUに通知されない。つまり、予測情報は、認識対象となるジェスチャのうちいずれかの開始が認識された場合に通知される。そして、処理がステップS15に復帰し、入力期間の経過が判定される。
図4A−4Eには、予測結果および予測結果の信頼度の通知例が示されている。図4Aに示すように、センサ前面において認識対象となる物体O(ユーザUの手O)の存在が確認されると、ジェスチャの入力が開始されたと判定される。ディスプレイDには、手Oを捉えた映像が表示される。入力が開始されたと判定されると、処理タイマの起動により入力期間が開始され、ジェスチャ情報の入力および認識処理の実行が開始される。なお、認識処理の実行中、ディスプレイDには、センサ前面の情景を捉えた映像がリアルタイムで表示される。
図4Bに示すように、いずれかのジェスチャの予測結果の信頼度が第2の閾値以上であると判定されると、ジェスチャの予測情報の通知が開始される。ディスプレイDには、手Oを捉えた映像とともに、予測情報を示すウィンドウWが表示される。ウィンドウWには、認識対象となるジェスチャ(例えば、左・右フリックジェスチャ、遮蔽ジェスチャ)を示すアイコンI1、I2、I3と、予測結果の信頼度を示すレベルメータL1、L2が表示されている。
図4Bに示す例では、図4Aに示した状態からユーザUが手Oを右方向に一定距離移動すると、予測結果として右フリックジェスチャが特定され、予測結果の信頼度が第2の閾値以上であると判定される。ウィンドウWでは、右フリックジェスチャを示すアイコンI2がハイライト表示され、右フリックジェスチャのレベルメータL2が僅かに増加している。
図4Cに示すように、図4Bに示した状態からユーザUが手Oを右方向にさらに移動すると、より高い類似度を示す照合結果が得られ、予測結果の信頼度がさらに増加していると判定される。ウィンドウWでは、右フリックジェスチャのレベルメータL2がさらに増加している。
ここで、図4Dに示すように、図4Cに示した状態からユーザUが手Oを右方向にさらに移動し、入力期間が経過する前に、右フリックジェスチャの照合結果が第1の閾値以上の類似度を示していると判定されると、右フリックジェスチャが認識される。ウィンドウWでは、右フリックジェスチャのレベルメータL2が最高レベルに達している。
一方、図4Eに示すように、図4Cに示した状態からユーザUが手Oを右方向にさらに移動せず、入力期間が経過する前に、右フリックジェスチャの照合結果が第1の閾値以上の類似度を示していると判定されなければ、右フリックジェスチャが認識されず、認識処理が中止される。ディスプレイDでは、ウィンドウWが非表示となり、手Oを捉えた映像のみが表示される。
図5A−5Cには、予測結果および予測結果の信頼度の他の通知例が示されている。図5Aに示す例では、左・右フリックジェスチャを認識対象とする場合に、ユーザUが手Oを上方向に移動している。この場合、左右方向の移動を示すジェスチャ情報が生成されないので、いずれかのジェスチャの予測結果の信頼度が第2の閾値以上であると判定されない。よって、ジェスチャの予測情報の通知が開始されない。このため、ユーザUは、手Oを移動したにもかかわらず、予測情報が通知されないので、ジェスチャ情報の誤入力に気付くことができる。
一方、図5Bに示す例では、ユーザUが手Oを右上方向に移動している。この場合、認識対象の移動ベクトルの成分として右方向への僅かな移動を示すジェスチャ情報が生成されるので、手Oを右上方向にある程度移動した時点で、右フリックジェスチャの予測結果の信頼度が第2の閾値以上であると判定される。よって、手Oを右方向に移動する場合に比べると遅れてではあるが、ジェスチャの予測情報の通知が開始される。
ウィンドウWでは、右フリックジェスチャを示すアイコンI1がハイライト表示され、右フリックジェスチャのレベルメータL2が僅かに増加している。このため、ユーザUは、手Oを移動したにもかかわらず、ウィンドウWの表示が遅れるとともに予測結果の信頼度が期待通りに増加しないので、ジェスチャ情報の誤入力に気付くことができる。
図5Cに示す例では、図5Bに示した状態からユーザUが手Oを右方向に移動している。この場合、右方向への移動を示すジェスチャ情報が入力されるので、より高い類似度を示す照合結果が得られ、予測結果の信頼度がさらに増加していると判定される。ウィンドウWでは、右フリックジェスチャのレベルメータL2がさらに増加している。このため、ユーザUは、ジェスチャ情報の誤入力に気付いた上で入力を訂正するとともに、予測結果の信頼度が期待通りに増加したので、ジェスチャ情報の入力が適切であると確認することができる。
図6A−6Bには、予測結果および予測結果の信頼度の他の通知例が示されている。図6Aに示す例では、ユーザUが左フリックジェスチャを入力しようとしているにもかかわらず、誤って手Oを右方向に僅かに移動している。この場合、右方向への僅かな移動を示すジェスチャ情報が生成されるので、右フリックジェスチャの予測結果の信頼度が第2の閾値以上であると判定される。よって、ジェスチャの予測情報の通知が開始される。
ウィンドウWでは、右フリックジェスチャを示すアイコンI2がハイライト表示され、右フリックジェスチャのレベルメータL2が僅かに増加している。このため、ユーザUは、左フリックジェスチャを入力しようとしているにもかかわらず、右フリックジェスチャを示すアイコンI2がハイライト表示されたことを確認することで、ジェスチャ情報の誤入力に気付くことができる。
図6Bに示す例では、図6Aに示した状態からユーザUが手Oを左方向に移動している。この場合、左方向への移動を示すジェスチャ情報が生成されるので、左フリックジェスチャの予測結果が第2の閾値以上の類似度を示す。よって、ウィンドウWでは、右フリックジェスチャに代えて左フリックジェスチャを示すアイコンI1がハイライト表示され、左フリックジェスチャのレベルメータL1が増加している。このため、ユーザUは、ジェスチャ情報の誤入力に気付いた上で、入力を訂正することができる。
図7には、ジェスチャ一覧の通知例が示されている。ジェスチャ認識装置1では、入力期間内にジェスチャが認識されなかった場合に認識失敗ログが記録される。そして、所定期間内に認識失敗ログが所定閾値以上の頻度で記録されると、認識対象となるジェスチャ一覧GがユーザUに通知される。
図7に示すように、ジェスチャ一覧Gには、認識対象となるジェスチャの種類と、ジェスチャの入力方法が示されている。ジェスチャ一覧には、例えば、手Oを左・右方向に移動することで、楽曲の再生早送り・早戻しを行い、動画像センサ11の前面を遮蔽することで、再生停止を行うことができる旨が示されている。これにより、システムの操作に不慣れなユーザUは、ジェスチャ一覧Gの参照を通じて、認識対象となるジェスチャを習得することができる。
[4.予測情報の通知の変形例]
図8A−8Cには、予測結果の信頼度の通知例が示されている。図8Aに示す例では、物体Oで円を描くサークルジェスチャを認識対象とする場合に、物体Oの移動を示す軌跡線TL(軌跡線の総称)を用いてジェスチャの予測結果の信頼度が通知される。図8Aに示すように、ユーザUが手Oで四分円を描くと、ディスプレイDには、手Oを捉えたリアルタイム映像とともに、手Oの移動過程を示す四分円状の軌跡線TL1が表示される。軌跡線TL1は、比較的細い線、薄い色、暗い色の線として表示されている。
図8Bに示すように、図8Aに示した状態からユーザUが手Oで半円を描くと、ディスプレイDには、手Oの移動過程を示す半円状の軌跡線TL2が表示される。ここで、軌跡線TL2は、図8Aに示した軌跡線TL1よりも太い線や濃い色、明るい色の線として表示されている。つまり、図8Bに示す状態では、図8Aに示した状態よりも、サークルジェスチャを特定する予測結果の信頼度が増加しているので、軌跡線TLの線種、色、彩度の変更を通じて、信頼度の増加がユーザUに通知されている。
さらに、図8Cに示すように、図8Bに示した状態からユーザUが手Oでほぼ円を描くと、ディスプレイDには、手Oの移動過程を示す略円状の軌跡線TL3が表示される。ここで、軌跡線TL3は、図8Bに示した軌跡線TL2よりも太い線や濃い色、明るい色の線として表示されている。そして、サークルジェスチャの照合結果が第1の閾値以上の類似度を示していると判定されると、サークルジェスチャが認識される。
図9A−9Bには、予測結果の信頼度の他の通知例が示されている。図9Aに示す例では、右フリックジェスチャを認識対象とする場合に、物体Oの移動を示す軌跡点TPを用いてジェスチャの予測結果の信頼度が通知される。図9Aに示すように、ユーザUが手Oを右方向に一定距離で移動すると、ディスプレイDには、手Oを捉えたリアルタイム映像とともに、手Oの移動過程を示す複数の軌跡点TPが表示される。軌跡点TPは、白丸シンボルと、白丸シンボルの中心に位置する黒丸シンボルを組合せて表示されている。
図9Bに示すように、図9Aに示した状態からユーザUが手Oを右方向にさらに移動すると、ディスプレイDには、手Oの移動過程を示す複数の軌跡点TPがさらに追加して表示される。ここで、手Oの移動距離が大きくなるほど、白丸シンボルの中心に位置する黒丸シンボルが大きく表示されている。つまり、手Oの移動距離が大きくなるほど、右フリックジェスチャを特定する予測結果の信頼度が増加するので、黒丸シンボルの大きさを変更することで、信頼度の増加がユーザUに通知されている。そして、右フリックジェスチャの照合結果が第1の閾値以上の類似度を示していると判定されると、右フリックジェスチャが認識される。
[5.ジェスチャ認識装置の変形例]
つぎに、変形例に係るジェスチャ認識装置2について説明する。変形例に係るジェスチャ認識装置2では、動画像センサ11とともに(または動画像センサ11に代えて)音声センサ29を用いて、動作ジェスチャおよび発話ジェスチャ(または発話ジェスチャ)が認識される。
図10に示すように、ジェスチャ認識装置2は、動画像センサ11、動画像処理部13、ジェスチャ情報通知部15、認識処理部17、ジェスチャ予測部19、予測情報通知部21、処理実行部23、ジェスチャ情報記憶部25、照合情報記憶部27とともに、音声センサ29および音声処理部31を含んで構成される。なお、以下では、前述したジェスチャ認識装置1と重複する説明を省略する。
音声センサ29は、センサ周囲に位置するユーザUの発話を収音し、収音結果を示す音声信号を生成する。音声処理部31は、音声センサ29から供給される音声信号を処理し、発話ジェスチャ情報を生成する。発話ジェスチャ情報は、語・句・節・文等、ユーザUの発話を示すための情報である。発話ジェスチャ情報は、ジェスチャ情報記憶部25に一時記憶される。
認識処理部17は、ジェスチャ情報記憶部25から動作ジェスチャおよび/または発話ジェスチャのジェスチャ情報を読出し、照合情報記憶部27から照合情報を読出し、照合情報に基づきジェスチャ情報を処理する。ここで、発話ジェスチャの照合情報は、所定の音声パターン(音素の高さ、長さ、音量等)として設定される。照合結果は、一連のジェスチャ情報により表される音声パターンと各ジェスチャの照合情報により表される音声パターンの類似度に相当する。ここで、動作ジェスチャおよび発話ジェスチャの組合せからなる複合ジェスチャについては、動作ジェスチャの照合結果と発話ジェスチャの照合結果を組合せて、複合ジェスチャとしての照合結果が求められる。
ジェスチャ情報通知部15は、動画像処理部13および音声処理部31から供給される、動作ジェスチャおよび/または発話ジェスチャのジェスチャ情報をユーザUに通知する。発話ジェスチャのジェスチャ情報は、認識された音声パターンを示す文字情報でもよく、認識された音声パターンを復唱する音声情報でもよい。ジェスチャ情報通知部15では、ジェスチャ情報が不図示のディスプレイDやスピーカを通じてユーザUに通知される。
ジェスチャ予測部19は、認識部処理部17から供給される照合結果に基づき、入力されようとしているジェスチャを予測する。ジェスチャ予測部19では、最も高い類似度を示すジェスチャがジェスチャの予測結果として特定される。ここで、複合ジェスチャについては、動作ジェスチャの照合結果と発話ジェスチャの照合結果の類似度を組合せて、ジェスチャの予測結果が特定される。
処理実行部23は、例えば、発話ジェスチャ「サイセイ オクリ」または「サイセイ モドシ」が認識されると、楽曲の再生送り・戻し処理を実行してもよく、フリックジェスチャとともに発話ジェスチャ「オクリ」または「モドシ」が認識されると、再生送り・戻し処理を実行してもよい。
[6.まとめ]
以上説明したように、本発明の実施形態に係るジェスチャ認識装置1、2およびジェスチャ認識方法によれば、ジェスチャの認識過程において、一連のジェスチャ情報のうち途中まで入力されたジェスチャ情報からジェスチャが予測され、ジェスチャの予測結果に関する予測情報がユーザUに通知される。これにより、ユーザUは、予測情報の通知を通じて、ジェスチャ情報の入力を継続することで、どのようなジェスチャが認識されうるかを確認することができる。
よって、ユーザUは、期待通りの予測情報が得られない場合には、ジェスチャ情報の誤入力に気付き、入力を訂正することができる。また、ユーザUは、ジェスチャ情報を試行錯誤的に入力して予測情報を確認することで、ジェスチャの入力方法を直感的に理解することもできる。よって、本発明の実施形態に係るジェスチャ認識装置1、2およびジェスチャ認識方法によれば、ジェスチャの予測情報を用いて、適切なジェスチャフィードバックを行うことができる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、上記説明では、ジェスチャの予測情報およびジェスチャ情報を映像情報として通知する場合について主に説明した。しかし、ジェスチャの予測情報およびジェスチャ情報は、映像情報に代えて(または映像情報とともに)、音声情報等の情報として通知されてもよい。
1、2 ジェスチャ認識装置
11 動画像センサ
13 動画像処理部
15 ジェスチャ情報通知部
17 認識処理部
19 ジェスチャ予測部
21 予測情報通知部
23 処理実行部
25 ジェスチャ情報記憶部
27 照合情報記憶部
29 音声センサ
31 音声処理部

Claims (12)

  1. 所定の入力期間内に入力される一連のジェスチャ情報に基づきジェスチャを認識する認識部と、
    前記一連のジェスチャ情報のうち途中まで入力されたジェスチャ情報からジェスチャを予測する予測部と、
    前記ジェスチャの予測結果に関する予測情報をユーザに通知する通知部と
    を備えるジェスチャ認識装置。
  2. 前記ジェスチャの予測情報は、前記ジェスチャの予測結果の信頼度を含む、請求項1に記載のジェスチャ認識装置。
  3. 前記予測結果の信頼度は、前記一連のジェスチャ情報に対して前記途中まで入力されたジェスチャ情報の比率として表される、請求項2に記載のジェスチャ認識装置。
  4. 前記予測結果の信頼度は、前記比率が高いほど急激に増加する、請求項3に記載のジェスチャ認識装置。
  5. 前記通知部は、前記予測結果の信頼度が所定閾値以上になると、前記予測情報の通知を開始する、請求項1から4のいずれか1項に記載のジェスチャ認識装置。
  6. 前記通知部は、前記入力期間内に前記一連のジェスチャ情報が入力されないと、前記予測情報の通知を終了する、請求項5に記載のジェスチャ認識装置。
  7. 前記通知部は、前記入力期間内に前記一連のジェスチャ情報が入力されない頻度が所定閾値以上になると、認識可能なジェスチャの一覧を通知する、請求項1から6のいずれか1項に記載のジェスチャ認識装置。
  8. 前記ジェスチャ情報をユーザに通知する第2の通知部をさらに備える、請求項1から7のいずれか1項に記載のジェスチャ認識装置。
  9. 前記ジェスチャ情報として画像情報を入力するための入力部をさらに備える、請求項1から8のいずれか1項に記載のジェスチャ認識装置。
  10. 前記ジェスチャ情報として音声情報を入力するための入力部をさらに備える、請求項1から9のいずれか1項に記載のジェスチャ認識装置。
  11. 所定の入力期間内に入力される一連のジェスチャ情報に基づきジェスチャを認識するステップを含み、
    前記認識ステップにおいて、前記一連のジェスチャ情報のうち途中まで入力されたジェスチャ情報からジェスチャを予測し、前記ジェスチャの予測結果に関する予測情報をユーザに通知するステップをさらに含むジェスチャ認識方法。
  12. 上記請求項11に記載のジェスチャ認識方法をコンピュータに実行させるためのプログラム。
JP2010143651A 2010-06-24 2010-06-24 ジェスチャ認識装置、ジェスチャ認識方法およびプログラム Active JP5601045B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2010143651A JP5601045B2 (ja) 2010-06-24 2010-06-24 ジェスチャ認識装置、ジェスチャ認識方法およびプログラム
US13/084,092 US8756508B2 (en) 2010-06-24 2011-04-11 Gesture recognition apparatus, gesture recognition method and program
EP11165877.9A EP2400371B1 (en) 2010-06-24 2011-05-12 Gesture recognition apparatus, gesture recognition method and program
CN2011101691450A CN102298442A (zh) 2010-06-24 2011-06-17 手势识别设备、手势识别方法及程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010143651A JP5601045B2 (ja) 2010-06-24 2010-06-24 ジェスチャ認識装置、ジェスチャ認識方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2012008772A true JP2012008772A (ja) 2012-01-12
JP5601045B2 JP5601045B2 (ja) 2014-10-08

Family

ID=44202869

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010143651A Active JP5601045B2 (ja) 2010-06-24 2010-06-24 ジェスチャ認識装置、ジェスチャ認識方法およびプログラム

Country Status (4)

Country Link
US (1) US8756508B2 (ja)
EP (1) EP2400371B1 (ja)
JP (1) JP5601045B2 (ja)
CN (1) CN102298442A (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013182457A (ja) * 2012-03-02 2013-09-12 Toshiba Tec Corp 商品読取装置および商品読取プログラム
JP2014010830A (ja) * 2012-06-29 2014-01-20 Immersion Corp ショートカットタッチジェスチャに触覚フィードバックを提供する方法及び装置
WO2014084622A1 (ko) * 2012-11-28 2014-06-05 (주)미디어인터랙티브 동작예측을 통한 동작인식방법
JP2014109850A (ja) * 2012-11-30 2014-06-12 Pioneer Electronic Corp 処理装置、処理方法及び処理装置用プログラム
JP2014137818A (ja) * 2013-01-16 2014-07-28 Ricoh Co Ltd 手の平開閉動作識別方法と装置、マン・マシン・インタラクション方法と設備
KR20150002786A (ko) * 2012-04-16 2015-01-07 퀄컴 인코포레이티드 제스처들을 이용한 디바이스와의 상호작용
KR20160021629A (ko) * 2014-08-18 2016-02-26 삼성전자주식회사 사용자 입력 처리 방법 및 장치
WO2016167331A1 (ja) * 2015-04-17 2016-10-20 三菱電機株式会社 ジェスチャー認識装置、ジェスチャー認識方法、及び情報処理装置
JP2016534480A (ja) * 2013-09-13 2016-11-04 クアルコム,インコーポレイテッド ジェスチャ認識のための変換およびスケール不変の機能
WO2017094443A1 (ja) 2015-11-30 2017-06-08 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2017527053A (ja) * 2014-07-18 2017-09-14 アップル インコーポレイテッド デバイスにおけるレイズジェスチャ検出
WO2017208672A1 (ja) * 2016-05-31 2017-12-07 ソニー株式会社 プログラム、情報処理システム、情報処理方法、及びリーダライタ装置
JP2018163668A (ja) * 2018-05-14 2018-10-18 株式会社ユピテル 電子情報システム及びそのプログラム
US10754432B2 (en) 2015-12-01 2020-08-25 Sony Corporation Information processing device and information processing method for detecting gesture manipulation
JP7262643B1 (ja) 2022-04-01 2023-04-21 三菱電機株式会社 電力設備制御システム、サーバ装置、中央処理装置、電力設備制御方法および電力設備制御プログラム

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201227399A (en) * 2010-12-24 2012-07-01 Hon Hai Prec Ind Co Ltd Motion recognition module, electronic device appling the motion recognition module and method thereof
AU2010366331B2 (en) * 2010-12-30 2016-07-14 Interdigital Ce Patent Holdings User interface, apparatus and method for gesture recognition
US8769409B2 (en) * 2011-05-27 2014-07-01 Cyberlink Corp. Systems and methods for improving object detection
JP2013103010A (ja) * 2011-11-15 2013-05-30 Sony Corp 画像処理装置、画像処理方法及びプログラム
KR101322465B1 (ko) 2011-11-17 2013-10-28 삼성전자주식회사 셀프 카메라 촬영을 위한 방법 및 장치
US9931154B2 (en) * 2012-01-11 2018-04-03 Biosense Webster (Israel), Ltd. Touch free operation of ablator workstation by use of depth sensors
CN102779268B (zh) * 2012-02-06 2015-04-22 西南科技大学 基于方向运动历史图及竞争机制的手挥运动方向判定方法
KR101953165B1 (ko) * 2012-02-24 2019-05-22 토마스 제이. 모스카릴로 제스처 인식 디바이스들 및 방법들
JP2013196047A (ja) * 2012-03-15 2013-09-30 Omron Corp ジェスチャ入力装置、制御プログラム、コンピュータ読み取り可能な記録媒体、電子機器、ジェスチャ入力システム、および、ジェスチャ入力装置の制御方法
AU2013205613B2 (en) * 2012-05-04 2017-12-21 Samsung Electronics Co., Ltd. Terminal and method for controlling the same based on spatial interaction
JP5900161B2 (ja) * 2012-05-29 2016-04-06 ソニー株式会社 情報処理システム、方法およびコンピュータ読み取り可能な記録媒体
US9098111B2 (en) * 2012-06-22 2015-08-04 Microsoft Technology Licensing, Llc Focus guidance within a three-dimensional interface
US20140007019A1 (en) * 2012-06-29 2014-01-02 Nokia Corporation Method and apparatus for related user inputs
US20140046922A1 (en) * 2012-08-08 2014-02-13 Microsoft Corporation Search user interface using outward physical expressions
CN103679130B (zh) * 2012-09-24 2018-04-13 富士通株式会社 手追踪方法、手追踪设备和手势识别系统
US20140118265A1 (en) * 2012-10-29 2014-05-01 Compal Electronics, Inc. Electronic apparatus with proximity sensing capability and proximity sensing control method therefor
US20140201657A1 (en) * 2013-01-15 2014-07-17 Motorola Mobility Llc Method and apparatus for receiving input of varying levels of complexity to perform actions having different sensitivities
CN103150018B (zh) * 2013-03-07 2016-09-21 深圳泰山体育科技股份有限公司 手势识别方法及装置
CN103265239B (zh) * 2013-05-17 2015-04-08 连云港港口工程设计研究院有限公司 一种淤泥混凝土的制造方法
US10048760B2 (en) * 2013-05-24 2018-08-14 Atheer, Inc. Method and apparatus for immersive system interfacing
US8988345B2 (en) 2013-06-25 2015-03-24 Microsoft Technology Licensing, Llc Adaptive event recognition
US11226686B2 (en) * 2014-01-20 2022-01-18 Lenovo (Singapore) Pte. Ltd. Interactive user gesture inputs
EP2924539B1 (en) * 2014-03-27 2019-04-17 Lg Electronics Inc. Display device and operating method thereof using gestures
EP3243120A4 (en) * 2015-01-09 2018-08-22 Razer (Asia-Pacific) Pte Ltd. Gesture recognition devices and gesture recognition methods
US10048934B2 (en) 2015-02-16 2018-08-14 International Business Machines Corporation Learning intended user actions
US10475439B2 (en) * 2015-03-23 2019-11-12 Sony Corporation Information processing system and information processing method
US10503264B1 (en) 2015-06-16 2019-12-10 Snap Inc. Radial gesture navigation
CN108431728A (zh) * 2015-12-16 2018-08-21 索尼公司 信息处理设备、信息处理方法以及程序
CN108369451B (zh) * 2015-12-18 2021-10-29 索尼公司 信息处理装置、信息处理方法及计算机可读存储介质
US10218882B2 (en) * 2015-12-31 2019-02-26 Microsoft Technology Licensing, Llc Feedback for object pose tracker
US10530731B1 (en) 2016-03-28 2020-01-07 Snap Inc. Systems and methods for chat with audio and video elements
CN106028104A (zh) * 2016-05-27 2016-10-12 王增飞 一种基于2d视觉的体感操作实现方法及系统
US10824329B2 (en) * 2017-09-25 2020-11-03 Motorola Solutions, Inc. Methods and systems for displaying query status information on a graphical user interface
CN110515452B (zh) * 2018-05-22 2022-02-22 腾讯科技(深圳)有限公司 图像处理方法、装置、存储介质和计算机设备
CN108766127A (zh) * 2018-05-31 2018-11-06 京东方科技集团股份有限公司 手语交互方法、设备、装置和存储介质
CN110795015A (zh) * 2019-09-25 2020-02-14 广州视源电子科技股份有限公司 操作提示方法、装置、设备及存储介质
CN112783321A (zh) * 2019-11-08 2021-05-11 苹果公司 使用多个传感器的基于机器学习的手势识别
CN110968239B (zh) * 2019-11-28 2022-04-05 北京市商汤科技开发有限公司 一种展示对象的控制方法、装置、设备及存储介质
US11474582B2 (en) * 2020-02-14 2022-10-18 International Business Machines Corporation Automated validation of power topology via power state transitioning
CN114600072A (zh) * 2020-03-20 2022-06-07 华为技术有限公司 用于基于手势控制设备的方法和系统
US11892562B2 (en) * 2020-10-30 2024-02-06 KaiKuTek Inc. Impulse-like gesture recognition method, and impulse-like gesture recognition system
CN113977589B (zh) * 2021-12-23 2022-03-08 深圳市心流科技有限公司 一种手势识别阈值调整方法、装置及存储介质
DE102022128074A1 (de) 2022-10-24 2024-04-25 Sensor-Technik Wiedemann Gmbh Verfahren zur steuerung eines maschinelementes und steueranordnung

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06266494A (ja) * 1993-03-12 1994-09-22 Toshiba Corp ペン入力方式の情報処理方法及び同装置
JP2004303207A (ja) * 2003-03-28 2004-10-28 Microsoft Corp ジェスチャの動的フィードバック
JP2005178473A (ja) * 2003-12-17 2005-07-07 Denso Corp 車載機器用インターフェース

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7379563B2 (en) * 2004-04-15 2008-05-27 Gesturetek, Inc. Tracking bimanual movements
JP2006209563A (ja) 2005-01-31 2006-08-10 Victor Co Of Japan Ltd インターフェース装置
JP4267648B2 (ja) * 2006-08-25 2009-05-27 株式会社東芝 インターフェース装置及びその方法
US7725547B2 (en) * 2006-09-06 2010-05-25 International Business Machines Corporation Informing a user of gestures made by others out of the user's line of sight
WO2008069519A1 (en) * 2006-12-04 2008-06-12 Electronics And Telecommunications Research Institute Gesture/speech integrated recognition system and method
US7971156B2 (en) * 2007-01-12 2011-06-28 International Business Machines Corporation Controlling resource access based on user gesturing in a 3D captured image stream of the user
US20090100383A1 (en) * 2007-10-16 2009-04-16 Microsoft Corporation Predictive gesturing in graphical user interface
JP2010143651A (ja) 2008-12-16 2010-07-01 Nakano:Kk 梱包箱移載・搬出装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06266494A (ja) * 1993-03-12 1994-09-22 Toshiba Corp ペン入力方式の情報処理方法及び同装置
JP2004303207A (ja) * 2003-03-28 2004-10-28 Microsoft Corp ジェスチャの動的フィードバック
JP2005178473A (ja) * 2003-12-17 2005-07-07 Denso Corp 車載機器用インターフェース

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CSNG200700218002; 森 明慧: '実体を伴うプロアクティブヒューマンインタフェースのためのジェスチャの早期認識・予測に関する検討' 日本ロボット学会誌 第24巻 第8号, 20061115, p.66-75, 社団法人日本ロボット学会 *
CSNG200800469012; 天本 一馬: '早期認識のためのBoosting的学習法の提案とそのオンライン文字認識への応用' 電子情報通信学会技術研究報告 第107巻 第491号, 20080214, p.81-86, 社団法人電子情報通信学会 *
JPN6014007219; 森 明慧: '実体を伴うプロアクティブヒューマンインタフェースのためのジェスチャの早期認識・予測に関する検討' 日本ロボット学会誌 第24巻 第8号, 20061115, p.66-75, 社団法人日本ロボット学会 *
JPN6014007220; 天本 一馬: '早期認識のためのBoosting的学習法の提案とそのオンライン文字認識への応用' 電子情報通信学会技術研究報告 第107巻 第491号, 20080214, p.81-86, 社団法人電子情報通信学会 *

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013182457A (ja) * 2012-03-02 2013-09-12 Toshiba Tec Corp 商品読取装置および商品読取プログラム
KR20150002786A (ko) * 2012-04-16 2015-01-07 퀄컴 인코포레이티드 제스처들을 이용한 디바이스와의 상호작용
KR102255774B1 (ko) * 2012-04-16 2021-05-24 퀄컴 인코포레이티드 제스처들을 이용한 디바이스와의 상호작용
JP2015515065A (ja) * 2012-04-16 2015-05-21 クアルコム,インコーポレイテッド ジェスチャを使用したデバイスとの対話
CN109240594A (zh) * 2012-06-29 2019-01-18 意美森公司 通过触觉反馈提供快捷触摸手势的方法和设备
JP2018170034A (ja) * 2012-06-29 2018-11-01 イマージョン コーポレーションImmersion Corporation ショートカットタッチジェスチャに触覚フィードバックを提供する方法及び装置
JP2014010830A (ja) * 2012-06-29 2014-01-20 Immersion Corp ショートカットタッチジェスチャに触覚フィードバックを提供する方法及び装置
WO2014084622A1 (ko) * 2012-11-28 2014-06-05 (주)미디어인터랙티브 동작예측을 통한 동작인식방법
JP2014109850A (ja) * 2012-11-30 2014-06-12 Pioneer Electronic Corp 処理装置、処理方法及び処理装置用プログラム
JP2014137818A (ja) * 2013-01-16 2014-07-28 Ricoh Co Ltd 手の平開閉動作識別方法と装置、マン・マシン・インタラクション方法と設備
JP2016534480A (ja) * 2013-09-13 2016-11-04 クアルコム,インコーポレイテッド ジェスチャ認識のための変換およびスケール不変の機能
US10303239B2 (en) 2014-07-18 2019-05-28 Apple Inc. Raise gesture detection in a device
US10101793B2 (en) 2014-07-18 2018-10-16 Apple Inc. Raise gesture detection in a device
JP2017527053A (ja) * 2014-07-18 2017-09-14 アップル インコーポレイテッド デバイスにおけるレイズジェスチャ検出
US10120431B2 (en) 2014-07-18 2018-11-06 Apple Inc. Raise gesture detection in a device with preheating of a processor
KR102319530B1 (ko) * 2014-08-18 2021-10-29 삼성전자주식회사 사용자 입력 처리 방법 및 장치
KR20160021629A (ko) * 2014-08-18 2016-02-26 삼성전자주식회사 사용자 입력 처리 방법 및 장치
WO2016167331A1 (ja) * 2015-04-17 2016-10-20 三菱電機株式会社 ジェスチャー認識装置、ジェスチャー認識方法、及び情報処理装置
US10156909B2 (en) 2015-04-17 2018-12-18 Mitsubishi Electric Corporation Gesture recognition device, gesture recognition method, and information processing device
WO2017094443A1 (ja) 2015-11-30 2017-06-08 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US10754431B2 (en) 2015-11-30 2020-08-25 Sony Corporation Information processing device and information processing method
US10754432B2 (en) 2015-12-01 2020-08-25 Sony Corporation Information processing device and information processing method for detecting gesture manipulation
JPWO2017208672A1 (ja) * 2016-05-31 2019-04-04 ソニー株式会社 プログラム、情報処理システム、情報処理方法、及びリーダライタ装置
WO2017208672A1 (ja) * 2016-05-31 2017-12-07 ソニー株式会社 プログラム、情報処理システム、情報処理方法、及びリーダライタ装置
JP2018163668A (ja) * 2018-05-14 2018-10-18 株式会社ユピテル 電子情報システム及びそのプログラム
JP7262643B1 (ja) 2022-04-01 2023-04-21 三菱電機株式会社 電力設備制御システム、サーバ装置、中央処理装置、電力設備制御方法および電力設備制御プログラム
JP2023152000A (ja) * 2022-04-01 2023-10-16 三菱電機株式会社 電力設備制御システム、サーバ装置、中央処理装置、電力設備制御方法および電力設備制御プログラム

Also Published As

Publication number Publication date
EP2400371A3 (en) 2015-04-08
US8756508B2 (en) 2014-06-17
EP2400371A2 (en) 2011-12-28
JP5601045B2 (ja) 2014-10-08
US20110320949A1 (en) 2011-12-29
EP2400371B1 (en) 2018-12-19
CN102298442A (zh) 2011-12-28

Similar Documents

Publication Publication Date Title
JP5601045B2 (ja) ジェスチャ認識装置、ジェスチャ認識方法およびプログラム
JP6635049B2 (ja) 情報処理装置、情報処理方法およびプログラム
CN110634483B (zh) 人机交互方法、装置、电子设备及存储介质
US9031847B2 (en) Voice-controlled camera operations
US10049665B2 (en) Voice recognition method and apparatus using video recognition
US11699442B2 (en) Methods and systems for speech detection
CN106971723B (zh) 语音处理方法和装置、用于语音处理的装置
CN103529934A (zh) 用于处理多个输入的方法和装置
US20070274591A1 (en) Input apparatus and input method thereof
CN105122353A (zh) 用于虚拟个人助理系统的自然人-计算机交互
JP6844608B2 (ja) 音声処理装置および音声処理方法
CN110322760B (zh) 语音数据生成方法、装置、终端及存储介质
CN108962241B (zh) 位置提示方法、装置、存储介质及电子设备
KR20200073733A (ko) 전자 장치의 기능 실행 방법 및 이를 사용하는 전자 장치
CN103888668A (zh) 在具有双相机的便携式终端中记录视频图像的方法和设备
JP2015153325A (ja) 情報処理装置、操作支援方法及び操作支援プログラム
JP7204804B2 (ja) スマートバックミラーのインタラクション方法、装置、電子機器及び記憶媒体
WO2016206647A1 (zh) 用于控制机器装置产生动作的系统
JP2013077925A (ja) 電子機器
CN113873165A (zh) 拍照方法、装置和电子设备
CN111816174A (zh) 语音识别方法、装置及计算机可读存储介质
CN111013138A (zh) 一种语音控制方法、装置、电子设备及存储介质
CN111160318A (zh) 电子设备控制方法及装置
KR102393774B1 (ko) 음성 인식 장치 및 그 제어방법
CN111968686B (zh) 录音方法、装置和电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130530

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140722

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140804

R151 Written notification of patent or utility model registration

Ref document number: 5601045

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250