JP2020086939A - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2020086939A
JP2020086939A JP2018220508A JP2018220508A JP2020086939A JP 2020086939 A JP2020086939 A JP 2020086939A JP 2018220508 A JP2018220508 A JP 2018220508A JP 2018220508 A JP2018220508 A JP 2018220508A JP 2020086939 A JP2020086939 A JP 2020086939A
Authority
JP
Japan
Prior art keywords
gesture
information processing
relative speed
point
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018220508A
Other languages
English (en)
Inventor
淳 入江
Atsushi Irie
淳 入江
健志 後藤
Kenji Goto
健志 後藤
優伍 佐藤
Yugo Sato
優伍 佐藤
純二 大塚
Junji Otsuka
純二 大塚
哲男 池田
Tetsuo Ikeda
哲男 池田
誠史 友永
Seishi Tomonaga
誠史 友永
英佑 藤縄
Eisuke Fujinawa
英佑 藤縄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2018220508A priority Critical patent/JP2020086939A/ja
Priority to PCT/JP2019/042092 priority patent/WO2020110547A1/ja
Priority to CN201980076051.3A priority patent/CN113168221A/zh
Priority to US17/294,486 priority patent/US11886643B2/en
Publication of JP2020086939A publication Critical patent/JP2020086939A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Abstract

【課題】操作体によるジェスチャをより高精度に認識することが可能な技術が提供されることが望まれる。【解決手段】操作体を時間軸に沿ってセンシングして得られたデータに基づいて、前記操作体の第1の点に対する前記操作体の第2の点の相対速度を算出する相対速度算出部と、前記相対速度に基づいて、前記操作体のジェスチャを認識するジェスチャ認識部と、を備える、情報処理装置が提供される。【選択図】図2

Description

本開示は、情報処理装置、情報処理方法およびプログラムに関する。
近年、操作対象のオブジェクトに複数のコマンドが関連付けられている場合に、操作体の動きに基づいて、オブジェクトに関連付けられた複数のコマンドから実行するコマンドを決定する技術が知られている。例えば、操作体の移動速度(絶対速度)に基づいて、オブジェクトに関連付けられた複数のコマンドから実行するコマンドを決定する技術が開示されている(例えば、特許文献1など)。
特開2012−58882号公報
しかし、操作体によるジェスチャをより高精度に認識することが可能な技術が提供されることが望まれる。
本開示によれば、操作体を時間軸に沿ってセンシングして得られたデータに基づいて、前記操作体の第1の点に対する前記操作体の第2の点の相対速度を算出する相対速度算出部と、前記相対速度に基づいて、前記操作体のジェスチャを認識するジェスチャ認識部と、を備える、情報処理装置が提供される。
本開示によれば、操作体を時間軸に沿ってセンシングして得られたデータに基づいて、前記操作体の第1の点に対する前記操作体の第2の点の相対速度を算出することと、プロセッサが、前記相対速度に基づいて、前記操作体のジェスチャを認識することと、を含む、情報処理方法が提供される。
本開示によれば、コンピュータを、操作体を時間軸に沿ってセンシングして得られたデータに基づいて、前記操作体の第1の点に対する前記操作体の第2の点の相対速度を算出する相対速度算出部と、前記相対速度に基づいて、前記操作体のジェスチャを認識するジェスチャ認識部と、を備える情報処理装置として機能させるためのプログラムが提供される。
公知の技術の改善すべき点について説明するための図である。 本開示の第1の実施形態に係る情報処理システムの機能構成例を示す図である。 同実施形態に係る情報処理システムの形態の第1の例を示す説明図である。 同実施形態に係る情報処理システムの形態の第2の例を示す説明図である。 同実施形態に係る情報処理システムの形態の第3の例を示す説明図である。 同実施形態に係る情報処理システムの形態の第4の例を示す説明図である。 3次元位置推定部によって3次元位置が推定されるユーザの身体の各点の例を示す図である。 3次元位置推定部によって3次元位置が推定されるユーザの身体の各点の例を示す図である。 3次元位置推定部によって3次元位置が推定されるユーザの身体の各点の例を示す図である。 3次元位置推定手法の概要を説明するための図である。 3次元位置推定手法の例について説明する。 3次元位置推定手法の例について説明する。 3次元位置推定手法の例について説明する。 本開示の第1の実施形態に係るジェスチャ認識について説明するための図である。 同実施形態に係る情報処理システムの動作例を示すフローチャートである。 本開示の第2、4〜7の実施形態に係る情報処理システムの機能構成例を示す図である。 同実施形態に係る情報処理システムの機能について説明するための図である。 同実施形態に係る情報処理システムの動作例を示すフローチャートである。 本開示の第3の実施形態に係る情報処理システムの機能構成例を示す図である。 同実施形態に係る情報処理システムの動作例を示すフローチャートである。 同実施形態に係る情報処理システムの機能について説明するための図である。 同実施形態に係る情報処理システムの機能について説明するための図である。 同実施形態に係る情報処理システムの動作例を示すフローチャートである。 本開示の第5の実施形態に係る情報処理システムの機能について説明するための図である。 同実施形態に係る情報処理システムの機能について説明するための図である。 同実施形態に係る情報処理システムの動作例を示すフローチャートである。 同実施形態に係る情報処理システムの機能について説明するための図である。 同実施形態に係る情報処理システムの機能について説明するための図である。 同実施形態に係る情報処理システムの動作例を示すフローチャートである。 同実施形態に係る情報処理システムの機能について説明するための図である。 同実施形態に係る情報処理システムの機能について説明するための図である。 同実施形態に係る情報処理システムの動作例を示すフローチャートである。 情報処理システムのハードウェア構成例を示すブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書および図面において、実質的に同一または類似の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合がある。ただし、実質的に同一または類似の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、類似する構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
なお、説明は以下の順序で行うものとする。
0.概要
1.第1の実施形態
1.1.情報処理システムの構成例
1.2.情報処理装置の構成例
1.3.情報処理システムの動作例
2.第2の実施形態
2.1.情報処理システムの構成例
2.2.情報処理システムの動作例
3.第3の実施形態
3.1.情報処理システムの構成例
3.2.情報処理システムの動作例
4.第4の実施形態
4.1.情報処理システムの構成例
4.2.情報処理システムの動作例
5.第5の実施形態
5.1.情報処理システムの構成例
5.2.情報処理システムの動作例
6.第6の実施形態
6.1.情報処理システムの構成例
6.2.情報処理システムの動作例
7.第7の実施形態
7.1.情報処理システムの構成例
7.2.情報処理システムの動作例
8.ハードウェア構成例
9.むすび
<0.概要>
近年、操作対象のオブジェクトに複数のコマンドが関連付けられている場合に、操作体の動きに基づいて、オブジェクトに関連付けられた複数のコマンドから実行するコマンドを決定する技術が知られている。例えば、操作体の移動速度(絶対速度)に基づいて、オブジェクトに関連付けられた複数のコマンドから実行するコマンドを決定する技術が開示されている。以下、図1を参照しながら、かかる公知の技術の改善すべき点について説明する。
図1は、公知の技術の改善すべき点について説明するための図である。図1を参照すると、操作体OPの例として、人差し指が示されている。また、公知の技術では、人指し指の指先の絶対速度に応じたコマンドが実行される。具体的には、操作対象のオブジェクトOBがピアノの鍵盤である場合、指先の絶対速度が閾値を上回る場合には、ピアノの音(以下、「ピアノ音」とも言う。)を出力するコマンドが実行される。一方、指先の絶対速度が閾値を下回る場合には、ピアノ音を出力するコマンドが実行されない。
ここで、図1に示されるように、ユーザがキー入力を行おうとし、入力キーを変更するために紙面の右方向に絶対速度V1で掌を移動させながら、キー入力を行うために掌に対する指先の相対速度V2で指先を下方向に移動させた場合を想定する。このとき、指先の絶対速度V12は、掌の絶対速度V1と掌に対する指先の相対速度V2とが合成された速度になってしまう。すなわち、公知の技術では、入力キーの変更による速度成分も考慮してキー入力があったかが判定されてしまうため、キー入力(操作体によるジェスチャ)を高精度に認識することが困難である。
そこで、本明細書では、操作体の第1の点(以下、「基準点」とも言う。)に対する操作体の第2の点(以下、「操作点」とも言う。)の相対速度(図1に示された例では、掌に対する指先の相対速度V2)に基づいて、操作体によるジェスチャ(図1に示された例では、キー入力)を認識する技術を提案する。これによって、操作体によるジェスチャをより高精度に認識することが可能となる。なお、操作体の種類は、後にも説明するように人差し指に限定されず、他の指であってもよいし、ユーザの身体の指以外の部位であってもよいし、ユーザの身体以外であってもよい。
以上、本開示の実施形態の概要について説明した。
<1.第1の実施形態>
[1.1.情報処理システムの構成例]
続いて、図面を参照しながら、本開示の第1の実施形態に係る情報処理システムの構成例について説明する。図2は、本開示の第1の実施形態に係る情報処理システムの機能構成例を示す図である。図2に示されたように、情報処理システム100は、入力部120と、出力部130とを備える。また、情報処理システム100は、情報処理装置140(コンピュータ)を備え、情報処理装置140は、3次元位置推定部121、フレーム数判定部122、相対速度/相対位置算出部123、ジェスチャ認識部124、コマンド実行部125および記憶部128を備える。
入力部120は、入力装置を含んで構成され、操作体(より具体的には、操作体の一部または全部の形状、動きなど)を、時間軸に沿ってセンシングすることによってデータ(入力情報)を取得する。本開示の第1の実施形態では、入力部120は、ユーザの身体の形状、動きなどを入力情報の例として受け付ける。しかし、上記したように、操作体の種類は、ユーザの身体に限定されない。また、入力部120によって取得される入力情報は、2次元データであってもよいし、3次元データであってもよい。
具体的に、入力部120は、画像センサおよびデプスセンサを含んで構成されてよい。しかし、入力部120は、これらのセンサすべてを含んで構成されていなくてもよく、これらのセンサの少なくとも一つを含んで構成されていてもよい。あるいは、入力部120は、タッチセンサを含んでもよい。以下では、操作体の形状、動きなどが、画像センサによって取得される場合を主に想定する。しかし、これらの情報がどのセンサによって取得されるかは限定されない。
なお、画像センサとしては、可視光カメラが用いられてもよいし、赤外線カメラが用いられてもよい。デプスセンサとしては、ステレオカメラが用いられてもよいし、TOF(Time Of Flight)センサが用いられてもよいし、Structured Light方式による距離画像センサが用いられてもよい。タッチセンサは、上方または下方から撮影を行うカメラであってもよいし、投影面に敷かれたタッチパネルであってもよい。
出力部130は、出力装置を含んで構成され、コマンド実行部125によって実行されるコマンドに従って情報を出力する。以下では、出力部130がプロジェクタを含んで構成され、プロジェクタが投影面に情報を投影することによって情報を出力する場合を主に想定する。しかし、出力部130は、プロジェクタを含む場合に限定されない。例えば、出力部130は、タッチパネル式のディスプレイであってもよいし、LCD(Liquid Crystal Display)、有機EL(Electro−Luminescence)ディスプレイなどであってもよい。
出力部130によって情報が出力される面は、表示面に相当し得る。特に、出力装置としてプロジェクタが使用される場合には、表示面はプロジェクタによって情報が投影される投影面(例えば、テーブル面)に相当し得る。以下の説明においては、表示面として投影面が用いられる場合を主に想定するが、表示面は投影面に限定されない。また、プロジェクタによって情報が投影される領域は、テーブル面に限定されない。例えば、プロジェクタによって情報が投影される領域は、床面であってもよいし、壁面であってもよいし、物体などであってもよい。
情報処理装置140の詳細については後に詳細に説明する。ここで、本開示の第1の実施形態に係る情報処理システム100は、様々な形態をとり得る。以下では、本開示の第1の実施形態に係る情報処理システム100の形態の例として、第1の例から第4の例までを説明する。しかし、本開示の第1の実施形態に係る情報処理システム100の形態は、第1の例から第4の例までのいずれかに限定されない。
図3は、本開示の第1の実施形態に係る情報処理システム100の形態の第1の例を示す説明図である。図3に示されたように、第1の例としての情報処理システム100aは、入力部120aと出力部130aとを含んで構成される。情報処理システム100aは、テーブル110aの天面に情報を表示し、テーブル110aに表示した情報に対してユーザに操作をさせる。このように、テーブル110aの天面に情報を表示する方式を「プロジェクション型」とも称する。
入力部120aは、ユーザによる操作や、テーブル110aに置かれている物体の形状や模様などを入力情報として受け付ける。図3に示された例では、入力部120aが、テーブル110aの上方に、天井から吊り下げられた状態で設けられている。このように、テーブル110aの上方から情報を出力部130aによって照射し、テーブル110aの天面に情報を表示する方式を「上方プロジェクション型」とも称する。入力部120aとしては、1つのレンズでテーブル110aを撮像するカメラが用いられてもよいし、2つのレンズでテーブル110aを撮像して奥行き方向の情報を記録することが可能なステレオカメラが用いられてもよいし、ユーザが発する音声や環境音を収音するためのマイクロフォンが用いられてもよい。
入力部120aとして、1つのレンズでテーブル110aを撮像するカメラが用いられる場合、情報処理システム100aは、そのカメラが撮像した画像を解析することによって、テーブル110aに置かれた物体を認識することができる。また、入力部120aとしてステレオカメラが用いられる場合、情報処理システム100aは、ステレオカメラによって取得された深度情報に基づいて、テーブル110aの上に置かれた物体(手など)の認識が可能になる。また、情報処理システム100aは、深度情報に基づいて、テーブル110aへのユーザの手の接触やテーブル110aからの手の離脱の認識が可能である。
また、入力部120aとしてマイクロフォンが用いられる場合、そのマイクロフォンは特定の方向の音声を収音するためのマイクロフォンアレイが用いられ得る。入力部120aとしてマイクロフォンアレイが用いられる場合、情報処理システム100aは、マイクロフォンアレイの収音方向を任意の方向に調整してもよい。
出力部130aは、入力情報に応じて、テーブル110aに情報を表示したり、音声を出力したりする。出力部130aとしては、プロジェクタやスピーカ等が用いられ得る。図3に示された例では、出力部130aは、テーブル110aの上方に、天井から吊り下げられた状態で設けられている。出力部130aがプロジェクタで構成される場合、出力部130aは、テーブル110aの天面に情報を投影する。出力部130aがスピーカで構成される場合、出力部130aは、音声信号に基づいて音声を出力する。このとき、スピーカの数は1つであってもよく、複数であってもよい。出力部130aが複数のスピーカで構成される場合、情報処理システム100aは、音声を出力するスピーカを限定したり、音声を出力する方向を調整したりしてもよい。
また、本開示の第1の実施形態に係る情報処理システム100が、図3に示されたようなプロジェクション型の情報処理システム100aである場合、出力部130aには、照明機器が含まれていてもよい。出力部130aに照明機器が含まれる場合、情報処理システム100aは、入力部120aによって受け付けられた入力情報の内容に基づいて、照明機器の点灯、消灯等の状態を制御してもよい。また、本開示の第1の実施形態に係る情報処理システム100が、図3に示されたような上方プロジェクション型の情報処理システム100aである場合、テーブル110aだけではなく、テーブル110aの上に置かれた物体にも情報を表示することも可能である。
ユーザは、出力部130aがテーブル110aに表示する情報に対して、指などによって各種の操作を行うことができる。また、ユーザは、テーブル110aに物体を置き、入力部120aに物体を認識させることによって、情報処理システム100aに、その物体に関する種々の処理を実行させることが可能である。
図4は、本開示の第1の実施形態に係る情報処理システム100の形態の第2の例を示す説明図である。図4に示されたように、第2の例としての情報処理システム100bは、出力部130aによってテーブル110bの下方から情報を照射することによって、テーブル110bの天面に情報を表示する。テーブル110bの天面は、ガラス板やプラスチック板等の半透明な材質によって形成される半透過スクリーンであってよい。このように、テーブル110bの下方から情報を出力部130aによって照射し、テーブル110bの天面に情報を表示する方式を「リアプロジェクション型」とも称する。
なお、図4に示された例では、テーブル110bの表面に入力部120bが設けられる構成が示されている。しかし、入力部120bが設けられる位置は限定されない。例えば、図4に示された情報処理システム100aと同様に、入力部120bは、テーブル110bの下方にテーブル110bとは離隔して設けられてもよい。
図5は、本開示の第1の実施形態に係る情報処理システム100の形態の第3の例を示す説明図である。図5に示されたように、第3の例としての情報処理システム100cは、タッチパネル式のディスプレイがテーブル上に置かれて構成される。このように、テーブル上に置かれたタッチパネル式のディスプレイによって情報を表示する方式を「平置きディスプレイ型」とも称する。入力部120cおよび出力部130cは、タッチパネル式のディスプレイとして構成され得る。図5に示された情報処理システム100cでは、図3に示された情報処理システム100aと同様に、タッチパネル式のディスプレイの上方に、ユーザの位置を検出するためのカメラが設けられてもよい。
図6は、本開示の第1の実施形態に係る情報処理システム100の形態の第4の例を示す説明図である。図6に示されたように、第4の例としての情報処理システム100dは、アイウェア型端末によって構成される。入力部120dは、ユーザの視野を撮像可能なカメラによって構成され、撮像によって得た画像を入力情報として受け付け得る。また、出力部130dは、入力情報に応じた情報をユーザの視野に提示するディスプレイとして構成され得る。例えば、出力部130dは、透過型のディスプレイによって構成され、ユーザは、出力部130dを通して外部環境を視認可能である。
なお、以下の説明では、本開示の第1の実施形態に係る情報処理システム100の形態として、図3に示された第1の例が用いられる場合を主に想定する。すなわち、テーブル110aの上方に、テーブル110a(情報の表示面)から離隔して、入力部120aおよび出力部130aが設けられる場合を主に想定する。そこで、以下の説明では、情報処理システム100a、入力部120aおよび出力部130aを、単に、情報処理システム100、入力部120および出力部130としても称する。しかし、上記したように、本開示の第1の実施形態に係る情報処理システム100の形態は、限定されない。
以上、本開示の第1の実施形態に係る情報処理システム100の構成例について説明した。
[1.2.情報処理装置の構成例]
図2に戻って説明を続ける。続いて、情報処理装置140の構成例について説明する。情報処理装置140は、3次元位置推定部121、フレーム数判定部122、相対速度/相対位置算出部123、ジェスチャ認識部124およびコマンド実行部125を備える。これらのブロックは、例えば、1または複数のCPU(Central Processing Unit)などといった処理装置によって構成される。これらのブロックが、CPUなどといった処理装置によって構成される場合、かかる処理装置は電子回路によって構成されてよい。
3次元位置推定部121は、入力部120によって取得された入力情報に基づいて、操作体の各点の例として、ユーザの身体の各点の3次元位置を推定する。ユーザの身体の各点は、ユーザの手の各点(例えば、指における所定の点、掌における所定の点など)、手首における所定の点(例えば、手首位置)、肘における所定の点(例えば、肘関節位置)などを含み得る。以下、3次元位置推定部121によって推定されるユーザの身体の各点の例として、ユーザの手の各点、手首位置および肘関節位置について説明する。しかし、ユーザの身体の各点は、肩における所定の点(例えば、肩関節位置)なども含み得る。
なお、以下の説明では、特に断りがない限り、操作体の例として用いられる「指」は人さし指を意味する。しかし、操作体の例として用いられる「指」は、人さし指以外の指であってもよい。また、特に断りがない限り、親指の関節は、親指の先端から二つ目の関節(親指の付け根)を意味し、親指以外の指(すなわち、人さし指、中指、薬指および小指)の関節は、当該指の先端から二つ目の関節を意味する。しかし、親指の関節は、親指の先端から一つ目の関節を意味してもよく、親指以外の関節は、指の先端から一つ目の関節を意味してもよいし、指の先端から三つ目の関節(指の付け根)を意味してもよい。
図7〜図9は、3次元位置推定部121によって3次元位置が推定されるユーザの身体の各点の例を示す図である。図7〜図9を参照すると、ユーザの身体の各点の例として、小指の先端位置P1、小指の関節位置P2、薬指の先端位置P3、薬指の関節位置P4、中指の先端位置P5、中指の関節位置P6、人さし指の先端位置P7、人さし指の関節位置P8、親指の先端位置P9、親指の先端から一つ目の関節位置P10、親指の先端から二つ目の関節位置P11、手首位置(小指側)P12、手首位置(親指側)P13、手の中心位置P14、肘関節位置P15、上腕の付け根位置P16が示されている。
本開示の第1の実施形態においては、3次元位置推定部121によって位置P1〜P16すべてが原則として取得される場合を主に想定する。しかし、3次元位置推定部121によって、位置P1〜P16の一部のみが取得されてもよい。また、入力部120とユーザとの位置関係によっては、位置P1〜P16の一部が取得されない場合なども想定される。例えば、上腕の付け根位置P16が直接取得されない場合もあり得る。かかる場合であっても、肘関節位置P15と上腕の付け根位置P16との間のいずれかの位置が取得されれば、当該位置を上腕の付け根位置P16の代わりに用いることが可能である。
なお、手の中心位置P14は、5本の指それぞれの付け根と手首との間(すなわち、掌)における所定の位置であれば特に限定されない。例えば、手の中心位置P14は、複数点の重心位置であってもよい。また、手首位置(小指側)P12は、手首位置として得られる2つの位置のうち、より親指に近い位置であればよく、手首位置(親指側)P13は、手首位置として得られる2つの位置のうち、より小指に近い位置であればよい。手首位置(小指側)P12および手首位置(親指側)P13それぞれも、各位置の検出アルゴリズムなどに応じて適宜に変更されてよい。
次に、3次元位置推定部121により行われる3次元位置推定手法について説明する。図10は、3次元位置推定手法の概要を説明するための図である。ここでは、手の各点の3次元位置が推定される場合について主に説明する。しかし、上記したように、手の各点以外の3次元位置も推定され得る。例えば、入力部120によって、手でコーヒーカップを掴む画像(画像IM1)が取得された場合を想定する。このとき、3次元位置推定部121によって、画像IM1に基づいて、特徴量が算出される。特徴量としては、CNN(Convolutional Neural Network)に基づく特徴量、HOG(Histograms of Oriented Gradients)特徴量、SIFT(Scale Invariant Feature Transform)に基づく特徴量を挙げることができる。
次に、図11〜図13を参照して、3次元位置推定手法の例について説明する。図11に示すグラフの横軸は、入力画像の例を示している。図11に示す例では、3個の入力画像IM5、IM6及びIM7が示されている。図11に示すグラフの縦軸は、入力画像に対応する手の特徴点の座標(位置)である。座標は、(xt,t,)(但し、tはフレーム番号)として示されている。また、例えば、xは、x=(xt0,xt1・・・xtn)(但し、nは特徴点の点数)で表される。即ち、xは、各特徴点のx座標の集合を示している。各特徴点のyt,についても同様である。
3次元位置推定部121は、入力画像に対する手の特徴点の座標を所定のアルゴリズムを用いて学習することにより、図12に示すように、入力画像と手の各点の座標との相関関係を求めることができる。アルゴリズムとしては、上述したCNN、ブースティング(Boosting)、SVM(Support Vector Machine)、Graph Cut等を適用することができる。なお、図12に示す例では、入力画像と手の各点の座標との相関関係の例として、線形の相関関係が示されている。しかし、入力画像と手の各点の座標との相関関係は、他の相関関係(例えば、非線形など)であってもよい。
3次元位置推定部121は、入力画像と手の各点の座標との相関関係を求めた後、図13に示すように、画像IM8が入力された場合には、当該相関関係に基づいて、画像IM8の手の座標位置を推定することができる。以上に説明した3次元位置推定手法を用いて、3次元位置推定部121によって、手の各点の位置が推定されるようにしてもよい。なお、ここでは入力画像に対する手の特徴点の座標が学習される場合を想定したが、学習前に入力画像から特徴量が抽出される場合には、特徴量に対する手の特徴点の座標が学習されてもよい。
図2に戻って説明を続ける。3次元位置推定部121は、推定した操作体の各点の3次元位置情報(上記では、ユーザの手の各点の3次元位置情報)を記憶部128に記憶させる。フレーム数判定部122は、所定のフレーム数に相当する3次元位置情報が3次元位置推定部121によって得られたか(すなわち、所定のフレーム数に相当する3次元位置情報が記憶部128に保存されたか)を判定する。所定のフレーム数は特に限定されず、2以上であればよい。
相対速度/相対位置算出部123は、フレーム数判定部122によって、所定のフレーム数に相当する3次元位置情報が得られたと判定されると、記憶部128によって記憶されている操作体の各点の3次元位置情報に基づいて、操作体の各点の絶対位置を算出する。そして、相対速度/相対位置算出部123は、操作体の各点の絶対位置に基づいて、操作体の基準点に対する操作体の操作点の相対位置を算出する。なお、本明細書においては、相対位置が3次元ベクトルである場合を主に想定する。しかし、相対位置は2次元ベクトルであってもよいし、スカラであってもよい。
あるいは、相対速度/相対位置算出部123は、操作体の各点の3次元位置の時間方向の変化に基づいて、各点の絶対速度を算出する。そして、相対速度/相対位置算出部123は、各点の絶対速度に基づいて、操作体の基準点に対する操作体の操作点の相対速度を算出する。具体的に、操作点の相対速度を「V(操作点の相対速度)」とし、操作点の絶対速度を「V(操作点の絶対速度)」とし、基準点の絶対速度を「V(基準点の絶対速度)」とすると、V(操作点の相対速度)は、V(操作点の絶対速度)とV(基準点の絶対速度)とに基づいて、以下の式(1)に示すように算出され得る。
V(操作点の相対速度)=V(操作点の絶対速度)−V(基準点の絶対速度)…(1)
なお、本明細書においては、相対速度が3次元ベクトルである場合を主に想定する。しかし、相対位置は2次元ベクトルであってもよいし、スカラであってもよい。ジェスチャ認識部124は、相対速度/相対位置算出部123によって算出された操作体の基準点に対する操作点の相対位置または相対速度に基づいて、操作体のジェスチャを認識する。これによって、操作体によるジェスチャをより高精度に認識することが可能となる。
より具体的には、ジェスチャ認識部124は、基準点に対する操作点の相対位置または相対速度が閾値を上回る場合に、第1のジェスチャを認識する。一方、ジェスチャ認識部124は、基準点に対する操作点の相対位置または相対速度が閾値以下である場合に、第1のジェスチャとは異なる第2のジェスチャを認識する。なお、基準点に対する操作点の相対位置または相対速度が閾値と等しい場合には、第1のジェスチャが認識されてもよい。また、相対位置または相対速度がベクトル(2次元ベクトルまたは3次元ベクトル)である場合、閾値と比較される相対位置または相対速度は、ベクトルの長さに置き換えられればよい。
図14は、本開示の第1の実施形態に係るジェスチャ認識について説明するための図である。図14に示した例においても、図1に示した例と同様に、ユーザがキー入力を行おうとし、入力キーを変更するために紙面の右方向に絶対速度V1で掌を移動させながら、キー入力を行うために掌に対する指先の相対速度V2で指先を下方向に移動させた場合を想定する。このとき、図1に示した例と同様に、指先の絶対速度V12は、掌の絶対速度V1と掌に対する指先の相対速度V2とが合成された速度になってしまう。しかし、本開示の第1の実施形態に係るジェスチャ認識では、入力キーの変更による速度成分が除外されてキー入力があったかが判定されるため、キー入力(操作体によるジェスチャ)を高精度に認識することが可能である。
なお、以下では、ジェスチャ認識部124が、操作体の基準点に対する操作点の相対速度に基づいて操作体のジェスチャを認識する場合を主に想定する。しかし、ジェスチャ認識部124は、操作体の基準点に対する操作点の相対位置および相対速度の少なくともいずれか一方に基づいて、操作体のジェスチャを認識すればよい。
コマンド実行部125は、ジェスチャ認識部124によって認識されたジェスチャに対応するコマンドを決定するコマンド決定部として機能し得る。また、コマンド実行部125は、決定したコマンドを実行する。ここで、コマンド実行部125によって実行されるコマンドの種類は限定されない。例えば、コマンド実行部125によって実行されるコマンドの種類は、情報処理装置140において実行されるアプリケーションに応じて適宜に変更されてよい。
以上、本開示の第1の実施形態に係る情報処理装置140の構成例について説明した。
[1.3.情報処理システムの動作例]
続いて、本開示の第1の実施形態に係る情報処理システム100の動作例について説明する。図15は、本開示の第1の実施形態に係る情報処理システム100の動作例を示すフローチャートである。入力部120は、操作体の例としてのユーザの手を時間軸に沿ってセンシングすることによって画像を入力(取得)する(S11)。3次元位置推定部121は、入力部120によって得られた画像に基づいて手の各点の3次元位置を推定する(S12)。なお、3次元位置推定部121によって3次元位置が推定される各点は、上記したように、ユーザの手の各点に限定されない。
続いて、3次元位置推定部121は、手の3次元位置を記憶部128に保存する(S13)。フレーム数判定部122は、指定フレーム数(所定のフレーム数)に相当する3次元位置情報が3次元位置推定部121によって得られたかを判定する(S14)。フレーム数判定部122は、指定フレーム数(所定のフレーム数)に相当する3次元位置情報が3次元位置推定部121によって得られていない場合(S14において「No」)、S11に戻る。一方、フレーム数判定部122は、指定フレーム数(所定のフレーム数)に相当する3次元位置情報が3次元位置推定部121によって得られた場合(S14において「Yes」)、S15に動作を移行させる。
相対速度/相対位置算出部123は、記憶部128によって記憶されている手の各点の3次元位置情報に基づいて、手の各点の絶対位置を算出する。そして、相対速度/相対位置算出部123は、手の各点の絶対位置に基づいて、手の基準点に対する手の操作点の相対位置を算出する。あるいは、相対速度/相対位置算出部123は、手の各点の3次元位置の時間方向の変化に基づいて、各点の絶対速度を算出する。そして、相対速度/相対位置算出部123は、各点の絶対速度に基づいて、手の基準点に対する手の操作点の相対速度を算出する(S15)。
続いて、ジェスチャ認識部124は、相対速度/相対位置算出部123によって算出された操作体の基準点に対する操作点の相対位置または相対速度に基づいて、手のジェスチャを認識する(S16)。これによって、手によるジェスチャをより高精度に認識することが可能となる。より具体的には、ジェスチャ認識部124は、基準点に対する操作点の相対位置または相対速度が閾値を上回る場合に、第1のジェスチャを認識する。一方、ジェスチャ認識部124は、基準点に対する操作点の相対位置または相対速度が閾値以下である場合に、第1のジェスチャとは異なる第2のジェスチャを認識する。なお、操作体の基準点に対する操作点の相対位置または相対速度が閾値と等しい場合には、第1のジェスチャが認識されてもよい。
続いて、コマンド実行部125は、ジェスチャ認識部124によって認識されたジェスチャに対応するコマンドを決定する。そして、コマンド実行部125は、ジェスチャ認識部124によって認識されたジェスチャに対応するコマンドを実行する(S17)。上記したように、コマンド実行部125によって実行されるコマンドの種類は、情報処理装置140において実行されるアプリケーションに応じて適宜に変更されてよい。
以上、本開示の第1の実施形態に係る情報処理システム100の動作例について説明した。
<2.第2の実施形態>
[2.1.情報処理システムの構成例]
続いて、本開示の第2の実施形態に係る情報処理システムの構成例について説明する。図16は、本開示の第2、4〜7の実施形態に係る情報処理システムの機能構成例を示す図である。
図16に示されたように、本開示の第2の実施形態に係る情報処理システム100Aの情報処理装置140Aは、本開示の第1の実施形態に係る情報処理システム100の情報処理装置140と比較して、相対位置/相対速度算出部123、ジェスチャ認識部124、コマンド実行部125の代わりに、相対速度算出部123A、ジェスチャ認識部124A、コマンド実行部125Aを備える点が異なっている。したがって、以下の説明では、相対速度算出部123A、ジェスチャ認識部124A、コマンド実行部125Aについて主に説明し、本開示の第2の実施形態に係る情報処理システム100Aが備える他の構成についての詳細な説明は省略する。
図17は、本開示の第2の実施形態に係る情報処理システム100Aの機能について説明するための図である。図17に示されるように、本開示の第2の実施形態においては、情報処理装置140Aが、ユーザによる操作に基づいてピアノ音を出力するアプリケーションを実行する場合を想定する。すなわち、本開示の第2の実施形態では、操作体OPはユーザの手であり、オブジェクトOBはピアノの鍵盤である場合を想定する。しかし、上記したように、操作体OPはユーザの手に限定されない。
また、ここでは、オブジェクトOBが出力部130によって表示された仮想オブジェクトである場合を想定する。しかし、オブジェクトOBは、仮想オブジェクトに限定されず、実オブジェクトであってもよい。さらに、ここでは、操作体OPの基準点が、掌における所定の点(ここでは、手の中心位置)であり、操作体OPの操作点が、指先である場合を想定する。しかし、上記したように、手の中心位置も特定の位置に限定されない。
相対速度算出部123Aは、フレーム数判定部122によって、所定のフレーム数に相当する3次元位置情報が得られたと判定されると、操作体の各点の絶対速度に基づいて、操作体の基準点に対する操作体の操作点の相対速度を算出する。ここでは、相対速度算出部123Aが、手中心に対する指先の相対速度を算出する場合を想定する。すなわち、本開示の第2の実施形態においては、3次元位置推定部121によって、手中心および指先それぞれの3次元位置が推定されればよい。
ジェスチャ認識部124Aは、相対速度算出部123Aによって算出された基準点に対する操作点の相対速度に基づいて、操作体のジェスチャを認識する。ここでは、ジェスチャ認識部124Aは、手中心に対する指先の相対速度が閾値を上回る場合に、第1のジェスチャとしてオブジェクトOBに対する指先でのタッチを認識する。例えば、ジェスチャ認識部124Aは、手中心に対する指先の所定方向(例えば、下方向)への相対速度が閾値を上回る場合に、第1のジェスチャとしてオブジェクトOBに対する指先でのタッチ(ここでは、キー入力)を認識する。一方、ジェスチャ認識部124Aは、手中心に対する指先の相対速度が閾値以下である場合に、第2のジェスチャとしてオブジェクトOBに対する指先での非タッチを認識する。
図17に示した例においても、図1に示した例と同様に、ユーザがキー入力を行おうとし、入力キーを変更するために紙面の右方向に絶対速度V1で掌を移動させながら(操作体OP−1〜OP−3)、キー入力を行うために掌に対する指先の相対速度V2で指先を下方向に移動させた場合を想定する。このとき、図1に示した例と同様に、指先の絶対速度V12は、掌の絶対速度V1と掌に対する指先の相対速度V2とが合成された速度になってしまう。しかし、本開示の第2の実施形態に係るジェスチャ認識では、入力キーの変更による速度成分が除外されてキー入力があったかが判定されるため、キー入力を高精度に認識することが可能である。
コマンド実行部125Aは、ジェスチャ認識部124Aによって認識されたジェスチャに対応するコマンドを実行する。ここで、コマンド実行部125Aによって実行されるコマンドの種類は限定されない。ここで、指先でのオブジェクトOBに対するタッチに対応するコマンドは、指先によってタッチされたオブジェクトOBに対応する音を出力するコマンドを含んでよい。すなわち、コマンド実行部125Aは、オブジェクトOBに対する指先でのタッチが認識された場合、指先によってタッチされたオブジェクトOBに対応する音を出力部130から出力するコマンドを実行してよい。
コマンド実行部125Aは、手中心に対する指先の所定方向への相対速度が閾値を上回る場合、常に同じ音量の音を出力させてもよいが、手中心に対する指先の所定方向への相対速度に応じて音量(例えば、初音の音量)を調整してもよい。例えば、コマンド実行部125Aは、手中心に対する指先の所定方向への相対速度が閾値を上回る場合、手中心に対する指先の所定方向への相対速度が大きくなるほど、音量を大きくしてもよい。これによって、大きい音を出力させたいときほど、強くオブジェクトOBにタッチするユーザの動きに即した音量調整が可能になる。
ここで、手中心に対する指先の所定方向への相対速度と音量との関係は一定であってもよいし、適宜に変更可能であってもよい。例えば、手中心に対する指先の所定方向への相対速度と音量との関係は、アプリケーションにおける設定によって変更可能であってもよいし、個人ごとの学習によって変更可能であってもよい。例えば、相対速度が平均的に小さいユーザほど音量が平均的に大きくなるように、手中心に対する指先の所定方向への相対速度と音量との関係が決められてもよい。
また、手中心に対する指先の所定方向への相対速度と比較される閾値は一定であってもよいし、適宜に変更可能であってもよい。例えば、手中心に対する指先の所定方向への相対速度と比較される閾値は、アプリケーションにおける設定によって変更可能であってもよいし、個人ごとの学習によって変更可能であってもよい。例えば、相対速度が平均的に小さいユーザほど閾値が小さくなるように、閾値が決められてもよい。
以上、本開示の第2の実施形態に係る情報処理システム100Aの構成例について説明した。
[2.2.情報処理システムの動作例]
続いて、本開示の第2の実施形態に係る情報処理システム100Aの動作例について説明する。図18は、本開示の第2の実施形態に係る情報処理システム100Aの動作例を示すフローチャートである。図18に示したS11〜S14は、本開示の第1の実施形態に係る情報処理システム100の動作例(図15に示したS11〜S14)と同様に実行されてよい。ただし、本開示の第2の実施形態においては、3次元位置推定部121は、手中心および指先それぞれの3次元位置が推定すればよい。
相対速度算出部123Aは、手の各点の3次元位置の時間方向の変化に基づいて、各点の絶対速度を算出する。そして、相対速度算出部123Aは、各点の絶対速度に基づいて、手の基準点に対する手の操作点の相対速度を算出する。本開示の第2の実施形態においては、相対速度算出部123Aは、手中心の絶対速度と指先の絶対速度とに基づいて、手中心に対する指先の相対速度を算出する(S15A)。
続いて、ジェスチャ認識部124Aは、相対速度算出部123Aによって算出された操作体の基準点に対する操作点の相対速度に基づいて、操作体のジェスチャを認識する。より具体的には、ジェスチャ認識部124Aは、手中心に対する指先の相対速度が閾値を上回る場合に(S16Aにおいて「No」)、第1のジェスチャの例としてオブジェクトOBへのタッチを認識し、S172Aに動作を移行させる。一方、ジェスチャ認識部124Aは、手中心に対する指先の相対速度が閾値以下である場合に(S16Aにおいて「Yes」)、第1のジェスチャとは異なる第2のジェスチャの例としてオブジェクトOBへの非タッチを認識し、S171Aに動作を移行させる。なお、手中心に対する指先の相対速度が閾値と等しい場合には、第1のジェスチャが認識されてもよい。
続いて、コマンド実行部125Aは、ジェスチャ認識部124Aによって認識されたジェスチャに対応するコマンドを実行する。コマンド実行部125Aは、ジェスチャ認識部124AによってオブジェクトOBへのタッチが認識された場合、指先の位置に応じたピアノ音(指先の位置のキーに対応するピアノ音)を鳴らす(出力させる)コマンドを実行する(S172A)。一方、コマンド実行部125Aは、ジェスチャ認識部124AによってオブジェクトOBへの非タッチが認識された場合、ピアノ音を鳴らさない(出力させない)(S171A)。
以上、本開示の第2の実施形態に係る情報処理システム100Aの動作例について説明した。
<3.第3の実施形態>
[3.1.情報処理システムの構成例]
続いて、本開示の第3の実施形態に係る情報処理システムの構成例について説明する。図19は、本開示の第3の実施形態に係る情報処理システムの機能構成例を示す図である。
図19に示されたように、本開示の第3の実施形態に係る情報処理システム100Bの情報処理装置140Bは、本開示の第2の実施形態に係る情報処理システム100Aの情報処理装置140と比較して、モード選択部126を備える点が異なっている。したがって、以下の説明では、モード選択部126について主に説明し、本開示の第3の実施形態に係る情報処理システム100Bが備える他の構成についての詳細な説明は省略する。
本開示の第3の実施形態においては、モード選択部126がモードを選択する。ここでモードは、相対位置算出手法を決めるために使用されてよく、アプリケーションごとに決められてもよいし、1つのアプリケーションの中の互いに異なる複数のモードのいずれかが選択されてもよい。
相対速度算出部123Aは、入力部120によって得られた画像に基づいて、モードに応じた相対速度を算出する。これによって、モードに応じた相対速度が算出される。具体的には、モード選択部126は、モードに応じて基準点および操作点を決めてもよい。例えば、モード選択部126は、ユーザによる操作に基づいてピアノ音を出力するアプリケーションが実行される場合には、基準点を手中心に決定し、操作点を指先に決定してもよい。
ジェスチャ認識部124Aは、相対速度算出部123Aによって算出された相対速度に基づいて、モードに応じたジェスチャを認識する。これによって、モードに応じたジェスチャが認識される。コマンド実行部125Aは、ジェスチャ認識部124Aによって認識されたジェスチャに基づいて、モードに応じたコマンドを実行する。これによって、モードに応じたコマンドが実行される。なお、上記では、モードに応じた相対速度が算出される場合を主に想定した。しかし、相対速度の算出手法は、他の情報に基づいて決められてもよい。
以上、本開示の第3の実施形態に係る情報処理システム100Aの構成例について説明した。
[3.2.情報処理システムの動作例]
続いて、本開示の第3の実施形態に係る情報処理システム100Bの動作例について説明する。図20は、本開示の第3の実施形態に係る情報処理システム100Bの動作例を示すフローチャートである。モード選択部126は、相対位置算出手法を決めるために使用されモードを選択する(S18)。例えば、モード選択部126は、モードに対応する基準点および操作点を設定する。ここでは、基準点として手中心が設定され、操作点として指先が設定される場合を想定する。S11以降は、本開示の第2の実施形態に係る情報処理システム100Aの動作例(図18に示したS11以降)と同様に実行されてよい。
以上、本開示の第3の実施形態に係る情報処理システム100Bの動作例について説明した。
<4.第4の実施形態>
[4.1.情報処理システムの構成例]
続いて、本開示の第4の実施形態に係る情報処理システムの構成例について説明する。
図16に示されたように、本開示の第4の実施形態に係る情報処理システム100Cの情報処理装置140Cは、本開示の第2の実施形態に係る情報処理システム100Aの情報処理装置140Aと比較して、ジェスチャ認識部124A、コマンド実行部125Aの代わりに、ジェスチャ認識部124C、コマンド実行部125Cを備える点が異なっている。したがって、以下の説明では、ジェスチャ認識部124C、コマンド実行部125Cについて主に説明し、本開示の第4の実施形態に係る情報処理システム100Cが備える他の構成についての詳細な説明は省略する。
図21および図22は、本開示の第4の実施形態に係る情報処理システム100Cの機能について説明するための図である。図21および図22に示されるように、本開示の第4の実施形態においては、情報処理装置140Cが、ユーザによる操作に基づいてゲームアプリケーションを実行する場合を想定する。すなわち、本開示の第4の実施形態では、操作体OPはユーザの手である場合を想定する。しかし、上記したように、操作体OPはユーザの手に限定されない。
また、ここでは、オブジェクトOBが出力部130によって表示された仮想オブジェクトである場合を想定する。しかし、オブジェクトOBは、仮想オブジェクトに限定されず、実オブジェクトであってもよい。さらに、ここでは、操作体OPの基準点が、掌における所定の点(ここでは、手の中心位置)であり、操作体OPの操作点が、指先である場合を想定する。しかし、上記したように、手の中心位置も特定の位置に限定されない。
ジェスチャ認識部124Cは、相対速度算出部123Aによって算出された基準点に対する操作点の相対速度に基づいて、操作体のジェスチャを認識する。ここでは、ジェスチャ認識部124は、手中心に対する指先の相対速度が閾値を上回る場合に、第1のジェスチャとしてオブジェクトOBに対する指先でのタッチを認識する。例えば、ジェスチャ認識部124Cは、手中心に対する指先の相対速度が閾値を上回る場合に、第1のジェスチャとしてオブジェクトOBに対する指先によるタッチを認識する。一方、ジェスチャ認識部124Cは、手中心に対する指先の相対速度が閾値以下である場合に、第2のジェスチャとしてオブジェクトOBに対する手(または掌)によるタッチを認識する。
図21に示した例においては、オブジェクトOBを動かそうとし、絶対速度V1で掌を下方向に移動させた場合を想定する(操作体OP−1〜OP−2)。このとき、掌に対する指先の相対速度V2は比較的小さい値である。一方、図22に示した例においては、オブジェクトOBを選択しようとし、相対速度V2で指先を下方向に移動させた場合を想定する(操作体OP)。このとき、掌に対する指先の相対速度V2は比較的大きい値である。本開示の第4の実施形態に係るジェスチャ認識では、掌に対する指先の相対速度V2に基づいてオブジェクトに関するジェスチャが判定されるため、ジェスチャを高精度に認識することが可能である。
コマンド実行部125Cは、ジェスチャ認識部124Cによって認識されたジェスチャに対応するコマンドを実行する。ここで、コマンド実行部125によって実行されるコマンドの種類は限定されない。例えば、指先でのオブジェクトOBに対するタッチに対応するコマンドは、指先によってタッチされたオブジェクトOBを選択するコマンドを含んでよい。すなわち、コマンド実行部125は、オブジェクトOBに対する指先でのタッチが認識された場合、指先によってタッチされたオブジェクトOBを選択するコマンドを実行してよい。
一方、手(または掌)でのオブジェクトOBに対するタッチに対応するコマンドは、手(または掌)によってタッチされたオブジェクトOBを移動させるコマンドを含んでよい。すなわち、コマンド実行部125は、オブジェクトOBに対する手(または掌)でのタッチが認識された場合、手(または掌)によってタッチされたオブジェクトOBを移動させるコマンドを実行してよい。
なお、本開示の第4の実施形態は本開示の第3の実施形態と組み合わされてもよい。すなわち、本開示の第4の実施形態に係る情報処理装置140Cは、モード選択部126を備えてもよい。かかる場合、相対速度算出部123Aは、入力部120によって得られた画像に基づいて、モードに応じた相対速度を算出する。これによって、モードに応じた相対速度が算出される。具体的には、モード選択部126は、モードに応じて基準点および操作点を決めてもよい。例えば、モード選択部126は、ユーザによる操作に基づいてゲームアプリケーションが実行される場合には、基準点を手中心に決定し、操作点を指先に決定してもよい。
ジェスチャ認識部124Cは、相対速度算出部123Aによって算出された相対速度に基づいて、モードに応じたジェスチャを認識する。これによって、モードに応じたジェスチャが認識される。コマンド実行部125Cは、ジェスチャ認識部124Cによって認識されたジェスチャに基づいて、モードに応じたコマンドを実行する。これによって、モードに応じたコマンドが実行される。なお、上記では、モードに応じた相対速度が算出される場合を主に想定した。しかし、相対速度の算出手法は、他の情報に基づいて決められてもよい。
あるいは、モード選択部126は、所定のデータ(例えば、入力部120によって得られた画像など)から所定のジェスチャ(例えば、物体にタッチを行うジェスチャなど)が認識された場合に、基準点として手中心を決定し、操作点として指先を決定してもよい。例えば、物体にタッチを行うジェスチャは、テーブル面にタッチを行うジェスチャであってもよい。
以上、本開示の第4の実施形態に係る情報処理システム100Cの構成例について説明した。
[4.2.情報処理システムの動作例]
続いて、本開示の第4の実施形態に係る情報処理システム100Cの動作例について説明する。図23は、本開示の第4の実施形態に係る情報処理システム100Cの動作例を示すフローチャートである。図23に示したS11〜S14は、本開示の第2の実施形態に係る情報処理システム100Aの動作例(図18に示したS11〜S14)と同様に実行されてよい。本開示の第4の実施形態においても、本開示の第2の実施形態と同様に、3次元位置推定部121によって、手中心および指先それぞれの3次元位置が推定されればよい。
ジェスチャ認識部124Cは、相対速度算出部123Aによって算出された操作体の基準点に対する操作点の相対速度に基づいて、操作体のジェスチャを認識する。より具体的には、ジェスチャ認識部124Aは、手中心に対する指先の相対速度が閾値を上回る場合に(S16Cにおいて「No」)、第1のジェスチャの例としてオブジェクトOBへの指先によるタッチを認識し(S172C)、コマンド実行部125Cは、指先の位置に応じたオブジェクトOBを選択するコマンドを実行する。
一方、ジェスチャ認識部124Cは、手中心に対する指先の相対速度が閾値以下である場合に(S16において「Yes」)、第1のジェスチャとは異なる第2のジェスチャの例としてオブジェクトOBへの手(または掌)によるタッチを認識し、コマンド実行部125Cは、手(または掌)の位置に応じたオブジェクトOBを移動させるコマンドを実行する。なお、手中心に対する指先の相対速度が閾値と等しい場合には、第1のジェスチャが認識されてもよい。
以上、本開示の第4の実施形態に係る情報処理システム100Cの動作例について説明した。
<5.第5の実施形態>
[5.1.情報処理システムの構成例]
続いて、本開示の第5の実施形態に係る情報処理システムの構成例について説明する。
図16に示されたように、本開示の第5の実施形態に係る情報処理システム100Dの情報処理装置140Dは、本開示の第2の実施形態に係る情報処理システム100Aの情報処理装置140Aと比較して、3次元位置推定部121、相対速度算出部123A、ジェスチャ認識部124A、コマンド実行部125Aの代わりに、3次元位置推定部121D、相対速度算出部123D、ジェスチャ認識部124D、コマンド実行部125Dを備える点が異なっている。したがって、以下の説明では、3次元位置推定部121D、相対速度算出部123D、ジェスチャ認識部124D、コマンド実行部125Dについて主に説明し、本開示の第5の実施形態に係る情報処理システム100Dが備える他の構成についての詳細な説明は省略する。
図24および図25は、本開示の第5の実施形態に係る情報処理システム100Dの機能について説明するための図である。図24および図25に示されるように、本開示の第5の実施形態においては、情報処理装置140Dが、ユーザによる操作に基づいてゲームアプリケーションを実行する場合を想定する。すなわち、本開示の第5の実施形態では、操作体OPはユーザの手である場合を想定する。しかし、上記したように、操作体OPはユーザの手に限定されない。
また、ここでは、オブジェクトOBが出力部130によって表示された仮想オブジェクトである場合を想定する。しかし、オブジェクトOBは、仮想オブジェクトに限定されず、実オブジェクトであってもよい。さらに、ここでは、操作体OPの基準点が、手首における所定の点(ここでは、手首位置P12または手首位置P13(図7および図8))であり、操作体OPの操作点が、掌における所定の点(ここでは、手の中心位置)である場合を想定する。しかし、手首における所定の点の代わりに、肘における所定の点(例えば、肘関節位置P15(図9))が用いられてもよいし、肩における所定の点(例えば、肩関節位置)が用いられてもよい。また、上記したように、手の中心位置も特定の位置に限定されない。
3次元位置推定部121Dは、入力部120によって得られた入力情報に基づいて、手首および手中心それぞれの3次元位置を推定する。3次元位置推定部121Dは、推定した手首および手中心それぞれの3次元位置情報を記憶部128に記憶させる。なお、ここでは、3次元位置推定部121Dが、手首および手中心それぞれの3次元位置を推定する場合を想定するが、3次元位置推定部121Dは、手首および手中心それぞれの2次元位置(例えば、オブジェクトOBの表示面に平行な面における2次元位置)を推定してもよい。
相対速度算出部123Dは、フレーム数判定部122によって、所定のフレーム数に相当する3次元位置情報が得られたと判定されると、操作体の各点の絶対速度に基づいて、操作体の基準点に対する操作体の操作点の相対速度を算出する。ここでは、相対速度算出部123Dが、手首に対する手中心の相対速度を算出する場合を想定する。
ジェスチャ認識部124Dは、相対速度算出部123Dによって算出された基準点に対する操作点の相対速度に基づいて、操作体のジェスチャを認識する。ここでは、ジェスチャ認識部124Dは、手首に対する手中心の相対速度が閾値を上回る場合に、第1のジェスチャとして手首を支点として手を振るジェスチャを認識する。一方、ジェスチャ認識部124Dは、手首に対する手中心の相対速度が閾値以下である場合に、第2のジェスチャとして肘を支点として手を振るジェスチャを認識する。なお、肘の代わりに肩が用いられる場合には、肩が支点となり得る。
図24に示した例においては、オブジェクトOBを撫でようとし、手首を支点として手を振った場合を想定する(操作体OP)。このとき、肘に対する掌の相対速度V3は比較的小さい値となるが、手首に対する掌の相対速度は比較的大きい値となる。一方、図25に示した例においては、オブジェクトOBを動かそうとし、肘を支点として手を振った場合を想定する(操作体OP)。このとき、肘に対する掌の相対速度V4は比較的大きい値となるが、手首に対する掌の相対速度は比較的小さい値となる。本開示の第5の実施形態に係るジェスチャ認識では、手首に対する掌の相対速度に基づいてオブジェクトに関するジェスチャが判定されるため、ジェスチャを高精度に認識することが可能である。
コマンド実行部125Dは、ジェスチャ認識部124Dによって認識されたジェスチャに対応するコマンドを実行する。ここで、コマンド実行部125Dによって実行されるコマンドの種類は限定されない。例えば、手首を支点として手を振るジェスチャに対応するコマンドは、オブジェクトOBを撫でるコマンドを含んでもよい。すなわち、コマンド実行部125Dは、手首を支点として手を振るジェスチャが認識された場合、オブジェクトOBを撫でるコマンドを実行してよい。一方、肘を支点として手を振るジェスチャに対応するコマンドは、オブジェクトOBを移動させるコマンドを含んでもよい。すなわち、コマンド実行部125Dは、肘を支点として手を振るジェスチャが認識された場合、オブジェクトOBを移動させるコマンドを実行してよい。
なお、手首を支点として手を振るジェスチャに対応するコマンドは、オブジェクトの一部を消すコマンドを含んでもよい。一方、肘を支点として手を振るジェスチャに対応するコマンドは、オブジェクトの全体を消すコマンドを含んでもよい。例えば、描画を行うアプリケーションが実行される場合、手首を支点として手を振るジェスチャに対応するコマンドは、描画の一部を消すコマンドを含んでもよい。一方、描画を行うアプリケーションが実行される場合、手首を支点として手を振るジェスチャに対応するコマンドは、描画の全体を消すコマンドを含んでもよい。
また、本開示の第5の実施形態は本開示の第3の実施形態と組み合わされてもよい。すなわち、本開示の第5の実施形態に係る情報処理装置140Dは、モード選択部126を備えてもよい。かかる場合、相対速度算出部123Dは、入力部120によって得られた画像に基づいて、モードに応じた相対速度を算出する。これによって、モードに応じた相対速度が算出される。具体的には、モード選択部126は、モードに応じて基準点および操作点を決めてもよい。例えば、モード選択部126は、ユーザによる操作に基づいてゲームアプリケーションが実行される場合には、基準点を手首に決定し、操作点を手中心に決定してもよい。
ジェスチャ認識部124Dは、相対速度算出部123Dによって算出された相対速度に基づいて、モードに応じたジェスチャを認識する。これによって、モードに応じたジェスチャが認識される。コマンド実行部125Dは、ジェスチャ認識部124Dによって認識されたジェスチャに基づいて、モードに応じたコマンドを実行する。これによって、モードに応じたコマンドが実行される。なお、上記では、モードに応じた相対速度が算出される場合を主に想定した。しかし、相対速度の算出手法は、他の情報に基づいて決められてもよい。
以上、本開示の第5の実施形態に係る情報処理システム100Dの構成例について説明した。
[5.2.情報処理システムの動作例]
続いて、本開示の第5の実施形態に係る情報処理システム100Dの動作例について説明する。図26は、本開示の第5の実施形態に係る情報処理システム100Dの動作例を示すフローチャートである。入力部120は、操作体の例としてのユーザの手腕を時間軸に沿ってセンシングすることによって画像を入力(取得)する(S11)。3次元位置推定部121Dは、入力部120によって得られた画像に基づいて手腕の各点の3次元位置を推定する(S12D)。なお、3次元位置推定部121Dによって3次元位置が推定される各点は、ユーザの手首および手中心を含んでよいが、上記したように特に限定されない。
続いて、3次元位置推定部121Dは、手腕の3次元位置を記憶部128に保存する(S13D)。フレーム数判定部122は、指定フレーム数(所定のフレーム数)に相当する3次元位置情報が3次元位置推定部121によって得られたかを判定する(S14)。フレーム数判定部122は、指定フレーム数(所定のフレーム数)に相当する3次元位置情報が3次元位置推定部121によって得られていない場合(S14において「No」)、S11に戻る。一方、フレーム数判定部122は、指定フレーム数(所定のフレーム数)に相当する3次元位置情報が3次元位置推定部121Dによって得られた場合(S14において「Yes」)、S15Dに動作を移行させる。
相対速度算出部123Dは、記憶部128によって記憶されている手腕の各点の3次元位置情報に基づいて、手首および手中心それぞれの絶対位置を算出する。そして、相対速度算出部123Dは、手首および手中心それぞれの3次元位置の時間方向の変化に基づいて、手首および手中心それぞれの絶対速度を算出する。そして、相対速度算出部123Dは、手首および手中心それぞれの絶対速度に基づいて、手腕の基準点(手首)に対する手腕の操作点(手中心)の相対速度を算出する(S15D)。
ジェスチャ認識部124Dは、相対速度算出部123Dによって算出された操作体の基準点に対する操作点の相対速度に基づいて、操作体のジェスチャを認識する。より具体的には、ジェスチャ認識部124Dは、手首に対する手中心の相対速度が閾値を上回る場合に(S16Dにおいて「No」)、第1のジェスチャの例として手首を支点として手を振るジェスチャを認識し、コマンド実行部125Dは、手中心の位置に応じた仮想物体(オブジェクトOB)を撫でる操作がなされたと判断し(S172D)、当該操作に対応するコマンドを実行する。
一方、ジェスチャ認識部124Dは、手首に対する手中心の相対速度が閾値以下である場合に(S16Dにおいて「Yes」)、第1のジェスチャとは異なる第2のジェスチャの例として肘を支点として手を振るジェスチャを認識し、コマンド実行部125Dは、手中心の位置に応じた仮想物体(オブジェクトOB)を移動する操作がなされたと判断し(S171D)、当該操作に対応するコマンドを実行する。なお、手首に対する手中心の相対速度が閾値と等しい場合には、第1のジェスチャが認識されてもよい。
以上、本開示の第5の実施形態に係る情報処理システム100Dの動作例について説明した。
<6.第6の実施形態>
[6.1.情報処理システムの構成例]
続いて、本開示の第6の実施形態に係る情報処理システムの構成例について説明する。
図16に示されたように、本開示の第6の実施形態に係る情報処理システム100Eの情報処理装置140Eは、本開示の第2の実施形態に係る情報処理システム100Aの情報処理装置140Aと比較して、3次元位置推定部121、相対速度算出部123A、ジェスチャ認識部124A、コマンド実行部125Aの代わりに、3次元位置推定部121E、相対速度算出部123E、ジェスチャ認識部124E、コマンド実行部125Eを備える点が異なっている。したがって、以下の説明では、3次元位置推定部121E、相対速度算出部123E、ジェスチャ認識部124E、コマンド実行部125Eについて主に説明し、本開示の第6の実施形態に係る情報処理システム100Eが備える他の構成についての詳細な説明は省略する。
図27および図28は、本開示の第6の実施形態に係る情報処理システム100Eの機能について説明するための図である。図27および図28に示されるように、本開示の第6の実施形態においては、情報処理装置140Eが、ユーザによる操作に基づいてゲームアプリケーションを実行する場合を想定する。すなわち、本開示の第6の実施形態では、操作体OPはユーザの手である場合を想定する。しかし、上記したように、操作体OPはユーザの手に限定されない。
また、ここでは、オブジェクトOBが出力部130によって表示された仮想オブジェクトである場合を想定する。しかし、オブジェクトOBは、仮想オブジェクトに限定されず、実オブジェクトであってもよい。さらに、ここでは、操作体OPの基準点が、指関節(ここでは、人差し指の関節位置P8(図7および図8))であり、操作体OPの操作点が、指先(ここでは、人差し指の先端位置P7(図7および図8))である場合を想定する。
3次元位置推定部121Eは、入力部120によって得られた入力情報に基づいて、手の3次元位置を推定する。3次元位置推定部121Eは、推定した手の3次元位置情報を記憶部128に記憶させる。なお、本開示の第6の実施形態において、3次元位置推定部121Eは、手の3次元位置として、指関節および指先それぞれの3次元位置を推定すればよい。
相対速度算出部123Eは、フレーム数判定部122によって、所定のフレーム数に相当する3次元位置情報が得られたと判定されると、操作体の各点の絶対速度に基づいて、操作体の基準点に対する操作体の操作点の相対速度を算出する。ここでは、相対速度算出部123Eが、指関節に対する指先の相対速度を算出する場合を想定する。
ジェスチャ認識部124Eは、相対速度算出部123Eによって算出された基準点に対する操作点の相対速度に基づいて、操作体のジェスチャを認識する。ここでは、ジェスチャ認識部124Eは、指関節に対する指先の相対速度が閾値を上回る場合に、第1のジェスチャとして指関節を支点として指先を動かすジェスチャを認識する。一方、ジェスチャ認識部124Eは、指関節に対する指先の相対速度が閾値以下である場合に、第2のジェスチャとして指の付け根を支点として指先を動かすジェスチャを認識する。
図27に示した例においては、オブジェクトOBを選択しようとし、指の付け根を支点として指先を動かした場合を想定する。このとき、指関節の絶対速度V5は比較的大きい値となるが、指関節に対する指先の相対速度は比較的小さい値となる。一方、図28に示した例においては、オブジェクトOBを動かそうとし、指関節を支点として指先を動かした場合を想定する。このとき、指関節の絶対速度は比較的小さい値となるが、指関節に対する指先の相対速度V2は比較的大きい値となる。本開示の第6の実施形態に係るジェスチャ認識では、指関節に対する指先の相対速度に基づいてオブジェクトに関するジェスチャが判定されるため、ジェスチャを高精度に認識することが可能である。
コマンド実行部125Eは、ジェスチャ認識部124Eによって認識されたジェスチャに対応するコマンドを実行する。ここで、コマンド実行部125Eによって実行されるコマンドの種類は限定されない。例えば、指の付け根を支点として指先を動かすジェスチャに対応するコマンドは、オブジェクトOBを選択するコマンドを含んでもよい。すなわち、コマンド実行部125Eは、指の付け根を支点として指先を動かすジェスチャが認識された場合、オブジェクトOBを選択するコマンドを実行してよい。一方、指の関節点を支点として指先を動かすジェスチャに対応するコマンドは、オブジェクトOBを移動させるコマンドを含んでもよい。すなわち、コマンド実行部125Eは、指の関節点を支点として指先を動かすジェスチャが認識された場合、オブジェクトOBを選択するコマンドを実行してよい。
なお、本開示の第6の実施形態は本開示の第3の実施形態と組み合わされてもよい。すなわち、本開示の第6の実施形態に係る情報処理装置140Eは、モード選択部126を備えてもよい。かかる場合、相対速度算出部123Eは、入力部120によって得られた画像に基づいて、モードに応じた相対速度を算出する。これによって、モードに応じた相対速度が算出される。具体的には、モード選択部126は、モードに応じて基準点および操作点を決めてもよい。例えば、モード選択部126は、ユーザによる操作に基づいてゲームアプリケーションが実行される場合には、基準点を指関節に決定し、操作点を指先に決定してもよい。
ジェスチャ認識部124Eは、相対速度算出部123Eによって算出された相対速度に基づいて、モードに応じたジェスチャを認識する。これによって、モードに応じたジェスチャが認識される。コマンド実行部125Eは、ジェスチャ認識部124Eによって認識されたジェスチャに基づいて、モードに応じたコマンドを実行する。これによって、モードに応じたコマンドが実行される。なお、上記では、モードに応じた相対速度が算出される場合を主に想定した。しかし、相対速度の算出手法は、他の情報に基づいて決められてもよい。
例えば、相対速度算出部123Eは、所定のデータ(例えば、画像など)から所定のジェスチャ(例えば、ポインティングを行うジェスチャなど)が認識された場合に、基準点として指関節を決定し、操作点として指先を決定してもよい。例えば、ポインティングを行うジェスチャは、人差し指を伸ばすジェスチャであってもよい。
以上、本開示の第6の実施形態に係る情報処理システム100Eの構成例について説明した。
[6.2.情報処理システムの動作例]
続いて、本開示の第6の実施形態に係る情報処理システム100Eの動作例について説明する。図29は、本開示の第6の実施形態に係る情報処理システム100Eの動作例を示すフローチャートである。入力部120は、操作体の例としてのユーザの手を時間軸に沿ってセンシングすることによって画像を入力(取得)する(S11)。3次元位置推定部121Eは、入力部120によって得られた画像に基づいて手の各点の3次元位置を推定する(S12E)。なお、3次元位置推定部121Eによって3次元位置が推定される各点は、指関節および指先を含んでよいが、上記したように特に限定されない。
続いて、3次元位置推定部121Eは、手の3次元位置を記憶部128に保存する(S13E)。フレーム数判定部122は、指定フレーム数(所定のフレーム数)に相当する3次元位置情報が3次元位置推定部121によって得られたかを判定する(S14)。フレーム数判定部122は、指定フレーム数(所定のフレーム数)に相当する3次元位置情報が3次元位置推定部121Eによって得られていない場合(S14において「No」)、S11に戻る。一方、フレーム数判定部122は、指定フレーム数(所定のフレーム数)に相当する3次元位置情報が3次元位置推定部121Eによって得られた場合(S14において「Yes」)、S15Eに動作を移行させる。
相対速度算出部123Eは、記憶部128によって記憶されている手の各点の3次元位置情報に基づいて、指関節および指先それぞれの絶対位置を算出する。そして、相対速度算出部123Eは、指関節および指先それぞれの3次元位置の時間方向の変化に基づいて、指関節および指先それぞれの絶対速度を算出する。そして、相対速度算出部123Eは、指関節および指先それぞれの絶対速度に基づいて、手の基準点(指関節)に対する手の操作点(指先)の相対速度を算出する(S15E)。
ジェスチャ認識部124Eは、相対速度算出部123Eによって算出された操作体の基準点に対する操作点の相対速度に基づいて、操作体のジェスチャを認識する。より具体的には、ジェスチャ認識部124Eは、指関節に対する指先の相対速度が閾値を上回る場合に(S16Eにおいて「No」)、第1のジェスチャの例として指関節を支点として指先を動かすジェスチャ(スクロール操作)を認識し(S172E)、コマンド実行部125Eは、指先の位置に応じたオブジェクトOBを移動させるコマンドを実行する。
一方、ジェスチャ認識部124Eは、指関節に対する指先の相対速度が閾値以下である場合に(S16Eにおいて「Yes」)、第1のジェスチャとは異なる第2のジェスチャの例として指の付け根を支点として指先を動かすジェスチャ(クリック操作)を認識し(S171E)、コマンド実行部125Eは、指先の位置に応じたオブジェクトOBを移動させるコマンドを実行する。なお、指関節に対する指先の相対速度が閾値と等しい場合には、第1のジェスチャが認識されてもよい。本開示の第6の実施形態によれば、スクロール操作が認識された場合に、クリック操作を認識しないといった制御も可能となるため、クリック操作の判定精度が向上するといった効果も享受される。
以上、本開示の第6の実施形態に係る情報処理システム100Eの動作例について説明した。
<7.第7の実施形態>
[7.1.情報処理システムの構成例]
続いて、本開示の第7の実施形態に係る情報処理システムの構成例について説明する。
図16に示されたように、本開示の第7の実施形態に係る情報処理システム100Fの情報処理装置140Fは、本開示の第2の実施形態に係る情報処理システム100Aの情報処理装置140Aと比較して、3次元位置推定部121、相対速度算出部123A、ジェスチャ認識部124A、コマンド実行部125Aの代わりに、3次元位置推定部121F、相対速度算出部123F、ジェスチャ認識部124F、コマンド実行部125Fを備える点が異なっている。したがって、以下の説明では、3次元位置推定部121F、相対速度算出部123F、ジェスチャ認識部124F、コマンド実行部125Fについて主に説明し、本開示の第7の実施形態に係る情報処理システム100Fが備える他の構成についての詳細な説明は省略する。
図30および図31は、本開示の第7の実施形態に係る情報処理システム100Fの機能について説明するための図である。図30および図31に示されるように、本開示の第7の実施形態においては、情報処理装置140Fが、ユーザによる操作に基づいてゲームアプリケーションを実行する場合を想定する。すなわち、本開示の第7の実施形態では、操作体はユーザの身体の一部(人体パーツ)である場合を想定する。しかし、上記したように、操作体はユーザの身体の一部(人体パーツ)に限定されない。
また、ここでは、オブジェクトが出力部130によって表示された仮想オブジェクトである場合を想定する。しかし、オブジェクトは、仮想オブジェクトに限定されず、実オブジェクトであってもよい。さらに、ここでは、操作体の基準点が、肩における所定の点(例えば、肩関節位置)であり、操作体の操作点が、拳における所定の点(ここでは、手の中心位置P14(図7および図8))である場合を想定する。しかし、肩における所定の点(例えば、肩関節位置)の代わりに、肩以外の部位(例えば、足など)における所定の点が用いられてもよい。
3次元位置推定部121Fは、入力部120によって得られた入力情報に基づいて、人体パーツの3次元位置を推定する。3次元位置推定部121Fは、推定した人体パーツの3次元位置情報を記憶部128に記憶させる。なお、本開示の第7の実施形態において、3次元位置推定部121Fは、人体パーツの3次元位置として、肩および拳それぞれの3次元位置を推定すればよい。
相対速度算出部123Fは、フレーム数判定部122によって、所定のフレーム数に相当する3次元位置情報が得られたと判定されると、操作体の各点の絶対速度に基づいて、操作体の基準点に対する操作体の操作点の相対速度を算出する。ここでは、相対速度算出部123Fが、肩に対する拳の相対速度を算出する場合を想定する。
ジェスチャ認識部124Fは、相対速度算出部123Fによって算出された基準点に対する操作点の相対速度に基づいて、操作体のジェスチャを認識する。ここでは、ジェスチャ認識部124Fは、肩に対する拳の相対速度が閾値を上回る場合に、第1のジェスチャとして第1の種別のパンチを認識する。一方、ジェスチャ認識部124Fは、肩に対する拳の相対速度が閾値を下回る場合に、第2のジェスチャとして第2の種別のパンチを認識する。
図30に示した例においては、オブジェクトに対してジャブを打とうとした場合を想定する。例えば、ジャブを打つ拳と肩との左右の別が異なり、肩の位置は、P17−1からP17−2に移動し、拳の位置は、P14−1からP14−2に移動したとする。このとき、肩に対する拳の相対速度V6は比較的小さい値となる。一方、図31に示した例においては、オブジェクトに対してストレートを打とうとした場合を想定する。例えば、ストレートを打つ拳と肩との左右の別が異なり、肩の位置は、P17−3からP17−4に移動し、拳の位置は、P14−3からP14−4に移動したとする。このとき、肩に対する拳の相対速度V6は比較的大きい値となる。
本開示の第7の実施形態に係るジェスチャ認識では、肩に対する拳の相対速度に基づいてオブジェクトに関するジェスチャが判定されるため、ジェスチャを高精度に認識することが可能である。なお、例えば、ジャブを打つ拳と肩との左右の別が同じ場合には、肩に対する拳の相対速度は比較的大きい値となる。一方、ストレートを打つ拳と肩との左右の別が同じである場合、肩に対する拳の相対速度は比較的小さい値となる。
コマンド実行部125Fは、ジェスチャ認識部124Fによって認識されたジェスチャに対応するコマンドを実行する。ここで、コマンド実行部125Fによって実行されるコマンドの種類は限定されない。例えば、ジャブに対応するコマンドは、オブジェクトに比較的小さいダメージを与えるコマンドを含んでもよい。すなわち、コマンド実行部125Fは、ジャブが認識された場合、オブジェクトに比較的小さいダメージを与えるコマンドを実行してよい。一方、ストレートに対応するコマンドは、オブジェクトに比較的大きなダメージを与えるコマンドを含んでもよい。すなわち、コマンド実行部125Fは、ストレートが認識された場合、オブジェクトに対して比較的大きいダメージを与えるコマンドを実行してよい。
なお、本開示の第7の実施形態は本開示の第3の実施形態と組み合わされてもよい。すなわち、本開示の第7の実施形態に係る情報処理装置140Fは、モード選択部126を備えてもよい。かかる場合、相対速度算出部123Fは、入力部120によって得られた画像に基づいて、モードに応じた相対速度を算出する。これによって、モードに応じた相対速度が算出される。具体的には、モード選択部126は、モードに応じて基準点および操作点を決めてもよい。例えば、モード選択部126は、ユーザによる操作に基づいてゲームアプリケーションが実行される場合には、基準点を肩に決定し、操作点を拳に決定してもよい。
ジェスチャ認識部124Fは、相対速度算出部123Fによって算出された相対速度に基づいて、モードに応じたジェスチャを認識する。これによって、モードに応じたジェスチャが認識される。コマンド実行部125Fは、ジェスチャ認識部124Fによって認識されたジェスチャに基づいて、モードに応じたコマンドを実行する。これによって、モードに応じたコマンドが実行される。なお、上記では、モードに応じた相対速度が算出される場合を主に想定した。しかし、相対速度の算出手法は、他の情報に基づいて決められてもよい。
以上、本開示の第7の実施形態に係る情報処理システム100Fの構成例について説明した。
[7.2.情報処理システムの動作例]
続いて、本開示の第7の実施形態に係る情報処理システム100Fの動作例について説明する。図32は、本開示の第7の実施形態に係る情報処理システム100Fの動作例を示すフローチャートである。入力部120は、操作体の例としてのユーザの人体パーツを時間軸に沿ってセンシングすることによって画像を入力(取得)する(S11)。3次元位置推定部121Fは、入力部120によって得られた画像に基づいて人体パーツの各点の3次元位置を推定する(S12F)。なお、3次元位置推定部121Fによって3次元位置が推定される各点は、肩および拳を含んでよいが、上記したように特に限定されない。
続いて、3次元位置推定部121Fは、手の3次元位置を記憶部128に保存する(S13F)。フレーム数判定部122は、指定フレーム数(所定のフレーム数)に相当する3次元位置情報が3次元位置推定部121によって得られたかを判定する(S14)。フレーム数判定部122は、指定フレーム数(所定のフレーム数)に相当する3次元位置情報が3次元位置推定部121Fによって得られていない場合(S14において「No」)、S11に戻る。一方、フレーム数判定部122は、指定フレーム数(所定のフレーム数)に相当する3次元位置情報が3次元位置推定部121Eによって得られた場合(S14において「Yes」)、S15Fに動作を移行させる。
相対速度算出部123Fは、記憶部128によって記憶されている人体パーツの各点の3次元位置情報に基づいて、肩および拳それぞれの絶対位置を算出する。そして、相対速度算出部123Fは、肩および拳それぞれの3次元位置の時間方向の変化に基づいて、肩および拳それぞれの絶対速度を算出する。そして、相対速度算出部123Fは、肩および拳それぞれの絶対速度に基づいて、操作体の基準点(肩)に対する操作体の操作点(拳)の相対速度を算出する(S15F)。
ジェスチャ認識部124Fは、相対速度算出部123Fによって算出された操作体の基準点に対する操作点の相対速度に基づいて、操作体のジェスチャを認識する。より具体的には、ジェスチャ認識部124Fは、ストレートを打つ拳と肩との左右の別が異なる場合、かつ、肩に対する拳の相対速度が閾値を上回る場合に(S16Fにおいて「No」)、第1のジェスチャの例としてストレートを認識し(S172F)、コマンド実行部125Fは、肩から拳への方向に応じたオブジェクトに比較的大きなダメージを与えるコマンドを実行する。
一方、ジェスチャ認識部124Fは、ジャブを打つ拳と肩との左右の別が異なる場合、かつ、肩に対する拳の相対速度が閾値以下である場合に(S16Fにおいて「Yes」)、第1のジェスチャとは異なる第2のジェスチャの例としてジャブを認識し(S171F)、コマンド実行部125Fは、肩から拳への方向に応じたオブジェクトに比較的小さなダメージを与えるコマンドを実行する。
なお、肩に対する拳の相対速度が閾値と等しい場合には、第1のジェスチャが認識されてもよい。また、ジェスチャ認識部124Fは、ストレートを打つ拳と肩との左右の別が同じ場合、かつ、肩に対する拳の相対速度が閾値以下である場合に、第2のジェスチャの例としてストレートを認識してよい。一方、ジェスチャ認識部124Fは、ジャブを打つ拳と肩との左右の別が同じ場合、かつ、肩に対する拳の相対速度が閾値を上回る場合に、第1のジェスチャの例としてジャブを認識してよい。
以上、本開示の第7の実施形態に係る情報処理システム100Fの動作例について説明した。
<8.ハードウェア構成例>
次に、図33を参照して、本開示の実施形態に係る情報処理システム100のハードウェア構成について説明する。図33は、本開示の実施形態に係る情報処理システム100のハードウェア構成例を示すブロック図である。
図33に示すように、情報処理システム100は、CPU(Central Processing unit)901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。CPU901、ROM903およびRAM905によって、3次元位置推定部121、フレーム数判定部122、相対速度/相対位置算出部123、ジェスチャ認識部124およびコマンド実行部125が実現され得る。また、情報処理システム100は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含んでもよい。さらに、情報処理システム100は、必要に応じて、撮像装置933、およびセンサ935を含んでもよい。情報処理システム100は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)またはASIC(Application Specific Integrated Circuit)と呼ばれるような処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理システム100内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一時的に記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
入力装置915は、例えば、ボタンなど、ユーザによって操作される装置である。入力装置915は、マウス、キーボード、タッチパネル、スイッチおよびレバーなどを含んでもよい。また、入力装置915は、ユーザの音声を検出するマイクロフォンを含んでもよい。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理システム100の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理システム100に対して各種のデータを入力したり処理動作を指示したりする。また、後述する撮像装置933も、ユーザの手の動き、ユーザの指などを撮像することによって、入力装置として機能し得る。このとき、手の動きや指の向きに応じてポインティング位置が決定されてよい。なお、入力装置915によって、上記した入力部120が実現され得る。
出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)、有機EL(Electro−Luminescence)ディスプレイなどの表示装置、スピーカおよびヘッドホンなどの音出力装置などであり得る。また、出力装置917は、PDP(Plasma Display Panel)、プロジェクタ、ホログラム、プリンタ装置などを含んでもよい。出力装置917は、情報処理システム100の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音として出力したりする。また、出力装置917は、周囲を明るくするためライトなどを含んでもよい。なお、出力装置917によって、上記した出力部130が実現され得る。
ストレージ装置919は、情報処理システム100の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理システム100に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
接続ポート923は、機器を情報処理システム100に直接接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどであり得る。また、接続ポート923は、RS−232Cポート、光オーディオ端子、HDMI(登録商標)(High−Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理システム100と外部接続機器929との間で各種のデータが交換され得る。
通信装置925は、例えば、ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどであり得る。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続されるネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。
撮像装置933は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置933は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
センサ935は、例えば、測距センサ、加速度センサ、ジャイロセンサ、地磁気センサ、振動センサ、光センサ、音センサなどの各種のセンサである。センサ935は、例えば情報処理システム100の筐体の姿勢など、情報処理システム100自体の状態に関する情報や、情報処理システム100の周辺の明るさや騒音など、情報処理システム100の周辺環境に関する情報を取得する。また、センサ935は、GPS(Global Positioning System)信号を受信して装置の緯度、経度および高度を測定するGPSセンサを含んでもよい。なお、センサ935によって、上記した入力部120が実現され得る。
<9.むすび>
本開示の実施形態によれば、操作体を時間軸に沿ってセンシングして得られたデータに基づいて、前記操作体の第1の点に対する前記操作体の第2の点の相対速度を算出する相対速度算出部と、前記相対速度に基づいて、前記操作体のジェスチャを認識するジェスチャ認識部と、を備える、情報処理装置が提供される。かかる構成によれば、操作体によるジェスチャをより高精度に認識することが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記した情報処理システム100の動作が実現されれば、各構成の位置は特に限定されない。情報処理システム100における各部の処理の一部は図示しないサーバによって行われてもよい。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏し得る。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
操作体を時間軸に沿ってセンシングして得られたデータに基づいて、前記操作体の第1の点に対する前記操作体の第2の点の相対速度を算出する相対速度算出部と、
前記相対速度に基づいて、前記操作体のジェスチャを認識するジェスチャ認識部と、
を備える、情報処理装置。
(2)
前記情報処理装置は、
前記ジェスチャに対応するコマンドを決定するコマンド決定部を備える、
前記(1)に記載の情報処理装置。
(3)
前記データは、前記操作体を時間軸に沿ってセンシングして得られた2次元データまたは3次元データである、
前記(1)または(2)に記載の情報処理装置。
(4)
前記情報処理装置は、モードを選択するモード選択部を備え、
前記相対速度算出部は、前記データに基づいて、前記モードに応じた前記相対速度を算出する、
前記(1)〜(3)のいずれか一項に記載の情報処理装置。
(5)
前記ジェスチャ認識部は、前記相対速度が閾値を上回る場合に、第1のジェスチャを認識し、前記相対速度が前記閾値を下回る場合に、前記第1のジェスチャとは異なる第2のジェスチャを認識する、
前記(1)〜(4)のいずれか一項に記載の情報処理装置。
(6)
前記第1の点は、掌における所定の点であり、
前記第2の点は、指先である、
前記(5)に記載の情報処理装置。
(7)
前記ジェスチャ認識部は、前記相対速度が前記閾値を上回る場合に、前記第1のジェスチャとしてオブジェクトに対する前記指先でのタッチを認識する、
前記(6)に記載の情報処理装置。
(8)
前記指先でのタッチに対応するコマンドは、前記オブジェクトに対応する音を出力するコマンド、または、前記オブジェクトを選択するコマンドを含む、
前記(7)に記載の情報処理装置。
(9)
前記ジェスチャ認識部は、前記相対速度が前記閾値を下回る場合に、前記第2のジェスチャとして前記オブジェクトに対する掌でのタッチを認識する、
前記(8)に記載の情報処理装置。
(10)
前記掌でのタッチに対応するコマンドは、前記オブジェクトを移動させるコマンドを含む、
前記(9)に記載の情報処理装置。
(11)
前記第1の点は、手首または肘における所定の点であり、
前記第2の点は、掌における所定の点である、
前記(5)に記載の情報処理装置。
(12)
前記ジェスチャ認識部は、前記相対速度が前記閾値を上回る場合に、前記第1のジェスチャとして手首を支点として手を振るジェスチャを認識し、前記相対速度が前記閾値を下回る場合に、前記第2のジェスチャとして肘または肩を支点として手を振るジェスチャを認識する、
前記(11)に記載の情報処理装置。
(13)
前記手首を支点として手を振るジェスチャに対応するコマンドは、オブジェクトを撫でるコマンドを含み、前記肘または肩を支点として手を振るジェスチャに対応するコマンドは、前記オブジェクトを移動させるコマンドを含む、
前記(12)に記載の情報処理装置。
(14)
前記第1の点は、指の関節点であり、
前記第2の点は、指先である、
前記(5)に記載の情報処理装置。
(15)
前記ジェスチャ認識部は、前記相対速度が前記閾値を上回る場合に、前記第1のジェスチャとして指の付け根を支点として指先を動かすジェスチャを認識し、前記相対速度が前記閾値を下回る場合に、前記第2のジェスチャとして指の関節点を支点として指先を動かすジェスチャを認識する、
前記(14)に記載の情報処理装置。
(16)
前記指の付け根を支点として指先を動かすジェスチャに対応するコマンドは、オブジェクトを選択するコマンドを含み、前記指の関節点を支点として指先を動かすジェスチャに対応するコマンドは、オブジェクトを移動させるコマンドを含む、
前記(15)に記載の情報処理装置。
(17)
前記第1の点は、肩における所定の点であり、
前記第2の点は、拳における所定の点である、
前記(5)に記載の情報処理装置。
(18)
前記ジェスチャ認識部は、前記相対速度が前記閾値を上回る場合に、前記第1のジェスチャとして第1の種別のパンチを認識し、前記相対速度が前記閾値を下回る場合に、前記第2のジェスチャとして第2の種別のパンチを認識する、
前記(17)に記載の情報処理装置。
(19)
操作体を時間軸に沿ってセンシングして得られたデータに基づいて、前記操作体の第1の点に対する前記操作体の第2の点の相対速度を算出することと、
プロセッサが、前記相対速度に基づいて、前記操作体のジェスチャを認識することと、
を含む、情報処理方法。
(20)
コンピュータを、
操作体を時間軸に沿ってセンシングして得られたデータに基づいて、前記操作体の第1の点に対する前記操作体の第2の点の相対速度を算出する相対速度算出部と、
前記相対速度に基づいて、前記操作体のジェスチャを認識するジェスチャ認識部と、
を備える情報処理装置として機能させるためのプログラム。
100 情報処理システム
110 テーブル
120 入力部
121 3次元位置推定部
122 フレーム数判定部
123 相対位置/相対速度算出部
124 ジェスチャ認識部
125 コマンド実行部
126 モード選択部
128 記憶部
130 出力部
140 情報処理装置

Claims (20)

  1. 操作体を時間軸に沿ってセンシングして得られたデータに基づいて、前記操作体の第1の点に対する前記操作体の第2の点の相対速度を算出する相対速度算出部と、
    前記相対速度に基づいて、前記操作体のジェスチャを認識するジェスチャ認識部と、
    を備える、情報処理装置。
  2. 前記情報処理装置は、
    前記ジェスチャに対応するコマンドを決定するコマンド決定部を備える、
    請求項1に記載の情報処理装置。
  3. 前記データは、前記操作体を時間軸に沿ってセンシングして得られた2次元データまたは3次元データである、
    請求項1に記載の情報処理装置。
  4. 前記情報処理装置は、モードを選択するモード選択部を備え、
    前記相対速度算出部は、前記データに基づいて、前記モードに応じた前記相対速度を算出する、
    請求項1に記載の情報処理装置。
  5. 前記ジェスチャ認識部は、前記相対速度が閾値を上回る場合に、第1のジェスチャを認識し、前記相対速度が前記閾値を下回る場合に、前記第1のジェスチャとは異なる第2のジェスチャを認識する、
    請求項1に記載の情報処理装置。
  6. 前記第1の点は、掌における所定の点であり、
    前記第2の点は、指先である、
    請求項5に記載の情報処理装置。
  7. 前記ジェスチャ認識部は、前記相対速度が前記閾値を上回る場合に、前記第1のジェスチャとしてオブジェクトに対する前記指先でのタッチを認識する、
    請求項6に記載の情報処理装置。
  8. 前記指先でのタッチに対応するコマンドは、前記オブジェクトに対応する音を出力するコマンド、または、前記オブジェクトを選択するコマンドを含む、
    請求項7に記載の情報処理装置。
  9. 前記ジェスチャ認識部は、前記相対速度が前記閾値を下回る場合に、前記第2のジェスチャとして前記オブジェクトに対する掌でのタッチを認識する、
    請求項8に記載の情報処理装置。
  10. 前記掌でのタッチに対応するコマンドは、前記オブジェクトを移動させるコマンドを含む、
    請求項9に記載の情報処理装置。
  11. 前記第1の点は、手首または肘における所定の点であり、
    前記第2の点は、掌における所定の点である、
    請求項5に記載の情報処理装置。
  12. 前記ジェスチャ認識部は、前記相対速度が前記閾値を上回る場合に、前記第1のジェスチャとして手首を支点として手を振るジェスチャを認識し、前記相対速度が前記閾値を下回る場合に、前記第2のジェスチャとして肘または肩を支点として手を振るジェスチャを認識する、
    請求項11に記載の情報処理装置。
  13. 前記手首を支点として手を振るジェスチャに対応するコマンドは、オブジェクトを撫でるコマンドを含み、前記肘または肩を支点として手を振るジェスチャに対応するコマンドは、前記オブジェクトを移動させるコマンドを含む、
    請求項12に記載の情報処理装置。
  14. 前記第1の点は、指の関節点であり、
    前記第2の点は、指先である、
    請求項5に記載の情報処理装置。
  15. 前記ジェスチャ認識部は、前記相対速度が前記閾値を上回る場合に、前記第1のジェスチャとして指の付け根を支点として指先を動かすジェスチャを認識し、前記相対速度が前記閾値を下回る場合に、前記第2のジェスチャとして指の関節点を支点として指先を動かすジェスチャを認識する、
    請求項14に記載の情報処理装置。
  16. 前記指の付け根を支点として指先を動かすジェスチャに対応するコマンドは、オブジェクトを選択するコマンドを含み、前記指の関節点を支点として指先を動かすジェスチャに対応するコマンドは、オブジェクトを移動させるコマンドを含む、
    請求項15に記載の情報処理装置。
  17. 前記第1の点は、肩における所定の点であり、
    前記第2の点は、拳における所定の点である、
    請求項5に記載の情報処理装置。
  18. 前記ジェスチャ認識部は、前記相対速度が前記閾値を上回る場合に、前記第1のジェスチャとして第1の種別のパンチを認識し、前記相対速度が前記閾値を下回る場合に、前記第2のジェスチャとして第2の種別のパンチを認識する、
    請求項17に記載の情報処理装置。
  19. 操作体を時間軸に沿ってセンシングして得られたデータに基づいて、前記操作体の第1の点に対する前記操作体の第2の点の相対速度を算出することと、
    プロセッサが、前記相対速度に基づいて、前記操作体のジェスチャを認識することと、
    を含む、情報処理方法。
  20. コンピュータを、
    操作体を時間軸に沿ってセンシングして得られたデータに基づいて、前記操作体の第1の点に対する前記操作体の第2の点の相対速度を算出する相対速度算出部と、
    前記相対速度に基づいて、前記操作体のジェスチャを認識するジェスチャ認識部と、
    を備える情報処理装置として機能させるためのプログラム。
JP2018220508A 2018-11-26 2018-11-26 情報処理装置、情報処理方法およびプログラム Pending JP2020086939A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018220508A JP2020086939A (ja) 2018-11-26 2018-11-26 情報処理装置、情報処理方法およびプログラム
PCT/JP2019/042092 WO2020110547A1 (ja) 2018-11-26 2019-10-28 情報処理装置、情報処理方法およびプログラム
CN201980076051.3A CN113168221A (zh) 2018-11-26 2019-10-28 信息处理设备、信息处理方法和程序
US17/294,486 US11886643B2 (en) 2018-11-26 2019-10-28 Information processing apparatus and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018220508A JP2020086939A (ja) 2018-11-26 2018-11-26 情報処理装置、情報処理方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2020086939A true JP2020086939A (ja) 2020-06-04

Family

ID=70853137

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018220508A Pending JP2020086939A (ja) 2018-11-26 2018-11-26 情報処理装置、情報処理方法およびプログラム

Country Status (4)

Country Link
US (1) US11886643B2 (ja)
JP (1) JP2020086939A (ja)
CN (1) CN113168221A (ja)
WO (1) WO2020110547A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6919050B1 (ja) * 2020-12-16 2021-08-11 株式会社あかつき ゲームシステム、プログラム及び情報処理方法
WO2023189405A1 (ja) * 2022-03-30 2023-10-05 株式会社栗本鐵工所 入出力装置
WO2023189404A1 (ja) * 2022-03-30 2023-10-05 株式会社栗本鐵工所 入出力装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3630712B2 (ja) * 1994-02-03 2005-03-23 キヤノン株式会社 ジェスチャー入力方法及びその装置
JP3795647B2 (ja) * 1997-10-29 2006-07-12 株式会社竹中工務店 ハンドポインティング装置
GB2502087A (en) * 2012-05-16 2013-11-20 St Microelectronics Res & Dev Gesture recognition
CN106155277B (zh) * 2015-03-26 2019-03-08 联想(北京)有限公司 电子设备和信息处理方法
US9984519B2 (en) * 2015-04-10 2018-05-29 Google Llc Method and system for optical user recognition
CN105824431B (zh) * 2016-06-12 2018-12-04 齐向前 信息输入装置与方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6919050B1 (ja) * 2020-12-16 2021-08-11 株式会社あかつき ゲームシステム、プログラム及び情報処理方法
WO2022130681A1 (ja) * 2020-12-16 2022-06-23 株式会社あかつき ゲームシステム、プログラム及び情報処理方法
JP2022095526A (ja) * 2020-12-16 2022-06-28 株式会社あかつき ゲームシステム、プログラム及び情報処理方法
JP2022094975A (ja) * 2020-12-16 2022-06-28 株式会社あかつき ゲームシステム、プログラム及び情報処理方法
WO2023189405A1 (ja) * 2022-03-30 2023-10-05 株式会社栗本鐵工所 入出力装置
WO2023189404A1 (ja) * 2022-03-30 2023-10-05 株式会社栗本鐵工所 入出力装置

Also Published As

Publication number Publication date
WO2020110547A1 (ja) 2020-06-04
US11886643B2 (en) 2024-01-30
US20220019288A1 (en) 2022-01-20
CN113168221A (zh) 2021-07-23

Similar Documents

Publication Publication Date Title
US10761612B2 (en) Gesture recognition techniques
US10488941B2 (en) Combining virtual reality and augmented reality
US10318011B2 (en) Gesture-controlled augmented reality experience using a mobile communications device
KR102038638B1 (ko) 가상 현실에서 핸드 헬드 디바이스를 트랙킹하는 시스템
US10960298B2 (en) Boolean/float controller and gesture recognition system
WO2019120032A1 (zh) 模型构建方法、拍照方法、装置、存储介质及终端
JP6072237B2 (ja) ジェスチャー入力のための指先の場所特定
CN110622219B (zh) 交互式增强现实
WO2020110547A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP6747446B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN111045511B (zh) 基于手势的操控方法及终端设备
US9535493B2 (en) Apparatus, method, computer program and user interface
KR100749033B1 (ko) 두 눈에서 반사되는 빛을 추적하여 단말기를 조작하는방법, 및 그 장치
US20220375362A1 (en) Virtual tutorials for musical instruments with finger tracking in augmented reality
US9898183B1 (en) Motions for object rendering and selection
US11782548B1 (en) Speed adapted touch detection
US9761009B2 (en) Motion tracking device control systems and methods
US11216179B2 (en) Information processing apparatus and information processing method
WO2017033544A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US11054941B2 (en) Information processing system, information processing method, and program for correcting operation direction and operation amount
JP6523509B1 (ja) ゲームプログラム、方法、および情報処理装置
CN117762243A (zh) 连续手势的运动映射
KR20190135958A (ko) 영상에 포함된 객체를 선택하기 위한 사용자 인터페이스 제어 장치 및 그 방법 그리고 영상 입력 장치

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522