JPWO2018146922A1 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JPWO2018146922A1
JPWO2018146922A1 JP2018566770A JP2018566770A JPWO2018146922A1 JP WO2018146922 A1 JPWO2018146922 A1 JP WO2018146922A1 JP 2018566770 A JP2018566770 A JP 2018566770A JP 2018566770 A JP2018566770 A JP 2018566770A JP WO2018146922 A1 JPWO2018146922 A1 JP WO2018146922A1
Authority
JP
Japan
Prior art keywords
information processing
input
processing apparatus
user
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018566770A
Other languages
English (en)
Inventor
達雄 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2018146922A1 publication Critical patent/JPWO2018146922A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected

Abstract

【課題】3次元的な情報の入力を、簡便かつ直感的な操作により実現する。【解決手段】体の第1の部位と、当該第1の部位とは異なる第2の部位と、を認識する第1の認識部と、認識された前記第1の部位と前記第2の部位との間の実空間上における3次元的な位置関係に応じて、ユーザ入力を認識する第2の認識部と、を備える、情報処理装置。【選択図】図5

Description

本開示は、情報処理装置、情報処理方法、及びプログラムに関する。
PC(Personal Computer)やゲーム機器等のような所謂情報処理装置の動作を制御するために、ユーザからの入力情報を取得するためのユーザインタフェースとして多様な方式のものが提案されている。特に近年では、音響解析や画像解析等の技術の発展に伴い、ユーザが発話した音声やユーザの動作を認識することで、当該発話や動作の認識結果を、情報処理装置の制御に利用する技術も各種提案されている。例えば、特許文献1には、ユーザの動作(所謂ジェスチャ)を認識するための技術の一例が開示されている。
特開2014−99184号公報
ところで、近年では、AR(Augmented Reality)技術やVR(Virtual Reality)技術の発展に伴い、ユーザに対して3次元的な空間を知覚させるような情報の提示が可能となってきている。このような背景から、例えば、AR技術やVR技術に基づき提示された表示情報(例えば、仮想オブジェクト)の3次元的な空間中の位置や姿勢を指定または調整する場合等のように、3次元的な情報の入力を、より簡便な操作により実現可能なユーザインタフェースの提供が求められている。
そこで、本開示では、3次元的な情報の入力を、簡便かつ直感的な操作により実現することが可能な、情報処理装置、情報処理方法、及びプログラムを提案する。
本開示によれば、身体の第1の部位と、当該第1の部位とは異なる第2の部位と、を認識する第1の認識部と、認識された前記第1の部位と前記第2の部位との間の実空間上における3次元的な位置関係に応じて、ユーザ入力を認識する第2の認識部と、を備える、情報処理装置が提供される。
また、本開示によれば、コンピュータが、身体の第1の部位と、当該第1の部位とは異なる第2の部位と、を認識することと、認識された前記第1の部位と前記第2の部位との間の実空間上における3次元的な位置関係に応じて、ユーザ入力を認識することと、を含む、情報処理方法が提供される。
本開示によれば、コンピュータに、身体の第1の部位と、当該第1の部位とは異なる第2の部位と、を認識することと、認識された前記第1の部位と前記第2の部位との間の実空間上における3次元的な位置関係に応じて、ユーザ入力を認識することと、を実行させる、プログラムが提供される。
以上説明したように本開示によれば、3次元的な情報入力を、簡便かつ直感的な操作により実現することが可能な、情報処理装置、情報処理方法、及びプログラムが提供される。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態に係る情報処理システムの概略的な構成の一例について説明するための説明図である。 同実施形態に係る入出力装置の概略的な構成の一例について説明するための説明図である。 同実施形態に係る情報処理システムにおけるユーザインタフェースの概要について説明するための説明図である。 同実施形態に係る情報処理システムにおけるユーザインタフェースの概要について説明するための説明図である。 同実施形態に係る情報処理システムにおけるユーザインタフェースの概要について説明するための説明図である。 同実施形態に係る情報処理システムにおけるユーザインタフェースの概要について説明するための説明図である。 同実施形態に係る情報処理システムの機能構成の一例を示したブロック図である。 同実施形態に係る情報処理システムの一連の処理の流れの一例を示したフローチャートである。 変形例1に係るジェスチャ入力の概要について説明するための説明図である。 変形例1に係るジェスチャ入力の概要について説明するための説明図である。 変形例1に係るジェスチャ入力の概要について説明するための説明図である。 変形例2に係るジェスチャ入力の概要について説明するための説明図である。 同実施形態に係る通信システムを構成する情報処理装置のハードウェア構成の一構成例を示す機能ブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.概略構成
1.1.システム構成
1.2.入出力装置の構成
2.ユーザインタフェースに関する検討
3.ユーザインタフェースの概要
4.機能構成
5.処理
6.変形例
6.1.変形例1:ジェスチャ入力の一例(その1)
6.2.変形例2:ジェスチャ入力の一例(その2)
6.3.変形例3:フィードバックの一例
7.ハードウェア構成の一例
8.むすび
<<1.概略構成>>
<1.1.システム構成>
まず、図1を参照して、本開示の一実施形態に係る情報処理システムの概略的な構成の一例について説明する。図1は、本開示の一実施形態に係る情報処理システムの概略的な構成の一例について説明するための説明図であり、所謂AR(Augmented Reality)技術を応用してユーザに対して各種コンテンツを提示する場合の一例を示している。
図1において、参照符号m111は、実空間上に位置する物体(例えば、実オブジェクト)を模式的に示している。また、参照符号v131及びv133は、実空間上に重畳するように提示される仮想的なコンテンツ(例えば、仮想オブジェクト)を模式的に示している。即ち、本実施形態に係る情報処理システム1は、AR技術に基づき、例えば、実オブジェクトm111等の実空間上の物体に対して、仮想オブジェクトを重畳してユーザに提示する。なお、図1では、本実施形態に係る情報処理システムの特徴をよりわかりやすくするために、実オブジェクトと仮想オブジェクトとの双方をあわせて提示している。
図1に示すように、本実施形態に係る情報処理システム1は、情報処理装置10と、入出力装置20とを含む。情報処理装置10と入出力装置20とは、所定のネットワークを介して互いに情報を送受信可能に構成されている。なお、情報処理装置10と入出力装置20とを接続するネットワークの種別は特に限定されない。具体的な一例として、当該ネットワークは、Wi−Fi(登録商標)規格に基づくネットワークのような、所謂無線のネットワークにより構成されていてもよい。また、他の一例として、当該ネットワークは、インターネット、専用線、LAN(Local Area Network)、または、WAN(Wide Area Network)等により構成されていてもよい。また、当該ネットワークは、複数のネットワークを含んでもよく、少なくとも一部が有線のネットワークとして構成されていてもよい。
入出力装置20は、各種入力情報の取得や、当該入出力装置20を保持するユーザに対して各種出力情報の提示を行うための構成である。また、入出力装置20による出力情報の提示は、情報処理装置10により、当該入出力装置20により取得された入力情報に基づき制御される。例えば、入出力装置20は、実オブジェクトm111を認識するための情報(例えば、撮像された実空間の画像)を入力情報として取得し、取得した情報を情報処理装置10に出力する。情報処理装置10は、入出力装置20から取得した情報に基づき、実空間上における実オブジェクトm111の位置を認識し、当該認識結果に基づき、入出力装置20に仮想オブジェクトv131及びv133を提示させる。このような制御により、入出力装置20は、所謂AR技術に基づき、実オブジェクトm111に対して仮想オブジェクトv131及びv133が重畳するように、当該仮想オブジェクトv131及びv133をユーザに提示することが可能となる。
また、入出力装置20は、例えば、ユーザが頭部の少なくとも一部に装着して使用する、所謂頭部装着型デバイスとして構成されており、当該ユーザの視線を検出可能に構成されていてもよい。このような構成に基づき、情報処理装置10は、例えば、入出力装置20によるユーザの視線の検出結果に基づき、当該ユーザが所望の対象(例えば、実オブジェクトm111や、仮想オブジェクトv131及びv133等)を注視していることを認識した場合に、当該対象を操作対象として特定してもよい。また、情報処理装置10は、入出力装置20に対する所定の操作をトリガとして、ユーザの視線が向けられている対象を操作対象として特定してもよい。以上のようにして、情報処理装置10は、操作対象を特定し、当該操作対象に関連付けられた処理を実行することで、入出力装置20を介して各種サービスをユーザに提供してもよい。
また、情報処理装置10は、入出力装置20により取得された入力情報に基づき、ユーザの身体の少なくとも一部の部位の動き(例えば、位置や向きの変化、ジェスチャ等)をユーザ入力として認識し、当該ユーザ入力の認識結果に応じて各種処理を実行してもよい。具体的な一例として、図1に示す例では、入出力装置20は、ユーザの左手u11及び右手u13を認識するための情報(例えば、撮像された左手u11及び右手u13の画像)を入力情報として取得し、取得した情報を情報処理装置10に出力する。情報処理装置10は、入出力装置20から取得した情報に基づき、左手u11及び右手u13の動き(例えば、ジェスチャ)を認識し、当該動きの認識結果に応じて、ユーザからの指示(即ち、ユーザ入力)を認識する。そして、情報処理装置10は、ユーザ入力の認識結果に応じて、例えば、ユーザに提示する仮想オブジェクトの表示(例えば、仮想オブジェクトの表示位置や姿勢)を制御してもよい。
なお、図1では、入出力装置20と情報処理装置10とが互いに異なる装置として示されているが、入出力装置20及び情報処理装置10は一体的に構成されていてもよい。また、入出力装置20及び情報処理装置10の構成及び処理の詳細については別途後述する。
以上、図1を参照して、本開示の一実施形態に係る情報処理システムの概略的な構成の一例について説明した。
<1.2.入出力装置の構成>
続いて、図2を参照して、図1に示した本実施形態に係る入出力装置20の概略的な構成の一例について説明する。図2は、本実施形態に係る入出力装置の概略的な構成の一例について説明するための説明図である。
前述したように、本実施形態に係る入出力装置20は、ユーザが頭部の少なくとも一部に装着して使用する、所謂頭部装着型デバイスとして構成されている。例えば、図2に示す例では、入出力装置20は、所謂アイウェア型(メガネ型)のデバイスとして構成されており、レンズ293a及び293bのうち少なくともいずれかが透過型のディスプレイ(出力部211)として構成されている。また、入出力装置20は、第1撮像部201a及び201bと、操作部207と、メガネのフレームに相当する保持部291とを備える。また、入出力装置20は、第2撮像部203a及び203bを備えてもよい。なお、以降では、入出力装置20が、第2撮像部203a及び203bを備えているものとして各種説明を行う。保持部291は、入出力装置20がユーザの頭部に装着されたときに、出力部211と、第1撮像部201a及び201bと、第2撮像部203a及び203bと、操作部207とを、当該ユーザの頭部に対して所定の位置関係となるように保持する。また、図2には図示していないが、入出力装置20は、ユーザの音声を集音するための集音部を備えていてもよい。
ここで、入出力装置20のより具体的な構成について説明する。例えば、図2に示す例では、レンズ293aが、右眼側のレンズに相当し、レンズ293bが、左眼側のレンズに相当する。即ち、保持部291は、入出力装置20が装着された場合に、出力部211(換言すると、レンズ293a及び293b)がユーザの眼前に位置するように、当該出力部211を保持する。
第1撮像部201a及び201bは、所謂ステレオカメラとして構成されており、入出力装置20がユーザの頭部に装着されたときに、当該ユーザの頭部が向いた方向(即ち、ユーザの前方)を向くように、保持部291によりそれぞれ保持される。このとき、第1撮像部201aが、ユーザの右眼の近傍に保持され、第1撮像部201bが、当該ユーザの左眼の近傍に保持される。このような構成に基づき、第1撮像部201a及び201bは、入出力装置20の前方に位置する被写体(換言すると、実空間に位置する実オブジェクト)を互いに異なる位置から撮像する。これにより、入出力装置20は、ユーザの前方に位置する被写体の画像を取得するとともに、第1撮像部201a及び201bそれぞれにより撮像された画像間の視差に基づき、当該入出力装置20から、当該被写体までの距離を算出することが可能となる。
なお、入出力装置20と被写体との間の距離を測定可能であれば、その構成や方法は特に限定されない。具体的な一例として、マルチカメラステレオ、移動視差、TOF(Time Of Flight)、Structured Light等の方式に基づき、入出力装置20と被写体との間の距離が測定されてもよい。ここで、TOFとは、被写体に対して赤外線等の光を投光し、投稿した光が当該被写体で反射して戻るまでの時間を画素ごとに測定することで、当該測定結果に基づき被写体までの距離(深度)を含めた画像(所謂距離画像)を得る方式である。また、Structured Lightは、被写体に対して赤外線等の光によりパターンを照射しそれを撮像することで、撮像結果から得られる当該パターンの変化に基づき、被写体までの距離(深度)を含めた距離画像を得る方式である。また、移動視差とは、所謂単眼カメラにおいても、視差に基づき被写体までの距離を測定する方法である。具体的には、カメラを移動させることで、被写体を互いに異なる視点から撮像し、撮像された画像間の視差に基づき被写体までの距離を測定する。なお、このとき各種センサによりカメラの移動距離及び移動方向を認識することで、被写体までの距離をより精度良く測定することが可能となる。なお、距離の測定方法に応じて、撮像部の構成(例えば、単眼カメラ、ステレオカメラ等)を変更してもよい。
また、第2撮像部203a及び203bは、入出力装置20がユーザの頭部に装着されたときに、それぞれの撮像範囲内に当該ユーザの眼球が位置するように、保持部291によりそれぞれ保持される。具体的な一例として、第2撮像部203aは、撮像範囲内にユーザの右眼が位置するように保持される。このような構成に基づき、第2撮像部203aにより撮像された右眼の眼球の画像と、当該第2撮像部203aと当該右眼との間の位置関係と、に基づき、当該右眼の視線が向いている方向を認識することが可能となる。同様に、第2撮像部203bは、撮像範囲内に当該ユーザの左眼が位置するように保持される。即ち、第2撮像部203bにより撮像された左眼の眼球の画像と、当該第2撮像部203bと当該左眼との間の位置関係と、に基づき、当該左眼の視線が向いている方向を認識することが可能となる。なお、図2に示す例では、入出力装置20が第2撮像部203a及び203bの双方を含む構成について示しているが、第2撮像部203a及び203bのうちいずれかのみが設けられていてもよい。
操作部207は、入出力装置20に対するユーザからの操作を受け付けるための構成である。操作部207は、例えば、タッチパネルやボタン等のような入力デバイスにより構成されていてもよい。操作部207は、保持部291により、入出力装置20の所定の位置に保持されている。例えば、図2に示す例では、操作部207は、メガネのテンプルに相当する位置に保持されている。
また、本実施形態に係る入出力装置20は、例えば、加速度センサや、角速度センサ(ジャイロセンサ)が設けられ、当該入出力装置20を装着したユーザの頭部の動き(換言すると、入出力装置20自体の動き)を検出可能に構成されていてもよい。具体的な一例として、入出力装置20は、ユーザの頭部の動きとして、ヨー(yaw)方向、ピッチ(pitch)方向、及びロール(roll)方向それぞれの成分を検出することで、当該ユーザの頭部の位置及び姿勢のうち少なくともいずれかの変化を認識してもよい。
以上のような構成に基づき、本実施形態に係る入出力装置20は、ユーザの頭部の動きに応じた、実空間上における自身の位置や姿勢の変化を認識することが可能となる。また、このとき入出力装置20は、所謂AR技術に基づき、実空間に位置する実オブジェクトに対して、仮想的なコンテンツ(即ち、仮想オブジェクト)が重畳するように、出力部211に当該コンテンツを提示することも可能となる。なお、入出力装置20が、実空間上における自身の位置及び姿勢を推定するための方法(即ち、自己位置推定)の一例については、詳細を別途後述する。
なお、入出力装置20として適用可能な頭部装着型の表示装置(HMD:Head Mounted Display)の一例としては、例えば、シースルー型HMD、ビデオシースルー型HMD、及び網膜投射型HMDが挙げられる。
シースルー型HMDは、例えば、ハーフミラーや透明な導光板を用いて、透明な導光部等からなる虚像光学系をユーザの眼前に保持し、当該虚像光学系の内側に画像を表示させる。そのため、シースルー型HMDを装着したユーザは、虚像光学系の内側に表示された画像を視聴している間も、外部の風景を視野に入れることが可能となる。このような構成により、シースルー型HMDは、例えば、AR技術に基づき、当該シースルー型HMDの位置及び姿勢のうち少なくともいずれかの認識結果に応じて、実空間に位置する実オブジェクトの光学像に対して仮想オブジェクトの画像を重畳させることも可能となる。なお、シースルー型HMDの具体的な一例として、メガネのレンズに相当する部分を虚像光学系として構成した、所謂メガネ型のウェアラブルデバイスが挙げられる。例えば、図2に示した入出力装置20は、シースルー型HMDの一例に相当する。
ビデオシースルー型HMDは、ユーザの頭部または顔部に装着された場合に、ユーザの眼を覆うように装着され、ユーザの眼前にディスプレイ等の表示部が保持される。また、ビデオシースルー型HMDは、周囲の風景を撮像するための撮像部を有し、当該撮像部により撮像されたユーザの前方の風景の画像を表示部に表示させる。このような構成により、ビデオシースルー型HMDを装着したユーザは、外部の風景を直接視野に入れることは困難ではあるが、表示部に表示された画像により、外部の風景を確認することが可能となる。また、このときビデオシースルー型HMDは、例えば、AR技術に基づき、当該ビデオシースルー型HMDの位置及び姿勢のうち少なくともいずれかの認識結果に応じて、外部の風景の画像に対して仮想オブジェクトを重畳させてもよい。
網膜投射型HMDは、ユーザの眼前に投影部が保持されており、当該投影部からユーザの眼に向けて、外部の風景に対して画像が重畳するように当該画像が投影される。より具体的には、網膜投射型HMDでは、ユーザの眼の網膜に対して、投影部から画像が直接投射され、当該画像が網膜上で結像する。このような構成により、近視や遠視のユーザの場合においても、より鮮明な映像を視聴することが可能となる。また、網膜投射型HMDを装着したユーザは、投影部から投影される画像を視聴している間も、外部の風景を視野に入れることが可能となる。このような構成により、網膜投射型HMDは、例えば、AR技術に基づき、当該網膜投射型HMDの位置や姿勢のうち少なくともいずれかの認識結果に応じて、実空間に位置する実オブジェクトの光学像に対して仮想オブジェクトの画像を重畳させることも可能となる。
また、上記では、AR技術を適用することを前提として、本実施形態に係る入出力装置20の構成の一例について説明したが、必ずしも、当該入出力装置20の構成を限定するものではない。例えば、VR技術を適用することを想定した場合には、本実施形態に係る入出力装置20は、没入型HMDと呼ばれるHMDとして構成されていてもよい。没入型HMDは、ビデオシースルー型HMDと同様に、ユーザの眼を覆うように装着され、ユーザの眼前にディスプレイ等の表示部が保持される。そのため、没入型HMDを装着したユーザは、外部の風景(即ち、現実世界の風景)を直接視野に入れることが困難であり、表示部に表示された映像のみが視界に入ることとなる。このような構成により、没入型HMDは、画像を視聴しているユーザに対して没入感を与えることが可能となる。
以上、図2を参照して、本開示の一実施形態に係る入出力装置の概略的な構成の一例について説明した。
<<2.ユーザインタフェースに関する検討>>
続いて、AR技術やVR技術等を利用してユーザに対して情報が提示される場合を想定したユーザインタフェースについて検討したうえで、本実施形態に係る情報処理装置の課題について整理する。
近年では、AR技術やVR技術の発展に伴い、従来の2次元的な情報の提示のみに限らず、ユーザに対して3次元的な空間を、より現実に近い態様で知覚させるような情報の提示が可能となってきている。より具体的な一例として、AR技術を応用することで、実空間上に、仮想的な表示情報があたかも存在するかのように、当該表示情報をユーザに提示することが可能となる。なお、以降の説明では、実空間上に存在する物体等のオブジェクトを「実オブジェクト」とも称し、ディスプレイ等の出力部を介して提示される表示情報等のような仮想的なオブジェクトを「仮想オブジェクト」とも称する。
以上のような背景から、ユーザ入力としても、従来の2次元的な操作のみに限らず、例えば、AR技術やVR技術に基づき提示された仮想オブジェクトの3次元的な位置や姿勢を指定または調整する等のような、3次元的な操作が求められる状況も想定され得る。これに対して、従来のユーザインタフェースは、画面上に表示された情報を2次元的に操作する状況を想定している場合があり、このようなユーザインタフェースでは、上述したような3次元的な操作を実現しようとすると操作が煩雑になる場合がある。
そこで、本開示では、ユーザの動作(ジェスチャ)の認識結果に基づき当該ユーザからの指示を認識するジェスチャ入力により、3次元的な情報の入力を、より簡便かつ直感的な操作により実現することが可能なユーザインタフェースの一例について提案する。
<<3.ユーザインタフェースの概要>>
続いて、本実施形態に係る情報処理システムにおけるユーザインタフェースの概要について説明する。
本実施形態に係る情報処理システムでは、ユーザは、自身の身体の各部位のうち、互いに異なる複数の部位それぞれを組み合わせて使用したジェスチャ入力により、当該情報処理システムに対して各種情報の入力を行うことが可能である。なお、ここでは、本実施形態に係る情報処理システムの特徴をよりわかりやすくするために、ユーザが、自身の左手及び右手を組み合わせて使用したジェスチャ入力により各種情報を入力するユーザインタフェースの一例について説明する。
例えば、本実施形態に係る情報処理システムにおいては、ユーザの手の実空間上における3次元的な向き(姿勢)の認識結果が、ユーザ入力の認識に利用されてもよい。
例えば、図3及び図4は、本実施形態に係る情報処理システムにおけるユーザインタフェースの概要について説明するための説明図である。図3に示すように、ユーザの手u11の実空間上における3次元的な向きを認識することで、当該手u11の掌に沿って延伸する平面v11と、当該平面v11の法線v13とを規定することが可能である。また、図4に示すように、ユーザの手u11の実空間上における3次元的な向きを認識することで、当該手u11の掌に沿って延伸する平面v11の法線v13を軸としたロール回転の回転角θ1を認識することが可能である。
ここで、図5及び図6を参照して、上述したようなユーザの手の実空間上における3次元的な向き(姿勢)の認識結果を利用することで、3次元的な操作を実現することが可能なユーザインタフェースの一例について説明する。図5及び図6は、本実施形態に係る情報処理システムにおけるユーザインタフェースの概要について説明するための説明図である。なお、本説明では、便宜上、実空間上における水平面に略平行な互いに直交する方向をx方向及びy方向とも称し、実空間上における鉛直方向(即ち、x方向及びy方向それぞれに直交する方向)をz方向とも称する。
図5及び図6に示す例では、左右の手u11及びu13のうち一方の手u11の掌により平面v11を規定し、他方の手u13の指による手u11の掌の上へのタッチ操作により、当該平面v11上の位置を指定する。
例えば、図5は、一方の手u11が、開いた状態で掌が実空間上の水平面(即ち、xy平面)に対して略平行な状態となるように保持されており、手u11の掌の上を他方の手u13の指でなぞるような操作が行われた場合の一例を示している。この場合には、本実施形態に係る情報処理装置10は、入出力装置20等により取得された各種入力情報に基づき、一方の手u11の形状を認識し、当該認識結果に応じて当該手u11が開いた状態であることを認識する。また、情報処理装置10は、取得された当該入力情報に基づき、手u11の掌の向きを認識し、当該認識結果に応じて当該掌に沿って延伸する平面v11aを規定する。なお、図5に示す例では、平面v11aは、実空間上における水平面(xy平面)と略平行な面として規定されることとなる。
また、情報処理装置10は、入出力装置20等により取得された各種入力情報に基づき、他方の手u13の形状を認識し、当該認識結果に応じて当該手u13の指を認識する。また、情報処理装置10は、取得された当該入力情報に基づき、他方の手u13の指が一方の手u11の掌に接触または近接したことを認識した場合に、手u11と手u13との間の3次元的な位置関係(換言すると、相対的な位置関係)に応じて、ユーザ入力を認識する。例えば、図5に示す例の場合には、情報処理装置10は、手u11の掌のうち手u13の指が接触または近接した位置に基づき、当該掌の向きに応じて規定された平面v11a上の対応する位置が、ユーザ入力として指定されたものと認識する。換言すると、図5に示す例では、情報処理装置10は、手u11の掌の向きを実空間上の座標系と対応付け、当該手u11の掌の上をなぞるように移動する手u13の指の動きを、実空間上の水平面に対する略平行な方向に向けた操作として認識する。
また、他の一例として、図6は、一方の手u11が、開いた状態で掌が実空間上の水平面に対して略垂直な状態となるように保持されており、手u11の掌の上を他方の手u13の指でなぞるような操作が行われた場合の一例を示している。この場合には、本実施形態に係る情報処理装置10は、図5を参照して説明した例と同様の方法に基づき、一方の手u11が開いた状態であることを認識し、当該手u11の掌の向きを認識することで、平面v11bを規定する。なお、図6に示す例では、平面v11bは、実空間上における水平面(即ち、xy平面)と略垂直な面として規定されることとなる。
また、情報処理装置10は、図5を参照して説明した例と同様の方法に基づき、他方の手u13の指を認識し、手u13の指が手u11の掌に接触または近接したことを認識した場合に、手u11と手u13との間の3次元的な位置関係に応じて、ユーザ入力を認識する。例えば、図6に示す例の場合には、情報処理装置10は、手u11の掌のうち手u13の指が接触した位置に基づき、当該掌の向きに応じて規定された平面v11b上の対応する位置が、ユーザ入力として指定されたものと認識する。換言すると、図6に示す例では、情報処理装置10は、手u11の掌の上をなぞるように移動する手u13の指の動きを、実空間上の水平面に略垂直な面に対する略平行な方向に向けた操作として認識する。
以上のような制御により、例えば、ユーザは、図5及び図6に示すような操作により、仮想オブジェクトの位置や姿勢を調整することが可能となる。具体的な一例として、ユーザは、操作対象となる仮想オブジェクトを水平方向に移動させるような場合には、図5に示すように、一方の手u11を開いた状態で水平に保持し、他方の手u13の指で手u11の掌の上をなぞるように操作すればよい。この場合には、ユーザは、手u11の掌上における手u13の指の位置や動きに応じて、水平面(即ち、xy平面)に略平行な面上の位置や、水平面に平行な方向に沿った位置の変化を指定することが可能となる。
また、ユーザは、操作対象となる仮想オブジェクトを高さ方向(即ち、鉛直方向であり、換言するとz方向)に移動させるような場合には、図6に示すように、一方の手u11を開いた状態で水平に保持し、他方の手u13の指で手u11の掌の上をなぞるように操作すればよい。この場合には、ユーザは、手u11の掌上における手u13の指の位置や動きに応じて、高さ方向(即ち、鉛直方向)の位置や、当該高さ方向に沿った位置の変化を指定することが可能となる。また、手u11の掌の向きを、図5及び図6に示す状態に適宜変更することで、水平面に平行な方向に沿った位置の変化と、鉛直方向に沿った位置の変化とを、連続的な一連の操作として指定することが可能となる。そのため、本実施形態に係るユーザインタフェースに依れば、水平面に平行の方向に沿った操作と、鉛直方向に沿った操作とのいずれかに応じて、操作用のインタフェース(例えば、アイコンやカーソル等)を切り替える等のような煩雑な操作を行う必要がなくなる。
なお、情報処理装置10は、一方の手u11の掌が水平面に対して斜めを向くように保持されている場合には、水平面に対する掌の角度に応じて、図5及び図6に示す状態のうちいずれに該当するかを判断してもよい。例えば、掌の向きが水平面の向きにより近い場合には、情報処理装置10は、図5に示すように、手u11により水平面に略平行な面v11aが規定されているものと認識してもよい。また、掌の向きが水平面に対して垂直な面の向きにより近い場合には、情報処理装置10は、図6に示すように、手u11により水平面に略垂直な面v11bが規定されているものと認識してもよい。
また、他の一例として、情報処理装置10は、一方の手u11の掌が水平面に対して斜めを向くように保持されている場合に、当該掌の向きに応じた面v11、即ち、水平面に対して斜めを向いた面v11を規定してもよい。この場合には、情報処理装置10は、手u11の掌上における手u13の指の位置や動きを、水平面に対して斜めに向いた面v11に沿った位置や、当該面v11に平行な方向に沿った位置の変化として認識してもよい。
以上、図3〜図6を参照して、本実施形態に係る情報処理システムにおけるユーザインタフェースの概要について説明した。
<<4.機能構成>>
続いて、図7を参照して、本実施形態に係る情報処理システム1の機能構成の一例について説明する。図7は、本実施形態に係る情報処理システムの機能構成の一例を示したブロック図である。
図7に示すように、本実施形態に係る情報処理システム1は、入出力装置20と、情報処理装置10と、記憶部151とを含む。なお、図7に示す入出力装置20及び情報処理装置10は、図1を参照して説明した入出力装置20及び情報処理装置10に相当する。
まず、入出力装置20の構成について説明する。図7に示すように、入出力装置20は、撮像部201と、検知部231と、入力部221と、出力部211とを含む。なお、出力部211は、図2における出力部211に対応している。
撮像部201は、図2においてステレオカメラとして構成された第1撮像部201a及び201bに相当する。即ち、撮像部201は、実空間上の物体(被写体)の画像を撮像し、撮像した当該画像を情報処理装置10に出力する。
検知部231は、入出力装置20を装着したユーザの頭部の動きや、当該ユーザの視線が向けられている方向(以降では、「視線方向」とも称する)を検出するための情報の取得に係る構成を模式的に示している。具体的には、検知部231は、加速度センサや角速度センサ等のような各種センサを含み、当該センサによる検知結果を、入出力装置20の位置や姿勢の変化(ひいては、当該入出力装置20を装着したユーザの頭部の動き)を検出するための情報として取得してもよい。また、検知部231は、図2を参照して説明した第2撮像部203a及び203bを含み、当該撮像部により撮像されたユーザの眼球の画像を、当該ユーザの視線を検出するための情報として取得してもよい。そして、検知部231は、取得した情報を情報処理装置10に出力する。
入力部221は、入出力装置20に対してユーザから入力された情報を取得するための構成である。具体的には、入力部221は、図2を参照して説明した操作部207を含んでもよい。また、入力部221は、ユーザの音声を集音するための集音部を含み、当該集音部に対して入力されたユーザの音声を、当該ユーザから入力された情報として取得してもよい。なお、上記に説明した例はあくまで一例であり、入出力装置20に対してユーザが情報を入力することが可能であれば、入力部221に含まれる構成(例えば、入力デバイス)の種別は特に限定されない。そして、入力部221は、取得した情報を情報処理装置10に出力する。
次いで、情報処理装置10の構成について説明する。図7に示すように、情報処理装置10は、オブジェクト認識部101と、ユーザ入力認識部103と、処理実行部105と、表示制御部107とを含む。
オブジェクト認識部101は、撮像部201から撮像された画像を取得し、取得した画像に対して所定の解析処理を施すことで、当該画像に撮像された実空間上の物体(被写体)を認識する。具体的な一例として、オブジェクト認識部101は、ステレオカメラとして構成された撮像部201から、互いに異なる複数の視点から撮像された画像(以降では、「ステレオ画像」とも称する)を取得し、取得した画像間の視差に基づき、画像中に撮像された物体までの距離を、当該画像の画素ごとに測定する。なお、以降の説明では、画素ごとに測定される、画像中に撮像された物体までの距離を示す情報を、「深度情報」とも称する。オブジェクト認識部101は、このようにして取得された深度情報に基づき、撮像部201(ひいては、入出力装置20)と、当該画像に撮像された各物体との間の、実空間上における相対的な位置関係(特に、奥行き方向の位置関係)を推定または認識することが可能となる。
また、オブジェクト認識部101は、実空間上の物体として、ユーザの身体の部位を認識することも可能である。具体的には、オブジェクト認識部101は、深度情報の分布、撮像された画像における色や陰影の濃淡、及び、当該画像から検出される物体の輪郭(換言すると、エッジ)等に基づき、ユーザの身体の部位を認識すればよい。より具体的な一例として、オブジェクト認識部101は、撮像された画像から手や指に特徴的な形状(例えば、輪郭)を検出することで、当該画像中に撮像されたユーザの手を認識することが可能である。また、オブジェクト認識部101は、深度情報の分布に基づき、ユーザの手の向き(換言すると、掌の向き)を認識することも可能である。
また、オブジェクト認識部101は、所謂SLAM(simultaneous localization and mapping)と称される技術を、入出力装置20の自己位置推定に利用してもよい。SLAMとは、カメラ等の撮像部、各種センサ、エンコーダ等を利用することにより、自己位置推定と環境地図の作成とを並行して行う技術である。より具体的な一例として、SLAM(特に、Visual SLAM)では、撮像部により撮像された動画像に基づき、撮像されたシーン(または、被写体)の3次元形状を逐次的に復元する。そして、撮像されたシーンの復元結果を、撮像部の位置及び姿勢の検出結果と関連付けることで、周囲の環境の地図の作成と、当該環境における撮像部(ひいては、入出力装置20)の位置及び姿勢の推定とが行われる。なお、撮像部の位置及び姿勢については、例えば、入出力装置20に加速度センサや角速度センサ等の各種センサを設けることで、当該センサの検出結果に基づき相対的な変化を示す情報として推定することが可能である。もちろん、撮像部の位置及び姿勢を推定可能であれば、その方法は、必ずしも加速度センサや角速度センサ等の各種センサの検知結果に基づく方法のみには限定されない。
以上のような構成の基で、オブジェクト認識部101は、SLAMに基づき自己位置推定と環境地図の作成とを行うことで、入出力装置20と、画像中に撮像された物体との間の、実空間上における位置関係を認識してもよい。この場合には、例えば、オブジェクト認識部101は、検知部231から入出力装置20の位置及び姿勢の変化を示す情報を取得し、当該情報をSLAMに基づく自己位置推定に利用してもよい。
以上のようにして、オブジェクト認識部101は、撮像部201により撮像された画像に基づき実空間上の物体を認識し、当該認識結果を示す情報をユーザ入力認識部103に出力する。なお、オブジェクト認識部101が、「第1の認識部」の一例に相当する。
ユーザ入力認識部103は、オブジェクト認識部101から、実空間上の物体の認識結果を示す情報を取得し、当該情報に含まれる各物体認識結果のうち、少なくともユーザの身体の部位のうち所定の部位(即ち、ジェスチャ入力に利用される部位)の認識結果を、ユーザ入力の認識に利用する。特に、本実施形態に係る情報処理システム1においては、ユーザ入力認識部103は、ユーザ入力の認識に、ユーザの身体の部位のうち互いに異なる複数の部位の認識結果、即ち、第1の部位の認識結果と、当該第1の部位とは異なる第2の部位の認識結果とのそれぞれを利用する。より具体的な一例として、図5及び図6を参照して説明した例のように、ユーザ入力認識部103は、ユーザの左右の手u11及びu13それぞれの形状や、当該手u11及びu13間の3次元的な位置関係に応じて、ユーザ入力を認識する。
なお、互いに異なる複数の部位の3次元的な位置関係に応じてユーザ入力を認識することが可能であれば、ユーザ入力の認識に利用する部位(即ち、ジェスチャ入力に利用される部位)は、左右の手u11及びu13には限定されない。具体的な一例として、左右の手のいずれかと、左右の足のいずれかと、の間の3次元的な位置関係に応じてユーザ入力が認識されてもよい。
また、ユーザ入力認識部103は、ジェスチャ入力に利用される複数の部位が互いに接触または近接する場合に、当該複数の部位の間の3次元的な位置関係に応じてユーザ入力を認識してもよい。このような制御により、ユーザ入力を認識される契機が、ジェスチャ入力に利用される複数の部位が互いに接触または近接する場合に限定される。そのため、当該制御により、ユーザが情報処理装置10への情報の入力を意図しない契機において行った当該ユーザの動作に基づき、誤ってユーザ人力が認識されるといった事態の発生を抑制することが可能となる。
また、ユーザ入力認識部103は、所定の条件に応じて、ユーザの身体の部位の認識結果に応じたユーザ入力の認識に係る条件(換言すると、ジェスチャとユーザ入力との間の対応関係)を選択的に切り替えてもよい。具体的な一例として、ユーザ入力認識部103は、入力部221を介したユーザからの指示に応じて、ユーザ入力の認識に係る条件を選択的に切り替えてもよい。また、他の一例として、ユーザ入力認識部103は、各種センサ等により所定の状態や状況を認識し、当該認識結果に応じて、ユーザ入力の認識に係る条件を自動的に切り替えてもよい。なお、ユーザ入力の認識に係る条件の他の一例、即ち、本実施形態に係るジェスチャ入力の他の一例については、変形例として別途後述する。
そして、ユーザ入力認識部103は、ユーザ入力の認識結果を示す情報を、認識されたユーザ入力に応じた出力先(例えば、処理実行部105や表示制御部107等)に出力する。具体的な一例として、認識されたユーザ入力が、アプリケーション等のような所定の機能の実行を指示するものである場合には、ユーザ入力認識部103は、当該ユーザ入力の認識結果を示す情報を処理実行部105に出力する。また、他の一例として、認識されたユーザ入力が、仮想オブジェクトの位置や姿勢の調整等のような表示制御に関するものである場合には、ユーザ入力認識部103は、当該ユーザ入力の認識結果を示す情報を表示制御部107に出力する。
処理実行部105は、情報処理装置10(ひいては、情報処理システム1)が提供する各種機能(例えば、アプリケーション)を実行するための構成である。処理実行部105は、例えば、ユーザ入力認識部103によるユーザ入力の認識結果に応じて、対応するアプリケーションを所定の記憶部(例えば、後述する記憶部151)から抽出し、抽出したアプリケーションを実行してもよい。また、処理実行部105は、各種アプリケーションの実行結果を示す情報を表示制御部107に出力してもよい。
表示制御部107は、出力対象となる各種表示情報を出力部211に出力させることで、当該表示情報をユーザに提示する。
具体的な一例として、表示制御部107は、AR技術に基づき実空間上に仮想オブジェクトが重畳するように、当該仮想オブジェクトを出力部211に出力させてもよい。なお、この場合には、表示制御部107は、オブジェクト認識部101から、撮像部201により画像中に撮像された各物体(実オブジェクト)の実空間上における位置の認識結果を示す情報を取得してもよい。これにより、表示制御部107は、実空間上における実オブジェクトの位置を認識し、当該認識結果に基づき、実空間上の所望の位置に仮想オブジェクトが重畳するように、当該仮想オブジェクトの表示位置を制御することが可能となる。
また、表示制御部107は、ユーザ入力認識部103によるユーザ入力の認識結果に応じて、出力部211への表示情報の出力を制御してもよい。例えば、表示制御部107は、ユーザ入力の認識結果に応じて、表示情報を提示する位置や向きを制御してもよい。より具体的な一例として、表示制御部107は、AR技術に基づき仮想オブジェクトを提示する場合には、ユーザ入力の認識結果に応じて、当該仮想オブジェクトが提示される位置や当該仮想オブジェクトの向きを3次元的に制御することも可能である。この場合には、表示制御部107は、ユーザ入力の認識結果に応じて、仮想オブジェクトを移動させる3次元的な方向や、当該仮想オブジェクトの移動量を決定し、決定した当該方向や移動量に応じて、仮想オブジェクトの提示位置や向きを制御すればよい。
また、表示制御部107は、各種アプリケーションの実行結果を示す情報を処理実行部105から取得する場合がある。この場合には、表示制御部107は、当該アプリケーションの実行結果を示す情報を出力部211に出力させることで、当該情報をユーザに提示してもよい。
記憶部151は、各種データを、一時的または恒常的に記憶するための記憶領域である。例えば、記憶部151には、情報処理装置10が各種機能を実行するためのデータが記憶されていてもよい。より具体的な一例として、記憶部151には、各種アプリケーションを実行するためのデータ(例えば、ライブラリ)や各種設定等を管理するための管理データ等が記憶されていてもよい。
なお、図7に示した情報処理システム1の機能構成はあくまで一例であり、上述した各構成の処理を実現することが可能であれば、情報処理システム1の機能構成は必ずしも図7に示す例のみには限定されない。具体的な一例として、入出力装置20と情報処理装置10とが一体的に構成されていてもよい。また、他の一例として、記憶部151が、情報処理装置10に含まれていてもよいし、当該情報処理装置10の外部の記録媒体(例えば、当該情報処理装置10に対する外付けされる記録媒体)として構成されていてもよい。また、他の一例として、情報処理装置10の各構成のうち、一部の構成が情報処理装置10の外部(例えば、サーバ等)に設けられていてもよい。
以上、図7を参照して、本実施形態に係る情報処理システム1の機能構成の一例について説明した。
<<5.処理>>
続いて、本実施形態に係る情報処理システム1の一連の処理の流れの一例について、特に、情報処理装置10によるユーザ入力の認識に係る処理に着目して説明する。例えば、図8は、本実施形態に係る情報処理システムの一連の処理の流れの一例を示したフローチャートである。
図8に示すように、情報処理装置10(オブジェクト認識部101)は、撮像部201により撮像された画像に対して所定の解析処理を施すことで、ジェスチャ入力に利用される第1の部位と、当該第1の部位とは異なる第2の部位とを認識する(S101)。より具体的な一例として、情報処理装置10は、図5及び図6を参照して説明した例の場合には、ジェスチャ入力に利用される第1の部位及び第2の部位として、左右の手u11及びu13を認識することとなる。
次いで、情報処理装置10(ユーザ入力認識部103)は、第1の部位と第2の部位それぞれの形状や、当該第1の部位と当該第2の部位との実空間における3次元的な位置関係を認識し(S103)、当該認識結果に応じて、ユーザ入力を認識する(S105)。例えば、情報処理装置10は、第1の部位の実空間上における3次元的な向きに応じて座標系を規定し、当該第1の部位と第2の部位との間の相対的な位置関係に応じて、当該座標系上における位置、方向、または距離等が指定されたものと認識してもよい。
そして、情報処理装置10は、ユーザ入力の認識結果に応じた処理を実行する(S107)。具体的な一例として、情報処理装置10(処理実行部105)は、ユーザ入力の認識結果に応じて、対応するアプリケーションを実行してもよい。また、他の一例として、情報処理装置10(表示制御部107)は、ユーザ入力の認識結果に応じて、仮想オブジェクト等のような表示情報を提示する位置や向き(特に、3次元的な位置や向き)を制御してもよい。
以上、図8を参照して、本実施形態に係る情報処理システム1の一連の処理の流れの一例について、特に、情報処理装置10によるユーザ入力の認識に係る処理に着目して説明した。
<<6.変形例>>
続いて、本実施形態に係る情報処理システム1の変形例について説明する。
<6.1.変形例1:ジェスチャ入力の一例(その1)>
まず、変形例1として、左右の手を利用したジェスチャ入力の一例について説明する。例えば、図9〜図11は、変形例1に係るジェスチャ入力の概要について説明するための説明図である。
変形例1に係る情報処理システム1では、情報処理装置10は、図4を参照して説明したように、ユーザの手u11の掌に沿って延伸する平面v11の法線v13を軸としたロール回転の回転角θ1の認識結果に応じて、ユーザ入力を認識する。具体的には、図9に示すように、情報処理装置10は、一方の手u11の少なくとも一部(例えば、掌)に対して、他方の手u13の少なくとも一部(例えば、指)が接触または近接している状態で、当該手u11の回転角θ1を認識する。このとき、情報処理装置10は、他方の手u13に対する一方の手u11の相対的な向きの認識結果(例えば、相対的な向きの変化の認識結果)に応じて、当該手u11の回転角θ1を認識してもよい。また、他の一例として、情報処理装置10は、実空間上における手u11の実際の向き(換言すると、実空間上の絶対座標系における手u11の向きであり、例えば、水平面に対する仰角等)に応じて、回転角θ1を認識してもよい。そして、情報処理装置10は、当該回転角θ1の認識結果に応じて、ユーザ入力を認識する。
具体的には、情報処理装置10は、手u11の回転方向に応じて、仮想オブジェクトv201を移動させる方向を認識し、当該手u11の回転角θ1に応じて、当該仮想オブジェクトv201の移動量を認識する。
例えば、図10は、図9を参照して説明したジェスチャ入力に基づき、仮想オブジェクトv201が提示される位置を調整する場合の一例を示している。図10に示す例では、情報処理装置10は、所定の位置を基準点とし、手u11の回転方向及び回転角θ1の認識結果に応じて、当該基準点を中心として操作対象となる仮想オブジェクトv201を回転移動させている。より具体的な一例として、情報処理装置10は、手u11が仰角方向に回転したことを認識した場合に、当該手u11の回転角θ1に応じて、基準点を中心に仮想オブジェクトv201を仰角方向に回転移動させてもよい。なお、図10に示す例において、基準点(即ち、回転移動の中心)の設定方法については特に限定されない。具体的な一例として、地表面上のユーザが立っている位置が基準点として設定されてもよい。また、他の一例として、ユーザの頭部の位置のように、ユーザの少なくとも一部の部位の位置が基準点として設定されてもよい。また、ユーザの視点中心が基準点として設定されてもよい。また、他の一例として、所定のユーザ入力に基づき、基準点の位置が設定されてもよい。
また、図11は、図9を参照して説明したジェスチャ入力に基づき、仮想オブジェクトv201が提示される位置を調整する場合の他の一例を示している。図10に示す例では、情報処理装置10は、手u11の回転方向及び回転角θ1の認識結果に応じて、操作対象となる仮想オブジェクトv201を平行移動させている。より具体的な一例として、情報処理装置10は、手u11が仰角方向に回転したことを認識した場合に、当該手u11の回転角θ1に応じて、仮想オブジェクトv201を鉛直方向(即ち、高さ方向)に平行移動させてもよい。
なお、図10及び図11を参照して説明した例はあくまで一例であり、手u11の回転方向及び回転角θ1に応じて、操作対象となる表示情報(例えば、仮想オブジェクトv201)の提示位置や向き(姿勢)が調整されれば、その方法は特に限定されない。
また、上記では、左右の手がジェスチャ入力に利用される場合の一例について説明したが、複数の部位がジェスチャ入力に利用されれば、当該複数の部位のうち少なくとも一方が手以外の他の部位であってもよい。
また、変形例1に係るジェスチャ入力と、図5及び図6を参照して説明したジェスチャ入力とを組み合わせることも可能である。具体的な一例として、情報処理装置10は、一方の手u11の実空間上における3次元的な向きと、当該手u11と他方の手u13との間の相対的な位置関係と、の認識結果に応じて、ユーザ入力を認識してもよい。また、このとき情報処理装置10は、一方の手u11の実空間上における3次元的な向きに加えて、当該手u11の実空間上における3次元的な位置に応じて、ユーザ入力を認識してもよい。これは、図5及び図6を参照して説明した例についても同様である。
例えば、情報処理装置10は、手u11の回転方向及び回転角θ1の認識結果に応じて、操作対象となる仮想オブジェクトV201の大まかな位置や向きを調整してもよい。また、このとき、情報処理装置10は、手u11の実空間上における3次元的な位置の変化に応じて、当該仮想オブジェクトV201の大まかな位置や向きが調整されてもよい。より具体的な一例として、情報処理装置10は、手u11の実空間上における3次元的な位置や向きの認識結果に応じて、当該手u11により指し示された位置や方向を認識(または推定)し、当該認識の結果に応じて、仮想オブジェクトV201の大まかな位置や向きを調整してもよい。加えて、手u11の掌に対する手u13の指の位置の変化(即ち、手u11の掌への手u13の指による操作)の認識結果に応じて、当該仮想オブジェクトV201の詳細な位置や姿勢が微調整されてもよい。
また、他の一例として、手u11の回転方向及び回転角θ1の認識結果に応じて、操作対象となる仮想オブジェクトV201が回転移動するように、当該仮想オブジェクトV201の位置や向きが調整されてもよい。加えて、手u11の掌に対する手u13の指の位置の変化の認識結果に応じて、当該仮想オブジェクトV201が平行移動するように、当該仮想オブジェクトV201の位置や向きが調整されてもよい。
以上、変形例1として、図9〜図11を参照して、左右の手を利用したジェスチャ入力の一例について説明する。
<6.2.変形例2:ジェスチャ入力の一例(その2)>
続いて、変形例2として、左右の手を利用したジェスチャ入力の他の一例について説明する。例えば、図12は、変形例2に係るジェスチャ入力の概要について説明するための説明図である。
図12に示す例では、情報処理装置10は、一方の手u11の掌の上に他方の手u13の掌を立てた状態で、手u11の掌の鉛直方向を軸として、手u13の掌を回転させる動作を認識し、当該動作の認識結果に応じて、ユーザ入力を認識する。
具体的には、情報処理装置10は、一方の手u11の形状の認識結果と、当該手u11の実空間上における向きの認識結果と、に応じて、当該手u11の掌に沿って延伸する平面v11を規定する。同様に、情報処理装置10は、他方の手u13の形状の認識結果と、当該手u13の実空間上における向きの認識結果と、に応じて、当該手u13の掌に沿って延伸する平面v13を規定する。そして、情報処理装置10は、平面v11の向き(換言すると、平面v11の法線方向)に応じて実空間上における回転軸の向きを規定し、当該平面v11と平面v13との相対的な位置関係に応じて回転角を認識する。
以上のような制御により、情報処理装置10は、例えば、図12に示すような手u11及びu13を使用したジェスチャ入力を、実空間上における回転運動と対応付けることが可能となる。そのため、例えば、情報処理装置10は、上記回転軸の向きの規定結果と、上記回転角の認識結果と、に応じて、操作対象となる仮想オブジェクトを回転させることで、当該仮想オブジェクトの姿勢を制御してもよい。
また、情報処理装置10は、回転軸の規定に利用されている一方の手u11の向きが変わるように、手u11及び手u13が一体的に回転されたことを認識した場合に、当該手u11の向きに応じて回転軸の向きを調整してもよい。このような制御により、ユーザは、例えば、図12を参照して説明した動作(即ち、操作)に基づき、操作対象となる仮想オブジェクトを回転させた後に、手のu11の掌の向きを変えたうえで同動作を再度行うことで、回転軸の向きを変更して当該仮想オブジェクトを再度回転させることも可能となる。
なお、上記では、左右の手がジェスチャ入力に利用される場合の一例について説明したが、複数の部位がジェスチャ入力に利用されれば、当該複数の部位のうち少なくとも一方が手以外の他の部位であってもよい。
以上、変形例2として、図12を参照して、左右の手を利用したジェスチャ入力の他の一例について説明した。
<6.3.変形例3:フィードバックの一例>
続いて、変形例3として、本実施形態に係る情報処理システム1における情報処理装置10によるユーザへの情報のフィードバックの一例について説明する。
本実施形態に係る情報処理システム1において、情報処理装置10は、上述したように所定の部位を利用したジェスチャ入力の認識結果に応じて、ユーザ入力を認識した場合に、当該ユーザ入力の認識結果に応じた情報をユーザにフィードバックしてもよい。
例えば、図5及び図6に示す例の場合には、情報処理装置10は、一方の手u11の掌の向きの認識結果に基づき規定される平面v11や、当該平面v11の法線方向v13等を、ユーザに対して表示情報として視覚的に提示してもよい。また、他の一例として、情報処理装置10は、一方の手u11の掌上における他方の手u13の指による操作の方向や操作量等を、ユーザに対して表示情報として視覚的に提示してもよい。
また、図9に示す例の場合には、情報処理装置10は、一方の手u11の向き、当該手u11の回転方向、及び当該手u11の回転角θ1等を、ユーザに対して表示情報として視覚的に提示してもよい。
このような制御により、例えば、入出力装置20として没入型HMDが使用されることで、ユーザが自身の部位(例えば、上記複数の部位)を直接視認することが困難な状態においても、当該ユーザは、フィードバックされた情報に応じて、自身が行ったジェスチャ入力を認識することが可能となる。
以上、変形例3として、本実施形態に係る情報処理システム1における情報処理装置10によるユーザへの情報のフィードバックの一例について説明した。
<<7.ハードウェア構成の一例>>
続いて、図13を参照しながら、前述した情報処理装置10や入出力装置20のように、本開示の一実施形態に係る情報処理システムを構成する情報処理装置のハードウェア構成の一例について、詳細に説明する。図13は、本開示の一実施形態に係る通信システムを構成する情報処理装置のハードウェア構成の一構成例を示す機能ブロック図である。
本実施形態に係る通信システムを構成する情報処理装置900は、主に、CPU901と、ROM903と、RAM905と、を備える。また、情報処理装置900は、更に、ホストバス907と、ブリッジ909と、外部バス911と、インタフェース913と、入力装置915と、出力装置917と、ストレージ装置919と、ドライブ921と、接続ポート923と、通信装置925とを備える。
CPU901は、演算処理装置及び制御装置として機能し、ROM903、RAM905、ストレージ装置919又はリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置900内の動作全般又はその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM905は、CPU901が使用するプログラムや、プログラムの実行において適宜変化するパラメータ等を一次記憶する。これらはCPUバス等の内部バスにより構成されるホストバス907により相互に接続されている。例えば、図7に示すオブジェクト認識部101、ユーザ入力認識部103、処理実行部105、及び表示制御部107は、CPU901により構成され得る。
ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。また、外部バス911には、インタフェース913を介して、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923及び通信装置925が接続される。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、レバー及びペダル等、ユーザが操作する操作手段である。また、入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール手段(いわゆる、リモコン)であってもよいし、情報処理装置900の操作に対応した携帯電話やPDA等の外部接続機器929であってもよい。さらに、入力装置915は、例えば、上記の操作手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。情報処理装置900のユーザは、この入力装置915を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。例えば、図7に示す入力部221は、入力装置915により構成され得る。
出力装置917は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で構成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置及びランプ等の表示装置や、スピーカ及びヘッドホン等の音声出力装置や、プリンタ装置等がある。出力装置917は、例えば、情報処理装置900が行った各種処理により得られた結果を出力する。具体的には、表示装置は、情報処理装置900が行った各種処理により得られた結果を、テキスト又はイメージで表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して出力する。例えば、図7に示す出力部211は、出力装置917により構成され得る。
ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ等を格納する。例えば、図7に示す記憶部151は、ストレージ装置919により構成され得る。
ドライブ921は、記録媒体用リーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク又は半導体メモリ等のリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク又は半導体メモリ等のリムーバブル記録媒体927に記録を書き込むことも可能である。リムーバブル記録媒体927は、例えば、DVDメディア、HD−DVDメディア又はBlu−ray(登録商標)メディア等である。また、リムーバブル記録媒体927は、コンパクトフラッシュ(登録商標)(CF:CompactFlash)、フラッシュメモリ又はSDメモリカード(Secure Digital memory card)等であってもよい。また、リムーバブル記録媒体927は、例えば、非接触型ICチップを搭載したICカード(Integrated Circuit card)又は電子機器等であってもよい。
接続ポート923は、情報処理装置900に直接接続するためのポートである。接続ポート923の一例として、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポート等がある。接続ポート923の別の例として、RS−232Cポート、光オーディオ端子、HDMI(登録商標)(High−Definition Multimedia Interface)ポート等がある。この接続ポート923に外部接続機器929を接続することで、情報処理装置900は、外部接続機器929から直接各種のデータを取得したり、外部接続機器929に各種のデータを提供したりする。
通信装置925は、例えば、通信網(ネットワーク)931に接続するための通信デバイス等で構成された通信インタフェースである。通信装置925は、例えば、有線若しくは無線LAN(Local Area Network)、Bluetooth(登録商標)又はWUSB(Wireless USB)用の通信カード等である。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ又は各種通信用のモデム等であってもよい。この通信装置925は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。また、通信装置925に接続される通信網931は、有線又は無線によって接続されたネットワーク等により構成され、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信又は衛星通信等であってもよい。
以上、本開示の実施形態に係る通信システムを構成する情報処理装置900の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。なお、図13では図示しないが、情報処理システムを構成する情報処理装置900に対応する各種の構成を当然備える。
なお、上述のような本実施形態に係る情報処理システムを構成する情報処理装置900の各機能を実現するためのコンピュータプログラムを作製し、パーソナルコンピュータ等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信してもよい。また、当該コンピュータプログラムを実行させるコンピュータの数は特に限定されない。例えば、当該コンピュータプログラムを、複数のコンピュータ(例えば、複数のサーバ等)が互いに連携して実行してもよい。
<<8.むすび>>
以上、説明したように、本実施形態に係る情報処理システム1において、情報処理装置10は、身体の部位のうち、第1の部位と、第1の部位とは異なる第2の部位と、を認識する。そして、当該情報処理装置10は、当該第1の部位と当該第2の部位との間の実空間上における3次元的な位置関係に応じて、ユーザ入力を認識する。より具体的な一例として、情報処理装置10は、第1の部位(例えば、一方の手)の実空間上における向きと、当該第1の部位と第2の部位(例えば、他方の手)との間の相対的な位置関係と、のそれぞれの認識結果に応じて、ユーザ入力を認識してもよい。また、他の一例として、情報処理装置10は、第2の部位に対する第1の部位の相対的な向き(例えば、一方の手の回転角)の認識結果に応じて、ユーザ入力を認識してもよい。
以上のような構成により、本実施形態に係る情報処理システム1に依れば、ユーザは、仮想オブジェクトの3次元的な位置や姿勢を指定する場合等のように、3次元的な情報の入力(換言すると、3次元的な操作)を、簡便かつ直感的なジェスチャ入力により行うことが可能となる。
また、本実施形態に係る情報処理システム1では、情報処理装置10は、第1の部位に対して第2の部位が接触または近接している場合に、上述したユーザ入力の認識を行ってもよい。換言すると、情報処理装置10は、第1の部位と第2の部位とが所定の距離以上離間している場合においては、上述したユーザ入力の認識を抑制してもよい。このような制御により、ユーザが情報処理装置10への情報の入力を意図しない契機において行った当該ユーザの動作に基づき、誤ってユーザ人力が認識されるといった事態の発生を抑制することが可能となる。また、この場合には、ユーザは、複数の部位のうち一方の部位が他方の部位の近傍に位置する状態(ひいては、一方の部位で他方の部位に触れた状態)でジェスチャ入力が行われる。そのため、例えば、入出力装置20として没入型HMDが使用されることで、ユーザが自身の部位(例えば、上記複数の部位)を直接視認することが困難な状態においても、当該ユーザは、自身が行っているジェスチャ入力を直感的に認識しやすくなる。
なお、上述した本実施形態に係るジェスチャ入力が、他のユーザインタフェース(即ち、他の入力方法)と組み合わせて使用されてもよい。具体的な一例として、本実施形態に係るジェスチャ入力が、ユーザの視線の検出結果をユーザ入力として利用する所謂視線入力と組み合わせて利用されてもよい。この場合には、例えば、情報処理装置10は、ユーザの視線の検出結果に応じて、ユーザにより指定された実空間上における3次元的な位置や向きを認識し、本実施形態に係るジェスチャ入力の認識結果に応じて、当該位置や向きの認識結果を補正してもよい。このような構成により、ユーザは、例えば、視線により実空間上の3次元的な位置や向きを大まかに指定し、本実施形態に係るジェスチャ入力を利用することで、当該位置や向きの指定を微調整することも可能となる。もちろん、本実施形態に係るジェスチャ入力と組み合わせる他のユーザインタフェースの種類は、上述した例のみには限定されない。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
身体の第1の部位と、当該第1の部位とは異なる第2の部位と、を認識する第1の認識部と、
認識された前記第1の部位と前記第2の部位との間の実空間上における3次元的な位置関係に応じて、ユーザ入力を認識する第2の認識部と、
を備える、情報処理装置。
(2)
前記第2の認識部は、前記第1の部位の実空間上における3次元的な向きと、当該第1の部位と前記第2の部位との間の相対的な位置関係と、の認識結果に応じて、前記ユーザ入力を認識する、前記(1)に記載の情報処理装置。
(3)
前記第2の認識部は、前記第1の部位の前記向きに応じて規定される平面の実空間上における向きと、当該平面と前記第2の部位との間の相対的な位置関係と、の認識結果に応じて、前記ユーザ入力を認識する、前記(2)に記載の情報処理装置。
(4)
前記第2の認識部は、前記平面である第1の平面と、前記第2の部位の実空間上における3次元的な向きに応じて規定される第2の平面と、の間の相対的な位置関係に応じて、前記ユーザ入力を認識する、前記(3)に記載の情報処理装置。
(5)
前記第2の認識部は、前記第2の部位に対する前記第1の部位の相対的な向きの認識結果に応じて、前記ユーザ入力を認識する、前記(2)に記載の情報処理装置。
(6)
前記第2の認識部は、前記第1の部位の実空間上における3次元的な向き及び位置と、当該第1の部位と前記第2の部位との間の相対的な位置関係と、の認識結果に応じて、前記ユーザ入力を認識する、前記(2)に記載の情報処理装置。
(7)
前記第2の認識部は、所定の条件に応じて、前記第1の部位と前記第2の部位との間の実空間上における3次元的な位置関係に応じた前記ユーザ入力の認識に関する条件を制御する、前記(1)〜(6)のいずれか一項に記載の情報処理装置。
(8)
前記第2の認識部は、前記第1の部位と前記第2の部位とが互いに接触または近接する場合に、前記位置関係に応じて、前記ユーザ入力を認識する、前記(1)〜(7)のいずれか一項に記載の情報処理装置。
(9)
前記第1の部位及び前記第2の部位のうち、少なくとも一方の部位は、左右の手のうちの少なくとも一部である、前記(1)〜(8)のいずれか一項に記載の情報処理装置。
(10)
前記第1の部位は、左右の手のうちのいずれか一方の手であり、
前記第2の部位は、前記一方の手とは異なる他方の手の指である、
前記(9)に記載の情報処理装置。
(11)
前記ユーザ入力の認識結果に応じて、所定の出力部への表示情報の表示を制御する制御部を備える、前記(1)〜(10)のいずれか一項に記載の情報処理装置。
(12)
コンピュータが、
身体の第1の部位と、当該第1の部位とは異なる第2の部位と、を認識することと、
認識された前記第1の部位と前記第2の部位との間の実空間上における3次元的な位置関係に応じて、ユーザ入力を認識することと、
を含む、情報処理方法。
(13)
コンピュータに、
身体の第1の部位と、当該第1の部位とは異なる第2の部位と、を認識することと、
認識された前記第1の部位と前記第2の部位との間の実空間上における3次元的な位置関係に応じて、ユーザ入力を認識することと、
を実行させる、プログラム。
1 情報処理システム
10 情報処理装置
101 オブジェクト認識部
103 ユーザ入力認識部
105 処理実行部
107 表示制御部
151 記憶部
20 入出力装置
201 撮像部
211 出力部
221 入力部
231 検知部

Claims (13)

  1. 身体の第1の部位と、当該第1の部位とは異なる第2の部位と、を認識する第1の認識部と、
    認識された前記第1の部位と前記第2の部位との間の実空間上における3次元的な位置関係に応じて、ユーザ入力を認識する第2の認識部と、
    を備える、情報処理装置。
  2. 前記第2の認識部は、前記第1の部位の実空間上における3次元的な向きと、当該第1の部位と前記第2の部位との間の相対的な位置関係と、の認識結果に応じて、前記ユーザ入力を認識する、請求項1に記載の情報処理装置。
  3. 前記第2の認識部は、前記第1の部位の前記向きに応じて規定される平面の実空間上における向きと、当該平面と前記第2の部位との間の相対的な位置関係と、の認識結果に応じて、前記ユーザ入力を認識する、請求項2に記載の情報処理装置。
  4. 前記第2の認識部は、前記平面である第1の平面と、前記第2の部位の実空間上における3次元的な向きに応じて規定される第2の平面と、の間の相対的な位置関係に応じて、前記ユーザ入力を認識する、請求項3に記載の情報処理装置。
  5. 前記第2の認識部は、前記第2の部位に対する前記第1の部位の相対的な向きの認識結果に応じて、前記ユーザ入力を認識する、請求項2に記載の情報処理装置。
  6. 前記第2の認識部は、前記第1の部位の実空間上における3次元的な向き及び位置と、当該第1の部位と前記第2の部位との間の相対的な位置関係と、の認識結果に応じて、前記ユーザ入力を認識する、請求項2に記載の情報処理装置。
  7. 前記第2の認識部は、所定の条件に応じて、前記第1の部位と前記第2の部位との間の実空間上における3次元的な位置関係に応じた前記ユーザ入力の認識に関する条件を制御する、請求項1に記載の情報処理装置。
  8. 前記第2の認識部は、前記第1の部位と前記第2の部位とが互いに接触または近接する場合に、前記位置関係に応じて、前記ユーザ入力を認識する、請求項1に記載の情報処理装置。
  9. 前記第1の部位及び前記第2の部位のうち、少なくとも一方の部位は、左右の手のうちの少なくとも一部である、請求項1に記載の情報処理装置。
  10. 前記第1の部位は、左右の手のうちのいずれか一方の手であり、
    前記第2の部位は、前記一方の手とは異なる他方の手の指である、
    請求項9に記載の情報処理装置。
  11. 前記ユーザ入力の認識結果に応じて、所定の出力部への表示情報の表示を制御する制御部を備える、請求項1に記載の情報処理装置。
  12. コンピュータが、
    身体の第1の部位と、当該第1の部位とは異なる第2の部位と、を認識することと、
    認識された前記第1の部位と前記第2の部位との間の実空間上における3次元的な位置関係に応じて、ユーザ入力を認識することと、
    を含む、情報処理方法。
  13. コンピュータに、
    身体の第1の部位と、当該第1の部位とは異なる第2の部位と、を認識することと、
    認識された前記第1の部位と前記第2の部位との間の実空間上における3次元的な位置関係に応じて、ユーザ入力を認識することと、
    を実行させる、プログラム。
JP2018566770A 2017-02-13 2017-12-01 情報処理装置、情報処理方法、及びプログラム Pending JPWO2018146922A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017023721 2017-02-13
JP2017023721 2017-02-13
PCT/JP2017/043359 WO2018146922A1 (ja) 2017-02-13 2017-12-01 情報処理装置、情報処理方法、及びプログラム

Publications (1)

Publication Number Publication Date
JPWO2018146922A1 true JPWO2018146922A1 (ja) 2019-11-21

Family

ID=63108102

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018566770A Pending JPWO2018146922A1 (ja) 2017-02-13 2017-12-01 情報処理装置、情報処理方法、及びプログラム

Country Status (5)

Country Link
US (1) US20190369807A1 (ja)
EP (1) EP3582068A4 (ja)
JP (1) JPWO2018146922A1 (ja)
CN (1) CN110249290A (ja)
WO (1) WO2018146922A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11488361B1 (en) 2019-02-15 2022-11-01 Meta Platforms Technologies, Llc Systems and methods for calibrating wearables based on impedance levels of users' skin surfaces
US10867220B2 (en) * 2019-05-16 2020-12-15 Rpx Corporation Systems and methods for generating composite sets of data from different sensors
US20230031913A1 (en) * 2020-01-17 2023-02-02 Sony Group Corporation Information processing device, information processing method, computer program, and augmented reality system
WO2022180894A1 (ja) * 2021-02-24 2022-09-01 合同会社Vessk 触覚拡張情報処理システム、ソフトウエア、方法並びに記録媒体

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013046768A1 (ja) * 2011-09-30 2013-04-04 楽天株式会社 検索装置、検索方法、記録媒体、ならびに、プログラム
JP2013235588A (ja) * 2012-05-04 2013-11-21 Samsung Electronics Co Ltd 空間上の相互作用に基づく端末の制御方法及びその端末
JP2014067388A (ja) * 2012-09-06 2014-04-17 Toshiba Alpine Automotive Technology Corp アイコン操作装置
JP2015069396A (ja) * 2013-09-30 2015-04-13 富士通株式会社 プログラム、情報処理装置、および方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9772689B2 (en) 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
JP2012098988A (ja) * 2010-11-04 2012-05-24 Sony Corp 画像処理装置および方法、並びにプログラム
JP5711962B2 (ja) * 2010-12-27 2015-05-07 株式会社ソニー・コンピュータエンタテインメント ジェスチャ操作入力処理装置およびジェスチャ操作入力処理方法
JP2012243007A (ja) * 2011-05-18 2012-12-10 Toshiba Corp 映像表示装置及びそれを用いた映像領域選択方法
KR20130124061A (ko) * 2012-05-04 2013-11-13 삼성전자주식회사 공간상의 상호 작용을 이용한 단말의 제어 방법 및 그 단말
EP2680228B1 (en) * 2012-06-25 2014-11-26 Softkinetic Software Improvements in or relating to three dimensional close interactions.
US20150186039A1 (en) * 2012-08-27 2015-07-02 Citizen Holdings Co., Ltd. Information input device
DE112014003563B4 (de) * 2013-08-02 2023-10-05 Mitsubishi Electric Corporation Vorrichtung und Verfahren zur Gestenbestimmung, Gestenbedienungsvorrichtung, Programm und Aufzeichnungsmedium
WO2015105044A1 (ja) * 2014-01-10 2015-07-16 日本電気株式会社 インターフェース装置、可搬装置、制御装置、モジュール、制御方法およびプログラム記憶媒体
KR20150110257A (ko) * 2014-03-21 2015-10-02 삼성전자주식회사 웨어러블 디바이스에서 가상의 입력 인터페이스를 제공하는 방법 및 이를 위한 웨어러블 디바이스
WO2015142023A1 (en) * 2014-03-21 2015-09-24 Samsung Electronics Co., Ltd. Method and wearable device for providing a virtual input interface
US9575560B2 (en) * 2014-06-03 2017-02-21 Google Inc. Radar-based gesture-recognition through a wearable device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013046768A1 (ja) * 2011-09-30 2013-04-04 楽天株式会社 検索装置、検索方法、記録媒体、ならびに、プログラム
JP2013235588A (ja) * 2012-05-04 2013-11-21 Samsung Electronics Co Ltd 空間上の相互作用に基づく端末の制御方法及びその端末
JP2014067388A (ja) * 2012-09-06 2014-04-17 Toshiba Alpine Automotive Technology Corp アイコン操作装置
JP2015069396A (ja) * 2013-09-30 2015-04-13 富士通株式会社 プログラム、情報処理装置、および方法

Also Published As

Publication number Publication date
WO2018146922A1 (ja) 2018-08-16
EP3582068A4 (en) 2020-02-19
CN110249290A (zh) 2019-09-17
US20190369807A1 (en) 2019-12-05
EP3582068A1 (en) 2019-12-18

Similar Documents

Publication Publication Date Title
CN110647237B (zh) 在人工现实环境中基于手势的内容共享
EP3469458B1 (en) Six dof mixed reality input by fusing inertial handheld controller with hand tracking
KR20230074780A (ko) 검출된 손 제스처들에 응답한 터치리스 포토 캡처
KR20230066626A (ko) 증강 현실에서 인터랙티브 게임 제어를 위한 손 제스처들의 추적
US11854147B2 (en) Augmented reality guidance that generates guidance markers
WO2018146922A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US11869156B2 (en) Augmented reality eyewear with speech bubbles and translation
US11151804B2 (en) Information processing device, information processing method, and program
US11954268B2 (en) Augmented reality eyewear 3D painting
CN108885487B (zh) 一种可穿戴式系统的手势控制方法以及可穿戴式系统
US11741679B2 (en) Augmented reality environment enhancement
US20200341284A1 (en) Information processing apparatus, information processing method, and recording medium
JP2019067323A (ja) 情報処理装置、情報処理方法、及び記録媒体
WO2018198499A1 (ja) 情報処理装置、情報処理方法、及び記録媒体
CN110895433A (zh) 用于增强现实中用户交互的方法和装置
US20230367118A1 (en) Augmented reality gaming using virtual eyewear beams
TWI460683B (zh) The way to track the immediate movement of the head
US20240119928A1 (en) Media control tools for managing communications between devices
WO2023034017A1 (en) Augmented reality prop interactions

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211019

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220405