JPWO2014147858A1 - 3次元ロック解除装置、3次元ロック解除方法及びプログラム - Google Patents
3次元ロック解除装置、3次元ロック解除方法及びプログラム Download PDFInfo
- Publication number
- JPWO2014147858A1 JPWO2014147858A1 JP2015506534A JP2015506534A JPWO2014147858A1 JP WO2014147858 A1 JPWO2014147858 A1 JP WO2014147858A1 JP 2015506534 A JP2015506534 A JP 2015506534A JP 2015506534 A JP2015506534 A JP 2015506534A JP WO2014147858 A1 JPWO2014147858 A1 JP WO2014147858A1
- Authority
- JP
- Japan
- Prior art keywords
- dimensional
- selection
- operator
- information
- selection information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 50
- 238000001514 detection method Methods 0.000 claims abstract description 58
- 239000003550 marker Substances 0.000 claims description 23
- 230000004048 modification Effects 0.000 description 13
- 238000012986 modification Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 239000002131 composite material Substances 0.000 description 9
- 230000008569 process Effects 0.000 description 8
- 239000000203 mixture Substances 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 5
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/36—User authentication by graphic or iconic representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2221/00—Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F2221/03—Indexing scheme relating to G06F21/50, monitoring users, programs or devices to maintain the integrity of platforms
- G06F2221/031—Protect user input by software means
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Computer Security & Cryptography (AREA)
- Computer Graphics (AREA)
- Architecture (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
3次元ロック解除装置(100)は、3次元座標空間上に任意に配置される複数の仮想オブジェクトを示す3次元ロックデータを生成する仮想データ生成部(101)と、当該複数の仮想オブジェクトを表示部に表示させる表示処理部(102)と、操作者の特定部位に関する3次元座標空間上の3次元位置を取得する位置取得部(103)と、特定部位を用いた操作者の仮想オブジェクトに対する選択操作を検出する操作検出部(104)と、検出された選択操作に基づいて、選択された仮想オブジェクトに対応する識別情報と選択順とを示す選択情報を取得する選択情報取得部(105)と、取得された選択情報と既に登録されている選択情報とを比較することにより、ロックを解除するロック制御部(106)と、を有する。
Description
本発明は、3次元ユーザインタフェース技術に関する。
スマートフォンやタブレット型端末のような携帯端末や、パーソナルコンピュータ(PC)等には、個人情報の漏洩や不正利用を防ぐために、ロック機能が設けられている。ロック機能には、画面操作を不可能にする画面ロック機能に加えて、特定の操作を不可能とするロック機能等も存在する。
ANDROID(登録商標)を搭載する携帯端末は、縦横3つずつ並ぶ9つのポイントをなぞることで得られる軌跡パターンが、予め登録されている軌跡パターンと合致した場合に画面ロックを解除する画面ロック機能を持つ。
下記特許文献1では、タッチパネル上に残る指紋跡からロックパターンが第三者に推測される危険性を低減させるために、ユーザがロックパターンを指定する際にタッチパネル上で毎回同じ位置をなぞることがないようにする手法が提案されている。
上記提案手法やANDROID(登録商標)で採用される手法は、タッチパネルを用いた2次元のユーザインタフェースを対象としている。一方、近年、KINECT(登録商標)等の距離センサやWEBカメラ等を使用して、ユーザの3次元の動作を検出し、検出された動作に応じて機器を制御するユーザインタフェースが普及しつつある。このような3次元操作を扱うユーザインタフェースにおいて上述のようなロック機能を実現する手法については現状存在しない。
本発明は、上述のような事情に鑑みてなされたものであり、操作者の3次元操作に伴いロックを解除する技術を提供することにある。
本発明の各側面では、上述した課題を解決するために、それぞれ以下の構成を採用する。
第1の側面に係る3次元ロック解除装置は、3次元座標空間上に任意に配置される複数の仮想オブジェクトを示す3次元ロックデータを生成する仮想データ生成部と、3次元ロックデータにより示される複数の仮想オブジェクトを表示部に表示させる表示処理部と、操作者の特定部位に関する3次元座標空間上の3次元位置を取得する位置取得部と、位置取得部により取得される3次元位置及び複数の仮想オブジェクトの3次元位置を用いて、特定部位を用いた操作者の仮想オブジェクトに対する選択操作を検出する操作検出部と、操作検出部により検出される選択操作に基づいて、選択された仮想オブジェクトに対応する識別情報と選択順とを示す選択情報を取得する選択情報取得部と、選択情報取得部により取得される選択情報と既に登録されている選択情報とを比較することにより、ロックを解除するロック制御部と、を有する。
第2の側面に係る3次元ロック解除方法は、少なくとも1つのコンピュータにより実行される。第2の側面に係る3次元ロック解除方法は、3次元座標空間上に任意に配置される複数の仮想オブジェクトを示す3次元ロックデータを生成し、3次元ロックデータにより示される複数の仮想オブジェクトを表示部に表示させ、操作者の特定部位に関する3次元座標空間上の3次元位置を取得し、取得された3次元位置及び複数の仮想オブジェクトの3次元位置を用いて、当該特定部位を用いた操作者の仮想オブジェクトに対する選択操作を検出し、検出された選択操作に基づいて、選択された仮想オブジェクトに対応する識別情報と選択順とを示す選択情報を取得し、取得された選択情報と既に登録されている選択情報とを比較することにより、ロックを解除する、ことを含む。
なお、本発明の他の側面として、上記第2の側面における方法を少なくとも1つのコンピュータに実行させるプログラムであってもよいし、このようなプログラムを記録したコンピュータが読み取り可能な記録媒体であってもよい。この記録媒体は、非一時的な有形の媒体を含む。
上記各側面によれば、操作者の3次元操作に伴いロックを解除する技術を提供することができる。
上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
以下、本発明の実施の形態について説明する。なお、以下に挙げる実施形態は例示であり、本発明は以下の実施形態の構成に限定されない。
図1は、本発明の実施の形態に係る3次元ロック解除装置100の構成例を概念的に示す図である。図1に示されるように、3次元ロック解除装置100は、3次元座標空間上に任意に配置される複数の仮想オブジェクトを示す3次元ロックデータを生成する仮想データ生成部101と、3次元ロックデータにより示される複数の仮想オブジェクトを表示部に表示させる表示処理部102と、操作者の特定部位に関する3次元座標空間上の3次元位置を取得する位置取得部103と、位置取得部103により取得される3次元位置及び複数の仮想オブジェクトの3次元位置を用いて、特定部位を用いた操作者の仮想オブジェクトに対する選択操作を検出する操作検出部104と、操作検出部104により検出される選択操作に基づいて、選択された仮想オブジェクトに対応する識別情報と選択順とを示す選択情報を取得する選択情報取得部105と、選択情報取得部105により取得される選択情報と既に登録されている選択情報とを比較することにより、ロックを解除するロック制御部106と、を有する。
図1に示される3次元ロック解除装置100は、例えば、後述する詳細実施形態における3次元ユーザインタフェースシステム1と同様のハードウェア構成を有し、その3次元ユーザインタフェースシステム1と同様にプログラムが処理されることで、上述の各処理部が実現される。表示部は、3次元ロック解除装置100と通信可能に接続される。
本実施形態における3次元ロック解除方法は、上述の3次元ロック解除装置100のような少なくとも1つのコンピュータにより実行される。本3次元ロック解除方法は、3次元座標空間上に任意に配置される複数の仮想オブジェクトを示す3次元ロックデータを生成し、3次元ロックデータにより示される複数の仮想オブジェクトを表示部に表示させ、操作者の特定部位に関する3次元座標空間上の3次元位置を取得し、取得された3次元位置及び複数の仮想オブジェクトの3次元位置を用いて、当該特定部位を用いた操作者の仮想オブジェクトに対する選択操作を検出し、検出された選択操作に基づいて、選択された仮想オブジェクトに対応する識別情報と選択順とを示す選択情報を取得し、取得された選択情報と既に登録されている選択情報とを比較することにより、ロックを解除する、ことを含む。
本実施形態では、3次元ロックデータが生成され、この3次元ロックデータで示される複数の仮想オブジェクトが表示される。一方で、3次元ロックデータで用いられる3次元座標空間と同じ3次元座標空間における、操作者の特定部位の3次元位置が取得される。そして、操作者の特定部位及び複数の仮想オブジェクトの各3次元位置に基づいて、特定部位を用いた操作者の仮想オブジェクトに対する選択操作が検出される。特定部位とは、3次元ユーザインタフェースで操作位置を指し示すための操作者の体の一部又は全部である。操作者の特定部位の3次元位置は、周知の手法で取得されればよく、本実施形態ではその取得方法は制限されない。
本実施形態では、検出された各選択操作に応じて選択情報が取得され、その選択情報と既に登録されている選択情報との比較により、ロックが解除される。例えば、選択情報により示される仮想オブジェクトの選択順が両者間で一致する場合に、ロックが解除される。選択情報は、仮想オブジェクトの選択順と、選択された各仮想オブジェクトに対応する識別情報とを示す。識別情報は、各仮想オブジェクトをそれぞれ識別し得る情報であればよく、本実施形態では、その具体的内容は制限されない。識別情報の具体的態様は、後述する詳細実施形態において詳述する。既に登録されている選択情報は、3次元ロック解除装置100に保持されていてもよいし、他のコンピュータにより保持されていてもよい。また、本実施形態で解除されるロックは、画面ロックであってもよいし、他の処理のロックであってもよい。
このように、本実施形態では、3次元座標空間上に配置される複数の仮想オブジェクトに対する操作者の特定部位を用いた3次元操作により、ロックを解除するか否かが判断される。従って、本実施形態によれば、3次元操作に伴うロック解除が実現される。
以下、上述の実施形態について更に詳細を説明する。以下には、詳細実施形態として第1実施形態及び第2実施形態を例示する。以下の各詳細実施形態は、上述の3次元ロック解除装置100及び3次元ロック解除方法を3次元ユーザインタフェースシステムに適用した場合の例である。但し、以下の各詳細実施形態では、ロック解除に関連する処理のみが説明され、ロック解除以外の処理内容については、周知の技術が利用されればよいため、特に説明されない。
[第1実施形態]
〔システム構成〕
図2は、第1実施形態における3次元ユーザインタフェースシステム(以降、単にシステムと表記する)1のハードウェア構成例を概念的に示す図である。第1実施形態におけるシステム1は、センサ側構成と表示側構成とを持つ。センサ側構成は、3次元センサ(以降、3Dセンサと表記する)8及びセンサ側装置10から形成される。表示側構成は、ヘッドマウントディスプレイ(以降、HMDと表記する)9及び表示側装置20から形成される。以降、3次元を3D、2次元を2Dと適宜省略して表記する。
[第1実施形態]
〔システム構成〕
図2は、第1実施形態における3次元ユーザインタフェースシステム(以降、単にシステムと表記する)1のハードウェア構成例を概念的に示す図である。第1実施形態におけるシステム1は、センサ側構成と表示側構成とを持つ。センサ側構成は、3次元センサ(以降、3Dセンサと表記する)8及びセンサ側装置10から形成される。表示側構成は、ヘッドマウントディスプレイ(以降、HMDと表記する)9及び表示側装置20から形成される。以降、3次元を3D、2次元を2Dと適宜省略して表記する。
図3は、第1実施形態におけるシステム1の利用形態の例を示す図である。図3に示されるように、3Dセンサ8は、操作者(ユーザ)の特定部位を検出できる位置に配置される。HMD9は、操作者(ユーザ)の頭部に装着され、操作者にとっての視線画像を撮像すると共に、その視線画像に合成された上述の複数の仮想オブジェクトを表示する。操作者は、HMD9の表示部に表示される映像を見ながら、ロック解除のために、その映像に写る仮想オブジェクトに対して選択操作を行う。
3Dセンサ8は、操作者の特定部位の検出などのために利用される3D情報を検出する。3Dセンサ8は、例えば、Kinect(登録商標)のように、可視光カメラ及び距離画像センサにより実現される。距離画像センサは、深度センサとも呼ばれ、レーザから近赤外光のパターンを操作者に照射し、そのパターンを近赤外光を検知するカメラで撮像して得られる情報から距離画像センサから操作者までの距離(深度)が算出される。なお、3Dセンサ8自体の実現手法は制限されず、3Dセンサ8は、複数の可視光カメラを用いる3次元スキャナ方式で実現されてもよい。また、図2では、3Dセンサ8が1つ要素で図示されるが、3Dセンサ8は、操作者の2次元画像を撮像する可視光カメラ及び操作者までの距離を検出するセンサといった複数の機器で実現されてもよい。
本実施形態では、図3に示されるように、既知の形状を示すマーカ7により、表示側構成及びセンサ側構成において共通の3次元座標空間が設定される。但し、共通の3次元座標空間を設定するための共通実オブジェクトは、専用のマーカ7のみに制限されない。その共通実オブジェクトから、参照方向によらず、或る基準点及びこの基準点からの相互に直交する3軸の方向を一定に得ることができるのであれば、この共通実オブジェクトの具体的形態は制限されない。例えば、マーカ7は、現実世界に配置された画像や物で代用され得る。
図4は、HMD9の外観構成の例を示す図である。図4には、ビデオシースルー型と呼ばれるHMD9の構成が示されている。図4の例では、HMD9は、2つの視線カメラ9a及び9b、2つのディスプレイ9c及び9dを有する。各視線カメラ9a及び9bは、ユーザの各視線に対応する各視線画像をそれぞれ撮像する。これにより、HMD9は撮像部と呼ぶこともできる。各ディスプレイ9c及び9dは、ユーザの視野の大部分を覆う形に配置され、各視線画像に仮想3D操作領域が合成された合成3D画像を表示する。これにより、各ディスプレイ9c及び9dは、表示部と呼ぶこともできる。
センサ側装置10及び表示側装置20は、バスなどで相互に接続される、CPU(Central Processing Unit)2、メモリ3、通信装置4、入出力インタフェース(I/F)5などをそれぞれ有する。メモリ3は、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスク、可搬型記憶媒体などである。
センサ側装置10の入出力I/F5は、3Dセンサ8と接続され、表示側装置20の入出力I/F5は、HMD9と接続される。入出力I/F5と3Dセンサ8との間、及び、入出力I/F5とHMD9との間は無線により通信可能に接続されてもよい。各通信装置4は、無線又は有線にて、他の装置(センサ側装置10、表示側装置20など)と通信を行う。本実施形態は、このような通信の形態を制限しない。また、センサ側装置10及び表示側装置20の具体的ハードウェア構成についても制限されない。
〔処理構成〕
〈センサ側装置〉
図5は、第1実施形態におけるセンサ側装置10の処理構成例を概念的に示す図である。第1実施形態におけるセンサ側装置10は、3D情報取得部11、第1オブジェクト検出部12、基準設定部13、位置算出部14、状態取得部15、送信部16などを有する。これら各処理部は、例えば、CPU2によりメモリ3に格納されるプログラムが実行されることにより実現される。また、当該プログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワーク上の他のコンピュータから入出力I/F5を介してインストールされ、メモリ3に格納されてもよい。
〈センサ側装置〉
図5は、第1実施形態におけるセンサ側装置10の処理構成例を概念的に示す図である。第1実施形態におけるセンサ側装置10は、3D情報取得部11、第1オブジェクト検出部12、基準設定部13、位置算出部14、状態取得部15、送信部16などを有する。これら各処理部は、例えば、CPU2によりメモリ3に格納されるプログラムが実行されることにより実現される。また、当該プログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワーク上の他のコンピュータから入出力I/F5を介してインストールされ、メモリ3に格納されてもよい。
3D情報取得部11は、3Dセンサ8により検出された3D情報を逐次取得する。3D情報は、可視光により得られる操作者の2D画像と、3Dセンサ8からの距離(深度)の情報とを含む。3Dセンサ8は、可視光カメラと深度センサといった複数の機器により構成されてもよい。
第1オブジェクト検出部12は、3D情報取得部11により取得された3D情報から既知の共通実オブジェクトを検出する。本実施形態では、共通実オブジェクトとして、図3に示されるマーカ7が利用される。第1オブジェクト検出部12は、マーカ7が示す形状、サイズ、色などについての情報を予め保持しており、このような既知の情報を用いて、マーカ7を3D情報から検出する。
基準設定部13は、第1オブジェクト検出部12により検出されるマーカ7に基づいて、3D座標空間を設定し、かつ、この3D座標空間における3Dセンサ8の位置及び向きを算出する。例えば、基準設定部13は、マーカ7から抽出される基準点を原点とし、その基準点からの相互に直交する3方向を各軸とする3D座標空間を設定する。基準設定部13は、マーカ7に関する既知の形状及びサイズと、3D情報から抽出されたマーカ7が示す形状及びサイズとの比較により、3Dセンサ8の位置及び向きを算出する。
位置算出部14は、3D情報取得部11により逐次取得される3D情報を用いて、操作者の特定部位に関する上記3D座標空間上の3D位置情報を逐次算出する。本実施形態では、位置算出部14は、具体的に次のように当該3D位置情報を算出する。位置算出部14は、まず、3D情報取得部11により取得される3D情報から操作者の特定部位の3D位置情報を抽出する。ここで抽出される3D位置情報は、3Dセンサ8のカメラ座標系に対応する。そこで、位置算出部14は、基準設定部13により算出される3Dセンサ8の位置及び向き並びに3D座標空間に基づいて、3Dセンサ8のカメラ座標系に対応する3D位置情報を基準設定部13で設定された3D座標空間上の3D位置情報に変換する。この変換は、3Dセンサ8のカメラ座標系から、上記マーカ7に基づき設定される3D座標系への変換を意味する。
ここで、検出すべき操作者の特定部位は複数であってもよい。例えば、複数の特定部位として操作者の両手が利用される形態があり得る。この場合、位置算出部14は、3D情報取得部11により取得される3D情報から、複数の特定部位の3D位置情報をそれぞれ抽出し、この各3D位置情報を3D座標空間上の各3D位置情報にそれぞれ変換する。また、特定部位とは、操作者が操作を行うために用いる体の一部であるため、或る程度の面積又は体積を有する。よって、位置算出部14により算出される3D位置情報は、当該特定部位の中の或る1点の位置情報であってもよいし、複数点の位置情報であってもよい。
状態取得部15は、操作者の特定部位の状態情報を取得する。特定部位の状態情報とは、特定部位の形状に関わる状態を特定し得る情報であり、例えば、握った状態、開いた状態、親指を立てた状態などを示す。この特定部位は、位置算出部14で検出対象とされる特定部位と同一である。本実施形態は、検出可能な範囲で、この状態情報が示し得る状態の数を制限しない。また、複数の特定部位が利用される場合には、状態取得部15は、各特定部位に関する状態情報をそれぞれ取得する。
状態取得部15は、例えば、当該特定部位の識別すべき各状態に対応する画像特徴情報を予めそれぞれ保持しておき、3D情報取得部11により取得される3D情報に含まれる2D画像から抽出される特徴情報と、その予め保持される各画像特徴情報との比較により、当該特定部位の状態情報を取得する。また、状態取得部15は、当該特定部位に装着されたひずみセンサ(図示せず)から得られる情報から、当該特定部位の状態情報を取得してもよい。また、状態取得部15は、操作者の手で操作される入力マウス(図示せず)からの情報から、当該状態情報を取得してもよい。更に、状態取得部15は、マイクロフォン(図示せず)により得られる音声を認識することで当該状態情報を取得してもよい。
送信部16は、操作者の特定部位に関する、位置算出部14により算出された当該3D座標空間上の3D位置情報と、状態取得部15により取得された操作者の特定部位に関する状態情報を表示側装置20に送信する。
〈表示側装置〉
図6は、第1実施形態における表示側装置20の処理構成例を概念的に示す図である。第1実施形態における表示側装置20は、視線画像取得部21、第2オブジェクト検出部22、座標設定部23、仮想データ生成部24、操作情報取得部25、操作検出部26、画像合成部27、表示処理部28、選択情報取得部29、ロック制御部30などを有する。これら各処理部は、例えば、CPU2によりメモリ3に格納されるプログラムが実行されることにより実現される。また、当該プログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワーク上の他のコンピュータから入出力I/F5を介してインストールされ、メモリ3に格納されてもよい。
図6は、第1実施形態における表示側装置20の処理構成例を概念的に示す図である。第1実施形態における表示側装置20は、視線画像取得部21、第2オブジェクト検出部22、座標設定部23、仮想データ生成部24、操作情報取得部25、操作検出部26、画像合成部27、表示処理部28、選択情報取得部29、ロック制御部30などを有する。これら各処理部は、例えば、CPU2によりメモリ3に格納されるプログラムが実行されることにより実現される。また、当該プログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワーク上の他のコンピュータから入出力I/F5を介してインストールされ、メモリ3に格納されてもよい。
視線画像取得部21は、操作者の視線画像を取得する。視線画像とは、操作者の目が向いている方向と略同じ方向から撮像される画像である。但し、視線画像は、操作者に見えている(見える)画像と完全に一致しなくてもよい。操作者が仮想オブジェクトの選択操作を行う場合、視線画像には、センサ側装置10により検出される操作者の特定部位と同じ特定部位が写る。本実施形態では、視線カメラ9a及び9bが設けられているため、視線画像取得部21は、左目及び右目の各々に対応する各視線画像をそれぞれ取得する。なお、各処理部は、左目及び右目に対応する両視線画像に対してそれぞれ同様に処理されるため、以下の説明では、1つの視線画像を対象に説明する。
第2オブジェクト検出部22は、視線画像取得部21により取得される視線画像から、センサ側装置10で検出されるものと同じ既知の共通実オブジェクトを検出する。即ち、本実施形態では、第2オブジェクト検出部22は、図3に示されるマーカ7を検出する。第2オブジェクト検出部22の処理は、上述のセンサ側装置10の第1オブジェクト検出部12と同様であるため、ここでは詳細説明を省く。なお、視線画像に含まれるマーカ7は、3Dセンサ8で得られる3D情報に含まれるマーカ7とは、撮像方向が異なる。
座標設定部23は、第2オブジェクト検出部22により検出されたマーカ7に基づいて、センサ側装置10の基準設定部13により設定されたものと同じ3D座標空間を設定し、かつ、HMD9の位置及び向きを算出する。座標設定部23の処理についても、センサ側装置10の基準設定部13と同様であるため、ここでは詳細説明を省く。座標設定部23により設定される3D座標空間も、センサ側装置10の基準設定部13により設定される3D座標空間と同じ共通の実オブジェクト(マーカ7)に基づいて設定されるため、結果として、3D座標空間がセンサ側装置10と表示側装置20との間で共有されることになる。
仮想データ生成部24は、座標設定部23により設定された3D座標空間上に任意に配置される複数の仮想オブジェクトを示す3Dロックデータを生成する。即ち、仮想データ生成部24は、上述の仮想データ生成部101に相当する。
図7は、第1実施形態で生成される3Dロックデータが示す仮想オブジェクトの例を示す図である。なお、図7に示される点線は、仮想オブジェクトの配列を見易いように補足的に示したものであり、HMD9には表示されない。また、図7には、球体の仮想オブジェクトが示されるが、第1実施形態では、仮想オブジェクトの数、形、色、サイズは制限されない。仮想オブジェクトは半透明化されてもよい。
図7に示されるように、第1実施形態では、仮想データ生成部24は、当該3D座標空間において当該複数の仮想オブジェクトが格子状に所定の並びで配置される3Dロックデータを生成する。図7の例では、3D座標空間の各次元について3つずつ立方体状に並ぶ27個の仮想オブジェクトが示される。
これにより、各仮想オブジェクトは、3D座標空間上の位置を示す情報に加えて、格子状の配置の中の相対的な位置情報をそれぞれ持つことになる。以降、仮想オブジェクトの位置情報のうち、3D座標空間上の位置を示す情報を3D位置情報と表記し、仮想オブジェクトの格子状の配置の中の相対的な位置を示す情報を相対位置情報と表記する。図7の例では、各仮想オブジェクトは、次のような相対位置情報をそれぞれ持つ。相対位置情報は、x方向の位置、y方向の位置、z方向の位置により、(x、y、z)により示される。
仮想オブジェクトOB1:相対位置情報(1,3,1)
仮想オブジェクトOB2:相対位置情報(1,3,3)
仮想オブジェクトOB3:相対位置情報(3,3,1)
仮想オブジェクトOB4:相対位置情報(1,1,3)
仮想オブジェクトOB5:相対位置情報(3,1,1)
仮想オブジェクトOB1:相対位置情報(1,3,1)
仮想オブジェクトOB2:相対位置情報(1,3,3)
仮想オブジェクトOB3:相対位置情報(3,3,1)
仮想オブジェクトOB4:相対位置情報(1,1,3)
仮想オブジェクトOB5:相対位置情報(3,1,1)
画像合成部27は、HMD9の位置及び向き並びに3D座標空間及び3Dロックデータに基づいて、視線画像取得部21で取得された視線画像に仮想オブジェクトを合成する。このとき、仮想オブジェクトの3D座標空間上の位置は、視線画像に写る空間に相当する3D座標空間内の視認空間を表示基準として決定される。また、本実施形態では、画像合成部27は、視線カメラ9a及び9bで撮像された各視線画像に基づく各合成画像をそれぞれ生成する。なお、画像合成部27による合成処理には、拡張現実(AR)等で用いられる周知の手法が利用されればよいため、ここでは詳細説明を省略する。
表示処理部28は、上述の表示処理部102と同様に、複数の仮想オブジェクトをHMD9に表示させる。本実施形態では、表示処理部28は、仮想オブジェクトと視線画像との合成画像をHMD9に表示させる。これにより、ディスプレイ9c及び9dにそれぞれ操作者の各視線に対応する各合成画像がそれぞれ表示されるため、操作者は、両眼視差により、視線画像及び仮想オブジェクトを立体的に視認することができる。
図8は、HMD9に表示される合成画像の例を示す図である。なお、図8に示される点線は、仮想オブジェクトの配列を見易いように補足的に示したものであり、HMD9には表示されない。操作者は、図8に示されるような、視線画像と複数の仮想オブジェクトとの合成画像をディスプレイ9c及び9dを通じて見る。図8の例に示される合成画像は、視線画像に写る実世界のテーブルRTと、格子状に並ぶ9つの仮想オブジェクトを含む。表示処理部28は、図8に示されるように、選択された仮想オブジェクトを変色させ、選択順に対応する仮想オブジェクトの選択軌跡を表示させることもできる。
操作情報取得部25は、操作者の特定部位に関する3D座標空間上の3D位置情報と、操作者の特定部位に関する状態情報をセンサ側装置10から受信する。これにより、操作情報取得部25は、上述の位置取得部103に相当する。
操作検出部26は、操作者の特定部位に関する3D位置情報及び複数の仮想オブジェクトの3D位置情報、並びに、操作者の特定部位に関する状態情報を用いて、当該特定部位を用いた操作者の仮想オブジェクトに対する選択操作を検出する。例えば、操作検出部26は、各仮想オブジェクトに対する操作検出領域をそれぞれ認識しており、その操作検出領域内に操作者の特定部位が入り、かつ、状態情報が所定の状態(例えば、握った状態)を示す場合に、その仮想オブジェクトに対し選択操作が行われたことを検出する。操作検出領域は、例えば、3D座標空間上で仮想オブジェクトに設定される3D位置を中心にした所定の範囲に設定される。操作検出領域は、3D座標空間上の仮想オブジェクトの大きさ(サイズ)に設定されてもよい。
また、操作検出部26は、選択解除の操作も検出するようにしてもよい。例えば、操作検出部26は、当該状態情報に基づいて、選択操作に対応する所定状態(例えば、握った状態)から他の所定状態(例えば、開いた状態)への変化を選択解除の操作として検出してもよい。また、操作検出部26は、複数の仮想オブジェクトが並ぶ領域から所定距離離れた位置への特定部位の移動を、選択解除の操作として検出するようにしてもよい。
選択情報取得部29は、上述の選択情報取得部105と同様に、選択情報を取得する。本実施形態では、選択情報取得部29は、操作検出部26により検出された選択操作に基づいて、選択された仮想オブジェクトの相対位置情報と選択順とを示す選択情報を取得する。但し、選択情報が示す仮想オブジェクトの位置情報は、上述の3D位置情報であってもよい。選択情報取得部29は、選択解除を検出するまで、操作検出部26による選択操作の検出順に、仮想オブジェクトの相対位置情報及びその順番を選択情報として取得する。選択解除は、操作検出部26による選択解除の操作の検出に応じて検出されてもよいし、操作検出部26による選択操作の最初の検出からの経過時間が所定時間を超えたことにより検出されてもよい。また、選択情報取得部29は、選択された仮想オブジェクトの数が上限値に達したことにより、選択解除を検出するようにしてもよい。
ロック制御部30は、上述のロック制御部106と同様に、当該選択情報と既に登録されている選択情報との比較により、ロックを解除する。例えば、ロック制御部30は、当該選択情報により示される仮想オブジェクトの選択順と、既に登録されている選択情報により示される仮想オブジェクトの選択順とが一致する場合に、ロックを解除する。既に登録されている選択情報は、表示側装置20に保持されていてもよいし、他のコンピュータに保持されていてもよい。
〔動作例〕
以下、第1実施形態における3次元ロック解除方法について図9を用いて説明する。図9は、第1実施形態におけるシステム1の動作例を示すシーケンスチャートである。以下では、センサ側装置10又は表示側装置20を各方法の実行主体として説明するが、実行主体は、システム1を構成する少なくとも1つのコンピュータとされてもよい。
以下、第1実施形態における3次元ロック解除方法について図9を用いて説明する。図9は、第1実施形態におけるシステム1の動作例を示すシーケンスチャートである。以下では、センサ側装置10又は表示側装置20を各方法の実行主体として説明するが、実行主体は、システム1を構成する少なくとも1つのコンピュータとされてもよい。
センサ側装置10は、3Dセンサ8から3D情報を逐次取得する(S101)。3D情報には、共通実オブジェクトとしてのマーカ7及び操作者の特定部に関する情報が含まれる。センサ側装置10は、所定のフレームレートの当該3D情報に対して次のように動作する。
センサ側装置10は、当該3D情報から共通実オブジェクト(マーカ7)を検出する(S102)。続いて、センサ側装置10は、検出された共通実オブジェクトに基づいて、3D座標空間を設定し、かつ、この3D座標空間における3Dセンサ8の位置及び向きを算出する(S103)。
更に、センサ側装置10は、当該3D情報を用いて、操作者の特定部位の3D位置情報を算出する(S104)。更に、センサ側装置10は、工程(S103)で算出された3Dセンサ8の位置及び向き並びに3D座標空間に基づいて、工程(S104)で算出された3D位置情報を工程(S103)で設定された3D座標空間上の3D位置情報に変換する(S105)。
センサ側装置10は、操作者の特定部位の状態情報を更に取得する(S106)。
センサ側装置10は、操作者の特定部位に関する3D位置情報及び状態情報を表示側装置20に送信する(S107)。
センサ側装置10は、操作者の特定部位に関する3D位置情報及び状態情報を表示側装置20に送信する(S107)。
図9では、説明の便宜のため、工程(S102)及び(S103)が3D情報の所定のフレームレートで実行される例が示されるが、工程(S102)及び(S103)はキャリブレーション時のみ実行されるようにしてもよい。また、(S106)の実行タイミングは、図9に示されるタイミングに制限されない。
一方で、表示側装置20は、3D情報の取得(S101)とは非同期で、HMD9から視線画像を逐次取得している(S111)。表示側装置20は、所定のフレームレートの当該視線画像に対して次のように動作する。
表示側装置20は、当該視線画像からセンサ側装置10で検出されるものと同じ共通実オブジェクト(マーカ7)を検出する(S112)。続いて、表示側装置20は、検出された共通実オブジェクトに基づいて、3D座標空間を設定し、かつ、この3D座標空間におけるHMD9の位置及び向きを算出する(S113)。同じマーカ7(共通実オブジェクト)が用いられるため、センサ側装置10と表示側装置20との間で3D座標空間が共有されることになる。
表示側装置20は、上述のような3Dロックデータを生成する(S114)。この3Dロックデータは、複数の仮想オブジェクトに関する、(S113)で設定された3D座標空間上の位置、サイズ、形状、表示態様等の情報を含む。このような仮想オブジェクトに関する設定情報は任意の手法により取得される。
表示側装置20は、(S113)で設定された3D座標空間に基づいて、(S111)で取得された視線画像と、(S114)で生成された3Dロックデータにより示される複数の仮想オブジェクトとを合成する(S115)。表示側装置20は、その合成により得られた画像をHMD9に表示させる(S116)。
表示側装置20は、センサ側装置10から、操作者の特定部位に関する3D位置情報及び状態情報を受信すると(S117)、3D座標空間における操作者の特定部位の3D位置と、各仮想オブジェクトの3D位置とに基づいて、仮想オブジェクトに対する操作者の特定部位を用いた選択操作を検出する(S118)。この選択操作の検出において、表示側装置20は、選択された仮想オブジェクトの相対位置情報を取得する。
表示側装置20は、(S118)の選択操作の検出に応じて、選択情報を更新する(S119)。具体的には、表示側装置20は、(S118)で検出された選択操作が行われた仮想オブジェクトの相対位置情報を、選択順番に応じて、選択情報に反映する。表示側装置20は、選択解除を検出するまで(S120)、(S118)及び(S119)を繰り返す。これにより、選択情報には、選択された仮想オブジェクトの相対位置情報とその選択された順番とが蓄積される。
表示側装置20は、選択解除を検出すると(S120;YES)、(S119)で更新された選択情報と既に登録されている選択情報とを照合する(S121)。表示側装置20は、両者の仮想オブジェクトの選択順が一致すると(S122;YES)、ロックを解除する(S123)。一方、表示側装置20は、両者の仮想オブジェクトの選択順が一致しない場合(S122;NO)、ロックを解除せず、選択情報を初期化する(S124)。以降、両者の仮想オブジェクトの選択順が一致するまで(S122)、表示側装置20は、(S118)以降を繰り返し実行する。
図9では、説明の便宜のため、(S112)から(S115)が視線画像の所定のフレームレートで実行される例が示されるが、(S112)及び(S113)は、キャリブレーション時のみ実行され、(S114)及び(S115)は、ロック解除が必要なタイミングで実行されるようにしてもよい。
〔第1実施形態の作用及び効果〕
このように、第1実施形態では、HMD9及び3Dセンサ8の各々で得られる画像情報に写る共通実オブジェクト(マーカ7)に基づいて、センサ側装置10及び表示側装置20で3D座標空間が共有される。そして、この3D座標空間に基づいて、視線画像とロック解除のための複数の仮想オブジェクトとが合成され、この合成画像が操作者の頭部に装着されるHMD9に表示される。更に、第1実施形態では、視線画像を得る撮像部(視線カメラ9a及び視線カメラ9b)とは別に、操作者の特定部位の位置を測定し得るセンサ(3Dセンサ8)が設けられ、当該共通の3D座標空間において操作者の特定部位と仮想オブジェクトとの位置関係が比較され、仮想オブジェクトに対する特定部位を用いた操作者の特定部位を用いた選択操作が検出される。
このように、第1実施形態では、HMD9及び3Dセンサ8の各々で得られる画像情報に写る共通実オブジェクト(マーカ7)に基づいて、センサ側装置10及び表示側装置20で3D座標空間が共有される。そして、この3D座標空間に基づいて、視線画像とロック解除のための複数の仮想オブジェクトとが合成され、この合成画像が操作者の頭部に装着されるHMD9に表示される。更に、第1実施形態では、視線画像を得る撮像部(視線カメラ9a及び視線カメラ9b)とは別に、操作者の特定部位の位置を測定し得るセンサ(3Dセンサ8)が設けられ、当該共通の3D座標空間において操作者の特定部位と仮想オブジェクトとの位置関係が比較され、仮想オブジェクトに対する特定部位を用いた操作者の特定部位を用いた選択操作が検出される。
また、第1実施形態では、選択操作が行われる複数の仮想オブジェクトが格子状に並べられて表示され、各仮想オブジェクトの相対的な位置情報とその選択順とに基づいて、ロック解除が判断される。このように、第1実施形態によれば、3次元化されたロックパターンを用いたロック解除機能が実現されており、言い換えれば、3次元ユーザインタフェースでのロック機能が実現され得る。
更に、操作者は、あたかも自身の目の前の現実世界に存在するかのように複数の仮想オブジェクトを視認できると共に、ロック解除のために、それら仮想オブジェクトを自身の特定部位を用いて選択することができる。即ち、第1実施形態によれば、操作者は、仮想オブジェクトをあたかも直接触っているかのような直感的操作感により、ロック解除のための操作を行うことができる。また、仮想オブジェクトは操作者のみによって見ることができるため、第3者は、操作者の特定部位を用いた動作(ジェスチャ)が何を目的としているのか把握しづらい。即ち、第1実施形態によれば、第3者に、ロック解除のための操作者の特定部位を用いた選択操作(ジェスチャ)が漏洩するのを防止することができる。
また、第1実施形態では、仮想オブジェクトの選択操作は、操作者の特定部位の位置と状態とから検出される。これにより、特定部位としての手で、仮想オブジェクトを握る動作(ジェスチャ)を選択操作として検出するようにすれば、操作者に、より直感的な操作感を与えることができる。更に、選択操作に対応する特定部位の特定状態を設けることにより、仮想オブジェクトに対する選択操作の誤検出を防ぐことができる。例えば、操作者の特定部位が仮想オブジェクトの操作検出領域に意図せず触れてしまったとしても、その動作により、仮想オブジェクトの選択操作と検出されることを防ぐことができる。第1実施形態によれば、このような直感的操作及び誤検出の防止により、3次元ユーザインタフェースでのロック機能のユーザビリティを向上させることができる。
[第2実施形態]
第2実施形態におけるシステム1は、仮想オブジェクトに割り当てられている標識に基づいてロック解除を判断する。以下、第2実施形態におけるシステム1について、第1実施形態と異なる内容を中心に説明する。以下の説明では、第1実施形態と同様の内容については適宜省略する。
第2実施形態におけるシステム1は、仮想オブジェクトに割り当てられている標識に基づいてロック解除を判断する。以下、第2実施形態におけるシステム1について、第1実施形態と異なる内容を中心に説明する。以下の説明では、第1実施形態と同様の内容については適宜省略する。
〔処理構成〕
第2実施形態では、センサ側装置10及び表示側装置20は、第1実施形態と同様の処理構成を有する。以下には、第1実施形態と異なる処理内容の各処理部についてのみ説明する。
第2実施形態では、センサ側装置10及び表示側装置20は、第1実施形態と同様の処理構成を有する。以下には、第1実施形態と異なる処理内容の各処理部についてのみ説明する。
〈表示側装置〉
仮想データ生成部24は、操作者により識別可能な標識がユニークにそれぞれ付される複数の仮想オブジェクトを示す3次元ロックデータを生成する。仮想データ生成部24は、標識として、例えば、色、数字、文字及び記号の少なくとも1つを、各仮想オブジェクトがそれぞれ識別可能となるように、各仮想オブジェクトにそれぞれ設定する。第2実施形態では、仮想データ生成部24は、複数の仮想オブジェクトの配置を3D座標空間上に任意に決定することができる。また、第2実施形態では、仮想データ生成部24は、複数の仮想オブジェクトの配置を所定のタイミング毎に変更することもできる。所定のタイミングは、例えば、仮想オブジェクトの表示毎や、ロック毎等、任意に決定可能である。
仮想データ生成部24は、操作者により識別可能な標識がユニークにそれぞれ付される複数の仮想オブジェクトを示す3次元ロックデータを生成する。仮想データ生成部24は、標識として、例えば、色、数字、文字及び記号の少なくとも1つを、各仮想オブジェクトがそれぞれ識別可能となるように、各仮想オブジェクトにそれぞれ設定する。第2実施形態では、仮想データ生成部24は、複数の仮想オブジェクトの配置を3D座標空間上に任意に決定することができる。また、第2実施形態では、仮想データ生成部24は、複数の仮想オブジェクトの配置を所定のタイミング毎に変更することもできる。所定のタイミングは、例えば、仮想オブジェクトの表示毎や、ロック毎等、任意に決定可能である。
表示処理部28は、仮想オブジェクトと視線画像との合成画像をHMD9に表示させる。図10A及び図10Bは、第2実施形態におけるHMD9に表示される合成画像の例を示す図である。図10Aの例では、標識としてのユニークな数字が各仮想オブジェクトにそれぞれ割り当てられており、図10Bの例では、標識としてのユニークな色が各仮想オブジェクトにそれぞれ割り当てられている。
選択情報取得部29は、選択された仮想オブジェクトに付された標識と選択順とを示す選択情報を取得する。図10Aの例では、選択情報取得部29は、選択された仮想オブジェクトの数字と選択順とを示す選択情報を取得し、図10Bの例では、選択情報取得部29は、選択された仮想オブジェクトの色と選択順とを示す選択情報を取得する。このように、第2実施形態における選択情報は、仮想オブジェクトに対応する識別情報としての標識と選択順とを示す。
〔動作例〕
第2実施形態における3次元ロック解除方法は、仮想オブジェクトに対応する識別情報として標識を用いる点以外、図9に示される第1実施形態と同様である。但し、(S114)において3Dロックデータを生成する度に、表示側装置20は、仮想オブジェクトの並びを任意に変えるようにしてもよい。図9の(S114)は、ロック解除(S123)後、再度掛けられたロックを解除する際に、また実行される。
第2実施形態における3次元ロック解除方法は、仮想オブジェクトに対応する識別情報として標識を用いる点以外、図9に示される第1実施形態と同様である。但し、(S114)において3Dロックデータを生成する度に、表示側装置20は、仮想オブジェクトの並びを任意に変えるようにしてもよい。図9の(S114)は、ロック解除(S123)後、再度掛けられたロックを解除する際に、また実行される。
〔第2実施形態における作用及び効果〕
このように、第2実施形態では、各仮想オブジェクトに、操作者により識別可能な標識がそれぞれ割り当てられ複数の仮想オブジェクトが視線画像と合成されてHMD9に表示される。これにより、操作者は、ロック解除のために既に登録されている選択情報としての仮想オブジェクトの標識の選択順に沿って、仮想オブジェクトを順次選択していくことで、ロック解除を行うことが出来る。第2実施形態によれば、操作者は、ロック解除のためのパターンを仮想オブジェクトの標識の並びで覚えることができるため、操作者にとって覚えやすく、使い勝手の良いロック解除機能を実現することができる。
このように、第2実施形態では、各仮想オブジェクトに、操作者により識別可能な標識がそれぞれ割り当てられ複数の仮想オブジェクトが視線画像と合成されてHMD9に表示される。これにより、操作者は、ロック解除のために既に登録されている選択情報としての仮想オブジェクトの標識の選択順に沿って、仮想オブジェクトを順次選択していくことで、ロック解除を行うことが出来る。第2実施形態によれば、操作者は、ロック解除のためのパターンを仮想オブジェクトの標識の並びで覚えることができるため、操作者にとって覚えやすく、使い勝手の良いロック解除機能を実現することができる。
更に、第2実施形態では、仮想オブジェクトの選択順は、仮想オブジェクトの標識により示されるため、仮想オブジェクトの並びを任意とすることができ、かつ、表示の度に仮想オブジェクトの並びを変更することもできる。従って、第2実施形態によれば、ロック解除のための操作者の特定部位を用いた動作(ジェスチャ)を毎回変えることができるため、第3者に、ロック解除のための操作者の特定部位を用いた選択操作(ジェスチャ)が漏洩するのを更に防止することができる。
[第1変形例]
上述の第2実施形態では、仮想オブジェクトに対応する識別情報として標識が用いられたが、形状及びサイズの少なくとも1つが当該識別情報として用いられてもよい。この場合、仮想データ生成部24は、操作者により識別可能な形状及びサイズの少なくとも一方がユニークにそれぞれ付される複数の仮想オブジェクトを示す3次元ロックデータを生成する。この場合、操作者は、ロック解除のために仮想オブジェクトの形状及びサイズの少なくとも一方の選択順に沿って、仮想オブジェクトを順次選択していくことで、ロック解除を行うことが出来る。形状及びサイズによっても、各仮想オブジェクトを識別することは可能であるため、このような変形例においても、第2実施形態と同様の作用効果を奏することができる。更に、第2実施形態において用いられた標識、形状及びサイズの中のいずれか複数の組み合わせが当該識別情報として用いられてもよい。
上述の第2実施形態では、仮想オブジェクトに対応する識別情報として標識が用いられたが、形状及びサイズの少なくとも1つが当該識別情報として用いられてもよい。この場合、仮想データ生成部24は、操作者により識別可能な形状及びサイズの少なくとも一方がユニークにそれぞれ付される複数の仮想オブジェクトを示す3次元ロックデータを生成する。この場合、操作者は、ロック解除のために仮想オブジェクトの形状及びサイズの少なくとも一方の選択順に沿って、仮想オブジェクトを順次選択していくことで、ロック解除を行うことが出来る。形状及びサイズによっても、各仮想オブジェクトを識別することは可能であるため、このような変形例においても、第2実施形態と同様の作用効果を奏することができる。更に、第2実施形態において用いられた標識、形状及びサイズの中のいずれか複数の組み合わせが当該識別情報として用いられてもよい。
[第2変形例]
また、上述の第1実施形態及び第2実施形態では、操作者の特定部位の3D位置情報及び状態情報を用いて、仮想オブジェクトの選択操作が検出されたが、状態情報を用いない形態もあり得る。この場合、センサ側装置10の状態取得部15は不要となり、送信部16は、操作者の特定部位の3D位置情報のみを表示側装置20へ送信する。また、表示側装置20では、操作検出部26は、状態情報を用いず、操作者の特定部位の3D位置及び複数の仮想オブジェクトの3D位置に基づいて、仮想オブジェクトに対する選択操作を検出する。例えば、操作検出部26は、操作者の特定部位が仮想オブジェクトの操作検出領域内に存在することで、その仮想オブジェクトに対する選択操作を検出する。また、操作検出部26は、操作者の特定部位が仮想オブジェクトの操作検出領域内で所定時間以上停止した場合に、その仮想オブジェクトに対する選択操作を検出するようにしてもよい。
また、上述の第1実施形態及び第2実施形態では、操作者の特定部位の3D位置情報及び状態情報を用いて、仮想オブジェクトの選択操作が検出されたが、状態情報を用いない形態もあり得る。この場合、センサ側装置10の状態取得部15は不要となり、送信部16は、操作者の特定部位の3D位置情報のみを表示側装置20へ送信する。また、表示側装置20では、操作検出部26は、状態情報を用いず、操作者の特定部位の3D位置及び複数の仮想オブジェクトの3D位置に基づいて、仮想オブジェクトに対する選択操作を検出する。例えば、操作検出部26は、操作者の特定部位が仮想オブジェクトの操作検出領域内に存在することで、その仮想オブジェクトに対する選択操作を検出する。また、操作検出部26は、操作者の特定部位が仮想オブジェクトの操作検出領域内で所定時間以上停止した場合に、その仮想オブジェクトに対する選択操作を検出するようにしてもよい。
また、操作検出部26は、次のように、仮想オブジェクトに対する選択操作を検出するようにしてもよい。例えば、操作検出部26は、最初の選択操作のみ特定の操作を検出し、選択解除までのその後の選択操作を、上記特定の操作ではなく、仮想オブジェクトの操作検出領域への特定部位の侵入を検出するようにしてもよい。具体的には、操作検出部26は、仮想オブジェクトの最初の選択を、その仮想オブジェクトの操作検出領域での当該特定部位の一定時間以上の停止により検出し、以降の選択を、当該特定部位の操作検出領域への侵入のみにより、検出する。このようにすれば、ロック解除のための仮想オブジェクトの選択操作を簡単化することができる。
[第3変形例]
図11は、変形例における表示側装置20の処理構成例を概念的に示す図である。上述の各実施形態では特に触れられなかったが、システム1は、比較対象の選択情報を登録する機能を持つようにしてもよい。変形例では、表示側装置20は、図11に示されるように、上述の各実施形態における構成に加えて、選択情報登録部35を更に有するようにしてもよい。表示側装置20は、選択情報の登録時とロック解除時とで処理を分け、選択情報の登録時には、選択情報登録部35が、選択情報取得部29で取得された選択情報を正規の選択情報として格納部に登録する。この格納部は、表示側装置20が持っていてもよいし、他のコンピュータが持っていてもよい。
図11は、変形例における表示側装置20の処理構成例を概念的に示す図である。上述の各実施形態では特に触れられなかったが、システム1は、比較対象の選択情報を登録する機能を持つようにしてもよい。変形例では、表示側装置20は、図11に示されるように、上述の各実施形態における構成に加えて、選択情報登録部35を更に有するようにしてもよい。表示側装置20は、選択情報の登録時とロック解除時とで処理を分け、選択情報の登録時には、選択情報登録部35が、選択情報取得部29で取得された選択情報を正規の選択情報として格納部に登録する。この格納部は、表示側装置20が持っていてもよいし、他のコンピュータが持っていてもよい。
更に、選択情報の登録時には、表示処理部28は、仮想オブジェクトに対応する識別情報として用いる、位置情報、標識、形状及びサイズの少なくとも1つを操作者に選択させるための画面をHMD9に表示させ、操作検出部26は、仮想オブジェクトに対応する識別情報の形態を選択する操作を検出し、選択情報取得部29は、操作者に選択された識別情報の種別と、その種別の識別情報を含む選択情報とを対応付けて選択情報登録部35に登録させる。これにより、例えば、操作者は、相対位置情報を用いる形態(第1実施形態に相当)、及び、標識、サイズ及び形状の少なくとも1つを用いる形態(第2実施形態及び変形例に相当)を選択することができる。更に、当該画面において、操作者に、色、数字、記号等の標識の中の所望の標識を選択させるようにしてもよい。
また、相対位置情報を用いる形態が選択された場合、当該画面において、更に、仮想オブジェクトの格子状の並びのパターンを操作者に選択させるようにしてもよい。この場合、仮想データ生成部24は、操作者に選択された並びパターンで配置される複数の仮想オブジェクトを示す3Dロックデータを生成すればよい。並びパターンとしては、第1実施形態で例示された立方体に加えて、直方体、三角錐、正八面体など、様々なパターンがあり得る。この場合、正規の選択情報と共に仮想オブジェクトの並びパターンの情報が登録される。このようにすれば、操作者毎に仮想オブジェクトの並びや識別情報を変えることができるため、ロック解除のための操作者の特定部位を用いた選択操作の漏洩を一層防ぐことができる。
[他の変形例]
上述の各実施形態では、図3に示されるように、HMD9が、操作者(ユーザ)の両目に対応して、視線カメラ9a及び9b、並びに、ディスプレイ9c及び9dを有したが、視線カメラ及びディスプレイを1つずつ持つようにしてもよい。この場合、1つのディスプレイは、操作者の片目の視野を覆うように配置されてもよいし、操作者の両目の視野を覆うように配置されてもよい。この場合、表示側装置20の仮想データ生成部24は、仮想オブジェクトを3DCGで表示させることができるように、周知の3DCG技術を用いて3Dロックデータを生成すればよい。
上述の各実施形態では、図3に示されるように、HMD9が、操作者(ユーザ)の両目に対応して、視線カメラ9a及び9b、並びに、ディスプレイ9c及び9dを有したが、視線カメラ及びディスプレイを1つずつ持つようにしてもよい。この場合、1つのディスプレイは、操作者の片目の視野を覆うように配置されてもよいし、操作者の両目の視野を覆うように配置されてもよい。この場合、表示側装置20の仮想データ生成部24は、仮想オブジェクトを3DCGで表示させることができるように、周知の3DCG技術を用いて3Dロックデータを生成すればよい。
また、上述の各実施形態では、視線画像を得るためにビデオシースルー型のHMD9が用いられたが、光学シースルー型のHMD9が用いられてもよい。この場合には、HMD9にはハーフミラーのディスプレイ9c及び9dが設けられ、このディスプレイ9c及び9dに仮想オブジェクトが表示されるようにすればよい。但し、この場合、操作者の視線方向で共通実オブジェクトを検出するための画像を得るためのカメラがHMD9の操作者の視野を遮らない箇所に設けられる。
また、上述の第1実施形態及び第2実施形態では、図2に示されるように、センサ側装置10と表示側装置20とが別々に設けられ、対象者の視線画像に仮想オブジェクトが合成されたが、センサ側装置10で得られる3D情報に含まれる2D画像に仮想オブジェクトが合成された画像が表示されるようにしてもよい。
図12は、変形例におけるシステム1のハードウェア構成例を概念的に示す図である。システム1は、処理装置50、3Dセンサ8、及び、表示装置51を有する。処理装置50は、CPU2、メモリ3、入出力I/F5等を有し、入出力I/F5は、3Dセンサ8及び表示装置51に接続される。表示装置51は、合成画像を表示する。
図13は、変形例における処理装置50の処理構成例を概念的に示す図である。変形例における処理装置50は、上述の各実施形態におけるセンサ側装置10に含まれる3D情報取得部11、位置算出部14及び状態取得部15を有し、上述の各実施形態における表示側装置20に含まれる仮想データ生成部24、操作検出部26、画像合成部27、表示処理部28、選択情報取得部29及びロック制御部30を有する。これら各処理部については以下の点を除き、上述の各実施形態と同様である。
位置算出部14は、3D情報取得部11により3Dセンサ8から得られる3D情報から直接的に、対象者の特定部位の3D位置情報を得る。操作検出部26は、位置算出部14により算出されるカメラ座標系の3D位置情報と状態取得部15により得られる状態情報とに基づいて、仮想オブジェクトに対する選択操作を検出する。画像合成部27は、3D情報取得部11により得られる3D情報に含まれる2D画像と、仮想データ生成部24により生成された3Dロックデータが示す仮想オブジェクトとを合成する。
この変形例では、対象者は、自身の視線方向以外の方向(3Dセンサ8)から撮像された自身の映像を見ながら、仮想オブジェクトを操作することになる。よって、この変形例では、対象者自身の視線画像を用いる上述の各実施形態に比べて、直感性は低下する可能性があるが、特定部位を用いた仮想オブジェクトに対する3次元操作によりロック解除をすることができる。
なお、上述の説明で用いたフローチャートでは、複数の工程(処理)が順番に記載されているが、本実施形態で実行される工程の実行順序は、その記載の順番に制限されない。本実施形態では、図示される工程の順番を内容的に支障のない範囲で変更することができる。また、上述の各実施形態及び各変形例は、内容が相反しない範囲で組み合わせることができる。
この出願は、2013年3月19日に出願された日本出願特願2013−057185号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
第1の側面に係る3次元ロック解除装置は、3次元座標空間上において幅方向、高さ方向、および奥行方向にそれぞれ配置される複数の仮想オブジェクトを示す3次元ロックデータを生成する仮想データ生成部と、3次元ロックデータにより示される複数の仮想オブジェクトを表示部に表示させる表示処理部と、操作者の特定部位に関する3次元座標空間上の3次元位置を取得する位置取得部と、位置取得部により取得される3次元位置及び複数の仮想オブジェクトの3次元位置を用いて、特定部位を用いた操作者の仮想オブジェクトに対する選択操作を検出する操作検出部と、操作検出部により検出される選択操作に基づいて、選択された仮想オブジェクトに対応する識別情報と選択順とを示す選択情報を取得する選択情報取得部と、選択情報取得部により取得される選択情報と既に登録されている選択情報とを比較することにより、ロックを解除するロック制御部と、を有する。
第2の側面に係る3次元ロック解除方法は、少なくとも1つのコンピュータにより実行される。第2の側面に係る3次元ロック解除方法は、3次元座標空間上において幅方向、高さ方向、および奥行方向にそれぞれ配置される複数の仮想オブジェクトを示す3次元ロックデータを生成し、3次元ロックデータにより示される複数の仮想オブジェクトを表示部に表示させ、操作者の特定部位に関する3次元座標空間上の3次元位置を取得し、取得された3次元位置及び複数の仮想オブジェクトの3次元位置を用いて、当該特定部位を用いた操作者の仮想オブジェクトに対する選択操作を検出し、検出された選択操作に基づいて、選択された仮想オブジェクトに対応する識別情報と選択順とを示す選択情報を取得し、取得された選択情報と既に登録されている選択情報とを比較することにより、ロックを解除する、ことを含む。
この出願は、2013年3月19日に出願された日本出願特願2013−057185号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
以下、参考形態の例を付記する。
1.
3次元座標空間上に任意に配置される複数の仮想オブジェクトを示す3次元ロックデータを生成する仮想データ生成部と、
前記3次元ロックデータにより示される前記複数の仮想オブジェクトを表示部に表示させる表示処理部と、
操作者の特定部位に関する前記3次元座標空間上の3次元位置を取得する位置取得部と、
前記位置取得部により取得される3次元位置及び前記複数の仮想オブジェクトの3次元位置を用いて、前記特定部位を用いた前記操作者の該仮想オブジェクトに対する選択操作を検出する操作検出部と、
前記操作検出部により検出される選択操作に基づいて、選択された仮想オブジェクトに対応する識別情報と選択順とを示す選択情報を取得する選択情報取得部と、
前記選択情報取得部により取得される選択情報と既に登録されている選択情報とを比較することにより、ロックを解除するロック制御部と、
を備える3次元ロック解除装置。
2.
前記仮想データ生成部は、前記3次元座標空間において前記複数の仮想オブジェクトが格子状に所定の並びで配置される前記3次元ロックデータを生成し、
前記選択情報取得部は、選択された仮想オブジェクトの位置情報と選択順とを示す前記選択情報を取得する、
1.に記載の3次元ロック解除装置。
3.
前記仮想データ生成部は、前記操作者により識別可能な標識がユニークにそれぞれ付される前記複数の仮想オブジェクト、若しくは、前記操作者により識別可能なユニークな形状又はサイズにそれぞれ設定される前記複数の仮想オブジェクトを示す前記3次元ロックデータを生成し、
前記選択情報取得部は、選択された前記仮想オブジェクトに付された標識と選択順とを示す前記選択情報、若しくは、選択された前記仮想オブジェクトの形状又はサイズと選択順とを示す前記選択情報を取得する、
1.に記載の3次元ロック解除装置。
4.
前記仮想データ生成部は、前記複数の仮想オブジェクトの配置を所定のタイミング毎に変更する3.に記載の3次元ロック解除装置。
5.
前記操作者の前記特定部位の状態情報を取得する状態取得部、
を更に備え、
前記操作検出部は、前記位置取得部により取得される3次元位置及び前記複数の仮想オブジェクトの3次元位置、並びに、前記状態取得部により取得される状態情報を用いて、前記特定部位を用いた前記操作者の該仮想オブジェクトに対する選択操作を検出する、
1.から4.のいずれか1つに記載の3次元ロック解除装置。
6.
前記ロック制御部において前記選択情報取得部により取得される選択情報と比較される、選択情報を登録する選択情報登録部、
を更に備え、
前記表示処理部は、前記仮想オブジェクトに対応する識別情報として用いる、位置情報、標識、形状及びサイズの少なくとも1つを前記操作者に選択させるための画面を前記表示部に表示させ、
前記選択情報取得部は、前記操作者に選択された識別情報の種別と、該種別の識別情報を含む前記選択情報とを対応付けて前記選択情報登録部に登録させる、
1.から5.のいずれか1つに記載の3次元ロック解除装置。
7.
少なくとも1つのコンピュータにより実行される3次元ロック解除方法において、
3次元座標空間上に任意に配置される複数の仮想オブジェクトを示す3次元ロックデータを生成し、
前記3次元ロックデータにより示される前記複数の仮想オブジェクトを表示部に表示させ、
操作者の特定部位に関する前記3次元座標空間上の3次元位置を取得し、
前記取得された3次元位置及び前記複数の仮想オブジェクトの3次元位置を用いて、前記特定部位を用いた前記操作者の該仮想オブジェクトに対する選択操作を検出し、
前記検出された選択操作に基づいて、選択された仮想オブジェクトに対応する識別情報と選択順とを示す選択情報を取得し、
前記取得された選択情報と既に登録されている選択情報とを比較することにより、ロックを解除する、
ことを含む3次元ロック解除方法。
8.
前記3次元ロックデータの生成は、前記3次元座標空間において前記複数の仮想オブジェクトが格子状に所定の並びで配置される前記3次元ロックデータを生成し、
前記選択情報の取得は、前記選択された仮想オブジェクトの位置情報と選択順とを示す前記選択情報を取得する、
7.に記載の3次元ロック解除方法。
9.
前記3次元ロックデータの生成は、前記操作者により識別可能な標識がユニークにそれぞれ付される前記複数の仮想オブジェクト、若しくは、前記操作者により識別可能なユニークな形状又はサイズにそれぞれ設定される前記複数の仮想オブジェクトを示す前記3次元ロックデータを生成し、
前記選択情報の取得は、選択された前記仮想オブジェクトに付された標識と選択順とを示す前記選択情報、若しくは、選択された前記仮想オブジェクトの形状又はサイズと選択順とを示す前記選択情報を取得する、
7.に記載の3次元ロック解除方法。
10.
前記複数の仮想オブジェクトの配置を所定のタイミング毎に変更する、
ことを更に含む9.に記載の3次元ロック解除方法。
11.
前記操作者の前記特定部位の状態情報を取得する、
ことを更に含み、
前記選択操作の検出は、前記取得された3次元位置及び前記複数の仮想オブジェクトの3次元位置、並びに、前記取得された状態情報を用いて、前記特定部位を用いた前記操作者の該仮想オブジェクトに対する選択操作を検出する、
7.から10.のいずれか1つに記載の3次元ロック解除方法。
12.
前記仮想オブジェクトに対応する識別情報として用いる、位置情報、標識、形状及びサイズの少なくとも1つを前記操作者に選択させるための画面を前記表示部に表示させ、
前記操作者に選択された識別情報の種別と、該種別の識別情報を含む前記選択情報とを対応付けて登録する、
ことを更に含む7.から11.のいずれか1つに記載の3次元ロック解除方法。
13.
7.から12.のいずれか1つに記載の3次元ロック解除方法を少なくとも1つのコンピュータに実行させるプログラム。
以下、参考形態の例を付記する。
1.
3次元座標空間上に任意に配置される複数の仮想オブジェクトを示す3次元ロックデータを生成する仮想データ生成部と、
前記3次元ロックデータにより示される前記複数の仮想オブジェクトを表示部に表示させる表示処理部と、
操作者の特定部位に関する前記3次元座標空間上の3次元位置を取得する位置取得部と、
前記位置取得部により取得される3次元位置及び前記複数の仮想オブジェクトの3次元位置を用いて、前記特定部位を用いた前記操作者の該仮想オブジェクトに対する選択操作を検出する操作検出部と、
前記操作検出部により検出される選択操作に基づいて、選択された仮想オブジェクトに対応する識別情報と選択順とを示す選択情報を取得する選択情報取得部と、
前記選択情報取得部により取得される選択情報と既に登録されている選択情報とを比較することにより、ロックを解除するロック制御部と、
を備える3次元ロック解除装置。
2.
前記仮想データ生成部は、前記3次元座標空間において前記複数の仮想オブジェクトが格子状に所定の並びで配置される前記3次元ロックデータを生成し、
前記選択情報取得部は、選択された仮想オブジェクトの位置情報と選択順とを示す前記選択情報を取得する、
1.に記載の3次元ロック解除装置。
3.
前記仮想データ生成部は、前記操作者により識別可能な標識がユニークにそれぞれ付される前記複数の仮想オブジェクト、若しくは、前記操作者により識別可能なユニークな形状又はサイズにそれぞれ設定される前記複数の仮想オブジェクトを示す前記3次元ロックデータを生成し、
前記選択情報取得部は、選択された前記仮想オブジェクトに付された標識と選択順とを示す前記選択情報、若しくは、選択された前記仮想オブジェクトの形状又はサイズと選択順とを示す前記選択情報を取得する、
1.に記載の3次元ロック解除装置。
4.
前記仮想データ生成部は、前記複数の仮想オブジェクトの配置を所定のタイミング毎に変更する3.に記載の3次元ロック解除装置。
5.
前記操作者の前記特定部位の状態情報を取得する状態取得部、
を更に備え、
前記操作検出部は、前記位置取得部により取得される3次元位置及び前記複数の仮想オブジェクトの3次元位置、並びに、前記状態取得部により取得される状態情報を用いて、前記特定部位を用いた前記操作者の該仮想オブジェクトに対する選択操作を検出する、
1.から4.のいずれか1つに記載の3次元ロック解除装置。
6.
前記ロック制御部において前記選択情報取得部により取得される選択情報と比較される、選択情報を登録する選択情報登録部、
を更に備え、
前記表示処理部は、前記仮想オブジェクトに対応する識別情報として用いる、位置情報、標識、形状及びサイズの少なくとも1つを前記操作者に選択させるための画面を前記表示部に表示させ、
前記選択情報取得部は、前記操作者に選択された識別情報の種別と、該種別の識別情報を含む前記選択情報とを対応付けて前記選択情報登録部に登録させる、
1.から5.のいずれか1つに記載の3次元ロック解除装置。
7.
少なくとも1つのコンピュータにより実行される3次元ロック解除方法において、
3次元座標空間上に任意に配置される複数の仮想オブジェクトを示す3次元ロックデータを生成し、
前記3次元ロックデータにより示される前記複数の仮想オブジェクトを表示部に表示させ、
操作者の特定部位に関する前記3次元座標空間上の3次元位置を取得し、
前記取得された3次元位置及び前記複数の仮想オブジェクトの3次元位置を用いて、前記特定部位を用いた前記操作者の該仮想オブジェクトに対する選択操作を検出し、
前記検出された選択操作に基づいて、選択された仮想オブジェクトに対応する識別情報と選択順とを示す選択情報を取得し、
前記取得された選択情報と既に登録されている選択情報とを比較することにより、ロックを解除する、
ことを含む3次元ロック解除方法。
8.
前記3次元ロックデータの生成は、前記3次元座標空間において前記複数の仮想オブジェクトが格子状に所定の並びで配置される前記3次元ロックデータを生成し、
前記選択情報の取得は、前記選択された仮想オブジェクトの位置情報と選択順とを示す前記選択情報を取得する、
7.に記載の3次元ロック解除方法。
9.
前記3次元ロックデータの生成は、前記操作者により識別可能な標識がユニークにそれぞれ付される前記複数の仮想オブジェクト、若しくは、前記操作者により識別可能なユニークな形状又はサイズにそれぞれ設定される前記複数の仮想オブジェクトを示す前記3次元ロックデータを生成し、
前記選択情報の取得は、選択された前記仮想オブジェクトに付された標識と選択順とを示す前記選択情報、若しくは、選択された前記仮想オブジェクトの形状又はサイズと選択順とを示す前記選択情報を取得する、
7.に記載の3次元ロック解除方法。
10.
前記複数の仮想オブジェクトの配置を所定のタイミング毎に変更する、
ことを更に含む9.に記載の3次元ロック解除方法。
11.
前記操作者の前記特定部位の状態情報を取得する、
ことを更に含み、
前記選択操作の検出は、前記取得された3次元位置及び前記複数の仮想オブジェクトの3次元位置、並びに、前記取得された状態情報を用いて、前記特定部位を用いた前記操作者の該仮想オブジェクトに対する選択操作を検出する、
7.から10.のいずれか1つに記載の3次元ロック解除方法。
12.
前記仮想オブジェクトに対応する識別情報として用いる、位置情報、標識、形状及びサイズの少なくとも1つを前記操作者に選択させるための画面を前記表示部に表示させ、
前記操作者に選択された識別情報の種別と、該種別の識別情報を含む前記選択情報とを対応付けて登録する、
ことを更に含む7.から11.のいずれか1つに記載の3次元ロック解除方法。
13.
7.から12.のいずれか1つに記載の3次元ロック解除方法を少なくとも1つのコンピュータに実行させるプログラム。
Claims (13)
- 3次元座標空間上に任意に配置される複数の仮想オブジェクトを示す3次元ロックデータを生成する仮想データ生成部と、
前記3次元ロックデータにより示される前記複数の仮想オブジェクトを表示部に表示させる表示処理部と、
操作者の特定部位に関する前記3次元座標空間上の3次元位置を取得する位置取得部と、
前記位置取得部により取得される3次元位置及び前記複数の仮想オブジェクトの3次元位置を用いて、前記特定部位を用いた前記操作者の該仮想オブジェクトに対する選択操作を検出する操作検出部と、
前記操作検出部により検出される選択操作に基づいて、選択された仮想オブジェクトに対応する識別情報と選択順とを示す選択情報を取得する選択情報取得部と、
前記選択情報取得部により取得される選択情報と既に登録されている選択情報とを比較することにより、ロックを解除するロック制御部と、
を備える3次元ロック解除装置。 - 前記仮想データ生成部は、前記3次元座標空間において前記複数の仮想オブジェクトが格子状に所定の並びで配置される前記3次元ロックデータを生成し、
前記選択情報取得部は、選択された仮想オブジェクトの位置情報と選択順とを示す前記選択情報を取得する、
請求項1に記載の3次元ロック解除装置。 - 前記仮想データ生成部は、前記操作者により識別可能な標識がユニークにそれぞれ付される前記複数の仮想オブジェクト、若しくは、前記操作者により識別可能なユニークな形状又はサイズにそれぞれ設定される前記複数の仮想オブジェクトを示す前記3次元ロックデータを生成し、
前記選択情報取得部は、選択された前記仮想オブジェクトに付された標識と選択順とを示す前記選択情報、若しくは、選択された前記仮想オブジェクトの形状又はサイズと選択順とを示す前記選択情報を取得する、
請求項1に記載の3次元ロック解除装置。 - 前記仮想データ生成部は、前記複数の仮想オブジェクトの配置を所定のタイミング毎に変更する請求項3に記載の3次元ロック解除装置。
- 前記操作者の前記特定部位の状態情報を取得する状態取得部、
を更に備え、
前記操作検出部は、前記位置取得部により取得される3次元位置及び前記複数の仮想オブジェクトの3次元位置、並びに、前記状態取得部により取得される状態情報を用いて、前記特定部位を用いた前記操作者の該仮想オブジェクトに対する選択操作を検出する、
請求項1から4のいずれか1項に記載の3次元ロック解除装置。 - 前記ロック制御部において前記選択情報取得部により取得される選択情報と比較される、選択情報を登録する選択情報登録部、
を更に備え、
前記表示処理部は、前記仮想オブジェクトに対応する識別情報として用いる、位置情報、標識、形状及びサイズの少なくとも1つを前記操作者に選択させるための画面を前記表示部に表示させ、
前記選択情報取得部は、前記操作者に選択された識別情報の種別と、該種別の識別情報を含む前記選択情報とを対応付けて前記選択情報登録部に登録させる、
請求項1から5のいずれか1項に記載の3次元ロック解除装置。 - 少なくとも1つのコンピュータにより実行される3次元ロック解除方法において、
3次元座標空間上に任意に配置される複数の仮想オブジェクトを示す3次元ロックデータを生成し、
前記3次元ロックデータにより示される前記複数の仮想オブジェクトを表示部に表示させ、
操作者の特定部位に関する前記3次元座標空間上の3次元位置を取得し、
前記取得された3次元位置及び前記複数の仮想オブジェクトの3次元位置を用いて、前記特定部位を用いた前記操作者の該仮想オブジェクトに対する選択操作を検出し、
前記検出された選択操作に基づいて、選択された仮想オブジェクトに対応する識別情報と選択順とを示す選択情報を取得し、
前記取得された選択情報と既に登録されている選択情報とを比較することにより、ロックを解除する、
ことを含む3次元ロック解除方法。 - 前記3次元ロックデータの生成は、前記3次元座標空間において前記複数の仮想オブジェクトが格子状に所定の並びで配置される前記3次元ロックデータを生成し、
前記選択情報の取得は、前記選択された仮想オブジェクトの位置情報と選択順とを示す前記選択情報を取得する、
請求項7に記載の3次元ロック解除方法。 - 前記3次元ロックデータの生成は、前記操作者により識別可能な標識がユニークにそれぞれ付される前記複数の仮想オブジェクト、若しくは、前記操作者により識別可能なユニークな形状又はサイズにそれぞれ設定される前記複数の仮想オブジェクトを示す前記3次元ロックデータを生成し、
前記選択情報の取得は、選択された前記仮想オブジェクトに付された標識と選択順とを示す前記選択情報、若しくは、選択された前記仮想オブジェクトの形状又はサイズと選択順とを示す前記選択情報を取得する、
請求項7に記載の3次元ロック解除方法。 - 前記複数の仮想オブジェクトの配置を所定のタイミング毎に変更する、
ことを更に含む請求項9に記載の3次元ロック解除方法。 - 前記操作者の前記特定部位の状態情報を取得する、
ことを更に含み、
前記選択操作の検出は、前記取得された3次元位置及び前記複数の仮想オブジェクトの3次元位置、並びに、前記取得された状態情報を用いて、前記特定部位を用いた前記操作者の該仮想オブジェクトに対する選択操作を検出する、
請求項7から10のいずれか1項に記載の3次元ロック解除方法。 - 前記仮想オブジェクトに対応する識別情報として用いる、位置情報、標識、形状及びサイズの少なくとも1つを前記操作者に選択させるための画面を前記表示部に表示させ、
前記操作者に選択された識別情報の種別と、該種別の識別情報を含む前記選択情報とを対応付けて登録する、
ことを更に含む請求項7から11のいずれか1項に記載の3次元ロック解除方法。 - 請求項7から12のいずれか1項に記載の3次元ロック解除方法を少なくとも1つのコンピュータに実行させるプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013057185 | 2013-03-19 | ||
JP2013057185 | 2013-03-19 | ||
PCT/JP2013/072244 WO2014147858A1 (ja) | 2013-03-19 | 2013-08-21 | 3次元ロック解除装置、3次元ロック解除方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2014147858A1 true JPWO2014147858A1 (ja) | 2017-02-16 |
Family
ID=51579577
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015506534A Pending JPWO2014147858A1 (ja) | 2013-03-19 | 2013-08-21 | 3次元ロック解除装置、3次元ロック解除方法及びプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20160055330A1 (ja) |
EP (1) | EP2977924A1 (ja) |
JP (1) | JPWO2014147858A1 (ja) |
CN (1) | CN105051650A (ja) |
WO (1) | WO2014147858A1 (ja) |
Families Citing this family (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3123385B1 (en) * | 2014-03-25 | 2020-03-11 | Sony Corporation | 3d graphical authentication by revelation of hidden objects |
EP3119158A4 (en) * | 2014-03-31 | 2017-03-08 | Huawei Technologies Co. Ltd. | Privacy protection method and terminal device |
US10275935B2 (en) | 2014-10-31 | 2019-04-30 | Fyusion, Inc. | System and method for infinite synthetic image generation from multi-directional structured image array |
US10726593B2 (en) * | 2015-09-22 | 2020-07-28 | Fyusion, Inc. | Artificially rendering images using viewpoint interpolation and extrapolation |
JP6418685B2 (ja) * | 2014-12-16 | 2018-11-07 | 国立大学法人 鹿児島大学 | 認証処理装置及び認証処理方法 |
US20170061700A1 (en) * | 2015-02-13 | 2017-03-02 | Julian Michael Urbach | Intercommunication between a head mounted display and a real world object |
US10750161B2 (en) * | 2015-07-15 | 2020-08-18 | Fyusion, Inc. | Multi-view interactive digital media representation lock screen |
US11006095B2 (en) | 2015-07-15 | 2021-05-11 | Fyusion, Inc. | Drone based capture of a multi-view interactive digital media |
US10242474B2 (en) | 2015-07-15 | 2019-03-26 | Fyusion, Inc. | Artificially rendering images using viewpoint interpolation and extrapolation |
US11095869B2 (en) | 2015-09-22 | 2021-08-17 | Fyusion, Inc. | System and method for generating combined embedded multi-view interactive digital media representations |
US10147211B2 (en) | 2015-07-15 | 2018-12-04 | Fyusion, Inc. | Artificially rendering images using viewpoint interpolation and extrapolation |
US10222932B2 (en) | 2015-07-15 | 2019-03-05 | Fyusion, Inc. | Virtual reality environment based manipulation of multilayered multi-view interactive digital media representations |
US11783864B2 (en) | 2015-09-22 | 2023-10-10 | Fyusion, Inc. | Integration of audio into a multi-view interactive digital media representation |
CN105955630A (zh) * | 2015-09-24 | 2016-09-21 | 上海鼎为通讯电子有限公司 | 一种电子设备的屏幕解锁方法 |
JP2017068771A (ja) * | 2015-10-02 | 2017-04-06 | 東京ガスエンジニアリングソリューションズ株式会社 | 敷設設備表示装置 |
US11202017B2 (en) | 2016-10-06 | 2021-12-14 | Fyusion, Inc. | Live style transfer on a mobile device |
CN108111475B (zh) * | 2016-11-25 | 2020-05-05 | 阿里巴巴集团控股有限公司 | 身份验证方法及装置 |
CN106682468A (zh) * | 2016-12-30 | 2017-05-17 | 百度在线网络技术(北京)有限公司 | 解锁电子设备的方法以及电子设备 |
US10437879B2 (en) | 2017-01-18 | 2019-10-08 | Fyusion, Inc. | Visual search using multi-view interactive digital media representations |
WO2018143313A1 (ja) * | 2017-02-01 | 2018-08-09 | コニカミノルタ株式会社 | ウェアラブル電子機器 |
US10313651B2 (en) | 2017-05-22 | 2019-06-04 | Fyusion, Inc. | Snapshots at predefined intervals or angles |
US10719703B2 (en) * | 2017-05-30 | 2020-07-21 | Fujitsu Limited | Non-transitory computer-readable storage medium for storing line-of-sight analysis program, line-of-sight analysis method, and line-of-sight analysis apparatus |
US11069147B2 (en) | 2017-06-26 | 2021-07-20 | Fyusion, Inc. | Modification of multi-view interactive digital media representation |
EP3734428A4 (en) * | 2017-12-27 | 2021-03-03 | Sony Corporation | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM |
EP3518130A1 (en) | 2018-01-30 | 2019-07-31 | OneVisage SA | Method and system for 3d graphical authentication on electronic devices |
JP6623481B2 (ja) * | 2018-03-23 | 2019-12-25 | 株式会社コナミデジタルエンタテインメント | 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、情報処理システム |
US10592747B2 (en) | 2018-04-26 | 2020-03-17 | Fyusion, Inc. | Method and apparatus for 3-D auto tagging |
US10783230B2 (en) * | 2018-05-09 | 2020-09-22 | Shape Matrix Geometric Instruments, LLC | Methods and apparatus for encoding passwords or other information |
US11334656B2 (en) * | 2018-05-17 | 2022-05-17 | Mindpass, Inc. | 3D virtual interactive digital user authentication security |
US11216586B2 (en) | 2018-12-03 | 2022-01-04 | At&T Intellectual Property I, L.P. | Multi-dimensional progressive security for personal profiles |
US11494953B2 (en) * | 2019-07-01 | 2022-11-08 | Microsoft Technology Licensing, Llc | Adaptive user interface palette for augmented reality |
US12067092B2 (en) * | 2022-03-31 | 2024-08-20 | Lenovo (Singapore) Pte. Ltd. | 3D passcode provided in virtual space |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001282428A (ja) * | 2000-03-29 | 2001-10-12 | Matsushita Electric Ind Co Ltd | 情報処理装置 |
JP2002042172A (ja) * | 2000-07-25 | 2002-02-08 | Matsushita Electric Works Ltd | 仮想物体の選択方法、この方法が適用される記録媒体およびサービス |
JP2004126973A (ja) * | 2002-10-03 | 2004-04-22 | National Institute Of Advanced Industrial & Technology | パスワード認証装置およびパスワード認証方法 |
JP2010139711A (ja) * | 2008-12-11 | 2010-06-24 | Brother Ind Ltd | ヘッドマウントディスプレイ |
WO2011081371A1 (en) * | 2009-12-29 | 2011-07-07 | Bizmodeline Co., Ltd | Password processing method and apparatus |
JP2011175439A (ja) * | 2010-02-24 | 2011-09-08 | Sony Corp | 画像処理装置、画像処理方法、プログラム及び画像処理システム |
JP2012155678A (ja) * | 2011-01-28 | 2012-08-16 | Konica Minolta Holdings Inc | 表示システム、表示処理装置、表示方法、および表示プログラム |
JP2012173772A (ja) * | 2011-02-17 | 2012-09-10 | Panasonic Corp | ユーザインタラクション装置、ユーザインタラクション方法、ユーザインタラクションプログラム、及び集積回路 |
JP2013016115A (ja) * | 2011-07-06 | 2013-01-24 | Nomura Research Institute Ltd | 情報処理端末のロック解除方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3795647B2 (ja) * | 1997-10-29 | 2006-07-12 | 株式会社竹中工務店 | ハンドポインティング装置 |
TWI463352B (zh) * | 2012-04-16 | 2014-12-01 | Phansco Corp | Shaking and unlocking touch - type portable electronic device and its rocking and unlocking method |
-
2013
- 2013-08-21 EP EP13878884.9A patent/EP2977924A1/en not_active Withdrawn
- 2013-08-21 JP JP2015506534A patent/JPWO2014147858A1/ja active Pending
- 2013-08-21 US US14/778,348 patent/US20160055330A1/en not_active Abandoned
- 2013-08-21 CN CN201380074952.1A patent/CN105051650A/zh active Pending
- 2013-08-21 WO PCT/JP2013/072244 patent/WO2014147858A1/ja active Application Filing
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001282428A (ja) * | 2000-03-29 | 2001-10-12 | Matsushita Electric Ind Co Ltd | 情報処理装置 |
JP2002042172A (ja) * | 2000-07-25 | 2002-02-08 | Matsushita Electric Works Ltd | 仮想物体の選択方法、この方法が適用される記録媒体およびサービス |
JP2004126973A (ja) * | 2002-10-03 | 2004-04-22 | National Institute Of Advanced Industrial & Technology | パスワード認証装置およびパスワード認証方法 |
JP2010139711A (ja) * | 2008-12-11 | 2010-06-24 | Brother Ind Ltd | ヘッドマウントディスプレイ |
WO2011081371A1 (en) * | 2009-12-29 | 2011-07-07 | Bizmodeline Co., Ltd | Password processing method and apparatus |
JP2013515318A (ja) * | 2009-12-29 | 2013-05-02 | ビズモードライン カンパニー リミテッド | パスワード処理方法および機器 |
JP2011175439A (ja) * | 2010-02-24 | 2011-09-08 | Sony Corp | 画像処理装置、画像処理方法、プログラム及び画像処理システム |
JP2012155678A (ja) * | 2011-01-28 | 2012-08-16 | Konica Minolta Holdings Inc | 表示システム、表示処理装置、表示方法、および表示プログラム |
JP2012173772A (ja) * | 2011-02-17 | 2012-09-10 | Panasonic Corp | ユーザインタラクション装置、ユーザインタラクション方法、ユーザインタラクションプログラム、及び集積回路 |
JP2013016115A (ja) * | 2011-07-06 | 2013-01-24 | Nomura Research Institute Ltd | 情報処理端末のロック解除方法 |
Also Published As
Publication number | Publication date |
---|---|
EP2977924A1 (en) | 2016-01-27 |
CN105051650A (zh) | 2015-11-11 |
WO2014147858A1 (ja) | 2014-09-25 |
US20160055330A1 (en) | 2016-02-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2014147858A1 (ja) | 3次元ロック解除装置、3次元ロック解除方法及びプログラム | |
JP5936155B2 (ja) | 3次元ユーザインタフェース装置及び3次元操作方法 | |
JP6057396B2 (ja) | 3次元ユーザインタフェース装置及び3次元操作処理方法 | |
JP5843340B2 (ja) | 3次元環境共有システム及び3次元環境共有方法 | |
JP5871345B2 (ja) | 3次元ユーザインタフェース装置及び3次元操作方法 | |
JP6288372B2 (ja) | インタフェース制御システム、インタフェース制御装置、インタフェース制御方法、及びプログラム | |
US8139087B2 (en) | Image presentation system, image presentation method, program for causing computer to execute the method, and storage medium storing the program | |
KR101146091B1 (ko) | 증강 현실을 위한 입력 인터페이스 장치 및 이를 구비한 증강 현실 시스템 | |
CN109564703A (zh) | 信息处理装置、方法及计算机程序 | |
JP2016110177A (ja) | 3次元入力装置及び入力システム | |
US8938131B1 (en) | Apparatus and method for registration of flat panel display device and imaging sensor, and electronic device having flat panel display device and imaging sensor which are registered using the method | |
JP5863984B2 (ja) | ユーザインタフェース装置及びユーザインタフェース方法 | |
KR20110087407A (ko) | 카메라 시뮬레이션 시스템 및 이를 이용한 위치 감지 방법 | |
JP2013168120A (ja) | 立体画像処理装置、立体画像処理方法、及びプログラム | |
CN109144598A (zh) | 基于手势的电子面罩人机交互方法与系统 | |
JP2021039567A (ja) | 作業支援システム及びプログラム | |
JP2021162876A (ja) | 画像生成システム、画像生成装置及び画像生成方法 | |
KR20200120467A (ko) | Hmd 장치 및 그 동작 방법 | |
KR101560474B1 (ko) | 3차원 사용자 인터페이스를 제공하는 스테레오스코픽 디스플레이 장치 및 방법 | |
JP5950806B2 (ja) | 入力装置、情報処理方法、及び情報処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160913 |