JPWO2014141504A1 - 3次元ユーザインタフェース装置及び3次元操作処理方法 - Google Patents
3次元ユーザインタフェース装置及び3次元操作処理方法 Download PDFInfo
- Publication number
- JPWO2014141504A1 JPWO2014141504A1 JP2015505219A JP2015505219A JPWO2014141504A1 JP WO2014141504 A1 JPWO2014141504 A1 JP WO2014141504A1 JP 2015505219 A JP2015505219 A JP 2015505219A JP 2015505219 A JP2015505219 A JP 2015505219A JP WO2014141504 A1 JPWO2014141504 A1 JP WO2014141504A1
- Authority
- JP
- Japan
- Prior art keywords
- dimensional
- virtual
- region
- operator
- coordinate space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims description 29
- 238000001514 detection method Methods 0.000 claims abstract description 98
- 238000012545 processing Methods 0.000 claims abstract description 63
- 238000000034 method Methods 0.000 claims description 55
- 230000008569 process Effects 0.000 claims description 31
- 230000033001 locomotion Effects 0.000 claims description 23
- 230000008859 change Effects 0.000 claims description 21
- 238000003384 imaging method Methods 0.000 claims description 20
- 230000015572 biosynthetic process Effects 0.000 claims description 5
- 238000003786 synthesis reaction Methods 0.000 claims description 5
- 230000006870 function Effects 0.000 description 54
- 239000003550 marker Substances 0.000 description 21
- 210000003128 head Anatomy 0.000 description 20
- 238000010586 diagram Methods 0.000 description 14
- 239000002131 composite material Substances 0.000 description 10
- 239000000203 mixture Substances 0.000 description 8
- 230000000007 visual effect Effects 0.000 description 6
- 239000007787 solid Substances 0.000 description 5
- 101100540541 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) VOA1 gene Proteins 0.000 description 4
- 101100540540 Schizosaccharomyces pombe (strain 972 / ATCC 24843) big1 gene Proteins 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0132—Head-up displays characterised by optical features comprising binocular systems
- G02B2027/0134—Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Abstract
3次元ユーザインタフェース装置(100)は、視線画像に基づいて3次元座標空間を設定する座標設定部(102)と、その3次元座標空間上の任意の位置に少なくとも領域境界が視認可能な状態で配置される透過的な仮想3次元操作領域を示す、3次元領域データを生成する仮想データ生成部(103)と、視線画像に写る空間に相当する当該3次元座標空間内の視認空間を表示基準として、その生成された3次元領域データにより示される仮想3次元操作領域を表示させる表示処理部(104)と、操作者の特定部位に関し取得される3次元座標空間上の3次元位置と仮想3次元操作領域の3次元座標空間上の位置とに基づいて、仮想3次元操作領域における操作者の特定部位を用いた操作を検出する操作検出部(106)と、を有する。
Description
本発明は、3次元ユーザインタフェース技術に関する。
近年、KINECT(登録商標)等の距離センサやWEBカメラ等を使用して、ユーザのジェスチャを検出し、検出されたジェスチャに応じて機器を制御するユーザインタフェースが普及しつつある。
ジェスチャ操作では、ボタン操作やタッチパネルへのタッチ操作等とは異なり、操作に対する感触がなく、かつ、操作空間に対する制限が少ない。よって、ジェスチャを用いたユーザインタフェースでは、仮想の操作領域が設定され、この仮想の操作領域により、操作者の操作開始及び操作終了が判断される。
下記特許文献1では、ユーザの手を認識し、認識された手の周囲にユーザ操作可能な非表示の操作領域を設定し、その手の移動に追随してその操作領域の位置を移動させる手法が提案されている。また、下記特許文献2では、複数の操作者の操作部位をそれぞれ認識し、操作者毎に操作部位の可動範囲をそれぞれ算出し、重複部分が排除された各可動範囲に基づいて、各操作者にジェスチャ認識範囲をそれぞれ設定する手法が提案されている。下記特許文献3では、撮像装置と操作者との位置関係や障害物の位置などにより変化する操作者の操作可能範囲を表示する手法が提案されている。
ユーザインタフェースの操作者や提供者は、各個人の使い易さ、ジェスチャ認識処理の精度、ジェスチャ操作での操作対象などに応じて、所望の大きさで、又は、所望の位置に、或いは、所望の数、当該操作領域を配置することを望む可能性がある。このため、当該操作領域が自由に設定できない場合、ジェスチャ操作を用いた使い易いユーザインタフェースを実現するのが困難となる可能性がある。
上述の各提案手法では、ジェスチャ操作を検出するための操作領域を自由に設定できない。例えば、上記特許文献1及び2の提案手法は、操作者の操作部位の可動範囲を自動的に操作領域に設定している。このような自動設定により、操作者に操作領域を認識させる必要がないという思想の下、これら提案手法は、操作領域を表示しない。しかしながら、このような手法では、操作者の操作部位に操作領域が追従するため、操作者が意図しないジェスチャ操作が認識されてしまい、結果として、誤操作を引き起こし易くなる。一方、上記特許文献3の提案手法は、操作領域を表示するが、使用者の位置及び障害物の位置に応じて自動的に操作領域(操作可能範囲)を設定する。よって、この提案手法でも、操作領域を自由に設定することはできない。
本発明は、上述のような事情に鑑みてなされたものであり、操作者のジェスチャ操作を検出するための立体的な操作領域を自由に設定可能とすることにより、ジェスチャ操作を用いたユーザインタフェースのユーザビリティを向上させる技術を提供することにある。
本発明の各側面では、上述した課題を解決するために、それぞれ以下の構成を採用する。
第1の側面に係る3次元ユーザインタフェース装置は、操作者の頭部に装着される撮像部により撮像される操作者にとっての視線画像を取得する視線画像取得部と、視線画像取得部により取得される視線画像に基づいて、3次元座標空間を設定する座標設定部と、その3次元座標空間上の任意の位置に少なくとも領域境界が視認可能な状態で配置される透過的な仮想3次元操作領域を示す、3次元領域データを生成する仮想データ生成部と、視線画像に写る空間に相当する当該3次元座標空間内の視認空間を表示基準として、仮想データ生成部により生成される3次元領域データにより示される仮想3次元操作領域を操作者の頭部に装着される表示部に表示させる表示処理部と、操作者の特定部位に関する3次元座標空間上の3次元位置を取得する位置取得部と、位置取得部により取得される3次元位置と仮想3次元操作領域の3次元座標空間上の位置とに基づいて、仮想3次元操作領域における操作者の特定部位を用いた操作を検出する操作検出部と、を有する。
第2の側面に係る3次元操作処理方法は、少なくとも1つのコンピュータにより実行される。第2の側面に係る3次元操作処理方法は、操作者の頭部に装着される撮像部により撮像される操作者にとっての視線画像を取得し、取得された視線画像に基づいて、3次元座標空間を設定し、3次元座標空間上の任意の位置に少なくとも領域境界が視認可能な状態で配置される透過的な仮想3次元操作領域を示す、3次元領域データを生成し、視線画像に写る空間に相当する当該3次元座標空間内の視認空間を表示基準として、上記生成された3次元領域データにより示される仮想3次元操作領域を操作者の頭部に装着される表示部に表示させ、操作者の特定部位に関する3次元座標空間上の3次元位置を取得し、取得された3次元位置と仮想3次元操作領域の3次元座標空間上の位置とに基づいて、仮想3次元操作領域における操作者の特定部位を用いた操作を検出する、ことを含む。
なお、本発明の他の側面として、上記第2の側面における方法を少なくとも1つのコンピュータに実行させるプログラムであってもよいし、このようなプログラムを記録したコンピュータが読み取り可能な記録媒体であってもよい。この記録媒体は、非一時的な有形の媒体を含む。
上記各側面によれば、操作者のジェスチャ操作を検出するための立体的な操作領域を自由に設定可能とし、ジェスチャ操作を用いたユーザインタフェースのユーザビリティを向上させる技術を提供することができる。
上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
以下、本発明の実施の形態について説明する。なお、以下に挙げる実施形態は例示であり、本発明は以下の実施形態の構成に限定されない。
図1は、本発明の実施の形態に係る3次元ユーザインタフェース装置100の構成例を概念的に示す図である。図1に示されるように、3次元ユーザインタフェース装置100は、操作者の頭部に装着される撮像部により撮像される操作者にとっての視線画像を取得する視線画像取得部101と、視線画像取得部101により取得される視線画像に基づいて、3次元座標空間を設定する座標設定部102と、その3次元座標空間上の任意の位置に少なくとも領域境界が視認可能な状態で配置される透過的な仮想3次元操作領域を示す、3次元領域データを生成する仮想データ生成部103と、視線画像に写る空間に相当する当該3次元座標空間内の視認空間を表示基準として、仮想データ生成部103により生成される3次元領域データにより示される仮想3次元操作領域を操作者の頭部に装着される表示部に表示させる表示処理部104と、操作者の特定部位に関する3次元座標空間上の3次元位置を取得する位置取得部105と、位置取得部105により取得される3次元位置と仮想3次元操作領域の3次元座標空間上の位置とに基づいて、仮想3次元操作領域における操作者の特定部位を用いた操作を検出する操作検出部106と、を有する。
図1に示される3次元ユーザインタフェース装置100は、例えば、後述する詳細実施形態における3次元ユーザインタフェースシステム1と同様のハードウェア構成を有し、その3次元ユーザインタフェースシステム1と同様にプログラムが処理されることで、上述の各処理部が実現される。操作者の頭部に装着される撮像部及び表示部は、3次元ユーザインタフェース装置100と通信可能に接続される。
本実施形態における3次元操作処理方法は、上述の3次元ユーザインタフェース装置100のような少なくとも1つのコンピュータにより実行される。本3次元操作処理方法は、操作者の頭部に装着される撮像部により撮像される操作者にとっての視線画像を取得し、取得された視線画像に基づいて、3次元座標空間を設定し、3次元座標空間上の任意の位置に少なくとも領域境界が視認可能な状態で配置される透過的な仮想3次元操作領域を示す、3次元領域データを生成し、視線画像に写る空間に相当する当該3次元座標空間内の視認空間を表示基準として、上記生成された3次元領域データにより示される仮想3次元操作領域を操作者の頭部に装着される表示部に表示させ、操作者の特定部位に関する3次元座標空間上の3次元位置を取得し、取得された3次元位置と仮想3次元操作領域の3次元座標空間上の位置とに基づいて、仮想3次元操作領域における操作者の特定部位を用いた操作を検出する、ことを含む。
本実施形態では、操作者にとっての視線画像が取得され、この取得された視線画像に基づいて3次元座標空間が設定される。視線画像とは、操作者の目が向いている方向と同じ又は略同じ方向から当該撮像部により撮像される画像である。仮想3次元操作領域が実空間上に存在するように操作者に認識させることができれば、視線画像は、操作者により視認される画像と完全に一致しなくてもよい。当該3次元座標空間は、そのような視線画像から設定されるため、視線画像に写る現実空間と整合する。ここで、3次元座標空間の設定とは、3軸の方向、中心点、座標単位などを決めることを意味する。なお、視線画像に基づく3次元座標空間の具体的設定手法には、周知の手法が利用されればよいため、その手法は、後述の詳細実施形態の項において一例を説明する。
更に、本実施形態では、そのように設定された3次元座標空間に基づいて、3次元領域データが生成される。この3次元領域データは、操作者の操作を検出するための仮想3次元操作領域を示し、更に、その仮想3次元操作領域に関する当該3次元座標空間上の位置を少なくとも示す。本実施形態では、当該仮想3次元操作領域の位置は任意である。そして、3次元領域データに基づいて、仮想3次元操作領域が、操作者の頭部に装着される表示部に、少なくとも領域境界が視認可能な状態で透過的に表示される。更に、本実施形態では、操作者の特定部位に関する3次元座標空間上の3次元位置が取得され、取得された3次元位置と仮想3次元操作領域の3次元座標空間上の位置とに基づいて、仮想3次元操作領域における操作者の特定部位を用いた操作が検出される。
このように、本実施形態によれば、ジェスチャ操作を検出するための仮想3次元操作領域を任意の位置で設定することができる。更に、仮想3次元操作領域は、少なくとも領域境界が視認可能な状態で透過的に表示されるため、操作者は、ジェスチャ操作の操作領域を容易に把握することができる。加えて、仮想3次元操作領域は、視線画像に写る空間に相当する3次元座標空間内の視認空間を表示基準として、任意の位置で表示されるため、操作者は、当該仮想3次元操作領域が現実空間に存在するものとして視認することができ、直感的にその操作領域を認識することができる。ひいては、容易かつ直感的に認識し得る仮想3次元操作領域により、操作者は、操作し易くなる。結果、本実施形態によれば、ジェスチャ操作を用いたユーザインタフェースのユーザビリティを向上させることができる。
以下、上述の実施形態について更に詳細を説明する。以下には、詳細実施形態として第1実施形態、第2実施形態及び第3実施形態を例示する。以下の各詳細実施形態は、上述の3次元ユーザインタフェース装置100及び3次元操作処理方法を3次元ユーザインタフェースシステムに適用した場合の例である。但し、以下の各詳細実施形態では、ユーザインタフェースに関連する処理のみが説明され、検出された操作に応じて制御される内容や制御される対象については、周知の技術が利用されればよいため、特に説明されない。
[第1実施形態]
〔システム構成〕
図2は、第1実施形態における3次元ユーザインタフェースシステム(以降、単にシステムと表記する)1のハードウェア構成例を概念的に示す図である。第1実施形態におけるシステム1は、センサ側構成と表示側構成とを持つ。センサ側構成は、3次元センサ(以降、3Dセンサと表記する)8及びセンサ側装置10から形成される。表示側構成は、ヘッドマウントディスプレイ(以降、HMDと表記する)9及び表示側装置20から形成される。以降、3次元を3Dと適宜省略して表記する。
[第1実施形態]
〔システム構成〕
図2は、第1実施形態における3次元ユーザインタフェースシステム(以降、単にシステムと表記する)1のハードウェア構成例を概念的に示す図である。第1実施形態におけるシステム1は、センサ側構成と表示側構成とを持つ。センサ側構成は、3次元センサ(以降、3Dセンサと表記する)8及びセンサ側装置10から形成される。表示側構成は、ヘッドマウントディスプレイ(以降、HMDと表記する)9及び表示側装置20から形成される。以降、3次元を3Dと適宜省略して表記する。
図3は、第1実施形態におけるシステム1の利用形態の例を示す図である。図3に示されるように、3Dセンサ8は、操作者(ユーザ)の特定部位を検出できる位置に配置される。HMD9は、操作者(ユーザ)の頭部に装着され、操作者にとっての視線画像を撮像すると共に、その視線画像に合成された上述の仮想3D操作領域を少なくとも領域境界が視認できるように表示する。操作者は、HMD9の表示部に表示される映像を見ながら、その映像に写る仮想3D操作領域に対して操作を行う。
3Dセンサ8は、操作者の特定部位の検出などのために利用される3D情報を検出する。3Dセンサ8は、例えば、Kinect(登録商標)のように、可視光カメラ及び距離画像センサにより実現される。距離画像センサは、深度センサとも呼ばれ、レーザから近赤外光のパターンを操作者に照射し、そのパターンを近赤外光を検知するカメラで撮像して得られる情報から距離画像センサから操作者までの距離(深度)が算出される。なお、3Dセンサ8自体の実現手法は制限されず、3Dセンサ8は、複数の可視光カメラを用いる3次元スキャナ方式で実現されてもよい。また、図2では、3Dセンサ8が1つ要素で図示されるが、3Dセンサ8は、操作者の2次元画像を撮像する可視光カメラ及び操作者までの距離を検出するセンサといった複数の機器で実現されてもよい。
本実施形態では、図3に示されるように、既知の形状を示すマーカ7により、表示側構成及びセンサ側構成において共通の3次元座標空間が設定される。但し、共通の3次元座標空間を設定するための共通実オブジェクトは、専用のマーカ7のみに制限されない。その共通実オブジェクトから、参照方向によらず、或る基準点及びこの基準点からの相互に直交する3軸の方向を一定に得ることができるのであれば、この共通実オブジェクトの具体的形態は制限されない。例えば、マーカ7は、現実世界に配置された画像や物で代用され得る。
図4は、HMD9の外観構成の例を示す図である。図4には、ビデオシースルー型と呼ばれるHMD9の構成が示されている。図4の例では、HMD9は、2つの視線カメラ9a及び9b、2つのディスプレイ9c及び9dを有する。各視線カメラ9a及び9bは、ユーザの各視線に対応する各視線画像をそれぞれ撮像する。これにより、HMD9は撮像部と呼ぶこともできる。各ディスプレイ9c及び9dは、ユーザの視野の大部分を覆う形に配置され、各視線画像に仮想3D操作領域が合成された合成3D画像を表示する。これにより、各ディスプレイ9c及び9dは、表示部と呼ぶこともできる。
センサ側装置10及び表示側装置20は、バスなどで相互に接続される、CPU(Central Processing Unit)2、メモリ3、通信装置4、入出力インタフェース(I/F)5などをそれぞれ有する。メモリ3は、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスク、可搬型記憶媒体などである。
センサ側装置10の入出力I/F5は、3Dセンサ8と接続され、表示側装置20の入出力I/F5は、HMD9と接続される。入出力I/F5と3Dセンサ8との間、及び、入出力I/F5とHMD9との間は無線により通信可能に接続されてもよい。各通信装置4は、無線又は有線にて、他の装置(センサ側装置10、表示側装置20など)と通信を行う。本実施形態は、このような通信の形態を制限しない。また、センサ側装置10及び表示側装置20の具体的ハードウェア構成についても制限されない。
〔処理構成〕
〈センサ側装置〉
図5は、第1実施形態におけるセンサ側装置10の処理構成例を概念的に示す図である。第1実施形態におけるセンサ側装置10は、3D情報取得部11、第1オブジェクト検出部12、基準設定部13、位置算出部14、送信部16などを有する。これら各処理部は、例えば、CPU2によりメモリ3に格納されるプログラムが実行されることにより実現される。また、当該プログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワーク上の他のコンピュータから入出力I/F5を介してインストールされ、メモリ3に格納されてもよい。
〈センサ側装置〉
図5は、第1実施形態におけるセンサ側装置10の処理構成例を概念的に示す図である。第1実施形態におけるセンサ側装置10は、3D情報取得部11、第1オブジェクト検出部12、基準設定部13、位置算出部14、送信部16などを有する。これら各処理部は、例えば、CPU2によりメモリ3に格納されるプログラムが実行されることにより実現される。また、当該プログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワーク上の他のコンピュータから入出力I/F5を介してインストールされ、メモリ3に格納されてもよい。
3D情報取得部11は、3Dセンサ8により検出された3D情報を逐次取得する。3D情報は、可視光により得られる操作者の2次元画像と、3Dセンサ8からの距離(深度)の情報とを含む。3Dセンサ8は、可視光カメラと深度センサといった複数の機器により構成されてもよい。
第1オブジェクト検出部12は、3D情報取得部11により取得された3D情報から既知の共通実オブジェクトを検出する。本実施形態では、共通実オブジェクトとして、図3に示されるマーカ7が利用される。第1オブジェクト検出部12は、マーカ7が示す形状、サイズ、色などについての情報を予め保持しており、このような既知の情報を用いて、マーカ7を3D情報から検出する。
基準設定部13は、第1オブジェクト検出部12により検出されるマーカ7に基づいて、3D座標空間を設定し、かつ、この3D座標空間における3Dセンサ8の位置及び向きを算出する。例えば、基準設定部13は、マーカ7から抽出される基準点を原点とし、その基準点からの相互に直交する3方向を各軸とする3D座標空間を設定する。基準設定部13は、マーカ7に関する既知の形状及びサイズと、3D情報から抽出されたマーカ7が示す形状及びサイズとの比較により、3Dセンサ8の位置及び向きを算出する。
位置算出部14は、3D情報取得部11により逐次取得される3D情報を用いて、操作者の特定部位に関する上記3D座標空間上の3D位置情報を逐次算出する。本実施形態では、位置算出部14は、具体的に次のように当該3D位置情報を算出する。位置算出部14は、まず、3D情報取得部11により取得される3D情報から操作者の特定部位の3D位置情報を抽出する。ここで抽出される3D位置情報は、3Dセンサ8のカメラ座標系に対応する。そこで、位置算出部14は、基準設定部13により算出される3Dセンサ8の位置及び向き並びに3D座標空間に基づいて、3Dセンサ8のカメラ座標系に対応する3D位置情報を基準設定部13で設定された3D座標空間上の3D位置情報に変換する。この変換は、3Dセンサ8のカメラ座標系から、上記マーカ7に基づき設定される3D座標系への変換を意味する。
ここで、検出すべき操作者の特定部位は複数であってもよい。例えば、複数の特定部位として操作者の両手が利用される形態があり得る。この場合、位置算出部14は、3D情報取得部11により取得される3D情報から、複数の特定部位の3D位置情報をそれぞれ抽出し、この各3D位置情報を3D座標空間上の各3D位置情報にそれぞれ変換する。また、特定部位とは、操作者が操作を行うために用いる体の一部であるため、或る程度の面積又は体積を有する。よって、位置算出部14により算出される3D位置情報は、当該特定部位の中の或る1点の位置情報であってもよいし、複数点の位置情報であってもよい。
送信部16は、操作者の特定部位に関する、位置算出部14により算出された当該3D座標空間上の3D位置情報を表示側装置20に送る。
〈表示側装置〉
図6は、第1実施形態における表示側装置20の処理構成例を概念的に示す図である。第1実施形態における表示側装置20は、視線画像取得部21、第2オブジェクト検出部22、座標設定部23、仮想データ生成部24、操作検出部25、画像合成部27、表示処理部28などを有する。これら各処理部は、例えば、CPU2によりメモリ3に格納されるプログラムが実行されることにより実現される。また、当該プログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワーク上の他のコンピュータから入出力I/F5を介してインストールされ、メモリ3に格納されてもよい。
図6は、第1実施形態における表示側装置20の処理構成例を概念的に示す図である。第1実施形態における表示側装置20は、視線画像取得部21、第2オブジェクト検出部22、座標設定部23、仮想データ生成部24、操作検出部25、画像合成部27、表示処理部28などを有する。これら各処理部は、例えば、CPU2によりメモリ3に格納されるプログラムが実行されることにより実現される。また、当該プログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワーク上の他のコンピュータから入出力I/F5を介してインストールされ、メモリ3に格納されてもよい。
視線画像取得部21は、上述の視線画像取得部101と同様に、視線画像を取得する。操作者が仮想3D操作領域に対して操作する場合、視線画像には、センサ側装置10により検出される操作者の特定部位と同じ特定部位が写る。本実施形態では、視線カメラ9a及び9bが設けられているため、視線画像取得部21は、左目及び右目の各々に対応する各視線画像をそれぞれ取得する。なお、各処理部は、左目及び右目に対応する両視線画像に対してそれぞれ同様に処理されるため、以下の説明では、1つの視線画像を対象に説明する。
第2オブジェクト検出部22は、視線画像取得部21により取得される視線画像から、センサ側装置10で検出されるものと同じ既知の共通実オブジェクトを検出する。即ち、本実施形態では、第2オブジェクト検出部22は、図3に示されるマーカ7を検出する。第2オブジェクト検出部22の処理は、上述のセンサ側装置10の第1オブジェクト検出部12と同様であるため、ここでは詳細説明を省く。なお、視線画像に含まれるマーカ7は、3Dセンサ8で得られる3D情報に含まれるマーカ7とは、撮像方向が異なる。
座標設定部23は、第2オブジェクト検出部22により検出されたマーカ7に基づいて、センサ側装置10の基準設定部13により設定されたものと同じ3D座標空間を設定し、かつ、HMD9の位置及び向きを算出する。座標設定部23の処理についても、センサ側装置10の基準設定部13と同様であるため、ここでは詳細説明を省く。座標設定部23により設定される3D座標空間も、センサ側装置10の基準設定部13により設定される3D座標空間と同じ共通の実オブジェクト(マーカ7)に基づいて設定されるため、結果として、3D座標空間がセンサ側装置10と表示側装置20との間で共有されることになる。
仮想データ生成部24は、上述の仮想データ生成部103と同様に、3D領域データを生成する。上述したように、3D領域データは、3D座標空間における、仮想3D操作領域の位置、サイズ、形状等を示す。仮想データ生成部24は、複数の仮想3D操作領域が設定される場合、複数の仮想3D操作領域の各々について、3D座標空間上の位置、サイズ、形状等に加えて、操作種をそれぞれ示す複数の3D領域データを生成する。本実施形態では、仮想3D操作領域の3D座標空間内の位置及び形態(形、大きさ、色、模様など)が決まるのであれば、3D領域データの具体的内容は制限されない。仮想3D操作領域に設定される形状には、立方体、直方体、球、楕円体、どら焼き型等があり得る。どら焼き型とは、2つの球が交わっている場合の重なった部分の立体形状を意味する。
仮想3D操作領域に設定される操作種とは、仮想3D操作領域における操作者の特定部位の動きから検出される情報種に対応するジェスチャ操作の種類を意味する。その操作種には、例えば、3次元(3軸)の位置変化情報に基づいて操作内容が特定される操作種(以降、3Dジェスチャタイプと表記する)、2次元(2軸)の位置変化情報に基づいて操作内容が特定される操作種(以降、2Dジェスチャタイプと表記する)、1次元(1軸)の位置変化情報に基づいて操作内容が特定される操作種(以降、1Dジェスチャタイプと表記する)、特定部位が仮想3D操作領域に触れたか否かに基づいて操作内容が特定される操作種(以降、0Dジェスチャタイプと表記する)が存在し得る。なお、本実施形態は、仮想3D操作領域に設定される操作種の具体的内容を制限しない。仮想3D操作領域に設定される形態及び操作種の具体例については、後述する。
位置、サイズ、形状、操作種等の仮想3D操作領域に設定される情報は、入力画面等に基づいて入出力I/F5に接続される入力装置(図示せず)を操作者が操作することにより入力された情報であってもよいし、可搬型記録媒体、他のコンピュータ等から通信装置4又は入出力I/F5を経由して取得された情報であってもよいし、初期値として予め仮想データ生成部24により保持されている情報であってもよい。仮想3D操作領域に設定される情報は、操作者等により任意に設定され得る。
画像合成部27は、HMD9の位置及び向き並びに3D座標空間及び3D領域データに基づいて、視線画像取得部21で取得された視線画像に仮想3D操作領域を合成する。このとき、仮想3D操作領域の位置及び形態は、視線画像に写る空間に相当する3次元座標空間内の視認空間を表示基準として決定される。また、本実施形態では、画像合成部27は、視線カメラ9a及び9bで撮像された各視線画像に基づく各合成画像をそれぞれ生成する。なお、画像合成部27による合成処理には、拡張現実(AR)等で用いられる周知の手法が利用されればよいため、ここでは詳細説明を省略する。
表示処理部28は、上述の表示処理部104と同様に、仮想3D操作領域をHMD9に表示させる。本実施形態では、表示処理部28は、仮想3D操作領域と視線画像との合成画像をHMD9に表示させる。これにより、ディスプレイ9c及び9dにそれぞれ操作者の各視線に対応する各合成画像がそれぞれ表示されるため、操作者は、両眼視差により、視線画像及び仮想3D操作領域を3次元で視認することができる。
操作検出部25は、操作者の特定部位に関する3D座標空間上の3D位置情報をセンサ側装置10から受信し、3D座標空間における操作者の特定部位の位置と、仮想3D操作領域の位置とに基づいて、仮想3D操作領域における操作者の特定部位を用いた操作を検出する。操作検出部25は、上述の位置取得部105及び操作検出部106に相当する。このとき、操作検出部25は、操作が検出された仮想3D操作領域を特定し、その仮想3D操作領域に設定された操作種に対応する操作情報を取得する。具体的には、操作検出部25は、当該仮想3D操作領域に2Dジェスチャタイプが設定されている場合、仮想3D操作領域内での操作者の特定部位の2次元変化情報を取得し、その2次元変化情報に対応する値を操作情報として取得する。仮想3D操作領域と検出される操作との具体的関係については後述する。
図7Aは、HMD9に表示される合成画像の例を示す図である。図7Aの例に示される合成画像は、視線画像に写る実世界のテーブルRT、3つの仮想3D操作領域VOA1、VOA2及びVOA3を含む。VOA1は球形であり、VOA2は直方体であり、VOA3は立方体である。例えば、仮想3D操作領域VOA1、VOA2及びVOA3には、異なる操作種が設定される。例えば、VOA1には、3Dジェスチャタイプが設定され、VOA2には、1Dジェスチャタイプが設定され、VOA3には、0Dジェスチャタイプが設定される。
図7Bは、HMD9に表示される合成画像の他の例を示す図である。図7Bの例に示される合成画像は、視線画像に写る実世界のテーブルRT、どら焼き型の仮想3D操作領域VOA4を含む。VOA4には、例えば、1Dジェスチャタイプが設定される。
また、各仮想3D操作領域は、図7A及び図7Bに示されるように、領域境界が視認できるように半透明化されてそれぞれ表示される。このように、本実施形態によれば、操作者は、任意の形状を持ちかつ任意の位置に配置された仮想3D操作領域を、実世界に重畳された状態でかつ実世界の実オブジェクトを妨げないように視認することができる。
ここで、仮想3D操作領域の形状と検出される操作との関係について説明する。
図8は、操作者の特定部位の実際の動きを概念的に示す図である。本発明者らは、ジェスチャ操作に関し、次のような問題点を見出した。即ち、ジェスチャ操作では操作に対する感触やガイドがないため、操作者にとって、或る位置(始点)から或る位置(終点)まで指先(特定部位)を動かすジェスチャ操作を行いたい場合に、始点と終点との間を結ぶ直線上でその指先を動かすことは困難であり、図8に示されるように、指先は、その直線から外れた軌跡を描くのが通常である。従って、上述の1Dジェスチャタイプにおいて、1つの軸上のみで指先の軌跡を検出する方法を採った場合、操作者にとって使い辛いユーザインタフェースとなってしまう。
そこで、本発明者らは、1次元(1軸)の位置変化情報に基づいて操作内容が特定される1Dジェスチャタイプが設定される仮想3D操作領域にも、立体的な形状を持たせ、その形状内での操作者の特定部位の動きを検出することが望ましいとの着想を得た。
図9は、どら焼き型の仮想3D操作領域と検出される操作との関係の例を概念的に示す図である。図9に示されるように、仮想3D操作領域VOA5は、球体SP1と球体SP2との重なり部分に相当するどら焼き型の形状を有する。この形状は、始点を球体SP1の中心点に設定し、終点を球体SP2の中心点に設定し、各中心点から各球面上の点までの距離を始点と終点との間の長さの半分に設定することで、形成される。VOA5には、1Dジェスチャタイプが設定されており、操作検出部25は、始点と終点とを結ぶ検出軸における操作者の特定部位の位置変化量を操作情報として取得する。
このとき、操作検出部25は、操作者の特定部位のVOA5内での3次元位置を検出軸に射影した位置に対応する値を操作情報として取得する。例えば、始点に値(−100)が設定され、終点に値(100)が設定されている場合、操作検出部25は、操作情報として示される検出軸上の位置と始点との距離と、その位置と終点との距離との比から、その位置に対応する値を算出する。更に、操作検出部25は、当該特定部位がVOA5から球体SP1内に出た場合には、始点に対応する値(−100)を取得し、当該特定部位がVOA5から球体SP2内に出た場合には、終点に対応する値(100)を取得する。
このように、1Dジェスチャタイプのためにどら焼き型の仮想3D操作領域が設定されることにより、操作者の特定部位を用いた操作が検出軸を或る程度ずれたとしても、適切に操作情報を取得することができる。更に、どら焼き型の形状によれば、始点及び終点に近い程、検出マージンが小さく、始点及び終点から離れる程、検出マージンが大きくなる。これは、操作者の特定部位の動かし方の特性に合致している。操作者は、或る目標(始点)から或る目標(終点)へと特定部位を動かそうとした場合であって、目標間を結ぶ直線が見えない場合、各目標の近辺では目標近くに特定部位を置くことができるが、各目標から離れると当該直線から特定部位が離れやすくなるのが一般的である。よって、1Dジェスチャタイプのためにどら焼き型の仮想3D操作領域を設定することは、操作者の操作感と仮想3D操作領域とをマッチさせ、操作者にとって使い易いユーザインタフェースを実現することができる。このような効果は、始点と終点とを結ぶ線分を長径(長軸の長さ)とし、短径(短軸の長さ)を任意に設定した楕円を長軸を中心に回転させて得られる楕円体でも同様に得られる。但し、1Dジェスチャタイプのために設定される仮想3D操作領域の形状は、どら焼き型や楕円体に制限されず、立方体、直方体、球などのように他の立体的形状であってもよい。
〔動作例〕
以下、第1実施形態における3次元操作処理方法について図10を用いて説明する。図10は、第1実施形態におけるシステム1の動作例を示すシーケンスチャートである。以下では、センサ側装置10又は表示側装置20を各方法の実行主体として説明するが、実行主体は、システム1を構成する少なくとも1つのコンピュータとされてもよい。
以下、第1実施形態における3次元操作処理方法について図10を用いて説明する。図10は、第1実施形態におけるシステム1の動作例を示すシーケンスチャートである。以下では、センサ側装置10又は表示側装置20を各方法の実行主体として説明するが、実行主体は、システム1を構成する少なくとも1つのコンピュータとされてもよい。
センサ側装置10は、3Dセンサ8から3D情報を逐次取得する(S101)。3D情報には、共通実オブジェクトとしてのマーカ7及び操作者の特定部に関する情報が含まれる。センサ側装置10は、所定のフレームレートの当該3D情報に対して次のように動作する。
センサ側装置10は、当該3D情報から共通実オブジェクト(マーカ7)を検出する(S102)。続いて、センサ側装置10は、検出された共通実オブジェクトに基づいて、3D座標空間を設定し、かつ、この3D座標空間における3Dセンサ8の位置及び向きを算出する(S103)。
更に、センサ側装置10は、当該3D情報を用いて、操作者の特定部位の3D位置情報を算出する(S104)。更に、センサ側装置10は、工程(S103)で算出された3Dセンサ8の位置及び向き並びに3D座標空間に基づいて、工程(S104)で算出された3D位置情報を工程(S103)で設定された3D座標空間上の3D位置情報に変換する(S105)。
センサ側装置10は、操作者の特定部位に関し、工程(S105)で得られた3D位置情報を表示側装置20に送る(S106)。図7では、説明の便宜のため、工程(S102)及び(S103)が3D情報の所定のフレームレートで実行される例が示されるが、工程(S102)及び(S103)はキャリブレーション時のみ実行されるようにしてもよい。
一方で、表示側装置20は、3D情報の取得(S101)とは非同期で、HMD9から視線画像を逐次取得している(S111)。表示側装置20は、所定のフレームレートの当該視線画像に対して次のように動作する。
表示側装置20は、当該視線画像からセンサ側装置10で検出されるものと同じ共通実オブジェクト(マーカ7)を検出する(S112)。続いて、表示側装置20は、検出された共通実オブジェクトに基づいて、3D座標空間を設定し、かつ、この3D座標空間におけるHMD9の位置及び向きを算出する(S113)。同じマーカ7(共通実オブジェクト)が用いられるため、センサ側装置10と表示側装置20との間で3D座標空間が共有されることになる。
表示側装置20は、上述のような3D領域データを生成する(S114)。この3D領域データは、仮想3D操作領域に関する、(S113)で設定された3D座標空間上の位置、サイズ、形状、表示態様(少なくとも領域境界が視認可能な状態で透過的に表示される態様)等の情報を含む。このような仮想3D操作領域に関する設定情報は、上述のように任意の手法により取得される。仮想3D操作領域が複数設定されている場合、表示側装置20は、各仮想3D操作領域を示す各3D領域データをそれぞれ生成する。
表示側装置20は、(S113)で設定された3D座標空間に基づいて、(S111)で取得された視線画像と、(S114)で生成された3D領域データに基づく仮想3D操作領域とを合成する(S115)。表示側装置20は、その合成により得られた画像をHMD9に表示させる(S116)。
表示側装置20は、センサ側装置10から、操作者の特定部位に関する3D位置情報を受信すると(S117)、3D座標空間における操作者の特定部位の位置と、仮想3D操作領域の位置とに基づいて、仮想3D操作領域における操作者の特定部位を用いた操作を検出する(S118)。この操作の検出において、表示側装置20は、操作が検出された仮想3D操作領域を特定し、その仮想3D操作領域に設定されている操作種に対応する操作情報を取得する。操作情報とは、操作種に対応する操作者の特定部位を用いた操作内容を示す情報である。
システム1は、(S118)で検出された操作に対応する制御を行う。
図10では、説明の便宜のため、(S112)から(S114)が視線画像の所定のフレームレートで実行される例が示されるが、(S112)及び(S113)は、キャリブレーション時のみ実行され、(S114)は、仮想3D操作領域の設定時、又は、システム1の起動時に、実行されるようにしてもよい。
〔第1実施形態の作用及び効果〕
このように、第1実施形態では、HMD9及び3Dセンサ8の各々で得られる画像情報に写る共通実オブジェクト(マーカ7)に基づいて、センサ側装置10及び表示側装置20で3D座標空間が共有される。そして、この3D座標空間に基づいて、仮想3D操作領域が少なくとも領域境界が視認可能な状態で透過的に表示されるように、視線画像と仮想3D操作領域とが合成され、この合成画像が操作者の頭部に装着されるHMD9に表示される。
このように、第1実施形態では、HMD9及び3Dセンサ8の各々で得られる画像情報に写る共通実オブジェクト(マーカ7)に基づいて、センサ側装置10及び表示側装置20で3D座標空間が共有される。そして、この3D座標空間に基づいて、仮想3D操作領域が少なくとも領域境界が視認可能な状態で透過的に表示されるように、視線画像と仮想3D操作領域とが合成され、この合成画像が操作者の頭部に装着されるHMD9に表示される。
これにより、操作者は、あたかも自身の目の前の現実世界に存在するかのように、仮想3D操作領域を視認することができる。更に、仮想3D操作領域は少なくとも領域境界が視認可能な状態で透過的に表示されるため、現実世界に存在するオブジェクトや背景についても仮想3D操作領域に遮られることなく視認することができる。即ち、第1実施形態によれば、操作者に、立体的な操作領域を直感的に把握させることができる。
更に、第1実施形態では、視線画像を得る撮像部(視線カメラ9a及び視線カメラ9b)とは別に、操作者の特定部位の位置を測定し得るセンサ(3Dセンサ8)が設けられ、上述のような共通の3D座標空間において操作者の特定部位と仮想3D操作領域との位置関係が比較され、仮想3D操作領域における操作者の特定部位を用いた操作が検出される。
従って、第1実施形態によれば、視線画像に写る空間内における仮想3D操作領域と操作者の特定部位との位置関係を正確に検出することができ、結果として、操作者に、仮想3D操作領域をあたかも直接触っているかのような直感的操作感を与えることができる。
また、第1実施形態では、操作者などにより任意の方法で設定された、仮想3D操作領域を置く位置やサイズや形状等に基づいて、仮想3D操作領域の表示態様が決定される。従って、第1実施形態によれば、操作者のジェスチャ操作を検出するための立体的な操作領域を自由に設定することができる。
また、第1実施形態によれば、図3に示されるように、複数の仮想3D操作領域を設定することもでき、各仮想3D操作領域にそれぞれ異なる操作種を設定することもできる。これにより、設計者や利用者(操作者)に、3次元のユーザインタフェースを自由にデザインさせることができる。例えば、1Dジェスチャタイプのような少ない次元数の情報で操作内容を特定する操作種を用いる複数の仮想3D操作領域を用いれば、3Dセンサ8の測定精度や操作者の特定部位の認識精度により、細かな動き(ジェスチャ)が認識できない場合においても、多数の操作内容を識別することができる。
このように、第1実施形態によれば、操作領域を操作者に容易に認識させることができると共に、自由に複数の操作領域を設けることができるため、ユーザインタフェースのユーザビリティを向上させることができる。
[第2実施形態]
第2実施形態におけるシステム1は、表示されている仮想3D操作領域自体に対する移動、サイズ変更、回転、変形などを可能とする。以下、第2実施形態におけるシステム1について、第1実施形態と異なる内容を中心に説明する。以下の説明では、第1実施形態と同様の内容については適宜省略する。
第2実施形態におけるシステム1は、表示されている仮想3D操作領域自体に対する移動、サイズ変更、回転、変形などを可能とする。以下、第2実施形態におけるシステム1について、第1実施形態と異なる内容を中心に説明する。以下の説明では、第1実施形態と同様の内容については適宜省略する。
〔処理構成〕
〈センサ側装置〉
図11は、第2実施形態におけるセンサ側装置10の処理構成例を概念的に示す図である。第2実施形態におけるセンサ側装置10は、第1実施形態の構成に加えて、状態取得部15を更に有する。状態取得部15についても他の処理部と同様に実現される。
〈センサ側装置〉
図11は、第2実施形態におけるセンサ側装置10の処理構成例を概念的に示す図である。第2実施形態におけるセンサ側装置10は、第1実施形態の構成に加えて、状態取得部15を更に有する。状態取得部15についても他の処理部と同様に実現される。
状態取得部15は、操作者の特定部位の状態情報を取得する。特定部位の状態情報とは、特定部位の形状に関わる状態を特定し得る情報であり、例えば、握った状態、開いた状態、親指を立てた状態などを示す。この特定部位は、位置算出部14で検出対象とされる特定部位と同一である。本実施形態は、検出可能な範囲で、この状態情報が示し得る状態の数を制限しない。また、複数の特定部位が利用される場合には、状態取得部15は、各特定部位に関する状態情報をそれぞれ取得する。
状態取得部15は、例えば、当該特定部位の識別すべき各状態に対応する画像特徴情報を予めそれぞれ保持しておき、3D情報取得部11により取得される3D情報に含まれる2D画像から抽出される特徴情報と、その予め保持される各画像特徴情報との比較により、当該特定部位の状態情報を取得する。また、状態取得部15は、当該特定部位に装着されたひずみセンサ(図示せず)から得られる情報から、当該特定部位の状態情報を取得してもよい。また、状態取得部15は、操作者の手で操作される入力マウス(図示せず)からの情報から、当該状態情報を取得してもよい。更に、状態取得部15は、マイクロフォン(図示せず)により得られる音声を認識することで当該状態情報を取得してもよい。
送信部16は、操作者の特定部位に関する3D位置情報と共に、状態取得部15により取得される操作者の特定部位に関する状態情報を表示側装置20に送信する。
〈表示側装置〉
図12は、第2実施形態における表示側装置20の処理構成例を概念的に示す図である。第2実施形態における表示側装置20は、第1実施形態の構成に加えて、領域処理部26を更に有する。領域処理部26についても他の処理部と同様に実現される。
図12は、第2実施形態における表示側装置20の処理構成例を概念的に示す図である。第2実施形態における表示側装置20は、第1実施形態の構成に加えて、領域処理部26を更に有する。領域処理部26についても他の処理部と同様に実現される。
操作検出部25は、センサ側装置10から送信される、操作者の特定部位に関する3D位置情報及び状態情報を受信し、これらの情報に基づいて、仮想3D操作領域自体に対する特定操作を検出する。操作検出部25は、仮想3D操作領域に加えて、その周囲所定範囲に仮想3D操作領域自体に対する特定操作を検出するマージンを設けてもよい。以降、仮想3D操作領域自体に対する特定操作を検出する領域を特定操作検出領域と表記する。
操作検出部25は、仮想3D操作領域自体に対する特定操作を検出すべきか、又は、第1実施形態で述べた仮想3D操作領域における操作を検出すべきかを、特定操作検出領域内での操作者の特定部位の滞留時間や特定部位の状態に応じて判断する。例えば、操作検出部25は、操作者の特定部位が特定操作検出領域内で所定時間以上留まっていることを検出すると、仮想3D操作領域自体に対する特定操作の検出モードに移行する。また、操作検出部25は、特定操作検出領域内で操作者の特定部位が特定状態(握った状態)となったことを検出すると、仮想3D操作領域自体に対する特定操作の検出モードに移行する。仮想3D操作領域自体に対する特定操作の検出モードに移行すると、操作検出部25は、具体的に、次のような特定操作を検出する。但し、操作検出部25により検出される仮想3D操作領域自体に対する特定操作は以下の内容に制限されない。
操作検出部25は、操作者の特定部位が片手の場合、次のような特定操作を検出する。操作検出部25は、特定操作検出領域内でその片手が特定状態(例えば握った状態)を維持しつつ移動する操作(以降、第1特定操作と表記)を検出する。この場合、操作検出部25は、第1特定操作が検出されている間のその片手の直線移動量及び移動方向を操作情報として取得する。また、操作検出部25は、片手が特定状態を維持している間におけるその片手の移動前後において、仮想3D操作領域内の特定点からの距離が変わらない操作(以降、第2特定操作と表記)を検出する。ここでの仮想3D操作領域内の特定点とは例えば中心点である。この場合、操作検出部25は、第2特定操作が検出されている間のその片手と特定点とを結ぶ線分の立体角変化量を操作情報として取得する。
操作者の複数特定部位が両手の場合、操作検出部25は、次のような特定操作を検出する。操作検出部25は、両手が特定状態(例えば、握った状態)を維持しつつその両手間の距離が変化する操作(以降、第3特定操作と表記)を検出する。この場合、操作検出部25は、第3特定操作が検出されている間の両手間の距離の変化量を操作情報として取得する。また、操作検出部25は、両手が特定状態(例えば、握った状態)を維持しつつその両手間を結ぶ線分の角度が変化する操作(以降、第4特定操作と表記)を検出する。この場合、操作検出部25は、第4特定操作が検出されている間の両手間を結ぶ線分の立体角変化量を操作情報として取得する。
また、操作検出部25は、仮想3D操作領域に複数の操作ポインタが表示されている場合、その操作ポインタの領域において操作者の特定部位が特定状態(例えば、握った状態)を維持しつつ移動する操作(以降、第5特定操作と表記する)を検出する。この場合、操作検出部25は、第5特定操作が検出されている間の特定部位の直線移動量及び移動方向を操作情報として取得する。
領域処理部26は、仮想データ生成部24により生成される3D領域データに対して、操作検出部25により検出される操作に対応するサイズ変更処理、回転処理、変形処理及び移動処理の少なくとも1つを施す。領域処理部26は、具体的には、3D領域データに対して次のような処理を施す。但し、領域処理部26の処理内容は以下の具体例に制限されない。
領域処理部26は、操作検出部25により第1特定操作が検出されると、操作情報で示される直線移動量及び移動方向に基づいて、その直線移動量分、その移動方法に、対象の仮想3D操作領域を移動させる。また、領域処理部26は、第2特定操作が検出されると、操作情報で示される立体角変化量で、特定点を基準として対象の仮想3D操作領域を回転させる。領域処理部26は、第3特定操作が検出されると、操作情報で示される両手間の距離の変化量に対応する拡大率又は縮小率で、対象の仮想3D操作領域のサイズを変更する。また、領域処理部26は、第4特定操作が検出されると、両手間を結ぶ線分の立体角変化量で片手の位置を基準点として、対象の仮想3D操作領域を回転させる。
また、領域処理部26は、仮想3D操作領域自体に対する特定操作の検出モードに移行された場合、仮想3D操作領域の所定位置に所定数の操作ポインタを設定する。操作ポインタは、例えば、図7Bの符号OP1及びOP2のように表示される。仮想3D操作領域の形状が直方体及び立方体に設定されている場合、領域処理部26は、各頂点にそれぞれ操作ポインタを設定してもよい。また、仮想3D操作領域の形状がどら焼き型に設定されている場合、図9に示されるように、領域処理部26は、始点及び終点に操作ポインタを設定してもよい。
領域処理部26は、第5特定操作が検出されると、操作情報で示される直線移動量及び移動方向に操作がなされた操作ポインタを移動させることで、仮想3D操作領域を変形させる。例えば、どら焼き型の仮想3D操作領域は、操作ポインタの移動に伴う始点と終点との間の距離の変化に応じて、図9で示される原理で生成されるどら焼き型に変形される。また、立方体又は直方体の仮想3D操作領域は、操作ポインタ間の距離関係を維持した状態で変形される。
〔動作例〕
以下、第2実施形態における3次元操作処理方法について図13を用いて説明する。図13は、第2実施形態におけるシステム1の動作例を示すシーケンスチャートである。図13では、図10と同じ内容の工程については、図10と同じ符号が付される。以下では、センサ側装置10又は表示側装置20を各方法の実行主体として説明するが、実行主体は、システム1を構成する少なくとも1つのコンピュータとされてもよい。
以下、第2実施形態における3次元操作処理方法について図13を用いて説明する。図13は、第2実施形態におけるシステム1の動作例を示すシーケンスチャートである。図13では、図10と同じ内容の工程については、図10と同じ符号が付される。以下では、センサ側装置10又は表示側装置20を各方法の実行主体として説明するが、実行主体は、システム1を構成する少なくとも1つのコンピュータとされてもよい。
センサ側装置10は、第1実施形態と同様に、(S101)から(S105)を実行し、第2実施形態では、操作者の特定部位の状態情報を更に取得する(S131)。センサ側装置10は、操作者の特定部位に関する3D位置情報及び状態情報を表示側装置20に送信する(S132)。なお、(S131)の実行タイミングは、図13に示される時期に制限されない。
表示側装置20は、第1実施形態と同様に、(S111)から(S116)を実行することで、視線画像と仮想3D操作領域との合成画像をHMD9に表示させる。表示側装置20は、センサ側装置10から、操作者の特定部位に関する3D位置情報及び状態情報を受信すると(S133)、それら情報に基づいて、検出すべき操作が仮想3D操作領域自体に対する特定操作か否かを判断する(S134)。この判断は、上述のように、特定操作検出領域内での操作者の特定部位の滞留時間や特定部位の状態に基づいて行われる。
表示側装置20は、検出すべき操作が仮想3D操作領域自体に対する特定操作でないと判断すると(S134;NO)、第1実施形態と同様に、仮想3D操作領域における操作を検出する(S118)。
一方、表示側装置20は、検出すべき操作が仮想3D操作領域自体に対する特定操作であると判断すると(S134;YES)、操作者の特定部位に関する3D位置情報及び状態情報に基づいて、仮想3D操作領域自体に対する特定操作を検出する(S135)。表示側装置20は、3D領域データに対して、検出された特定操作に対応するサイズ変更処理、回転処理、変形処理及び移動処理の少なくとも1つを施す(S136)。結果、表示側装置20は、サイズ変更、回転、変形及び移動の少なくとも1つがなされた後の仮想3D操作領域と視認画像との合成画をHMD9に表示させる。
〔第2実施形態における作用及び効果〕
上述のように、第2実施形態では、操作者の特定部位の3D位置情報と共に、その特定部位の状態情報が取得され、特定部位の3D位置及び状態に基づいて、仮想3D操作領域自体に対する特定操作か否かが判断される。そして、その特定操作が検出されると、その特定操作に対応するサイズ変更処理、回転処理、変形処理及び移動処理の少なくとも1つが3D領域データに対して施され、結果、3D座標空間内の仮想3D操作領域自体が操作される。
上述のように、第2実施形態では、操作者の特定部位の3D位置情報と共に、その特定部位の状態情報が取得され、特定部位の3D位置及び状態に基づいて、仮想3D操作領域自体に対する特定操作か否かが判断される。そして、その特定操作が検出されると、その特定操作に対応するサイズ変更処理、回転処理、変形処理及び移動処理の少なくとも1つが3D領域データに対して施され、結果、3D座標空間内の仮想3D操作領域自体が操作される。
このように、第2実施形態によれば、操作者であれば自分が扱いやすいように、ユーザインタフェース提供者であれば設計したいように、仮想3D操作領域の形状及び位置をデザインすることができる。更に、第2実施形態によれば、現実世界に存在するかのように表示される仮想3D操作領域自体に対する操作を、実際のオブジェクトを扱うのと同様の感覚で実現することができる。
[第3実施形態]
第3実施形態におけるシステム1は、仮想3D操作領域を新たな設定にすることを可能とする。以下、第3実施形態におけるシステム1について、第1実施形態及び第2実施形態と異なる内容を中心に説明する。以下の説明では、第1実施形態及び第2実施形態と同様の内容については適宜省略する。
第3実施形態におけるシステム1は、仮想3D操作領域を新たな設定にすることを可能とする。以下、第3実施形態におけるシステム1について、第1実施形態及び第2実施形態と異なる内容を中心に説明する。以下の説明では、第1実施形態及び第2実施形態と同様の内容については適宜省略する。
第3実施形態では、センサ側装置10及び表示側装置20は、第1実施形態又は第2実施形態と同様の処理構成を有する。以下には、第1実施形態と異なる処理内容の各処理部についてのみ説明する。
仮想データ生成部24は、仮想3D操作領域が取り得る複数の形状を示す、3D座標空間上に配置される機能メニューの表示データを更に生成する。機能メニューに表示される形状には、例えば、図7A及び図7Bに示されるような、球形、立方体、直方体、どら焼き型等が該当する。但し、本実施形態は、機能メニューに表示される具体的形状自体を制限しない。
仮想データ生成部24は、操作検出部25により機能メニューに表示されるいずれか1つの形状の選択操作が検出されると、機能メニュー対する操作の検出位置に応じて決められる3D座標空間上の位置に仮想3D操作領域が配置される3D領域データを生成する。図7Bに示されるどら焼き型が選択された場合、具体的に、次のように、3D領域データが生成される。仮想データ生成部24は、機能メニュー対する操作の検出位置に応じて決められる3D座標空間上の位置に始点(操作ポイントOP1)及び終点(操作ポイントOP2)を設定し、それら始点及び終点を中心点とし、かつ、その中心点から球面上の点までの距離を始点と終点とを結ぶ直線の半分とする2つの球体の交わる領域が持つ形状(どら焼き型)を持つ新たな仮想3D操作領域を設定する。
画像合成部27は、機能メニューの表示データに基づいて、視線画像に上記機能メニューを合成させる。表示処理部28は、画像合成部27により生成される合成画像に基づいて、上記機能メニューをHMD9に更に表示させる。
図14は、機能メニューの表示例を示す図である。図14に示されるように、機能メニューは、各形状を選択可能に表示する。
図14は、機能メニューの表示例を示す図である。図14に示されるように、機能メニューは、各形状を選択可能に表示する。
操作検出部25は、機能メニューに対する操作者の特定部位を用いた操作を検出することにより、仮想データ生成部24に、その操作の検出位置に応じて決められる3D空間上の位置に配置されかつその操作により選択された形状を持つ仮想3D操作領域を示す、新たな3次元領域データを生成させる。また、操作検出部25は、3D座標空間内の任意の位置で所定の操作を検出することにより、仮想データ生成部24に、機能メニューの表示データを生成させる。仮想データ生成部24は、機能メニューを表示させる操作及び機能メニューに対する選択操作を、操作者の特定部位の3D位置情報を用いて検出してもよいし、第2実施形態のように特定部位の3D位置情報及び状態情報を用いて検出してもよい。
〔動作例〕
以下、第3実施形態における3次元操作処理方法について図15を用いて説明する。図15は、第3実施形態における表示側装置20の動作例を示すフローチャートである。図15には、第3実施形態に関わる工程のみが示されており、表示側装置20は、実際には、図15に示される工程以外に、第1実施形態及び第2実施形態で示されるような工程を実行する。以下では、表示側装置20を各方法の実行主体として説明するが、実行主体は、システム1を構成する少なくとも1つのコンピュータとされてもよい。
以下、第3実施形態における3次元操作処理方法について図15を用いて説明する。図15は、第3実施形態における表示側装置20の動作例を示すフローチャートである。図15には、第3実施形態に関わる工程のみが示されており、表示側装置20は、実際には、図15に示される工程以外に、第1実施形態及び第2実施形態で示されるような工程を実行する。以下では、表示側装置20を各方法の実行主体として説明するが、実行主体は、システム1を構成する少なくとも1つのコンピュータとされてもよい。
表示側装置20は、センサ側装置10から、操作者の特定部位の3D位置情報を受信する(S151)。このとき、HMD9には、視線画像のみが表示されており、仮想3D操作領域は表示されていないと仮定する。
表示側装置20は、(S151)で受信された3D位置情報に基づいて、所定の操作を検出すると、機能メニューの表示データを生成する(S152)。そして、表示側装置20は、その表示データに基づいて、視線画像と機能メニューとを合成し(S153)、その合成画像をHMD9に表示させる(S154)。
操作者は、図14に示されるように表示された機能メニューを特定部位を用いて操作する。図14の例によれば、操作者は、所望の形状(例えば、どら焼き型)を示す領域を特定部位で指し示す。これにより、表示側装置20は、センサ側装置10から、その機能メニューに対する操作に対応する、操作者の特定部位の3D位置情報を受信する(S155)。
表示側装置20は、その3D位置情報に基づいて、機能メニューに対する選択操作を特定し、選択された形状を有する仮想3D操作領域を示す3D領域データを生成する(S156)。上記例によれば、表示側装置20は、どら焼き型の仮想3D操作領域を示す3D領域データを生成する。
表示側装置20は、生成された3D領域データにより示される仮想3D操作領域と視線画像と合成し(S157)、その合成画像をHMD9に表示させる(S158)。これにより、操作者は、自身が選択した形状を有する仮想3D操作領域を視認することができる。
〔第3実施形態における作用及び効果〕
上述のように、第3実施形態では、機能メニューの表示データに基づいて、視線画像に機能メニューが合成された画像がHMD9に表示され、その機能メニューで選択された形状を持つ仮想3D操作領域を示す3D領域データが新たに生成される。この3D領域データでは、仮想3D操作領域は、機能メニュー対する操作の検出位置に応じて決められる3D座標空間上の位置に配置される。結果、視線画像にその新たな仮想3D操作領域が合成された画像がHMD9に表示される。
上述のように、第3実施形態では、機能メニューの表示データに基づいて、視線画像に機能メニューが合成された画像がHMD9に表示され、その機能メニューで選択された形状を持つ仮想3D操作領域を示す3D領域データが新たに生成される。この3D領域データでは、仮想3D操作領域は、機能メニュー対する操作の検出位置に応じて決められる3D座標空間上の位置に配置される。結果、視線画像にその新たな仮想3D操作領域が合成された画像がHMD9に表示される。
このように、第3実施形態によれば、操作者は、所望の位置に所望の形状の仮想3D操作領域を設定することができる。更に、第3実施形態によれば、仮想現実として表示される機能メニューを操作するという簡易な操作で仮想3D操作領域を操作者に設定させることができる。
[変形例]
上述の各実施形態では、図3に示されるように、HMD9が、操作者(ユーザ)の両目に対応して、視線カメラ9a及び9b、並びに、ディスプレイ9c及び9dを有したが、視線カメラ及びディスプレイを1つずつ持つようにしてもよい。この場合、1つのディスプレイは、操作者の片目の視野を覆うように配置されてもよいし、操作者の両目の視野を覆うように配置されてもよい。この場合、表示側装置20の仮想データ生成部24は、仮想3D空間に含まれる表示物を3DCGで表示させることができるように、周知の3DCG技術を用いて仮想3Dオブジェクトデータを生成すればよい。
上述の各実施形態では、図3に示されるように、HMD9が、操作者(ユーザ)の両目に対応して、視線カメラ9a及び9b、並びに、ディスプレイ9c及び9dを有したが、視線カメラ及びディスプレイを1つずつ持つようにしてもよい。この場合、1つのディスプレイは、操作者の片目の視野を覆うように配置されてもよいし、操作者の両目の視野を覆うように配置されてもよい。この場合、表示側装置20の仮想データ生成部24は、仮想3D空間に含まれる表示物を3DCGで表示させることができるように、周知の3DCG技術を用いて仮想3Dオブジェクトデータを生成すればよい。
また、上述の各実施形態では、視線画像を得るためにビデオシースルー型のHMD9が用いられたが、光学シースルー型のHMD9が用いられてもよい。この場合には、HMD9にはハーフミラーのディスプレイ9c及び9dが設けられ、このディスプレイ9c及び9dに仮想3Dオブジェクトが表示されるようにすればよい。但し、この場合、操作者の視線方向で共通実オブジェクトを検出するための画像を得るためのカメラがHMD9の操作者の視野を遮らない箇所に設けられる。
また、上述の各実施形態では、図2に示されるように、センサ側装置10と表示側装置20とが別々に設けられたが、1つのコンピュータ(装置)で構成されてもよい。この場合、そのコンピュータの入出力I/F5には、HMD9及び3Dセンサ8が接続され、送信部16は不要となる。
また、上述の第2実施形態では、操作者の特定部位の3D位置情報及び状態情報を用いて、仮想3D操作領域自体に対する特定操作の検出モードへの移行が判断され、かつ、当該特定操作が検出されたが、3D位置情報のみによりそれらが行われてもよい。この場合、センサ側装置10の状態取得部15は不要となる。
また、上述の第3実施形態では、仮想3D操作領域を新たに設定するための機能メニューが表示されが、その機能メニューは、既に設定されている仮想3D操作領域に対して形状を変化させるために表示されるようにしてもよい。この場合、操作検出部25は、既に存在する仮想3D操作領域に対する所定の操作を検出し、仮想データ生成部24は、その所定の操作の検出に応じて、機能メニューの表示データを生成する。そして、領域処理部26は、対象となる仮想3D操作領域を、機能メニューで選択された形状に変えるように、3D領域データを処理する。
更に、機能メニューは、仮想3D操作領域に対して操作種を指定するために表示されるようにしてもよい。この場合、仮想データ生成部24は、図16に示されるように、仮想3D操作領域に設定され得る複数の操作種を示す機能メニューの表示データを生成する。図16は、機能メニューの他の表示例を示す図である。図16の例によれば、機能メニューは、3Dジェスチャタイプ、2Dジェスチャタイプ、1Dジェスチャタイプ、及び、0Dジェスチャタイプのいずれか1つが選択されるように表示する。この場合、操作検出部25は、この機能メニューから選択されたいずれか1つの操作種を特定し、仮想データ生成部24又は領域処理部26は、その特定された操作種を対象の仮想3D操作領域に設定すればよい。
なお、上述の説明で用いたフローチャートでは、複数の工程(処理)が順番に記載されているが、各実施形態で実行される工程の実行順序は、その記載の順番に制限されない。各実施形態では、図示される工程の順番を内容的に支障のない範囲で変更することができる。また、上述の各実施形態及び各変形例は、内容が相反しない範囲で組み合わせることができる。
上記の各実施形態及び各変形例の一部又は全部は、以下の付記のようにも特定され得る。但し、各実施形態及び各変形例が以下の記載に限定されるものではない。
(付記1)
操作者の頭部に装着される撮像部により撮像される操作者にとっての視線画像を取得する視線画像取得部と、
前記視線画像取得部により取得される視線画像に基づいて、3次元座標空間を設定する座標設定部と、
前記3次元座標空間上の任意の位置に少なくとも領域境界が視認可能な状態で配置される透過的な仮想3次元操作領域を示す、3次元領域データを生成する仮想データ生成部と、
前記視線画像に写る空間に相当する前記3次元座標空間内の視認空間を表示基準として、前記仮想データ生成部により生成される3次元領域データにより示される前記仮想3次元操作領域を前記操作者の頭部に装着される表示部に表示させる表示処理部と、
前記操作者の特定部位に関する前記3次元座標空間上の3次元位置を取得する位置取得部と、
前記位置取得部により取得される3次元位置と前記仮想3次元操作領域の前記3次元座標空間上の位置とに基づいて、前記仮想3次元操作領域における前記操作者の前記特定部位を用いた操作を検出する操作検出部と、
を備える3次元ユーザインタフェース装置。
操作者の頭部に装着される撮像部により撮像される操作者にとっての視線画像を取得する視線画像取得部と、
前記視線画像取得部により取得される視線画像に基づいて、3次元座標空間を設定する座標設定部と、
前記3次元座標空間上の任意の位置に少なくとも領域境界が視認可能な状態で配置される透過的な仮想3次元操作領域を示す、3次元領域データを生成する仮想データ生成部と、
前記視線画像に写る空間に相当する前記3次元座標空間内の視認空間を表示基準として、前記仮想データ生成部により生成される3次元領域データにより示される前記仮想3次元操作領域を前記操作者の頭部に装着される表示部に表示させる表示処理部と、
前記操作者の特定部位に関する前記3次元座標空間上の3次元位置を取得する位置取得部と、
前記位置取得部により取得される3次元位置と前記仮想3次元操作領域の前記3次元座標空間上の位置とに基づいて、前記仮想3次元操作領域における前記操作者の前記特定部位を用いた操作を検出する操作検出部と、
を備える3次元ユーザインタフェース装置。
(付記2)
前記操作検出部が前記仮想3次元操作領域自体に対する特定操作を検出する場合に、前記3次元領域データに対して、前記操作検出部により検出される特定操作に対応するサイズ変更処理、回転処理、変形処理及び移動処理の少なくとも1つを施す領域処理部を更に備える付記1に記載の3次元ユーザインタフェース装置。
前記操作検出部が前記仮想3次元操作領域自体に対する特定操作を検出する場合に、前記3次元領域データに対して、前記操作検出部により検出される特定操作に対応するサイズ変更処理、回転処理、変形処理及び移動処理の少なくとも1つを施す領域処理部を更に備える付記1に記載の3次元ユーザインタフェース装置。
(付記3)
前記仮想データ生成部は、複数の仮想3次元操作領域の各々について、前記3次元座標空間上の位置及び操作種をそれぞれ示す複数の3次元領域データを生成し、
前記操作検出部は、前記複数の仮想3次元操作領域のうち操作された仮想3次元操作領域を特定し、該特定された仮想3次元操作領域に設定されている操作種に対応する操作情報を取得する、
付記1又は2に記載の3次元ユーザインタフェース装置。
前記仮想データ生成部は、複数の仮想3次元操作領域の各々について、前記3次元座標空間上の位置及び操作種をそれぞれ示す複数の3次元領域データを生成し、
前記操作検出部は、前記複数の仮想3次元操作領域のうち操作された仮想3次元操作領域を特定し、該特定された仮想3次元操作領域に設定されている操作種に対応する操作情報を取得する、
付記1又は2に記載の3次元ユーザインタフェース装置。
(付記4)
前記仮想データ生成部は、前記仮想3次元操作領域が取り得る複数の形状を示す、前記3次元座標空間上に配置される機能メニューの表示データを更に生成し、
前記表示処理部は、前記機能メニューを前記表示部に更に表示させ、
前記操作検出部は、前記機能メニューに対する前記操作者の特定部位を用いた操作を検出することにより、前記仮想データ生成部に、該操作の検出位置に応じて決められる前記3次元空間上の位置に配置されかつ該操作により選択された形状を持つ前記仮想3次元操作領域を示す、3次元領域データを生成させる、
付記1から3のいずれか1つに記載の3次元ユーザインタフェース装置。
前記仮想データ生成部は、前記仮想3次元操作領域が取り得る複数の形状を示す、前記3次元座標空間上に配置される機能メニューの表示データを更に生成し、
前記表示処理部は、前記機能メニューを前記表示部に更に表示させ、
前記操作検出部は、前記機能メニューに対する前記操作者の特定部位を用いた操作を検出することにより、前記仮想データ生成部に、該操作の検出位置に応じて決められる前記3次元空間上の位置に配置されかつ該操作により選択された形状を持つ前記仮想3次元操作領域を示す、3次元領域データを生成させる、
付記1から3のいずれか1つに記載の3次元ユーザインタフェース装置。
(付記5)
前記仮想データ生成部は、前記機能メニューに対する操作の検出位置に応じて決められる前記3次元座標空間上の位置に始点及び終点を設定し、該始点及び該終点を中心点とし、かつ、該中心点から球面上の点までの距離を該始点と該終点とを結ぶ直線の半分とする2つの球体の交わる領域が持つ形状を新たな3次元領域データにより示される前記仮想3次元操作領域に設定する、
付記4に記載の3次元ユーザインタフェース装置。
前記仮想データ生成部は、前記機能メニューに対する操作の検出位置に応じて決められる前記3次元座標空間上の位置に始点及び終点を設定し、該始点及び該終点を中心点とし、かつ、該中心点から球面上の点までの距離を該始点と該終点とを結ぶ直線の半分とする2つの球体の交わる領域が持つ形状を新たな3次元領域データにより示される前記仮想3次元操作領域に設定する、
付記4に記載の3次元ユーザインタフェース装置。
(付記6)
前記3次元座標空間に基づいて、前記表示基準となる空間を写す前記視線画像に、前記3次元領域データにより示される前記仮想3次元操作領域を合成する画像合成部、
を更に備え、
前記表示処理部は、前記画像合成部により得られる画像を前記表示部に表示させる、
付記1から5のいずれか1つに記載の3次元ユーザインタフェース装置。
前記3次元座標空間に基づいて、前記表示基準となる空間を写す前記視線画像に、前記3次元領域データにより示される前記仮想3次元操作領域を合成する画像合成部、
を更に備え、
前記表示処理部は、前記画像合成部により得られる画像を前記表示部に表示させる、
付記1から5のいずれか1つに記載の3次元ユーザインタフェース装置。
(付記7)
3次元センサから3次元情報を取得する3次元情報取得部と、
前記3次元情報から既知の共通実オブジェクトを検出する第1オブジェクト検出部と、
前記視線画像取得部により取得される視線画像から前記共通実オブジェクトを検出する第2オブジェクト検出部と、
前記第1オブジェクト検出部により検出される前記共通実オブジェクトに基づいて、前記3次元座標空間を設定し、かつ、前記3次元センサの位置及び向きを算出する基準設定部と、
を更に備え、
前記座標設定部は、前記第2オブジェクト検出部により検出される前記共通実オブジェクトに基づいて、前記3次元座標空間を共有し、かつ、前記撮像部の位置及び向きを算出し、
前記位置取得部は、前記基準設定部により算出される前記3次元センサの位置及び向き並びに前記3次元座標空間に基づいて、前記3次元情報取得部により取得される3次元情報から取得される前記操作者の特定部位に関する3次元位置情報を変換することにより、前記操作者の特定部位に関する前記3次元座標空間上の3次元位置情報を算出する、
前記画像合成部は、前記座標設定部により算出される前記撮像部の位置及び向き並びに前記3次元座標空間に基づいて、前記合成を行う、
付記6に記載の3次元ユーザインタフェース装置。
3次元センサから3次元情報を取得する3次元情報取得部と、
前記3次元情報から既知の共通実オブジェクトを検出する第1オブジェクト検出部と、
前記視線画像取得部により取得される視線画像から前記共通実オブジェクトを検出する第2オブジェクト検出部と、
前記第1オブジェクト検出部により検出される前記共通実オブジェクトに基づいて、前記3次元座標空間を設定し、かつ、前記3次元センサの位置及び向きを算出する基準設定部と、
を更に備え、
前記座標設定部は、前記第2オブジェクト検出部により検出される前記共通実オブジェクトに基づいて、前記3次元座標空間を共有し、かつ、前記撮像部の位置及び向きを算出し、
前記位置取得部は、前記基準設定部により算出される前記3次元センサの位置及び向き並びに前記3次元座標空間に基づいて、前記3次元情報取得部により取得される3次元情報から取得される前記操作者の特定部位に関する3次元位置情報を変換することにより、前記操作者の特定部位に関する前記3次元座標空間上の3次元位置情報を算出する、
前記画像合成部は、前記座標設定部により算出される前記撮像部の位置及び向き並びに前記3次元座標空間に基づいて、前記合成を行う、
付記6に記載の3次元ユーザインタフェース装置。
(付記8)
少なくとも1つのコンピュータに実行される3次元操作処理方法において、
操作者の頭部に装着される撮像部により撮像される操作者にとっての視線画像を取得し、
前記取得された視線画像に基づいて、3次元座標空間を設定し、
前記3次元座標空間上の任意の位置に少なくとも領域境界が視認可能な状態で配置される透過的な仮想3次元操作領域を示す、3次元領域データを生成し、
前記視線画像に写る空間に相当する前記3次元座標空間内の視認空間を表示基準として、前記生成された3次元領域データにより示される前記仮想3次元操作領域を前記操作者の頭部に装着される表示部に表示させ、
前記操作者の特定部位に関する前記3次元座標空間上の3次元位置を取得し、
前記取得された3次元位置と前記仮想3次元操作領域の前記3次元座標空間上の位置とに基づいて、前記仮想3次元操作領域における前記操作者の前記特定部位を用いた操作を検出する、
ことを含む3次元操作処理方法。
少なくとも1つのコンピュータに実行される3次元操作処理方法において、
操作者の頭部に装着される撮像部により撮像される操作者にとっての視線画像を取得し、
前記取得された視線画像に基づいて、3次元座標空間を設定し、
前記3次元座標空間上の任意の位置に少なくとも領域境界が視認可能な状態で配置される透過的な仮想3次元操作領域を示す、3次元領域データを生成し、
前記視線画像に写る空間に相当する前記3次元座標空間内の視認空間を表示基準として、前記生成された3次元領域データにより示される前記仮想3次元操作領域を前記操作者の頭部に装着される表示部に表示させ、
前記操作者の特定部位に関する前記3次元座標空間上の3次元位置を取得し、
前記取得された3次元位置と前記仮想3次元操作領域の前記3次元座標空間上の位置とに基づいて、前記仮想3次元操作領域における前記操作者の前記特定部位を用いた操作を検出する、
ことを含む3次元操作処理方法。
(付記9)
前記仮想3次元操作領域自体に対する前記操作者の特定操作を検出し、
前記3次元領域データに対して、前記検出された特定操作に対応するサイズ変更処理、回転処理、変形処理及び移動処理の少なくとも1つを施す、
ことを更に含む付記8に記載の3次元操作処理方法。
前記仮想3次元操作領域自体に対する前記操作者の特定操作を検出し、
前記3次元領域データに対して、前記検出された特定操作に対応するサイズ変更処理、回転処理、変形処理及び移動処理の少なくとも1つを施す、
ことを更に含む付記8に記載の3次元操作処理方法。
(付記10)
前記3次元領域データの生成は、複数の仮想3次元操作領域の各々について、前記3次元座標空間上の位置及び操作種をそれぞれ示す複数の3次元領域データを生成し、
前記操作の検出は、前記複数の仮想3次元操作領域のうち操作された仮想3次元操作領域を特定し、該特定された仮想3次元操作領域に設定されている操作種に対応する操作情報を取得する、
付記8又は9に記載の3次元操作処理方法。
前記3次元領域データの生成は、複数の仮想3次元操作領域の各々について、前記3次元座標空間上の位置及び操作種をそれぞれ示す複数の3次元領域データを生成し、
前記操作の検出は、前記複数の仮想3次元操作領域のうち操作された仮想3次元操作領域を特定し、該特定された仮想3次元操作領域に設定されている操作種に対応する操作情報を取得する、
付記8又は9に記載の3次元操作処理方法。
(付記11)
前記仮想3次元操作領域が取り得る複数の形状を示す、前記3次元座標空間上に配置される機能メニューの表示データを生成し、
前記機能メニューを前記表示部に表示させ、
前記機能メニューに対する前記操作者の特定部位を用いた操作を検出する、
ことを更に含み、
前記3次元領域データの生成は、前記機能メニューに対する操作の検出位置に応じて決められる前記3次元空間上の位置に配置されかつ該操作により選択された形状を持つ前記仮想3次元操作領域を示す、3次元領域データを生成させる、
付記8から10のいずれか1つに記載の3次元操作処理方法。
前記仮想3次元操作領域が取り得る複数の形状を示す、前記3次元座標空間上に配置される機能メニューの表示データを生成し、
前記機能メニューを前記表示部に表示させ、
前記機能メニューに対する前記操作者の特定部位を用いた操作を検出する、
ことを更に含み、
前記3次元領域データの生成は、前記機能メニューに対する操作の検出位置に応じて決められる前記3次元空間上の位置に配置されかつ該操作により選択された形状を持つ前記仮想3次元操作領域を示す、3次元領域データを生成させる、
付記8から10のいずれか1つに記載の3次元操作処理方法。
(付記12)
前記3次元領域データの生成は、前記機能メニューに対する操作の検出位置に応じて決められる前記3次元座標空間上の位置に始点及び終点を設定し、該始点及び該終点を中心点とし、かつ、該中心点から球面上の点までの距離を該始点と該終点とを結ぶ直線の半分とする2つの球体の交わる領域の形状を持つ前記仮想3次元操作領域を示す前記3次元領域データを生成する、
付記11に記載の3次元操作処理方法。
前記3次元領域データの生成は、前記機能メニューに対する操作の検出位置に応じて決められる前記3次元座標空間上の位置に始点及び終点を設定し、該始点及び該終点を中心点とし、かつ、該中心点から球面上の点までの距離を該始点と該終点とを結ぶ直線の半分とする2つの球体の交わる領域の形状を持つ前記仮想3次元操作領域を示す前記3次元領域データを生成する、
付記11に記載の3次元操作処理方法。
(付記13)
前記3次元座標空間に基づいて、前記表示基準となる空間を写す前記視線画像に、前記3次元領域データにより示される前記仮想3次元操作領域を合成する、
ことを更に含み、
前記仮想3次元操作領域の表示は、前記合成により得られる画像を前記表示部に表示させる、
付記8から12のいずれか1つに記載の3次元操作処理方法。
前記3次元座標空間に基づいて、前記表示基準となる空間を写す前記視線画像に、前記3次元領域データにより示される前記仮想3次元操作領域を合成する、
ことを更に含み、
前記仮想3次元操作領域の表示は、前記合成により得られる画像を前記表示部に表示させる、
付記8から12のいずれか1つに記載の3次元操作処理方法。
(付記14)
3次元センサから3次元情報を取得し、
前記3次元情報から既知の共通実オブジェクトを検出し、
前記取得された視線画像から前記共通実オブジェクトを検出し、
前記検出された前記共通実オブジェクトに基づいて、前記3次元座標空間を設定し、
前記3次元センサの位置及び向きを算出し、
前記3次元センサの位置及び向き並びに前記3次元座標空間に基づいて、前記3次元情報から取得される前記操作者の特定部位に関する3次元位置情報を変換することにより、前記操作者の特定部位に関する前記3次元座標空間上の3次元位置情報を算出する、
ことを更に含み、
前記3次元座標空間の設定は、前記視線画像から検出された前記共通実オブジェクトに基づいて、前記3次元座標空間を共有し、かつ、前記撮像部の位置及び向きを算出し、
前記視線画像と前記仮想3次元操作領域との合成は、前記撮像部の位置及び向き並びに前記3次元座標空間を用いる、
付記13に記載の3次元操作処理方法。
3次元センサから3次元情報を取得し、
前記3次元情報から既知の共通実オブジェクトを検出し、
前記取得された視線画像から前記共通実オブジェクトを検出し、
前記検出された前記共通実オブジェクトに基づいて、前記3次元座標空間を設定し、
前記3次元センサの位置及び向きを算出し、
前記3次元センサの位置及び向き並びに前記3次元座標空間に基づいて、前記3次元情報から取得される前記操作者の特定部位に関する3次元位置情報を変換することにより、前記操作者の特定部位に関する前記3次元座標空間上の3次元位置情報を算出する、
ことを更に含み、
前記3次元座標空間の設定は、前記視線画像から検出された前記共通実オブジェクトに基づいて、前記3次元座標空間を共有し、かつ、前記撮像部の位置及び向きを算出し、
前記視線画像と前記仮想3次元操作領域との合成は、前記撮像部の位置及び向き並びに前記3次元座標空間を用いる、
付記13に記載の3次元操作処理方法。
(付記15)
付記8から14のいずれか1つに記載の3次元操作処理方法を少なくとも1つのコンピュータに実行させるプログラム。
付記8から14のいずれか1つに記載の3次元操作処理方法を少なくとも1つのコンピュータに実行させるプログラム。
この出願は、2013年3月11日に出願された日本出願特願2013−047849号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
第1の側面に係る3次元ユーザインタフェース装置は、操作者の頭部に装着される撮像部により撮像される操作者にとっての視線画像を取得する視線画像取得部と、視線画像取得部により取得される視線画像に基づいて、3次元座標空間を設定する座標設定部と、その3次元座標空間上の任意の位置に少なくとも領域境界が視認可能な状態で配置される透過的な仮想3次元操作領域を示す、3次元領域データを生成する仮想データ生成部と、視線画像に写る空間に相当する当該3次元座標空間内の視認空間を表示基準として、仮想データ生成部により生成される3次元領域データにより示される仮想3次元操作領域を操作者の頭部に装着される表示部に表示させる表示処理部と、操作者の特定部位に関する3次元座標空間上の3次元位置を取得する位置取得部と、位置取得部により取得される3次元位置と仮想3次元操作領域の3次元座標空間上の位置とに基づいて、仮想3次元操作領域における操作者の特定部位を用いた操作を検出する操作検出部と、を有する。仮想データ生成部は、3次元座標空間上に配置される機能メニューの表示データを更に生成する。機能メニューは、仮想3次元操作領域が取り得る複数の形状を示している。表示処理部は、機能メニューを表示部に更に表示させる。操作検出部は、機能メニューに対する操作者の特定部位を用いた操作を検出することにより、仮想データ生成部に、該操作の検出位置に応じて決められる3次元空間上の位置に配置されかつ該操作により選択された形状を持つ仮想3次元操作領域を示す、3次元領域データを生成させる。
第2の側面に係る3次元操作処理方法は、少なくとも1つのコンピュータにより実行される。第2の側面に係る3次元操作処理方法は、操作者の頭部に装着される撮像部により撮像される操作者にとっての視線画像を取得し、取得された視線画像に基づいて、3次元座標空間を設定し、3次元座標空間上の任意の位置に少なくとも領域境界が視認可能な状態で配置される透過的な仮想3次元操作領域を示す、3次元領域データを生成し、視線画像に写る空間に相当する当該3次元座標空間内の視認空間を表示基準として、上記生成された3次元領域データにより示される仮想3次元操作領域を操作者の頭部に装着される表示部に表示させ、操作者の特定部位に関する3次元座標空間上の3次元位置を取得し、取得された3次元位置と仮想3次元操作領域の3次元座標空間上の位置とに基づいて、仮想3次元操作領域における操作者の特定部位を用いた操作を検出する、ことを含む。また、第2の側面に係る3次元操作処理方法は、3次元座標空間上に配置される機能メニューであって、仮想3次元操作領域が取り得る複数の形状を示す機能メニューの表示データを生成し、機能メニューを表示部に表示させ、機能メニューに対する操作者の特定部位を用いた操作を検出する、ことを更に含む。また、3次元領域データの生成は、機能メニューに対する操作の検出位置に応じて決められる3次元空間上の位置に配置されかつ該操作により選択された形状を持つ仮想3次元操作領域を示す、3次元領域データを生成させることを含む。
Claims (13)
- 操作者の頭部に装着される撮像部により撮像される操作者にとっての視線画像を取得する視線画像取得部と、
前記視線画像取得部により取得される視線画像に基づいて、3次元座標空間を設定する座標設定部と、
前記3次元座標空間上の任意の位置に少なくとも領域境界が視認可能な状態で配置される透過的な仮想3次元操作領域を示す、3次元領域データを生成する仮想データ生成部と、
前記視線画像に写る空間に相当する前記3次元座標空間内の視認空間を表示基準として、前記仮想データ生成部により生成される3次元領域データにより示される前記仮想3次元操作領域を前記操作者の頭部に装着される表示部に表示させる表示処理部と、
前記操作者の特定部位に関する前記3次元座標空間上の3次元位置を取得する位置取得部と、
前記位置取得部により取得される3次元位置と前記仮想3次元操作領域の前記3次元座標空間上の位置とに基づいて、前記仮想3次元操作領域における前記操作者の前記特定部位を用いた操作を検出する操作検出部と、
を備える3次元ユーザインタフェース装置。 - 前記操作検出部が前記仮想3次元操作領域自体に対する特定操作を検出する場合に、前記3次元領域データに対して、前記操作検出部により検出される特定操作に対応するサイズ変更処理、回転処理、変形処理及び移動処理の少なくとも1つを施す領域処理部を更に備える請求項1に記載の3次元ユーザインタフェース装置。
- 前記仮想データ生成部は、複数の仮想3次元操作領域の各々について、前記3次元座標空間上の位置及び操作種をそれぞれ示す複数の3次元領域データを生成し、
前記操作検出部は、前記複数の仮想3次元操作領域のうち操作された仮想3次元操作領域を特定し、該特定された仮想3次元操作領域に設定されている操作種に対応する操作情報を取得する、
請求項1又は2に記載の3次元ユーザインタフェース装置。 - 前記仮想データ生成部は、前記仮想3次元操作領域が取り得る複数の形状を示す、前記3次元座標空間上に配置される機能メニューの表示データを更に生成し、
前記表示処理部は、前記機能メニューを前記表示部に更に表示させ、
前記操作検出部は、前記機能メニューに対する前記操作者の特定部位を用いた操作を検出することにより、前記仮想データ生成部に、該操作の検出位置に応じて決められる前記3次元空間上の位置に配置されかつ該操作により選択された形状を持つ前記仮想3次元操作領域を示す、3次元領域データを生成させる、
請求項1から3のいずれか1項に記載の3次元ユーザインタフェース装置。 - 前記仮想データ生成部は、前記機能メニューに対する操作の検出位置に応じて決められる前記3次元座標空間上の位置に始点及び終点を設定し、該始点及び該終点を中心点とし、かつ、該中心点から球面上の点までの距離を該始点と該終点とを結ぶ直線の半分とする2つの球体の交わる領域が持つ形状を新たな3次元領域データにより示される前記仮想3次元操作領域に設定する、
請求項4に記載の3次元ユーザインタフェース装置。 - 前記3次元座標空間に基づいて、前記表示基準となる空間を写す前記視線画像に、前記3次元領域データにより示される前記仮想3次元操作領域を合成する画像合成部、
を更に備え、
前記表示処理部は、前記画像合成部により得られる画像を前記表示部に表示させる、
請求項1から5のいずれか1項に記載の3次元ユーザインタフェース装置。 - 少なくとも1つのコンピュータに実行される3次元操作処理方法において、
操作者の頭部に装着される撮像部により撮像される操作者にとっての視線画像を取得し、
前記取得された視線画像に基づいて、3次元座標空間を設定し、
前記3次元座標空間上の任意の位置に少なくとも領域境界が視認可能な状態で配置される透過的な仮想3次元操作領域を示す、3次元領域データを生成し、
前記視線画像に写る空間に相当する前記3次元座標空間内の視認空間を表示基準として、前記生成された3次元領域データにより示される前記仮想3次元操作領域を前記操作者の頭部に装着される表示部に表示させ、
前記操作者の特定部位に関する前記3次元座標空間上の3次元位置を取得し、
前記取得された3次元位置と前記仮想3次元操作領域の前記3次元座標空間上の位置とに基づいて、前記仮想3次元操作領域における前記操作者の前記特定部位を用いた操作を検出する、
ことを含む3次元操作処理方法。 - 前記仮想3次元操作領域自体に対する前記操作者の特定操作を検出し、
前記3次元領域データに対して、前記検出された特定操作に対応するサイズ変更処理、回転処理、変形処理及び移動処理の少なくとも1つを施す、
ことを更に含む請求項7に記載の3次元操作処理方法。 - 前記3次元領域データの生成は、複数の仮想3次元操作領域の各々について、前記3次元座標空間上の位置及び操作種をそれぞれ示す複数の3次元領域データを生成し、
前記操作の検出は、前記複数の仮想3次元操作領域のうち操作された仮想3次元操作領域を特定し、該特定された仮想3次元操作領域に設定されている操作種に対応する操作情報を取得する、
請求項7又は8に記載の3次元操作処理方法。 - 前記仮想3次元操作領域が取り得る複数の形状を示す、前記3次元座標空間上に配置される機能メニューの表示データを生成し、
前記機能メニューを前記表示部に表示させ、
前記機能メニューに対する前記操作者の特定部位を用いた操作を検出する、
ことを更に含み、
前記3次元領域データの生成は、前記機能メニューに対する操作の検出位置に応じて決められる前記3次元空間上の位置に配置されかつ該操作により選択された形状を持つ前記仮想3次元操作領域を示す、3次元領域データを生成させる、
請求項7から9のいずれか1項に記載の3次元操作処理方法。 - 前記3次元領域データの生成は、前記機能メニューに対する操作の検出位置に応じて決められる前記3次元座標空間上の位置に始点及び終点を設定し、該始点及び該終点を中心点とし、かつ、該中心点から球面上の点までの距離を該始点と該終点とを結ぶ直線の半分とする2つの球体の交わる領域の形状を持つ前記仮想3次元操作領域を示す前記3次元領域データを生成する、
請求項10に記載の3次元操作処理方法。 - 前記3次元座標空間に基づいて、前記表示基準となる空間を写す前記視線画像に、前記3次元領域データにより示される前記仮想3次元操作領域を合成する、
ことを更に含み、
前記仮想3次元操作領域の表示は、前記合成により得られる画像を前記表示部に表示させる、
請求項7から11のいずれか1項に記載の3次元操作処理方法。 - 請求項7から12のいずれか1項に記載の3次元操作処理方法を少なくとも1つのコンピュータに実行させるプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013047849 | 2013-03-11 | ||
JP2013047849 | 2013-03-11 | ||
PCT/JP2013/074118 WO2014141504A1 (ja) | 2013-03-11 | 2013-09-06 | 3次元ユーザインタフェース装置及び3次元操作処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6057396B2 JP6057396B2 (ja) | 2017-01-11 |
JPWO2014141504A1 true JPWO2014141504A1 (ja) | 2017-02-16 |
Family
ID=51536193
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015505219A Active JP6057396B2 (ja) | 2013-03-11 | 2013-09-06 | 3次元ユーザインタフェース装置及び3次元操作処理方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10007351B2 (ja) |
EP (1) | EP2975492A1 (ja) |
JP (1) | JP6057396B2 (ja) |
CN (1) | CN105074617B (ja) |
WO (1) | WO2014141504A1 (ja) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9323338B2 (en) | 2013-04-12 | 2016-04-26 | Usens, Inc. | Interactive input system and method |
US20140354602A1 (en) * | 2013-04-12 | 2014-12-04 | Impression.Pi, Inc. | Interactive input system and method |
US9630105B2 (en) | 2013-09-30 | 2017-04-25 | Sony Interactive Entertainment Inc. | Camera based safety mechanisms for users of head mounted displays |
US9729864B2 (en) * | 2013-09-30 | 2017-08-08 | Sony Interactive Entertainment Inc. | Camera based safety mechanisms for users of head mounted displays |
JP6680207B2 (ja) * | 2014-06-30 | 2020-04-15 | 凸版印刷株式会社 | 視線計測システム、視線計測方法、及びプログラム |
CN105528059B (zh) * | 2014-09-30 | 2019-11-19 | 云南北方奥雷德光电科技股份有限公司 | 一种三维空间手势操作方法及系统 |
US20170061700A1 (en) * | 2015-02-13 | 2017-03-02 | Julian Michael Urbach | Intercommunication between a head mounted display and a real world object |
JP2016162162A (ja) * | 2015-03-02 | 2016-09-05 | 株式会社リコー | 接触検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、プロジェクタシステム及び接触検出方法 |
JP6483514B2 (ja) * | 2015-04-28 | 2019-03-13 | 京セラ株式会社 | ウェアラブル装置、制御方法及び制御プログラム |
JP2018124597A (ja) * | 2015-06-22 | 2018-08-09 | 株式会社村田製作所 | ユーザインタフェース装置および距離センサ |
CN105679169A (zh) * | 2015-12-31 | 2016-06-15 | 中国神华能源股份有限公司 | 一种铁路电子沙盘系统 |
CN105844705B (zh) * | 2016-03-29 | 2018-11-09 | 联想(北京)有限公司 | 一种三维虚拟对象模型生成方法及电子设备 |
CN105807936B (zh) * | 2016-03-31 | 2021-02-19 | 联想(北京)有限公司 | 信息处理方法及电子设备 |
CN109074150B (zh) * | 2016-05-11 | 2022-05-13 | 英特尔公司 | 对遥控机器人的基于移动映射的控制的装置、方法和计算机设备 |
US20170329394A1 (en) * | 2016-05-13 | 2017-11-16 | Benjamin Lloyd Goldstein | Virtual and augmented reality systems |
JP6658430B2 (ja) * | 2016-09-28 | 2020-03-04 | 株式会社デンソー | 検査装置 |
CN108062786B (zh) * | 2016-11-08 | 2022-12-30 | 台湾国际物业管理顾问有限公司 | 以三维信息模型为基础的综合感知定位技术应用系统 |
CN108776544B (zh) * | 2018-06-04 | 2021-10-26 | 网易(杭州)网络有限公司 | 增强现实中的交互方法及装置、存储介质、电子设备 |
WO2020121483A1 (ja) * | 2018-12-13 | 2020-06-18 | マクセル株式会社 | 表示端末、表示制御システムおよび表示制御方法 |
JP7331462B2 (ja) * | 2019-05-24 | 2023-08-23 | 京セラドキュメントソリューションズ株式会社 | ロボットシステム、ロボット制御方法及び電子装置 |
JP2021015637A (ja) | 2020-11-05 | 2021-02-12 | マクセル株式会社 | 表示装置 |
JP7080448B1 (ja) | 2021-03-08 | 2022-06-06 | 裕行 池田 | 端末装置 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH086708A (ja) * | 1994-04-22 | 1996-01-12 | Canon Inc | 表示装置 |
US20020041327A1 (en) * | 2000-07-24 | 2002-04-11 | Evan Hildreth | Video-based image control system |
US6771294B1 (en) * | 1999-12-29 | 2004-08-03 | Petri Pulli | User interface |
JP2005301668A (ja) * | 2004-04-12 | 2005-10-27 | Seiko Epson Corp | 情報処理装置および情報処理プログラム |
JP2006506737A (ja) * | 2002-11-19 | 2006-02-23 | モトローラ・インコーポレイテッド | 身体中心的な仮想対話型装置および方法 |
JP2008500624A (ja) * | 2004-05-24 | 2008-01-10 | 3ディー フォー オール シャミタステクニカイ フェリャズト ケーエフティー | 仮想3次元空間内で動作するシステム及び方法と視覚化システムを介してオペレーションを選択するシステム |
US20090187389A1 (en) * | 2008-01-18 | 2009-07-23 | Lockheed Martin Corporation | Immersive Collaborative Environment Using Motion Capture, Head Mounted Display, and Cave |
JP2009251154A (ja) * | 2008-04-03 | 2009-10-29 | Konica Minolta Holdings Inc | 頭部装着式映像表示装置 |
WO2010073928A1 (ja) * | 2008-12-22 | 2010-07-01 | ブラザー工業株式会社 | ヘッドマウントディスプレイ |
JP2010164814A (ja) * | 2009-01-16 | 2010-07-29 | Brother Ind Ltd | ヘッドマウントディスプレイ |
JP2010218405A (ja) * | 2009-03-18 | 2010-09-30 | Brother Ind Ltd | ヘッドマウントディスプレイ |
JP2011128220A (ja) * | 2009-12-15 | 2011-06-30 | Toshiba Corp | 情報提示装置、情報提示方法及びプログラム |
JP2011521318A (ja) * | 2008-04-16 | 2011-07-21 | バーチュアル プロテインズ ベー.フェー. | インタラクティブな仮想現実画像生成システム |
US20110213664A1 (en) * | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Local advertising content on an interactive head-mounted eyepiece |
US8228315B1 (en) * | 2011-07-12 | 2012-07-24 | Google Inc. | Methods and systems for a virtual input device |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1399890B1 (en) * | 2001-05-22 | 2011-10-26 | Yoav Shefi | Method and system for displaying visual content in a virtual three-dimensional space |
US20080231926A1 (en) | 2007-03-19 | 2008-09-25 | Klug Michael A | Systems and Methods for Updating Dynamic Three-Dimensional Displays with User Input |
US8693724B2 (en) * | 2009-05-29 | 2014-04-08 | Microsoft Corporation | Method and system implementing user-centric gesture control |
JP5412227B2 (ja) | 2009-10-05 | 2014-02-12 | 日立コンシューマエレクトロニクス株式会社 | 映像表示装置、および、その表示制御方法 |
JP2011175405A (ja) | 2010-02-24 | 2011-09-08 | Panasonic Corp | 表示装置および表示装置における操作可能範囲表示方法 |
US9110557B2 (en) * | 2010-05-04 | 2015-08-18 | Timocco Ltd. | System and method for tracking and mapping an object to a target |
JP2011243031A (ja) | 2010-05-19 | 2011-12-01 | Canon Inc | ジェスチャ認識装置及びジェスチャ認識方法 |
US8537157B2 (en) * | 2010-06-21 | 2013-09-17 | Verizon Patent And Licensing Inc. | Three-dimensional shape user interface for media content delivery systems and methods |
US8994718B2 (en) | 2010-12-21 | 2015-03-31 | Microsoft Technology Licensing, Llc | Skeletal control of three-dimensional virtual world |
JP5724543B2 (ja) * | 2011-03-31 | 2015-05-27 | ソニー株式会社 | 端末装置、オブジェクト制御方法及びプログラム |
US8854433B1 (en) * | 2012-02-03 | 2014-10-07 | Aquifi, Inc. | Method and system enabling natural user interface gestures with an electronic system |
KR101318244B1 (ko) * | 2012-02-29 | 2013-10-15 | 한국과학기술연구원 | 3차원 사용자 인터페이스 구현 시스템 및 구현 방법 |
US9767720B2 (en) * | 2012-06-25 | 2017-09-19 | Microsoft Technology Licensing, Llc | Object-centric mixed reality space |
-
2013
- 2013-09-06 JP JP2015505219A patent/JP6057396B2/ja active Active
- 2013-09-06 EP EP13877457.5A patent/EP2975492A1/en not_active Withdrawn
- 2013-09-06 WO PCT/JP2013/074118 patent/WO2014141504A1/ja active Application Filing
- 2013-09-06 CN CN201380074605.9A patent/CN105074617B/zh active Active
- 2013-09-06 US US14/773,567 patent/US10007351B2/en active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH086708A (ja) * | 1994-04-22 | 1996-01-12 | Canon Inc | 表示装置 |
US6771294B1 (en) * | 1999-12-29 | 2004-08-03 | Petri Pulli | User interface |
US20020041327A1 (en) * | 2000-07-24 | 2002-04-11 | Evan Hildreth | Video-based image control system |
JP2006506737A (ja) * | 2002-11-19 | 2006-02-23 | モトローラ・インコーポレイテッド | 身体中心的な仮想対話型装置および方法 |
JP2005301668A (ja) * | 2004-04-12 | 2005-10-27 | Seiko Epson Corp | 情報処理装置および情報処理プログラム |
JP2008500624A (ja) * | 2004-05-24 | 2008-01-10 | 3ディー フォー オール シャミタステクニカイ フェリャズト ケーエフティー | 仮想3次元空間内で動作するシステム及び方法と視覚化システムを介してオペレーションを選択するシステム |
US20090187389A1 (en) * | 2008-01-18 | 2009-07-23 | Lockheed Martin Corporation | Immersive Collaborative Environment Using Motion Capture, Head Mounted Display, and Cave |
JP2009251154A (ja) * | 2008-04-03 | 2009-10-29 | Konica Minolta Holdings Inc | 頭部装着式映像表示装置 |
JP2011521318A (ja) * | 2008-04-16 | 2011-07-21 | バーチュアル プロテインズ ベー.フェー. | インタラクティブな仮想現実画像生成システム |
WO2010073928A1 (ja) * | 2008-12-22 | 2010-07-01 | ブラザー工業株式会社 | ヘッドマウントディスプレイ |
JP2010164814A (ja) * | 2009-01-16 | 2010-07-29 | Brother Ind Ltd | ヘッドマウントディスプレイ |
JP2010218405A (ja) * | 2009-03-18 | 2010-09-30 | Brother Ind Ltd | ヘッドマウントディスプレイ |
JP2011128220A (ja) * | 2009-12-15 | 2011-06-30 | Toshiba Corp | 情報提示装置、情報提示方法及びプログラム |
US20110213664A1 (en) * | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Local advertising content on an interactive head-mounted eyepiece |
US8228315B1 (en) * | 2011-07-12 | 2012-07-24 | Google Inc. | Methods and systems for a virtual input device |
Also Published As
Publication number | Publication date |
---|---|
CN105074617A (zh) | 2015-11-18 |
US20160018897A1 (en) | 2016-01-21 |
WO2014141504A1 (ja) | 2014-09-18 |
JP6057396B2 (ja) | 2017-01-11 |
CN105074617B (zh) | 2018-03-02 |
US10007351B2 (en) | 2018-06-26 |
EP2975492A1 (en) | 2016-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6057396B2 (ja) | 3次元ユーザインタフェース装置及び3次元操作処理方法 | |
JP5936155B2 (ja) | 3次元ユーザインタフェース装置及び3次元操作方法 | |
JP5871345B2 (ja) | 3次元ユーザインタフェース装置及び3次元操作方法 | |
JP6288372B2 (ja) | インタフェース制御システム、インタフェース制御装置、インタフェース制御方法、及びプログラム | |
JP5843340B2 (ja) | 3次元環境共有システム及び3次元環境共有方法 | |
JP6611501B2 (ja) | 情報処理装置、仮想オブジェクトの操作方法、コンピュータプログラム、及び記憶媒体 | |
WO2014147858A1 (ja) | 3次元ロック解除装置、3次元ロック解除方法及びプログラム | |
JP6390799B2 (ja) | 入力装置、入力方法、及びプログラム | |
JP6344530B2 (ja) | 入力装置、入力方法、及びプログラム | |
KR101892735B1 (ko) | 직관적인 상호작용 장치 및 방법 | |
KR20170062439A (ko) | 제어 장치, 제어 방법 및 프로그램 | |
KR101338958B1 (ko) | 멀티터치 단말기에서 가상물체의 3차원 움직임 조작시스템 및 방법 | |
JP5863984B2 (ja) | ユーザインタフェース装置及びユーザインタフェース方法 | |
US20130187890A1 (en) | User interface apparatus and method for 3d space-touch using multiple imaging sensors | |
US20230367403A1 (en) | Terminal device, virtual object manipulation method, and virtual object manipulation program | |
KR20200120467A (ko) | Hmd 장치 및 그 동작 방법 | |
US20230343052A1 (en) | Information processing apparatus, information processing method, and program | |
JP2024056455A (ja) | 情報処理システム、情報処理方法、プログラム | |
CN117707332A (zh) | 信息处理设备、控制方法和非暂态计算机存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161201 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6057396 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |