JP2014093704A - Head mount display and movement detection method - Google Patents

Head mount display and movement detection method Download PDF

Info

Publication number
JP2014093704A
JP2014093704A JP2012244143A JP2012244143A JP2014093704A JP 2014093704 A JP2014093704 A JP 2014093704A JP 2012244143 A JP2012244143 A JP 2012244143A JP 2012244143 A JP2012244143 A JP 2012244143A JP 2014093704 A JP2014093704 A JP 2014093704A
Authority
JP
Japan
Prior art keywords
emitting element
unit
head
light emitting
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012244143A
Other languages
Japanese (ja)
Other versions
JP5732446B2 (en
Inventor
Koji Yamamoto
浩嗣 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Priority to JP2012244143A priority Critical patent/JP5732446B2/en
Publication of JP2014093704A publication Critical patent/JP2014093704A/en
Application granted granted Critical
Publication of JP5732446B2 publication Critical patent/JP5732446B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a technology for detecting the movement of a user who is wearing a head mount display.SOLUTION: The casing of a head mount display 200 is configured to store a presentation part for presenting a three-dimensional video, and when it is mounted on the head of a user 500 as an observer, it is positioned ahead of both eyeballs of the user 500. A casing light emitting element 210 is configured to, when the casing is mounted on the head of the user 500, emit the rays of light in a vertical downward direction to the casing. An image acquisition part is configured to acquire the image of the rays of light of the casing light emitting element 210 imaged by a body imaging element 302 mounted on the body of the observer, and configured to image the rays of light to be emitted by the casing light emitting element 210. A head tracking part is configured to analyze the image of the rays of light acquired by the image acquisition part, and to track the relative movement of the casing light emitting element 210 to the body imaging element 302.

Description

本発明は、ヘッドマウントディスプレイ、および前記ヘッドマウントディスプレイを含む映像提示システムにおける動き検出方法に関する。   The present invention relates to a head mounted display and a motion detection method in an image presentation system including the head mounted display.

近年、立体映像を提示するための技術開発が進み、奥行きを持った立体映像を提示することが可能なヘッドマウントディスプレイ(Head Mounted Display)が普及してきている。ヘッドマウントディスプレイは観察者であるユーザの両眼球を覆うようにして装着され、ユーザの頭部の動きと連動して移動する。このため、ユーザの頭部の動きを追跡し、その結果をヘッドマウントディスプレイが提示する仮想空間の映像にフィードバックすれば、ユーザに対して仮想空間へのより高い没入感や臨場感を提示することができると考えられる。   In recent years, technological development for presenting stereoscopic images has progressed, and head mounted displays capable of presenting stereoscopic images with depth have become widespread. The head-mounted display is mounted so as to cover both eyes of the user who is an observer, and moves in conjunction with the movement of the user's head. For this reason, if the movement of the user's head is tracked and the result is fed back to the video of the virtual space presented by the head-mounted display, the user is presented with a higher sense of immersion and presence in the virtual space. It is thought that you can.

また、ヘッドマウントディスプレイは観察者であるユーザの両眼球を覆うようにして装着されるので、一般に、ヘッドマウントディスプレイを装着した状態でユーザは手元等の外界の実映像を見ることが難しい。一方で、ユーザの手の動きを追跡できれば、その動きの種類に応じて定められた指示をヘッドマウントディスプレイ自体や提示する映像の制御に用いることができると考えられる。   Further, since the head mounted display is mounted so as to cover both eyes of the user who is an observer, it is generally difficult for the user to see an actual image of the outside world such as the hand with the head mounted display mounted. On the other hand, if the movement of the user's hand can be tracked, it is considered that an instruction determined according to the type of the movement can be used for controlling the head mounted display itself or a video to be presented.

ヘッドマウントディスプレイの動きを追跡する手法として、例えば3軸加速度、3軸角速度、3軸地磁気を計測する9軸方式が知られている。この方式は、地域によっては地磁気の伏角によって動きの追跡が難しく、また建物の鉄骨やモータ等の周辺磁場の影響を受けやすい場合がある。また、ユーザの手の動きをヘッドマウントディスプレイにフィードバックするために、ユーザの手元の動きを検出する小型軽量な装置で、かつユーザが直感的に操作可能なデバイスの開発が望まれている。   As a method for tracking the movement of the head mounted display, for example, a 9-axis method for measuring 3-axis acceleration, 3-axis angular velocity, and 3-axis geomagnetism is known. In this method, depending on the region, it is difficult to track the movement due to the geomagnetic dip, and it may be easily influenced by the surrounding magnetic field such as a steel frame of a building or a motor. In addition, in order to feed back the movement of the user's hand to the head-mounted display, it is desired to develop a small and light device that detects the movement of the user's hand and that can be intuitively operated by the user.

本発明はこうした課題に鑑みてなされたものであり、その目的は、ヘッドマウントディスプレイを装着するユーザの動きを検出する技術を提供することにある。   The present invention has been made in view of these problems, and an object thereof is to provide a technique for detecting the movement of a user wearing a head-mounted display.

上記課題を解決するために、本発明のある態様はヘッドマウントディスプレイである。このヘッドマウントディスプレイは、3次元映像を提示する提示部を収納し、観察者の頭部に装着されたときに観察者の両眼球の前方に位置する筐体と、前記筐体が観察者の頭部に装着されたときに、前記筐体に対して鉛直下方向に光を照射する筐体発光素子と、観察者の胴部に装着されて前記筐体発光素子が照射する光を撮像するように構成された胴部撮像素子が画像化した、前記筐体発光素子の光の画像を取得する画像取得部と、前記画像取得部が取得した光の画像を解析して、前記胴部撮像素子に対する前記筐体発光素子の相対的な動きを追跡する頭部追跡部を含む。   In order to solve the above problems, an aspect of the present invention is a head mounted display. This head-mounted display houses a presentation unit that presents a three-dimensional image, and a housing that is positioned in front of the viewer's eyes when mounted on the viewer's head; When mounted on the head, the housing light-emitting element that irradiates light vertically downward with respect to the casing, and the light that is mounted on the body of the observer and irradiated by the housing light-emitting element are imaged An image acquisition unit that acquires an image of the light of the housing light-emitting element, which is imaged by the trunk imaging device configured as described above, and an image of the light acquired by the image acquisition unit, and the imaging of the trunk A head tracking unit that tracks a relative movement of the housing light emitting element with respect to the element;

本発明の別の態様は、ヘッドマウントディスプレイと、前記ヘッドマウントディスプレイと通信可能に構成され観察者の胴部に装着された胴部撮像素子と、前記ヘッドマウントディスプレイの観察者の手の動きと連動して移動する発光素子とを含む映像提示システムにおける動き検出方法である。この方法は、前記観察者の手の動きと連動して移動する発光素子が照射する光を画像化するステップと、画像化した前記発光素子が照射する光の画像を解析して、前記ヘッドマウントディスプレイに対する前記発光素子の相対的な動きを検出するステップと、前記ヘッドマウントディスプレイが観察者の頭部に装着されたときに、前記ヘッドマウントディスプレイに対して鉛直下方向に光を照射するステップと、前記鉛直下方向に照射された光を、前記胴部撮像素子が撮像した画像を取得するステップと、取得した前記胴部撮像素子による画像を解析して、前記胴部撮像素子に対する前記ヘッドマウントディスプレイの相対的な動きを検出するステップとを前記ヘッドマウントディスプレイのプロセッサに実行させる。   Another aspect of the present invention includes a head-mounted display, a torso imaging device configured to be communicable with the head-mounted display and mounted on the torso of the observer, and movement of the observer's hand on the head-mounted display. It is a motion detection method in a video presentation system including a light emitting element that moves in conjunction. The method includes the steps of: imaging the light emitted by the light emitting element that moves in conjunction with the movement of the observer's hand; analyzing the imaged light image emitted by the light emitting element; Detecting a relative movement of the light emitting element with respect to the display; and irradiating light vertically downward with respect to the head mounted display when the head mounted display is mounted on a head of an observer. A step of acquiring an image captured by the torso image sensor with respect to light irradiated in the vertically downward direction; and an analysis of the acquired image by the torso image sensor to analyze the head mount with respect to the torso image sensor And detecting the relative movement of the display.

本発明のさらに別の態様は、上記の方法の各ステップをコンピュータに実現させるプログラムである。   Yet another embodiment of the present invention is a program that causes a computer to implement the steps of the above method.

このプログラムは、ビデオやオーディオ、ゲーム機器、ヘッドマウントディスプレイ等のハードウェア資源の基本的な制御を行なうために機器に組み込まれるファームウェアの一部として提供されてもよい。このファームウェアは、たとえば、機器内のROM(Read Only Memory)やフラッシュメモリなどの半導体メモリに格納される。このファームウェアを提供するため、あるいはファームウェアの一部をアップデートするために、このプログラムを記録したコンピュータ読み取り可能な記録媒体が提供されてもよく、また、このプログラムが通信回線で伝送されてもよい。   This program may be provided as part of firmware incorporated in the device in order to perform basic control of hardware resources such as video, audio, game device, and head mounted display. This firmware is stored in a semiconductor memory such as a ROM (Read Only Memory) or a flash memory in the device, for example. In order to provide the firmware or to update a part of the firmware, a computer-readable recording medium storing the program may be provided, and the program may be transmitted through a communication line.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、データ構造、記録媒体などの間で変換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements and the expression of the present invention converted between a method, an apparatus, a system, a computer program, a data structure, a recording medium, and the like are also effective as an aspect of the present invention.

本発明によれば、ヘッドマウントディスプレイを装着するユーザの動きを検出する技術を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the technique which detects the motion of the user who mounts a head mounted display can be provided.

実施の形態に係る映像提示システムの全体構成の概観を模式的に示す図である。It is a figure which shows typically the outline of the whole structure of the video presentation system which concerns on embodiment. 実施の形態に係る映像提示システムの利用シーンを模式的に示す図である。It is a figure which shows typically the utilization scene of the video presentation system which concerns on embodiment. 実施の形態に係る映像提示システムの内部構成を模式的に示す図である。It is a figure which shows typically the internal structure of the image | video presentation system which concerns on embodiment. 実施の形態に係るヘッドマウントディスプレイの機能構成を模式的に示す図である。It is a figure which shows typically the function structure of the head mounted display which concerns on embodiment. 実施の形態に係る映像提示システムによる追跡処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the tracking process by the image | video presentation system which concerns on embodiment. 実施の形態に係る手部追跡の全体構成の概観を模式的に示す図である。It is a figure which shows typically the outline of the whole structure of the hand tracking which concerns on embodiment. 実施の形態に係る映像観察システムの手部追跡の利用シーンを模式的に示す図である。It is a figure which shows typically the utilization scene of the hand tracking of the video observation system which concerns on embodiment. 実施の形態に係る筐体撮像部が撮像した画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image which the housing | casing imaging part which concerns on embodiment imaged. 実施の形態に係る手部追跡部の機能構成を模式的に示す図である。It is a figure which shows typically the function structure of the hand part tracking part which concerns on embodiment. 実施の形態に係る手部追跡部処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a hand part tracking part process which concerns on embodiment. 実施の形態に係る頭部追跡の全体構成の概観を模式的に示す図である。It is a figure which shows typically the outline of the whole structure of the head tracking which concerns on embodiment. 実施の形態に係る映像観察システムの頭部追跡の利用シーンを模式的に示す図である。It is a figure which shows typically the utilization scene of the head tracking of the video observation system which concerns on embodiment. 実施の形態に係る胴部撮像部が撮像した画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image which the trunk | drum imaging part which concerns on embodiment imaged. 実施の形態に係る頭部追跡部の機能構成を模式的に示す図である。It is a figure which shows typically the function structure of the head tracking part which concerns on embodiment. 実施の形態に係る頭部追跡部処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the head tracking part process which concerns on embodiment. 実施の形態に係るヘッドマウントディスプレイの一部を拡大した図である。It is the figure which expanded a part of head mounted display concerning an embodiment. 実施の形態に係る輝点選別部による輝点選別処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the bright spot selection process by the bright spot selection part which concerns on embodiment. 実施の形態に係る位置指定装置が発する信号を検出する処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which detects the signal which the position designation apparatus which concerns on embodiment emits. 実施の形態に係る位置指定装置が発する信号を検出するときの、輝点検出部の内部状態を示す状態遷移図である。It is a state transition diagram which shows the internal state of a luminescent spot detection part when detecting the signal which the position designation | designated apparatus which concerns on embodiment emits.

(映像提示システム100の全体構成)
図1は、実施の形態に係る映像提示システム100の全体構成の概観を模式的に示す図である。実施の形態に係る映像提示システム100は、ヘッドマウントディスプレイ200、胴部固定装置300、および位置指定装置400を含む。
(Overall configuration of video presentation system 100)
FIG. 1 is a diagram schematically showing an overview of the overall configuration of a video presentation system 100 according to an embodiment. The video presentation system 100 according to the embodiment includes a head mounted display 200, a body fixing device 300, and a position specifying device 400.

ヘッドマウントディスプレイ200は、その筐体が観察者であるユーザの頭部に装着自在に構成されており、筐体内部に格納された提示部を用いてユーザに3次元映像を提示する。ヘッドマウントディスプレイ200は、例えば電源のオン/オフ等のインタフェースとなる第1ボタン202と、ヘッドマウントディスプレイ200の筐体に備えられ、筐体外部の光を撮像する筐体撮像部204と、ヘッドマウントディスプレイ200の筐体に備えられ、筐体外部に光を照射する筐体発光素子210とをさらに備える。また筐体撮像部204は、第1撮像素子206と第2撮像素子208とをさらに含む。   The head mounted display 200 is configured so that the casing thereof can be freely mounted on the head of a user who is an observer, and presents a three-dimensional image to the user using a presentation unit stored inside the casing. The head mounted display 200 includes, for example, a first button 202 that serves as an interface for turning on / off the power, a housing imaging unit 204 that is provided in the housing of the head mounted display 200 and images light outside the housing, A housing light emitting element 210 that is provided in the housing of the mount display 200 and irradiates light outside the housing is further provided. The housing imaging unit 204 further includes a first imaging element 206 and a second imaging element 208.

胴部固定装置300は、ヘッドマウントディスプレイ200を装着するユーザの胴部、一例としてはユーザの胸部付近に設置されるように構成されており、ヘッドマウントディスプレイ200の筐体発光素子210が照射する光を撮像する。このため、胴部固定装置300は、胴部撮像素子302と、ユーザ500に装着自在に構成された素子支持部314を備える。図1に示すように、胴部固定装置300とヘッドマウントディスプレイ200とは有線接続されており、ヘッドマウントディスプレイ200は、胴部撮像素子302が撮像した映像を取得することができる。ヘッドマウントディスプレイ200は、取得した画像を解析することにより、胴部固定装置300に対する筐体発光素子210の相対位置を特定することが可能となる。なお、胴部固定装置300とヘッドマウントディスプレイ200とを、例えば赤外線通信等の技術を用いて無線接続してもよい。また、素子支持部314は、胴部撮像素子302の傾きを調整する調整部312も含む。   The torso fixing device 300 is configured to be installed near the torso of the user who wears the head mounted display 200, for example, near the chest of the user, and the case light emitting element 210 of the head mounted display 200 irradiates. Imaging light. Therefore, the torso fixing device 300 includes a torso image pickup element 302 and an element support part 314 configured to be attachable to the user 500. As shown in FIG. 1, the body fixing device 300 and the head mounted display 200 are connected by wire, and the head mounted display 200 can acquire an image captured by the body image sensor 302. The head mounted display 200 can specify the relative position of the casing light emitting element 210 with respect to the body fixing device 300 by analyzing the acquired image. The body fixing device 300 and the head mounted display 200 may be wirelessly connected using a technique such as infrared communication. The element support unit 314 also includes an adjustment unit 312 that adjusts the inclination of the body image sensor 302.

位置指定装置400は、ユーザが把持するための把持部402と、把持部402に取り付けられた発光素子である位置指定発光素子404と、位置指定発光素子404の発光の仕方を制御するための第2ボタン406とを備える。ユーザが第2ボタンをオンする場合とオフする場合とでは、位置指定発光素子404の発光の仕方が変化する。ヘッドマウントディスプレイ200の筐体撮像部204は、位置指定発光素子404が照射する光を撮像して画像化する。ヘッドマウントディスプレイ200はその画像を解析することにより、位置指定発光素子404の位置および第2ボタンの押下の有無を特定することが可能となる。なお、位置指定装置400は必ずしも把持部402を備える必要はなく、位置指定発光素子404がユーザの手の動きと連動して移動する構成であればよい。例えば、位置指定装置400は、指輪や腕輪に位置指定発光素子404を備える構成であってもよい。   The position designation device 400 includes a gripping unit 402 for a user to grip, a position designation light emitting element 404 that is a light emitting element attached to the gripping unit 402, and a first method for controlling how the position designation light emitting element 404 emits light. 2 buttons 406. Depending on whether the user turns on or off the second button, the manner in which the position-designated light emitting element 404 emits light changes. The housing imaging unit 204 of the head mounted display 200 captures and images the light emitted from the position designation light emitting element 404. The head mounted display 200 can specify the position of the position designation light emitting element 404 and whether or not the second button is pressed by analyzing the image. Note that the position specifying device 400 does not necessarily need to include the grip portion 402, and may be any configuration as long as the position specifying light emitting element 404 moves in conjunction with the movement of the user's hand. For example, the position specifying device 400 may be configured to include the position specifying light emitting element 404 on a ring or a bracelet.

図2は、実施の形態に係る映像提示システム100の利用シーンを模式的に示す図である。図2に示すように、ヘッドマウントディスプレイ200は使用時にユーザ500の頭部に装着され、ユーザ500の頭部の動きに連動して動く。胴部固定装置300は、ネックレスのようにユーザの首にかけられた紐状部材によってつり下げられ、例えばユーザの胸部中央から腹部上方の付近に設置される。なお図示はしないが、胴部固定装置300は、例えばベルト等の固定部材を用いてユーザの胴部に固定されてもよい。位置指定装置400は、使用時にユーザ500によって把持される。このため、ユーザ500が位置指定装置400を掴む手を動かすと、位置指定発光素子404もユーザの手の動きと連動して移動する。   FIG. 2 is a diagram schematically illustrating a usage scene of the video presentation system 100 according to the embodiment. As shown in FIG. 2, the head mounted display 200 is attached to the head of the user 500 when in use, and moves in conjunction with the movement of the head of the user 500. The torso fixing device 300 is suspended by a string-like member hung on the user's neck like a necklace, and is installed, for example, in the vicinity of the user's chest from the center of the abdomen. Although not shown, the body fixing device 300 may be fixed to the user's body using a fixing member such as a belt. The position specifying device 400 is gripped by the user 500 when in use. For this reason, when the user 500 moves the hand holding the position specifying device 400, the position specifying light emitting element 404 also moves in conjunction with the movement of the user's hand.

図3は、実施の形態に係る映像提示システム100の内部構成を模式的に示す図である。上述したように、実施の形態に係る映像提示システム100は、ヘッドマウントディスプレイ200、胴部固定装置300、および位置指定装置400を含む。   FIG. 3 is a diagram schematically illustrating an internal configuration of the video presentation system 100 according to the embodiment. As described above, the video presentation system 100 according to the embodiment includes the head mounted display 200, the body fixing device 300, and the position specifying device 400.

ヘッドマウントディスプレイ200は、上述した第1ボタン202、筐体撮像部204の他に、記憶部212、通信部214、記録媒体インタフェース216、提示部218、音声出力部220、CPU(Central Processing Unit)222、加速度センサ224、第1LED(Light Emitting Diode)226、電源228、内部パス230、およびI/O(Input/Output)制御部232を含む。   The head mounted display 200 includes a storage unit 212, a communication unit 214, a recording medium interface 216, a presentation unit 218, an audio output unit 220, a CPU (Central Processing Unit), in addition to the first button 202 and the housing imaging unit 204 described above. 222, an acceleration sensor 224, a first LED (Light Emitting Diode) 226, a power source 228, an internal path 230, and an I / O (Input / Output) control unit 232.

第1撮像素子206は、例えば赤外光等の不可視光領域の光を撮像するように構成されている。具体的には、第1撮像素子206は撮像の対象とする不可視光領域以外の光を減衰させる光学フィルタを透過した光を撮像する。これに対し、第2撮像素子208は可視光領域以外の光を減衰させる光学フィルタを備え、可視光領域の光を撮像する。第1撮像素子206と第2撮像素子208とはともに、例えばCCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の既知の固体撮像素子で実現できる。   The first image sensor 206 is configured to image light in an invisible light region such as infrared light. Specifically, the first image sensor 206 images light that has passed through an optical filter that attenuates light outside the invisible light region to be imaged. In contrast, the second image sensor 208 includes an optical filter that attenuates light outside the visible light region, and images light in the visible light region. Both the first image sensor 206 and the second image sensor 208 can be realized by a known solid-state image sensor such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor.

また第1撮像素子206と第2撮像素子208とはともに魚眼レンズを備えており、ヘッドマウントディスプレイ200がユーザ500の頭部に装着されたときに、ヘッドマウントディスプレイ200の筐体に対して鉛直下方向かつユーザ500の視線方向前方の光を撮像する。図1において符号S1と符号S2とを結ぶ線分で示すように、ヘッドマウントディスプレイ200の筐体の下面には、ユーザ500がヘッドマウントディスプレイ200を装着した状態で、ユーザ500側から視線方向かつ鉛直上方向に向かって傾斜するスロープ領域が存在する。第1撮像素子206と第2撮像素子208とともに、ヘッドマウントディスプレイ200の筐体下面に存在するスロープ領域に備えられている。これにより、第1撮像素子206と第2撮像素子208とは、ヘッドマウントディスプレイ200がユーザ500の頭部に装着されたときに、ヘッドマウントディスプレイ200の筐体に対して鉛直下方向かつユーザ500の視線方向前方の光を撮像することができる。   Further, both the first image sensor 206 and the second image sensor 208 are provided with fisheye lenses. When the head mounted display 200 is mounted on the head of the user 500, the first image sensor 206 and the second image sensor 208 are vertically below the casing of the head mounted display 200. The light in the direction and in the direction of the sight line of the user 500 is imaged. As indicated by the line segment connecting the reference sign S1 and the reference sign S2 in FIG. 1, the user 500 attaches the head-mounted display 200 to the lower surface of the casing of the head-mounted display 200, and the viewing direction from the user 500 side. There is a slope region that is inclined vertically upward. Along with the first image sensor 206 and the second image sensor 208, it is provided in a slope region existing on the lower surface of the housing of the head mounted display 200. As a result, the first image sensor 206 and the second image sensor 208 are vertically downward with respect to the housing of the head mounted display 200 and the user 500 when the head mounted display 200 is mounted on the head of the user 500. It is possible to take an image of light ahead in the line-of-sight direction.

記憶部212は、ヘッドマウントディスプレイ200の動作を統括的に制御するためのオペレーションプログラムを含むファームウェアを格納する。記憶部212はまた、筐体撮像部204が撮像した画像や胴部固定装置300から取得した画像を格納したり、CPU22が実行したりする処理等の作業領域となる。記憶部212は、例えば既知の揮発性および不揮発性のメモリを用いて実現できる。   The storage unit 212 stores firmware including an operation program for comprehensively controlling the operation of the head mounted display 200. The storage unit 212 also serves as a work area for storing images captured by the case imaging unit 204 and images acquired from the torso fixing device 300 and processing executed by the CPU 22. The storage unit 212 can be realized by using, for example, known volatile and nonvolatile memories.

通信部214は、ヘッドマウントディスプレイ200が映像提示システム100の外部の機器と通信するためのインタフェースである。通信部214は、例えばWiFi(登録商標)やBluetooth(登録商標)等の既知の無線通信技術を用いて実現できる。   The communication unit 214 is an interface for the head mounted display 200 to communicate with an external device of the video presentation system 100. The communication unit 214 can be realized by using a known wireless communication technology such as WiFi (registered trademark) or Bluetooth (registered trademark).

記録媒体インタフェース216は、映画やゲーム等のコンテンツを格納するDVD(Digital Versatile Disc)やBluray(登録商標)ディスク、あるいはフラッシュメモリ等の記録媒体を読み出すインタフェースである。記録媒体インタフェース216が読み出したコンテンツはCPU222で処理され、提示部218や音声出力部220を介してユーザに提供される。記録媒体インタフェース216は、例えば光学ドライブ等の既知の技術を用いて実現できる。   The recording medium interface 216 is an interface for reading a recording medium such as a DVD (Digital Versatile Disc), a Bluray (registered trademark) disk, or a flash memory that stores contents such as movies and games. The content read by the recording medium interface 216 is processed by the CPU 222 and provided to the user via the presentation unit 218 and the audio output unit 220. The recording medium interface 216 can be realized using a known technique such as an optical drive.

提示部218は、ユーザ500に映像を提示するためのデバイスである。図示はしないが、提示部218は左目用の提示部と右目用の提示部とを備え、ユーザ500の左目および右目にそれぞれ左目用視差画像および右目用視差画像を独立に提示することができる。これにより、ユーザ500に奥行きを持った3次元映像を提示することが可能となる。提示部218は、LCD(Liquid Crystal Display)やOELD(Organic Electro-Luminescence Display)等の既知の表示技術を用いて実現できる。   The presentation unit 218 is a device for presenting video to the user 500. Although not shown, the presentation unit 218 includes a left-eye presentation unit and a right-eye presentation unit, and can independently present the left-eye parallax image and the right-eye parallax image to the left eye and right eye of the user 500, respectively. Thereby, it becomes possible to present a three-dimensional image having depth to the user 500. The presentation unit 218 can be realized using a known display technology such as an LCD (Liquid Crystal Display) or an OELD (Organic Electro-Luminescence Display).

音声出力部220は、ユーザ500に音声を提示するためのデバイスである。図示はしないが、音声出力部220は左耳用イヤホンと右耳用イヤホンに接続されており、ユーザにステレオ音声を提供することができる。   The audio output unit 220 is a device for presenting audio to the user 500. Although not shown, the audio output unit 220 is connected to the left earphone and the right earphone, and can provide stereo sound to the user.

CPU222は、内部パス230を介してヘッドマウントディスプレイ200内の各部から取得した情報を処理し、コンテンツの提供や、後述する頭部追跡処理および手部追跡処理等の処理を実行する。   The CPU 222 processes information acquired from each unit in the head-mounted display 200 via the internal path 230, and executes processing such as content provision and head tracking processing and hand tracking processing described later.

加速度センサ224は、ヘッドマウントディスプレイ200の加速度を検出する。より具体的には、加速度センサ224は、ヘッドマウントディスプレイ200の傾きを検出するために、重力の向きを検出する。加速度センサ224は、例えば既知の低g加速度センサを用いて実現できる。また第1LED226は、ヘッドマウントディスプレイ200の外部に光を照射するLED光源であり、例えば赤外光のような不可視領域の光を照射する。上述した筐体発光素子210は、第1LED226によって実現される。   The acceleration sensor 224 detects the acceleration of the head mounted display 200. More specifically, the acceleration sensor 224 detects the direction of gravity in order to detect the tilt of the head mounted display 200. The acceleration sensor 224 can be realized using, for example, a known low g acceleration sensor. The first LED 226 is an LED light source that irradiates light to the outside of the head mounted display 200, and irradiates light in an invisible region such as infrared light. The housing light emitting element 210 described above is realized by the first LED 226.

I/O制御部232は、第1ボタン202、筐体撮像部204、および加速度センサ224からの入力や、第1LED226による光の照射を制御する。I/O制御部232は、胴部固定装置300内のI/O制御部304との間での情報の送受信も制御する。電源228は図示しないバッテリを含み、ヘッドマウントディスプレイ200の各部に駆動のための電力を供給する。   The I / O control unit 232 controls input from the first button 202, the housing imaging unit 204, and the acceleration sensor 224 and light irradiation by the first LED 226. The I / O control unit 232 also controls transmission / reception of information to / from the I / O control unit 304 in the body fixing device 300. The power source 228 includes a battery (not shown), and supplies power for driving to each part of the head mounted display 200.

胴部固定装置300は、I/O制御部304と第3撮像素子306とを含む。第3撮像素子306は、上述した胴部撮像素子302対応し、CCDやCMOS等の既知の撮像素子で実現できる。また第3撮像素子306は透視投影レンズを備えている。詳細は後述するが、第3撮像素子306は、ヘッドマウントディスプレイ200内の第1LED226が照射する光の波長付近の光を透過し、その他の波長の光を減衰させる光学フィルタを備えている。これにより、第1LED226が照射する光を選択的に撮像することができる。胴部固定装置300の各部が駆動するための電力は、電源228から図示しない有線で供給する。   The body fixing device 300 includes an I / O control unit 304 and a third image sensor 306. The third image sensor 306 corresponds to the above-described body image sensor 302 and can be realized by a known image sensor such as a CCD or a CMOS. The third image sensor 306 includes a perspective projection lens. As will be described in detail later, the third image sensor 306 includes an optical filter that transmits light in the vicinity of the wavelength of light emitted by the first LED 226 in the head mounted display 200 and attenuates light of other wavelengths. Thereby, the light emitted by the first LED 226 can be selectively imaged. Electric power for driving each part of the torso fixing device 300 is supplied from a power source 228 by a wire (not shown).

I/O制御部304は、第3撮像素子306が撮像した画像をヘッドマウントディスプレイ200内のI/O制御部232に出力する。またI/O制御部304は、ヘッドマウントディスプレイ200内のI/O制御部232から第3撮像素子306の撮像の開始および停止の指示を受信し、第3撮像素子306の撮像動作を制御する。   The I / O control unit 304 outputs an image captured by the third image sensor 306 to the I / O control unit 232 in the head mounted display 200. Further, the I / O control unit 304 receives an instruction to start and stop imaging of the third imaging element 306 from the I / O control unit 232 in the head mounted display 200 and controls the imaging operation of the third imaging element 306. .

位置指定装置400は、第2ボタン406、I/O制御部408、第2LED410、および電源412を含む。   The position specifying device 400 includes a second button 406, an I / O control unit 408, a second LED 410, and a power source 412.

第2LED410は、上述した位置指定発光素子404に対応し、I/O制御部408の制御の下、例えば赤外光のような不可視領域の光を照射する。I/O制御部408は、第2ボタン406のオン/オフに応じて第2LED410の発光の仕方を制御する。具体的には、I/O制御部408は、第2ボタン406がオンのときは、第2LED410を常時点灯させる。また第2ボタン406がオフのとき、I/O制御部408は所定の点滅周波数で第2LED410を点滅させる。ここで点滅周波数がF[Hz]であると仮定すると、第2ボタン406がオフの場合I/O制御部408は、1/(2×F)秒間第2LED410を点灯させ、続く1/(2×F)秒間第2LED410を消灯させる制御を繰り返す。電源412は図示しないバッテリを含み、位置指定装置400の各部に駆動のための電力を供給する。   The second LED 410 corresponds to the position-designated light emitting element 404 described above, and emits light in an invisible region such as infrared light under the control of the I / O control unit 408. The I / O control unit 408 controls how the second LED 410 emits light according to whether the second button 406 is on or off. Specifically, the I / O control unit 408 always turns on the second LED 410 when the second button 406 is on. When the second button 406 is off, the I / O control unit 408 causes the second LED 410 to blink at a predetermined blinking frequency. Assuming that the blinking frequency is F [Hz], when the second button 406 is off, the I / O control unit 408 lights the second LED 410 for 1 / (2 × F) seconds, and continues to 1 / (2 XF) The control for turning off the second LED 410 for 2 seconds is repeated. The power source 412 includes a battery (not shown) and supplies power for driving to each part of the position specifying device 400.

図4は、実施の形態に係るヘッドマウントディスプレイ200の機能構成を模式的に示す図である。実施の形態に係るヘッドマウントディスプレイ200は、魚眼レンズ234、筐体撮像部204、提示部218、画像取得部250、追跡部260、コンテンツ再生部270、および合成部280を含む。画像取得部250は、第1画像取得部252と第2画像取得部254とをさらに含む。また追跡部260は、頭部追跡部600、手部追跡部700、および出力部262をさらに含む。   FIG. 4 is a diagram schematically illustrating a functional configuration of the head mounted display 200 according to the embodiment. The head mounted display 200 according to the embodiment includes a fisheye lens 234, a housing imaging unit 204, a presentation unit 218, an image acquisition unit 250, a tracking unit 260, a content reproduction unit 270, and a synthesis unit 280. The image acquisition unit 250 further includes a first image acquisition unit 252 and a second image acquisition unit 254. The tracking unit 260 further includes a head tracking unit 600, a hand tracking unit 700, and an output unit 262.

魚眼レンズ234は、180度程度の画角を持つレンズであり、例えば等距離射影方式で撮像するために用いられる。上述した第1撮像素子206と第2撮像素子208とはともに、魚眼レンズ234を介して撮像するが、図4においては第1撮像素子206と第2撮像素子208とを筐体撮像部204と総称している。以下本明細書において、第1撮像素子206と第2撮像素子208とを区別する必要がある場合を除いて、第1撮像素子206と第2撮像素子208とを筐体撮像部204と総称する。第1撮像素子206と第2撮像素子208とは、それぞれ別の魚眼レンズを介して撮像してもよい。   The fisheye lens 234 is a lens having an angle of view of about 180 degrees, and is used, for example, for imaging by an equidistant projection method. Both the first image sensor 206 and the second image sensor 208 described above capture an image through the fisheye lens 234. In FIG. 4, the first image sensor 206 and the second image sensor 208 are collectively referred to as a case image capturing unit 204. doing. Hereinafter, in the present specification, the first imaging element 206 and the second imaging element 208 are collectively referred to as a case imaging unit 204 unless it is necessary to distinguish between the first imaging element 206 and the second imaging element 208. . The first image sensor 206 and the second image sensor 208 may capture images via different fisheye lenses.

上述したように、位置指定装置400は、使用時にユーザ500の手で把持される。このため、位置指定発光素子404は、ヘッドマウントディスプレイ200の筐体に対して鉛直下方向かつユーザ500の視線方向前方に存在することになる。筐体撮像部204は、ヘッドマウントディスプレイ200がユーザ500の頭部に装着されたときに、ヘッドマウントディスプレイ200の筐体に対して鉛直下方向かつユーザ500の視線方向前方の光を撮像することができる。このため、筐体撮像部204はユーザ500の手の動きと連動して移動する位置指定発光素子404を容易に画角に捉えることができる。   As described above, the position specifying device 400 is held by the hand of the user 500 during use. For this reason, the position specifying light emitting element 404 is present vertically downward with respect to the housing of the head mounted display 200 and in front of the user 500 in the line of sight. When the head mounted display 200 is mounted on the head of the user 500, the housing imaging unit 204 captures light that is vertically downward with respect to the housing of the head mounted display 200 and forward in the line of sight of the user 500. Can do. For this reason, the housing imaging unit 204 can easily grasp the position-designated light emitting element 404 that moves in conjunction with the movement of the hand of the user 500 at the angle of view.

画像取得部250内の第2画像取得部254は、筐体撮像部204が撮像した画像を取得する。追跡部260内の手部追跡部700は、筐体撮像部204が撮像した画像を第2画像取得部254から取得する。手部追跡部700は取得した画像を解析することにより、位置指定発光素子404に由来する輝点の位置変化を追跡する。位置指定発光素子404はユーザ500の手の動きと連動して移動するので、結果として手部追跡部700はユーザ500の手の動きを検出することができる。手部追跡部700は、図3における記憶部212に格納された手部追跡処理を実現するためのプログラムをCPU222が実行することによって実現できる。手部追跡部700における手部追跡処理の詳細は後述する。   A second image acquisition unit 254 in the image acquisition unit 250 acquires an image captured by the housing imaging unit 204. The hand tracking unit 700 in the tracking unit 260 acquires the image captured by the housing imaging unit 204 from the second image acquisition unit 254. The hand tracking unit 700 analyzes a position change of a bright spot derived from the position designation light emitting element 404 by analyzing the acquired image. Since the position designation light emitting element 404 moves in conjunction with the hand movement of the user 500, the hand tracking unit 700 can detect the hand movement of the user 500 as a result. The hand tracking unit 700 can be realized by the CPU 222 executing a program for realizing the hand tracking process stored in the storage unit 212 in FIG. Details of the hand tracking process in the hand tracking unit 700 will be described later.

画像取得部250内の第1画像取得部252は、胴部固定装置300の胴部撮像素子302が撮像した画像を取得する。頭部追跡部600は、第1画像取得部252が取得した画像を取得する。   The first image acquisition unit 252 in the image acquisition unit 250 acquires an image captured by the body image sensor 302 of the body fixing device 300. The head tracking unit 600 acquires the image acquired by the first image acquisition unit 252.

上述したように、胴部撮像素子302はヘッドマウントディスプレイ200の筐体発光素子210が照射する光を含む被写体を撮像する。したがって、第1画像取得部252が取得した画像には、筐体発光素子210を由来とする輝点が撮像されている。そこで頭部追跡部600は、取得した画像を解析することにより、位置指定発光素子404の位置変化を追跡する。これにより、頭部追跡部600は、胴部撮像素子302に対する筐体発光素子210の相対的な動きを検出することができる。結果として、頭部追跡部600は、ユーザ500の胴部に対するユーザ500の頭の向き、すなわち視線方向を検出することができる。手部追跡部700は、図3における記憶部212に格納された頭部追跡処理を実現するためのプログラムをCPU222が実行することによって実現できる。なお、頭部追跡部600における頭部追跡処理の詳細は後述する。   As described above, the torso imaging element 302 images a subject including light emitted from the casing light emitting element 210 of the head mounted display 200. Therefore, a bright spot derived from the casing light emitting element 210 is captured in the image acquired by the first image acquisition unit 252. Therefore, the head tracking unit 600 tracks the change in position of the position-designated light emitting element 404 by analyzing the acquired image. Thereby, the head tracking unit 600 can detect the relative movement of the housing light emitting element 210 with respect to the torso imaging element 302. As a result, the head tracking unit 600 can detect the orientation of the user 500's head relative to the user's 500 trunk, that is, the line-of-sight direction. The hand tracking unit 700 can be realized by the CPU 222 executing a program for realizing the head tracking process stored in the storage unit 212 in FIG. Details of the head tracking process in the head tracking unit 600 will be described later.

追跡部260内の出力部262は、頭部追跡部600および手部追跡部700の処理結果を出力する。コンテンツ再生部270は、記録媒体インタフェース216が読み出したコンテンツを再生する。コンテンツ再生部270は、出力部262から取得した追跡部260の出力結果に応じて、ユーザ500に提示する映像を変更する。例えば、ユーザ500の視線が胴部に対して左方向を向いている場合、コンテンツ再生部270は、左方向に対応する3次元映像を提示部218に表示させる。コンテンツ再生部270は、記憶部212およびCPU222のリソースを用いて実現できる。   The output unit 262 in the tracking unit 260 outputs the processing results of the head tracking unit 600 and the hand tracking unit 700. The content playback unit 270 plays back the content read by the recording medium interface 216. The content playback unit 270 changes the video presented to the user 500 according to the output result of the tracking unit 260 acquired from the output unit 262. For example, when the line of sight of the user 500 is directed to the left with respect to the torso, the content reproduction unit 270 causes the presentation unit 218 to display a 3D image corresponding to the left direction. The content reproduction unit 270 can be realized using the resources of the storage unit 212 and the CPU 222.

合成部280は、コンテンツ再生部270が生成した映像と、筐体撮像部204が撮像した映像とを合成する。具体的には、合成部280は、出力部262からユーザ500の視線方向を取得する。取得したユーザの視線方向が鉛直下方向、すなわちユーザ500の手元や足下の方向である場合、合成部280は、筐体撮像部204が撮像した可視光画像をコンテンツ再生部270が生成した映像に合成する。合成部280による映像の合成は、アルファブレンディング等の既知の画像処理技術を実現するためのプログラムをCPU222が実行することで実現できる。手元方向を取得する別の手段として、後述する手部追跡によって取得できるヘッドマウントディスプレイ200の座標系10に対する、位置指定発光素子404の方向を利用することもできる。   The synthesizing unit 280 synthesizes the video generated by the content reproduction unit 270 and the video captured by the case imaging unit 204. Specifically, the synthesis unit 280 acquires the line-of-sight direction of the user 500 from the output unit 262. When the acquired line-of-sight direction of the user is the vertical downward direction, that is, the direction of the user's 500 hand or foot, the synthesizing unit 280 converts the visible light image captured by the housing imaging unit 204 into the video generated by the content reproduction unit 270. Synthesize. Video composition by the composition unit 280 can be realized by the CPU 222 executing a program for realizing a known image processing technique such as alpha blending. As another means for acquiring the hand direction, the direction of the position-designated light emitting element 404 with respect to the coordinate system 10 of the head mounted display 200 that can be acquired by hand tracking described later can be used.

実施の形態に係るヘッドマウントディスプレイ200は、ユーザ500の頭部に装着されたときにユーザ500の両眼球の前方に位置し、周囲の視界を遮断するように構成されている。ユーザ500は提示部218が提示する仮想的な3次元映像を観察することになるので、ユーザ500に対してより高い没入感や臨場感を提供することができる。一方、合成部280がユーザ500の手元や足下付近の現実の映像を合成することにより、ユーザ500がヘッドマウントディスプレイ200を装着した状態で行う手元の操作や歩行等が容易となり、ユーザビリティを向上させることができる。なお、合成部280が筐体撮像部204が撮像した画像を合成するか否かは、例えば第1ボタン202を押下することで切り替え自在としてもよい。   The head mounted display 200 according to the embodiment is configured to be positioned in front of both eyes of the user 500 when the head mounted display 200 is worn on the head of the user 500 and to block the surrounding visual field. Since the user 500 observes the virtual three-dimensional video presented by the presentation unit 218, the user 500 can be provided with a higher immersive feeling and presence. On the other hand, when the synthesizing unit 280 synthesizes a real image near the user's hand or under the foot, the user 500 can easily perform a hand operation or walking while wearing the head mounted display 200, and improve usability. be able to. Note that whether or not the combining unit 280 combines the images captured by the housing imaging unit 204 may be switched by pressing the first button 202, for example.

図5は、実施の形態に係る映像提示システム100による追跡処理の流れを示すフローチャートである。本フローチャートにおける処理は、例えばヘッドマウントディスプレイ200の電源が投入されたときに開始する。   FIG. 5 is a flowchart showing a flow of tracking processing by the video presentation system 100 according to the embodiment. The processing in this flowchart starts when the power of the head mounted display 200 is turned on, for example.

筐体撮像部204は、位置指定装置400の位置指定発光素子404が照射する光を撮像して画像化する(S2)。手部追跡部700は、筐体撮像部204撮像した画像を解析して、ユーザ500の手の動きを検出する(S4)。   The case imaging unit 204 captures and images the light emitted from the position designation light emitting element 404 of the position designation device 400 (S2). The hand tracking unit 700 analyzes the image captured by the housing imaging unit 204 and detects the hand movement of the user 500 (S4).

筐体発光素子210は、I/O制御部232の制御の下、ヘッドマウントディスプレイ200に対して鉛直下方向に光を照射する(S6)。胴部固定装置300の胴部撮像素子302は、筐体発光素子210が鉛直下方向に照射した光を撮像して画像を取得する(S8)。頭部追跡部600は、第1画像取得部252が取得した胴部撮像素子302による画像を解析して、胴部撮像素子302に対するヘッドマウントディスプレイ200の相対的な動きを検出する(S10)。   The casing light emitting element 210 irradiates light in the vertically downward direction to the head mounted display 200 under the control of the I / O control unit 232 (S6). The torso imaging device 302 of the torso fixing device 300 captures the light emitted from the casing light emitting element 210 in the vertically downward direction and acquires an image (S8). The head tracking unit 600 analyzes the image of the torso imaging element 302 acquired by the first image acquisition unit 252 and detects the relative movement of the head mounted display 200 with respect to the torso imaging element 302 (S10).

頭部追跡部600が胴部撮像素子302に対するヘッドマウントディスプレイ200の相対的な動きを検出すると、本フローチャートにおける処理は終了する。なお、説明の便宜上、手部追跡部700による手の動き検出の後に頭部追跡部600による頭部の動き検出を実行する場合について説明したが、頭部の動き検出の後に手の動き検出を実行してもよいし、両者を並列に実行してもよい。   When the head tracking unit 600 detects the relative movement of the head mounted display 200 with respect to the torso image sensor 302, the processing in this flowchart ends. For convenience of explanation, the case where the head tracking detection by the head tracking unit 600 is performed after the hand movement detection by the hand tracking unit 700 has been described. However, the hand movement detection is performed after the head movement detection. It may be executed or both may be executed in parallel.

(手部追跡)
以上、映像提示システム100の全体構成および追跡処理の概要について説明した。続いて、実施の形態に係る手部追跡について説明する。
(Hand tracking)
The overall configuration of the video presentation system 100 and the outline of the tracking process have been described above. Next, hand tracking according to the embodiment will be described.

図6は、実施の形態に係る映像提示システム100のうち、手部追跡に用いる構成を模式的に示す図である。図6に示すように、実施の形態に係る手部追跡においては、ヘッドマウントディスプレイ200と位置指定装置400とを用いる。   FIG. 6 is a diagram schematically illustrating a configuration used for hand tracking in the video presentation system 100 according to the embodiment. As shown in FIG. 6, in the hand tracking according to the embodiment, a head mounted display 200 and a position specifying device 400 are used.

図7は、実施の形態に係る映像提示システム100の手部追跡の利用シーンを模式的に示す図である。実施の形態に係る手部追跡は、ヘッドマウントディスプレイ200の座標系10(Hx,Hy,Hz)に対する、位置指定発光素子404の方向をピッチ(pitch)およびヨー(yaw)の組として取得する。図7に示す座標系10は、筐体撮像部204の位置を原点とし、鉛直方向上向きにHy軸を設定し、ユーザ500の頭部の左手側から右手側に向かう向きにHx軸を設定し、ユーザ500の頭部の正面から背面に向かう向きにHz軸を設定した座標系である。なお図7においては、胴部固定装置300を省略して図示している。   FIG. 7 is a diagram schematically showing a use scene of hand tracking of the video presentation system 100 according to the embodiment. In the hand tracking according to the embodiment, the direction of the position-designated light-emitting element 404 with respect to the coordinate system 10 (Hx, Hy, Hz) of the head mounted display 200 is acquired as a set of pitch and yaw. The coordinate system 10 shown in FIG. 7 uses the position of the housing imaging unit 204 as the origin, sets the Hy axis vertically upward, and sets the Hx axis in the direction from the left hand side to the right hand side of the user 500's head. This is a coordinate system in which the Hz axis is set in a direction from the front to the back of the user's 500 head. In FIG. 7, the body fixing device 300 is omitted.

図8は、実施の形態に係る筐体撮像部204が撮像した画像256の一例を模式的に示す図である。図8において、点Oは筐体撮像部204が撮像した画像256の中心点であり、点Pは位置指定発光素子404に由来する輝点である。上述したとおり、筐体撮像部204は魚眼レンズ234を介して等距離射影方式で撮像する。したがって、位置指定発光素子404が筐体撮像部204の光軸上に存在する場合、輝点Pは画像256の中心点Oの位置に存在する。   FIG. 8 is a diagram schematically illustrating an example of an image 256 captured by the housing imaging unit 204 according to the embodiment. In FIG. 8, a point O is a center point of an image 256 captured by the housing imaging unit 204, and a point P is a bright spot derived from the position designation light emitting element 404. As described above, the case imaging unit 204 images using the equidistant projection method via the fisheye lens 234. Therefore, when the position-designated light emitting element 404 exists on the optical axis of the housing imaging unit 204, the bright spot P exists at the position of the center point O of the image 256.

位置指定発光素子404から筐体撮像部204の光軸までの距離、すなわち、位置指定発光素子404から筐体撮像部204の光軸上に下ろした垂線の長さが長いほど、画像256における輝点Pと中心点Oとの距離は長くなる。また、位置指定発光素子404から筐体撮像部204の光軸までの距離を一定に保ったまま位置指定発光素子404を動かすと、画像256における輝点Pは、中心点Oを中心とする円弧上を移動する。   The longer the distance from the position-designated light emitting element 404 to the optical axis of the housing imaging unit 204, that is, the length of the perpendicular line drawn from the position-designated light emitting element 404 onto the optical axis of the housing imaging unit 204, the brighter the image 256. The distance between the point P and the center point O becomes longer. When the position-designated light-emitting element 404 is moved while keeping the distance from the position-designated light-emitting element 404 to the optical axis of the housing imaging unit 204 constant, the bright spot P in the image 256 is an arc centered on the center point O. Move up.

このことから、線分OPを動径ベクトルとしたきのベクトルの長さLを計測することにより、座標系10に対する位置指定発光素子404のピッチを取得することができる。また、動径ベクトルの偏角θを計測することにより、座標系10に対する位置指定発光素子404のヨーを取得することができる。   From this, the pitch of the position-designated light emitting element 404 with respect to the coordinate system 10 can be acquired by measuring the length L of the vector when the line segment OP is the radial vector. Further, the yaw of the position-designated light emitting element 404 with respect to the coordinate system 10 can be acquired by measuring the deflection angle θ of the radial vector.

図9は、実施の形態に係る手部追跡部700の機能構成を模式的に示す図である。手部追跡部700は、輝点検出部710、ベクトル取得部720、ピッチ取得部730、ヨー取得部740、およびジェスチャー認識部750を含む。   FIG. 9 is a diagram schematically illustrating a functional configuration of the hand tracking unit 700 according to the embodiment. The hand tracking unit 700 includes a bright spot detection unit 710, a vector acquisition unit 720, a pitch acquisition unit 730, a yaw acquisition unit 740, and a gesture recognition unit 750.

輝点検出部710は、第2画像取得部254から筐体撮像部204が撮像した画像を取得する。輝点検出部710は取得した画像中から位置指定発光素子404に由来する輝点Pを検出する。上述したとおり、位置指定発光素子404は、第2ボタン406のオン/オフに応じて常時点灯かまたは点滅かが変化する。そこで輝点検出部710は、検出した輝点が常時点灯であるか点滅しているかも検出し、第2ボタン406の押下の有無も検出する。輝点検出部710は例えばパターンマッチング等、既知の画像処理技術を用いて実現できる。なお、輝点検出部710による第2ボタン406の押下有無の検出処理の詳細は後述する。   The bright spot detection unit 710 acquires an image captured by the housing imaging unit 204 from the second image acquisition unit 254. The bright spot detection unit 710 detects the bright spot P derived from the position designation light emitting element 404 from the acquired image. As described above, the position-designated light-emitting element 404 changes whether it is constantly lit or blinking according to the on / off state of the second button 406. Therefore, the bright spot detection unit 710 also detects whether the detected bright spot is always lit or blinking, and also detects whether the second button 406 has been pressed. The bright spot detection unit 710 can be realized using a known image processing technique such as pattern matching. Details of the detection process of whether or not the second button 406 is pressed by the bright spot detection unit 710 will be described later.

ベクトル取得部720は、輝点検出部710が検出した輝点Pを終点とし、筐体撮像部204が撮像した画像256の中心点Oを始点とする動径ベクトルを取得する。ピッチ取得部730は、ベクトル取得部720が取得した動径ベクトルの長さLから、筐体撮像部204の位置を原点とする座標系10に対する位置指定発光素子404のピッチを取得する。ヨー取得部740は、ベクトル取得部720が取得した動径ベクトルの偏角θから、筐体撮像部204の位置を原点とする座標系10に対する位置指定発光素子404のヨーを取得する。   The vector acquisition unit 720 acquires a radial vector starting from the bright spot P detected by the bright spot detection unit 710 and starting from the center point O of the image 256 captured by the housing imaging unit 204. The pitch acquisition unit 730 acquires the pitch of the position-designated light emitting element 404 with respect to the coordinate system 10 with the position of the housing imaging unit 204 as the origin from the length L of the radial vector acquired by the vector acquisition unit 720. The yaw acquisition unit 740 acquires the yaw of the position-designated light emitting element 404 with respect to the coordinate system 10 with the position of the housing imaging unit 204 as the origin, from the deviation angle θ of the radial vector acquired by the vector acquisition unit 720.

ジェスチャー認識部750は、筐体撮像部204内の第2撮像素子208が撮像した画像を取得する。上述したとおり、第2撮像素子208は可視光領域の光を撮像する。第2撮像素子208は、例えばユーザ500が位置指定装置400を所持していない場合等に、ユーザ500の手部を撮像する。ジェスチャー認識部750は、第2撮像素子208が撮像したユーザ500の手の形を認識して、その情報を出力部262に出力する。   The gesture recognizing unit 750 acquires an image captured by the second image sensor 208 in the housing image capturing unit 204. As described above, the second image sensor 208 images light in the visible light region. For example, when the user 500 does not have the position specifying device 400, the second imaging element 208 images the hand of the user 500. The gesture recognition unit 750 recognizes the shape of the hand of the user 500 imaged by the second image sensor 208 and outputs the information to the output unit 262.

一例として、例えば親指と人差し指とで輪を作るジェスチャーを第2ボタン406のオンに対応させ、握り拳を第2ボタン406のオフに対応させるとする。このとき、ジェスチャー認識部750が第2撮像素子208が撮像した画像中に親指と人差し指とで輪を作るジェスチャーを検出した場合、輝点検出部710が第2ボタン406のオンを検出した場合と同様の信号を出力する。同様に、ジェスチャー認識部750が第2撮像素子208が撮像した画像中に握り拳を検出した場合、輝点検出部710が第2ボタン406のオンを検出した場合と同様の信号を出力する。   As an example, it is assumed that, for example, a gesture of making a ring with the thumb and forefinger corresponds to the second button 406 being turned on, and the fist is made to correspond to the second button 406 being turned off. At this time, when the gesture recognizing unit 750 detects a gesture that forms a ring with the thumb and index finger in the image captured by the second image sensor 208, the bright spot detecting unit 710 detects that the second button 406 is turned on. A similar signal is output. Similarly, when the gesture recognizing unit 750 detects a fist in the image captured by the second image sensor 208, the same signal as that when the bright spot detecting unit 710 detects that the second button 406 is turned on is output.

これにより、ユーザ500が位置指定装置400を所持していない場合であっても、ユーザ500による第2ボタン406の押下と同様の情報を取得することができる。ジェスチャー認識部750はさらに、上記以外の他のジェスチャーを認識するようにしてもよい。これにより、第2ボタン406の押下よりも多くの情報をユーザ500から取得することができる。ジェスチャー認識部750は、例えば機械学習を用いたパターン認識を利用する等、既知の画像認識技術を用いて実現できる。またジェスチャー認識部750と位置指定装置400の使用とを併用してもよい。ジェスチャー認識部750は、筐体撮像部204内の第1撮像素子206が撮像した画像を取得することにより、手部追跡の軌跡をジェスチャーとして認識することもできる。   Thereby, even when the user 500 does not have the position specifying device 400, the same information as when the user 500 presses the second button 406 can be acquired. The gesture recognition unit 750 may further recognize gestures other than those described above. As a result, more information can be acquired from the user 500 than when the second button 406 is pressed. The gesture recognition unit 750 can be realized by using a known image recognition technique, such as using pattern recognition using machine learning. The gesture recognition unit 750 and the use of the position specifying device 400 may be used in combination. The gesture recognizing unit 750 can also recognize the locus of hand tracking as a gesture by acquiring an image captured by the first image sensor 206 in the housing image capturing unit 204.

図10は、実施の形態に係る手部追跡部処理の流れを示すフローチャートであり、図5におけるステップS5を詳細に示す図である。   FIG. 10 is a flowchart showing the flow of the hand tracking unit process according to the embodiment, and shows in detail step S5 in FIG.

第2画像取得部254は、筐体撮像部204が撮像した位置指定発光素子404が照射する赤外光を筐体撮像部204が撮像した画像を取得する(S402)。輝点検出部710は、第2画像取得部254から取得した画像における赤外光に由来する輝点を検出する(S404)。   The second image acquisition unit 254 acquires an image captured by the housing imaging unit 204 from the infrared light emitted by the position-designated light emitting element 404 captured by the housing imaging unit 204 (S402). The bright spot detection unit 710 detects a bright spot derived from infrared light in the image acquired from the second image acquisition unit 254 (S404).

ベクトル取得部720は、輝点検出部710が検出した輝点を終点とし、筐体撮像部204が撮像した画像の中心を始点とするベクトルを取得する(S406)。ピッチ取得部730は、ベクトル取得部720が取得したベクトルの長さ取得する(S408)。ヨー取得部740は、ベクトル取得部720が取得したベクトルの偏角を取得する(S410)。   The vector acquisition unit 720 acquires a vector having the bright spot detected by the bright spot detection unit 710 as an end point and the center of the image captured by the casing imaging unit 204 as a start point (S406). The pitch acquisition unit 730 acquires the length of the vector acquired by the vector acquisition unit 720 (S408). The yaw acquisition unit 740 acquires the deflection angle of the vector acquired by the vector acquisition unit 720 (S410).

(頭部追跡)
以上、実施の形態に係る手部追跡について説明した。続いて、実施の形態に係る頭部追跡について説明する。
(Head tracking)
The hand tracking according to the embodiment has been described above. Next, head tracking according to the embodiment will be described.

図11は、実施の形態に係る映像提示システム100のうち、頭部追跡に用いる構成を模式的に示す図である。図11に示すように、実施の形態に係る手部追跡においては、ヘッドマウントディスプレイ200と胴部固定装置300とを用いる。   FIG. 11 is a diagram schematically illustrating a configuration used for head tracking in the video presentation system 100 according to the embodiment. As shown in FIG. 11, in the hand tracking according to the embodiment, a head mounted display 200 and a body fixing device 300 are used.

図12は、実施の形態に係る映像提示システム100の頭部追跡の利用シーンを模式的に示す図である。実施の形態に係る頭部追跡は、胴部固定装置300の座標系12(Bx,By,Bz)に対する、ヘッドマウントディスプレイ200の座標系10(Hx,Hy,Hz)の相対的な姿勢角(Hpitch,Hyaw,Hroll)の変化を検出する。ここでHpitchは座標系12に対する座標系10のピッチ、Hyawは座標系12に対する座標系10のヨー、Hrollは座標系12に対する座標系10のロール(roll)を表す。胴部固定装置300の座標系12に対するヘッドマウントディスプレイ200の座標系10の変化は、ユーザ500の胴部に対する頭部の位置変化に対応する。   FIG. 12 is a diagram schematically showing a use scene for head tracking of the video presentation system 100 according to the embodiment. In the head tracking according to the embodiment, the relative posture angle of the coordinate system 10 (Hx, Hy, Hz) of the head-mounted display 200 with respect to the coordinate system 12 (Bx, By, Bz) of the torso fixing device 300 ( Hpitch, Hyaw, Hroll) changes are detected. Here, H pitch represents the pitch of the coordinate system 10 with respect to the coordinate system 12, Hyaw represents the yaw of the coordinate system 10 with respect to the coordinate system 12, and Hroll represents the roll of the coordinate system 10 with respect to the coordinate system 12. A change in the coordinate system 10 of the head mounted display 200 with respect to the coordinate system 12 of the torso fixing device 300 corresponds to a change in the position of the head with respect to the torso of the user 500.

図12に示す座標系12は、胴部撮像素子302の位置を原点とし、鉛直方向上向きにBy軸を設定し、ユーザ500左手側から右手側に向かう向きにBx軸を設定し、ユーザ500の正面から背面に向かう向きにBz軸を設定した座標系である。なお図12においては、位置指定装置400を省略して図示している。   The coordinate system 12 shown in FIG. 12 uses the position of the torso imaging element 302 as the origin, sets the By axis upward in the vertical direction, sets the Bx axis in the direction from the left hand side to the right hand side of the user 500, and This is a coordinate system in which the Bz axis is set in the direction from the front to the back. In FIG. 12, the position specifying device 400 is omitted.

胴部固定装置300の座標系12において、By軸は重力方向に対して平行であり、Bx軸とBz軸は重力方向に対して垂直である。同様に、ユーザ500が正面を向いている場合、ヘッドマウントディスプレイ200の座標系10におけるHy軸は重力方向に対して平行であり、Hx軸とHz軸は重力方向に対して垂直である。   In the coordinate system 12 of the trunk fixing device 300, the By axis is parallel to the direction of gravity, and the Bx axis and the Bz axis are perpendicular to the direction of gravity. Similarly, when the user 500 is facing the front, the Hy axis in the coordinate system 10 of the head mounted display 200 is parallel to the gravity direction, and the Hx axis and the Hz axis are perpendicular to the gravity direction.

胴部固定装置300の座標系12が示すように、ユーザ500が首を上下に動かす場合、すなわち床を見たり天井を見上げたりする場合、座標系12に対するヘッドマウントディスプレイ200の座標系10のピッチが変化する。また、ユーザ500が首を左右に傾ける場合、すなわち首をかしげる動作をする場合、座標系12に対する座標系10のロールが変化する。座標系12に対する座標系10のピッチまたはロールが変化すると、座標系10のHx軸とHz軸は、重力方向に対して垂直からずれる。この「ずれ」を図3における加速度センサ224を用いて検出することにより、座標系12に対する座標系10のピッチまたはロールを検出することができる。   As indicated by the coordinate system 12 of the torso fixing device 300, when the user 500 moves the neck up and down, that is, when looking up at the floor or looking up at the ceiling, the pitch of the coordinate system 10 of the head-mounted display 200 with respect to the coordinate system 12 Changes. Further, when the user 500 tilts his / her neck to the left / right, that is, when the user 500 moves his / her neck, the roll of the coordinate system 10 with respect to the coordinate system 12 changes. When the pitch or roll of the coordinate system 10 with respect to the coordinate system 12 changes, the Hx axis and the Hz axis of the coordinate system 10 shift from being perpendicular to the direction of gravity. By detecting this “deviation” using the acceleration sensor 224 in FIG. 3, the pitch or roll of the coordinate system 10 relative to the coordinate system 12 can be detected.

これに対し、重力方向の変化から座標系12に対する座標系10のヨーの変化を検出することは難しい。例えば、ユーザ500が首を垂直に保ったまま、左右を向くと座標系12に対する座標系10のヨーが変化する。しかしながら、座標系10におけるHy軸は重力方向と平行を保ったまま変化しない。そこで実施の形態に係る映像提示システム100は筐体発光素子210が照射する光を胴部撮像素子302で撮像し、その画像を解析することで座標系12に対する座標系10のヨーの変化を検出する。以下、胴部撮像素子302が撮像した画像から座標系12に対する座標系10のヨーの変化を検出する原理について説明する。   On the other hand, it is difficult to detect the change in the yaw of the coordinate system 10 relative to the coordinate system 12 from the change in the direction of gravity. For example, the yaw of the coordinate system 10 relative to the coordinate system 12 changes when the user 500 turns left and right while keeping his neck vertical. However, the Hy axis in the coordinate system 10 does not change while keeping parallel to the direction of gravity. Therefore, the video presentation system 100 according to the embodiment detects the change in the yaw of the coordinate system 10 relative to the coordinate system 12 by capturing the light emitted from the housing light emitting element 210 with the torso imaging element 302 and analyzing the image. To do. Hereinafter, the principle of detecting a change in the yaw of the coordinate system 10 with respect to the coordinate system 12 from the image captured by the trunk image sensor 302 will be described.

図13は、実施の形態に係る胴部撮像素子302が撮像した画像308の一例を模式的に示す図である。具体的には、ユーザ500がヘッドマウントディスプレイ200を装着した状態で正面を向いて首を左右に回旋した場合における、筐体発光素子210に由来する輝点の軌跡を示す。一般に人間が首を左右に回旋可能な角度は、左右それぞれ60度前後といわれている。したがって、ユーザ500がヘッドマウントディスプレイ200を装着した状態で正面を向いて首を左右に回旋すると、筐体発光素子210に由来する輝点の軌跡は中心角が120度前後の扇形の円弧となる。   FIG. 13 is a diagram schematically illustrating an example of an image 308 captured by the torso imaging device 302 according to the embodiment. Specifically, a locus of bright spots derived from the case light emitting element 210 when the user 500 turns the head to the left and right with the head mounted display 200 attached is shown. In general, the angle at which a human can turn his / her neck left and right is said to be around 60 degrees on each side. Therefore, when the user 500 turns the head to the left and right with the head mounted display 200 attached, the locus of the bright spot derived from the housing light emitting element 210 becomes a fan-shaped arc with a central angle of around 120 degrees. .

図13において、点Pはユーザ500が正面を向いているときの、筐体発光素子210に由来する輝点を示す。点Qはユーザ500が首を右に最大限旋回させたときの、筐体発光素子210に由来する輝点を示す。また点Rはユーザ500が首を左に最大限旋回させたときの、筐体発光素子210に由来する輝点を示す。筐体発光素子210に由来する輝点の軌跡が円弧を描くことを仮定すると、点P、点Q、および点Rの3点は同一円周上に存在することになる。一般に、異なる3点を通る円は一意に定まるので、点P、点Q、および点Rを検出することにより、上記の円弧を特定することができる。   In FIG. 13, a point P indicates a bright spot derived from the casing light emitting element 210 when the user 500 is facing the front. Point Q indicates a bright spot derived from the casing light emitting element 210 when the user 500 turns the neck to the right as much as possible. A point R indicates a bright spot derived from the housing light emitting element 210 when the user 500 turns the neck to the left as much as possible. Assuming that the locus of the bright spot derived from the casing light emitting element 210 draws an arc, the three points of the point P, the point Q, and the point R exist on the same circumference. In general, since a circle passing through three different points is uniquely determined, the arc can be identified by detecting the point P, the point Q, and the point R.

ここで、ユーザ500が首を前屈または後屈した状態で首を左右に回旋する場合、画像308における筐体発光素子210に由来する輝点の軌跡が描く円弧の半径は、ユーザ500が正面を向いている場合と比較して短くなる。ユーザ500が首を前屈または後屈すると、筐体発光素子210は回転軸となるユーザ500の首に近づくからである。   Here, when the user 500 turns the neck left and right with the neck bent forward or backward, the radius of the arc drawn by the locus of the bright spot derived from the housing light emitting element 210 in the image 308 is the front of the user 500. It becomes shorter compared to the case of facing. This is because when the user 500 bends the neck forward or backward, the housing light emitting element 210 approaches the neck of the user 500 serving as the rotation axis.

図13における円弧CDは、ユーザ500が首を前屈または後屈した状態で首を左右に回旋した場合の軌跡を例示している。このことから、画像308において筐体発光素子210に由来する輝点が存在すると考えられる「筐体発光素子210の存在領域」が存在することを本願の発明者は見いだした。より具体的には、図13における点P、点Q、および点Rを通る中心角が180度の円弧で囲まれた領域である。筐体発光素子210の存在領域は図13において線分ABおよび円弧ABで囲まれた領域である。なお、図13における点Oは、円弧の中心点である。   An arc CD in FIG. 13 illustrates a locus when the user 500 turns the neck left and right with the neck bent forward or backward. From this, the inventor of the present application has found that there is a “existing region of the casing light emitting element 210” in which a bright spot derived from the casing light emitting element 210 exists in the image 308. More specifically, it is an area surrounded by an arc having a central angle passing through point P, point Q, and point R in FIG. The region where the housing light emitting element 210 exists is a region surrounded by a line segment AB and an arc AB in FIG. Note that the point O in FIG. 13 is the center point of the arc.

上述したように、胴部固定装置300は、胴部撮像素子302と、胴部撮像素子302とを支持する素子支持部314を備える。また、素子支持部314は、胴部撮像素子302の傾きを調整する調整部312も含む。ユーザ500は映像提示システム100を使用する際には、胴部撮像素子302が撮像する画像308内に「筐体発光素子210の存在領域」が含まれるように調整部312を用いて胴部撮像素子302の傾きを調整するキャリブレーションを実行する。これにより、画像308内に筐体発光素子210に由来する輝点が存在する可能性を高めることができる。   As described above, the trunk fixing device 300 includes the trunk imaging device 302 and the element support portion 314 that supports the trunk imaging device 302. The element support unit 314 also includes an adjustment unit 312 that adjusts the inclination of the body image sensor 302. When the user 500 uses the video presentation system 100, the torso imaging is performed using the adjustment unit 312 so that the “area where the casing light emitting element 210 exists” is included in the image 308 captured by the torso imaging element 302. Calibration for adjusting the tilt of the element 302 is executed. Thereby, the possibility that a bright spot derived from the housing light emitting element 210 exists in the image 308 can be increased.

図14は、実施の形態に係る頭部追跡部600の機能構成を模式的に示す図である。実施の形態に係る頭部追跡部600は、領域設定部610と輝点解析部620とを含む。領域設定部610は、第1画像取得部252から胴部撮像素子302が撮像した画像308を取得する。領域設定部610は、既に「筐体発光素子210の存在領域」が定まっている場合、画像308に筐体発光素子210の存在領域を設定する。   FIG. 14 is a diagram schematically illustrating a functional configuration of the head tracking unit 600 according to the embodiment. The head tracking unit 600 according to the embodiment includes an area setting unit 610 and a bright spot analysis unit 620. The region setting unit 610 acquires the image 308 captured by the trunk image sensor 302 from the first image acquisition unit 252. When the “existing area of the casing light emitting element 210” has already been determined, the area setting unit 610 sets the existing area of the casing light emitting element 210 in the image 308.

輝点解析部620は、画像308を解析して胴部撮像素子302に対する筐体発光素子210のヨー(yaw)を検出する。以下、輝点解析部620の詳細を説明する。   The bright spot analysis unit 620 analyzes the image 308 and detects the yaw of the housing light emitting element 210 with respect to the body image sensor 302. Details of the bright spot analysis unit 620 will be described below.

輝点解析部620は、輝点選別部630、軌跡検出部640、フィッティング部650、ベクトル取得部660、およびヨー取得部670を含む。輝点選別部630は、画像308に複数の輝点が存在する場合、その複数の輝点の中から筐体発光素子210に由来する輝点を選別する。   The bright spot analysis unit 620 includes a bright spot selection unit 630, a locus detection unit 640, a fitting unit 650, a vector acquisition unit 660, and a yaw acquisition unit 670. When there are a plurality of bright spots in the image 308, the bright spot selection unit 630 selects a bright spot derived from the casing light emitting element 210 from the plurality of bright spots.

画像308に複数の輝点が存在する場合とは、筐体発光素子210に由来する輝点の他に、例えば位置指定発光素子404に由来する輝点が考えられる。輝点選別部630による選別処理の詳細は後述する。   The case where there are a plurality of bright spots in the image 308 may be, for example, bright spots derived from the position-designated light emitting element 404 in addition to the bright spots derived from the casing light emitting element 210. Details of the sorting process by the bright spot sorting unit 630 will be described later.

軌跡検出部640は、胴部撮像素子302が撮像した画像308中において輝点選別部630が選別した輝点の軌跡を検出する。フィッティング部650は、軌跡検出部640が検出した軌跡にフィットする円弧を取得する。フィッティング部650は、胴部撮像素子302の傾きを調整するキャリブレーション実行時には、取得した円弧を筐体発光素子210の存在領域として領域設定部610に出力する。   The locus detection unit 640 detects the locus of the bright spot selected by the bright spot selection unit 630 in the image 308 captured by the torso image sensor 302. The fitting unit 650 acquires an arc that fits the trajectory detected by the trajectory detection unit 640. The fitting unit 650 outputs the acquired arc to the region setting unit 610 as the existence region of the housing light emitting element 210 when executing calibration for adjusting the tilt of the torso image sensor 302.

ベクトル取得部660は、フィッティング部650が取得した円弧の中心点を始点とし、輝点選別部630が選別した輝点を終点とする動径ベクトルを取得する。ヨー取得部670は、手部追跡部700中のヨー取得部740と同様に、ベクトル取得部660が取得した動径ベクトルの偏角を取得して、胴部撮像素子302に対する筐体発光素子210のヨーを検出する。   The vector acquisition unit 660 acquires a radial vector having the center point of the arc acquired by the fitting unit 650 as a start point and the bright point selected by the bright point selection unit 630 as an end point. Similarly to the yaw acquisition unit 740 in the hand tracking unit 700, the yaw acquisition unit 670 acquires the deflection angle of the radial vector acquired by the vector acquisition unit 660, and the housing light emitting element 210 with respect to the trunk image sensor 302. Detect yaw.

図15は、実施の形態に係る頭部追跡部処理の流れを示すフローチャートであり、図5におけるステップS10を詳細に示す図である。   FIG. 15 is a flowchart showing the flow of the head tracking unit process according to the embodiment, and shows in detail step S10 in FIG.

領域設定部610は、胴部撮像素子302が撮像した画像308中に筐体発光素子210の存在領域を設定する(S102)。輝点選別部630は、領域設定部610が設定した領域内に複数の輝点が存在する場合、筐体発光素子210に起因する輝点を特定する(S104)。軌跡検出部640は、胴部撮像素子302が撮像した画像308中において輝点選別部630が選別した輝点の軌跡を検出する(S106)。   The region setting unit 610 sets the presence region of the casing light emitting element 210 in the image 308 captured by the trunk image sensor 302 (S102). When there are a plurality of bright spots in the area set by the area setting section 610, the bright spot selecting section 630 identifies a bright spot caused by the casing light emitting element 210 (S104). The locus detection unit 640 detects the locus of the bright spot selected by the bright spot selection unit 630 in the image 308 captured by the torso image sensor 302 (S106).

フィッティング部650は、軌跡検出部640が検出した軌跡にフィットする円弧を取得する(S108)。ベクトル取得部660は、フィッティング部650が取得した円弧の中心点を始点とし、輝点選別部630が選別した輝点を終点とする動径ベクトルを取得する(S110)。ヨー取得部670は、ベクトル取得部660が取得した動径ベクトルの偏角を取得する(S112)。   The fitting unit 650 acquires an arc that fits the trajectory detected by the trajectory detection unit 640 (S108). The vector acquisition unit 660 acquires a radial vector starting from the center point of the arc acquired by the fitting unit 650 and having the bright spot selected by the bright spot selection unit 630 as an end point (S110). The yaw acquisition unit 670 acquires the deflection angle of the radial vector acquired by the vector acquisition unit 660 (S112).

(手部追跡と頭部追跡との併用)
以上、実施の形態に係る頭部追跡について説明した。続いて、実施の形態に係る手部追跡と頭部追跡とを併用する場合について説明する。
(Combination of hand tracking and head tracking)
The head tracking according to the embodiment has been described above. Next, a case where hand tracking and head tracking according to the embodiment are used together will be described.

(筐体発光素子210と筐体撮像部204との位置関係)
図16は、実施の形態に係るヘッドマウントディスプレイ200の一部を拡大した図であり、筐体発光素子210と筐体撮像部204との位置関係を示す図である。
(Positional relationship between the casing light emitting element 210 and the casing imaging unit 204)
FIG. 16 is an enlarged view of a part of the head mounted display 200 according to the embodiment, and is a diagram illustrating a positional relationship between the housing light emitting element 210 and the housing imaging unit 204.

上述したように、筐体撮像部204中の第1撮像素子206および第2撮像素子208は、ヘッドマウントディスプレイ200の筐体のスロープ領域に備えられる。図16において、スロープ領域は符号S1と符号S2とを結ぶ線分および斜線で示す領域である。ここで筐体撮像部204は、位置指定発光素子404を撮像することを目的としている。したがって、筐体撮像部204は、頭部追跡に利用する筐体発光素子210が照射する光を撮像しないようにすることが好ましい。   As described above, the first image sensor 206 and the second image sensor 208 in the housing imaging unit 204 are provided in the slope region of the housing of the head mounted display 200. In FIG. 16, the slope area is an area indicated by a line segment and a diagonal line connecting the reference sign S1 and the reference sign S2. Here, the housing imaging unit 204 is intended to image the position designation light emitting element 404. Therefore, it is preferable that the housing imaging unit 204 does not capture the light emitted by the housing light emitting element 210 used for head tracking.

そこでヘッドマウントディスプレイ200の筐体は、筐体撮像部204と筐体発光素子210との間を遮蔽するように構成されている。具体的には、図16の符号S1およびS3で示すように、筐体の少なくとも一部分が筐体撮像部204と筐体発光素子210との間に存在するように構成されている。これにより、筐体発光素子210が照射する光が筐体撮像部204の画角に入ったり、少なくとも領域設定部610が設定する筐体発光素子210の存在領域内に入ったりすることを軽減することができる。   Therefore, the housing of the head mounted display 200 is configured to shield between the housing imaging unit 204 and the housing light emitting element 210. Specifically, as indicated by reference signs S <b> 1 and S <b> 3 in FIG. 16, at least a part of the casing is configured to exist between the casing imaging unit 204 and the casing light emitting element 210. As a result, it is possible to reduce that the light emitted from the housing light emitting element 210 enters the angle of view of the housing imaging unit 204 or at least enters the existence area of the housing light emitting element 210 set by the region setting unit 610. be able to.

また上述したように、筐体発光素子210は、胴部固定装置300の座標系12に対する、ヘッドマウントディスプレイ200の座標系10のヨーの変化を検出することを目的としている。ここでフィッティング部650は、ヨーの変化を検出する際に円フィッティングを実行するが、一般に、フィッティングの対象とする円の半径が大きい方がフィッティングの精度が高くなる。そのため、筐体発光素子210は、ユーザ500がヘッドマウントディスプレイ200を装着したときに、ユーザ500の頭部からなるべく離れた場所に位置する方が好ましい。   Further, as described above, the housing light emitting element 210 is intended to detect a change in yaw of the coordinate system 10 of the head mounted display 200 with respect to the coordinate system 12 of the torso fixing device 300. Here, the fitting unit 650 performs circle fitting when detecting a change in yaw. Generally, the larger the radius of the circle to be fitted, the higher the accuracy of the fitting. Therefore, it is preferable that the housing light emitting element 210 be positioned as far as possible from the head of the user 500 when the user 500 wears the head mounted display 200.

そこで、筐体発光素子210は、ヘッドマウントディスプレイ200がユーザ500の頭部に装着されたときに、筐体撮像部204の設置位置と比較して、ユーザの500視線方向前方に設置される。また上述したように筐体撮像部204と筐体発光素子210との間に存在するように構成されているため、筐体発光素子210は筐体撮像部204の設置位置と比較して鉛直方向上方に設置される。これにより、胴部撮像素子302が撮像する画像308中において、筐体発光素子210に由来する輝点の軌跡が描く円弧の半径を大きくすることができ、フィッティング部650による円フィッティングの精度を高めることが可能となる。   Therefore, when the head mounted display 200 is mounted on the head of the user 500, the housing light emitting element 210 is installed forward of the user's 500 line of sight compared to the installation position of the housing imaging unit 204. Further, as described above, since the housing light emitting element 210 is configured to exist between the housing imaging unit 204 and the housing light emitting element 210, the housing light emitting element 210 has a vertical direction compared to the installation position of the housing imaging unit 204. Installed above. Thereby, the radius of the circular arc drawn by the locus of the bright spot derived from the casing light emitting element 210 in the image 308 captured by the trunk image sensor 302 can be increased, and the accuracy of the circular fitting by the fitting unit 650 is increased. It becomes possible.

(輝点選別)
続いて、輝点選別部630による輝点選別処理について説明する。
(Bright spot selection)
Next, the bright spot selection process by the bright spot selection unit 630 will be described.

上述したとおり、輝点解析部620は領域設定部610が設定した筐体発光素子210の存在領域内に存在する輝点の動きを解析して筐体発光素子210の動きを検出するが、筐体発光素子210の存在領域内に輝点が複数存在する場合には、まずその中から筐体発光素子210に由来する輝点を選別する。例えば、手部追跡と頭部追跡とを併用する場合には、筐体発光素子210の存在領域内に位置指定発光素子404に由来する輝点が映り込むことも起こりうる。   As described above, the bright spot analysis unit 620 detects the movement of the case light emitting element 210 by analyzing the movement of the bright spot existing in the region where the case light emitting element 210 exists set by the area setting unit 610. When there are a plurality of bright spots in the region where the body light emitting element 210 exists, first, the bright spots derived from the casing light emitting element 210 are selected. For example, when hand tracking and head tracking are used together, a bright spot derived from the position-designated light emitting element 404 may be reflected in the region where the housing light emitting element 210 exists.

そこで輝点選別部630は、胴部撮像素子302が撮像した画像308中に設定された筐体発光素子210の存在領域において検出した複数の輝点の大きさをもとに、筐体発光素子210に由来する輝点を選別する。   Therefore, the bright spot selecting unit 630 uses the housing light emitting element based on the size of the plurality of bright spots detected in the existence region of the housing light emitting element 210 set in the image 308 captured by the trunk image sensor 302. The bright spots derived from 210 are selected.

位置指定発光素子404が照射する光が胴部撮像素子302の画角に入るのは、ユーザ500がヘッドマウントディスプレイ200と胴部撮像素子302との間で位置指定装置400を移動させる場合であると考えられる。この場合、胴部撮像素子302から筐体発光素子210までの距離は、胴部撮像素子302から位置指定発光素子404までの距離よりも長くなる。ここで、実施の形態に係る筐体発光素子210の大きさと位置指定発光素子404の大きさとは同じである。このため、筐体発光素子210の存在領域中に筐体発光素子210に由来する輝点と位置指定発光素子404に由来する輝点とが同時に存在する場合、筐体発光素子210に由来する輝点の大きさの方が、位置指定発光素子404に由来する輝点の大きさよりも小さくなる。   The light emitted from the position designation light emitting element 404 enters the angle of view of the torso image sensor 302 when the user 500 moves the position designation device 400 between the head mounted display 200 and the torso image sensor 302. it is conceivable that. In this case, the distance from the body image sensor 302 to the housing light emitting element 210 is longer than the distance from the body image sensor 302 to the position designation light emitting element 404. Here, the size of the housing light emitting element 210 according to the embodiment is the same as the size of the position specifying light emitting element 404. For this reason, when a bright spot derived from the casing light emitting element 210 and a bright spot derived from the position-designated light emitting element 404 are simultaneously present in the region where the casing light emitting element 210 exists, the bright spot derived from the casing light emitting element 210 is present. The size of the point is smaller than the size of the bright spot derived from the position designation light emitting element 404.

そこで、輝点選別部630は、筐体発光素子210の存在領域において検出した複数の輝点の大きさを比較して、小さい輝点を筐体発光素子210に由来する輝点として選択する。これにより、筐体発光素子210の存在領域中に存在する輝点から筐体発光素子210に由来する輝点を容易に判別することが可能となる。   Therefore, the bright spot selection unit 630 compares the sizes of a plurality of bright spots detected in the region where the housing light emitting element 210 exists, and selects a small bright spot as a bright spot derived from the housing light emitting element 210. Thereby, it is possible to easily determine the bright spot derived from the casing light emitting element 210 from the bright spot existing in the region where the casing light emitting element 210 exists.

図17は、実施の形態に係る輝点選別部630による輝点選別処理の流れを示すフローチャートであり、図15におけるステップ104を詳細に説明する図である。   FIG. 17 is a flowchart showing a flow of the bright spot selection processing by the bright spot selection unit 630 according to the embodiment, and is a diagram for explaining step 104 in FIG. 15 in detail.

輝点選別部630は、領域設定部610が設定した筐体発光素子210の存在領域内に輝点が存在するかどうかを調べ、輝点が存在しない場合(S20のN)輝点は未検出と判断する(S38)。輝点が存在する場合(S20のY)、輝点選別部630は筐体発光素子210の存在領域内に輝点の数が2以上あるか否かを調べる。輝点の数が2以上でない場合、すなわち輝点の数が1の場合(S22のN)、輝点選別部630は検出した輝点を筐体発光素子210に由来する輝点として選択する(S36)。   The bright spot selection unit 630 checks whether there is a bright spot in the region where the housing light emitting element 210 set by the area setting unit 610 exists. If no bright spot exists (N in S20), the bright spot is not detected. (S38). When a bright spot exists (Y of S20), the bright spot selection unit 630 checks whether or not the number of bright spots in the presence region of the housing light emitting element 210 is two or more. When the number of bright spots is not 2 or more, that is, when the number of bright spots is 1 (N in S22), the bright spot selection unit 630 selects the detected bright spot as a bright spot derived from the casing light emitting element 210 ( S36).

輝点の数が2以上の場合(S22のY)、輝点選別部630は検出した輝点の大きさの大小関係を調べる。大小関係がある場合(S24のY)、輝点選別部630は最小の輝点を筐体発光素子210に由来する輝点として選択する(S34)。大小関係がない場合(S24のN)、輝点選別部630は、前回筐体発光素子210に由来する輝点として選択した輝点の位置から、各輝点までの距離を求める。求めた距離に大小関係がある場合(S28のY)、輝点選別部630は前回の輝点の最近傍に位置する輝点を筐体発光素子210に由来する輝点として選択する(S362)。   When the number of bright spots is 2 or more (Y in S22), the bright spot selection unit 630 checks the magnitude relationship of the detected bright spot sizes. When there is a magnitude relationship (Y in S24), the bright spot selection unit 630 selects the minimum bright spot as the bright spot derived from the casing light emitting element 210 (S34). When there is no magnitude relationship (N in S24), the bright spot selecting unit 630 obtains the distance to each bright spot from the position of the bright spot selected as the bright spot derived from the previous case light emitting element 210. When the obtained distance has a magnitude relationship (Y in S28), the bright spot selection unit 630 selects a bright spot located closest to the previous bright spot as a bright spot derived from the casing light emitting element 210 (S362). .

求めた距離に大小関係がない場合(S28のN)、輝点選別部630は各輝点の位置の重心の座標を取得し、その座標位置に筐体発光素子210に由来する輝点が存在すると見なす(S30)。   When the obtained distance is not related to the magnitude (N in S28), the bright spot selecting unit 630 acquires the coordinates of the center of gravity of the position of each bright spot, and the bright spot derived from the housing light emitting element 210 exists at the coordinate position. This is considered (S30).

(位置指定装置400からの信号の検出)
以上、輝点選別部630による輝点選別処理について説明した。続いて、輝点検出部710による、位置指定装置400の第2ボタン406における押下有無の検出処理について説明する。
(Detection of signal from position specifying device 400)
The bright spot selection process by the bright spot selection unit 630 has been described above. Next, a detection process of whether or not the second button 406 of the position specifying device 400 is pressed by the bright spot detection unit 710 will be described.

上述したとおり、位置指定発光素子404は、第2ボタン406がオンのときは常時点灯し、第2ボタン406がオフのときは所定の点滅周波数Fで点滅する。輝点選別部630は、筐体撮像部204が撮像する画像256中の位置指定発光素子404に由来する輝点の有無を解析することにより、第2ボタン406の押下有無を検出する。   As described above, the position-designated light emitting element 404 is always lit when the second button 406 is on, and blinks at a predetermined blinking frequency F when the second button 406 is off. The bright spot selection unit 630 detects whether or not the second button 406 is pressed by analyzing the presence or absence of a bright spot derived from the position-designated light emitting element 404 in the image 256 captured by the housing imaging unit 204.

より具体的には、筐体撮像部204は、位置指定発光素子404の点滅周波数Fの少なくとも2倍の周波数2Fで撮像して取得した画像256を解析する。筐体撮像部204が、位置指定発光素子404の点滅周波数の少なくとも2倍の周波数で画像256を撮像し、連続する2フレーム分の画像256を解析することにより、輝点検出部710は位置指定発光素子404が常時点灯であるか、周波数F(周期T=1/F)で点滅しているか、あるいは画像256中に画像が存在しないかを識別可能であることが知られている。点滅周波数Fは筐体撮像部204の時間分解能等を考慮して実験により定めればよいが、一例としては120[Hz]である。この場合、第2ボタン406がオフのとき、位置指定発光素子404は1/240秒ごとに点灯と消灯を繰り返す。また筐体撮像部204は少なくとも240[Hz]で位置指定発光素子404を含む被写体を撮像する。   More specifically, the housing imaging unit 204 analyzes an image 256 acquired by imaging at a frequency 2F that is at least twice the blinking frequency F of the position designation light emitting element 404. The case imaging unit 204 captures an image 256 at a frequency at least twice the blinking frequency of the position-designated light emitting element 404 and analyzes the image 256 for two consecutive frames, whereby the bright spot detection unit 710 performs the position designation. It is known that it is possible to identify whether the light emitting element 404 is always lit, blinks at a frequency F (period T = 1 / F), or no image exists in the image 256. The blinking frequency F may be determined by experiment in consideration of the time resolution of the housing imaging unit 204, and is 120 [Hz] as an example. In this case, when the second button 406 is off, the position-designated light emitting element 404 is repeatedly turned on and off every 1/240 seconds. The housing imaging unit 204 images a subject including the position designation light emitting element 404 at least at 240 [Hz].

図18は、実施の形態に係る位置指定装置400が発する信号を検出する処理の流れを示すフローチャートであり、位置指定発光素子404の制御を示す図である。   FIG. 18 is a flowchart showing a flow of processing for detecting a signal generated by the position specifying device 400 according to the embodiment, and is a diagram showing control of the position specifying light-emitting element 404.

位置指定装置400内のI/O制御部408は、トグルを初期化する(S40)。ここで「トグル」は、第2ボタン406が押下げられていない場合に第2LEDを点灯するか消灯するかを示すバイナリ値である。実施の形態においては、トグルは1/240秒毎に反転しており、I/O制御部408の図示しない一時記録部に格納される。   The I / O control unit 408 in the position specifying device 400 initializes the toggle (S40). Here, the “toggle” is a binary value indicating whether the second LED is turned on or off when the second button 406 is not depressed. In the embodiment, the toggle is inverted every 1/240 seconds and stored in a temporary recording unit (not shown) of the I / O control unit 408.

I/O制御部408は、第2ボタン406のオン/オフの状態を確認する(S42)。第2ボタン406が押下られている場合(S44のY)、I/O制御部408は位置指定発光素子404である第2LED410を点灯する(S50)。第2ボタン406が押下られていない場合(S44のN)かつトグルが0でない場合も(S46のN)、I/O制御部408は位置指定発光素子404である第2LED410を点灯する(S50)。   The I / O control unit 408 confirms the on / off state of the second button 406 (S42). When the second button 406 is pressed (Y in S44), the I / O control unit 408 turns on the second LED 410 that is the position designation light emitting element 404 (S50). When the second button 406 is not pressed (N in S44) and the toggle is not 0 (N in S46), the I / O control unit 408 turns on the second LED 410 that is the position specifying light emitting element 404 (S50). .

第2ボタン406が押下られていない場合(S44のN)かつトグルが0の場合(S46のY)、I/O制御部408は位置指定発光素子404である第2LED410を消灯する(S48)。その後、トグルが0の場合(S52のY)、I/O制御部408はトグルを反転して1とする(S56)。トグルが0でない場合(S52のN)、I/O制御部408はトグルを反転して0とする(S56)。トグルを反転した後、ステップS42に戻って上述の処理を繰り返す。   When the second button 406 is not pressed (N in S44) and the toggle is 0 (Y in S46), the I / O control unit 408 turns off the second LED 410 that is the position designation light emitting element 404 (S48). Thereafter, when the toggle is 0 (Y in S52), the I / O control unit 408 inverts the toggle to 1 (S56). If the toggle is not 0 (N in S52), the I / O control unit 408 inverts the toggle to 0 (S56). After inverting the toggle, the process returns to step S42 and the above process is repeated.

I/O制御部408は、ステップS42からステップS54およびS56までの以上の処理を、例えば1/240秒毎に繰り返す。これにより、I/O制御部408は全体として、第2ボタン406のオフの場合には120[Hz]の周期で第2LED410を点滅し、第2ボタン406のオンの場合には第2LED410を継続的に点灯する制御を実現することができる。   The I / O control unit 408 repeats the above processing from step S42 to steps S54 and S56, for example, every 1/240 seconds. Accordingly, the I / O control unit 408 as a whole blinks the second LED 410 at a cycle of 120 [Hz] when the second button 406 is off, and continues the second LED 410 when the second button 406 is on. Can be realized.

図19は、実施の形態に係る位置指定装置400が発する信号を検出するときの、輝点検出部710の内部状態を示す状態遷移図であり、輝点検出部710の検出処理を説明する図である。   FIG. 19 is a state transition diagram showing an internal state of the bright spot detection unit 710 when a signal generated by the position specifying device 400 according to the embodiment is detected, and is a diagram for explaining the detection process of the bright spot detection unit 710. It is.

輝点検出部710は、筐体撮像部204が撮像した画像をもとに位置指定装置400が発する信号を検出する間、検出した信号に応じて「押下フラグ」の値を変化させる。ここで「押下フラグ」は、位置指定発光素子404に由来する輝点の有無、および輝点を検出した場合には第2ボタン406のオン/オフ状態を検出するために利用する作業メモリであり、記憶部212に格納されている。   The bright spot detection unit 710 changes the value of the “pressing flag” in accordance with the detected signal while detecting the signal emitted by the position specifying device 400 based on the image captured by the housing imaging unit 204. Here, the “press flag” is a working memory used to detect the presence / absence of a bright spot derived from the position-designated light emitting element 404 and the on / off state of the second button 406 when a bright spot is detected. Stored in the storage unit 212.

より具体的には、輝点検出部710は、筐体撮像部204が撮像した画像256をフレーム毎に取得して解析する。輝点検出部710は、位置指定発光素子404に由来する輝点が点滅状態であることを検出した場合、すなわち第2ボタン406がオフ状態あると識別した場合、押下フラグの値を0に設定する。輝点検出部710はまた、位置指定発光素子404に由来する輝点が常時点灯状態であることを検出した場合、すなわち第2ボタン406がオン状態あると識別した場合、押下フラグの値を1に設定する。輝点検出部710はさらに、筐体撮像部204が撮像した画像中に位置指定発光素子404に由来する輝点を検出できない場合、押下フラグの値を2に設定する。   More specifically, the bright spot detection unit 710 acquires and analyzes the image 256 captured by the housing imaging unit 204 for each frame. When the bright spot detection unit 710 detects that the bright spot derived from the position-designated light emitting element 404 is blinking, that is, when it is identified that the second button 406 is off, the value of the push flag is set to 0. To do. When the bright spot detection unit 710 detects that the bright spot derived from the position-designated light emitting element 404 is always on, that is, when it is identified that the second button 406 is on, the value of the pressing flag is set to 1. Set to. The bright spot detection unit 710 further sets the value of the pressing flag to 2 when the bright spot derived from the position-designated light emitting element 404 cannot be detected in the image captured by the casing imaging unit 204.

ここで、押下フラグの値は輝点検出部710の内部状態と対応する。すなわち、押下フラグの値が0のとき、輝点検出部710はオフ識別状態(ST0)である。また押下フラグの値が1のとき、輝点検出部710はオン識別状態(ST1)であり、押下フラグの値が2のとき、輝点検出部710は識別不明状態(ST2)である。輝点検出部710は、筐体撮像部204が撮像した連続する2フレーム分の画像256を解析し、その結果に応じて内部状態を変更する。   Here, the value of the pressing flag corresponds to the internal state of the bright spot detection unit 710. That is, when the value of the pressing flag is 0, the bright spot detection unit 710 is in the off identification state (ST0). When the value of the pressing flag is 1, the bright spot detection unit 710 is in the on identification state (ST1), and when the value of the pressing flag is 2, the bright spot detection unit 710 is in the identification unknown state (ST2). The bright spot detection unit 710 analyzes the image 256 for two consecutive frames captured by the housing imaging unit 204 and changes the internal state according to the result.

例えば、輝点検出部710の内部状態がオフ識別状態(ST0)のとき、連続する2フレーム分の画像256において、どちらも位置指定発光素子404に由来する輝点を検出したとする。この場合、輝点検出部710は押下フラグの値を0から1に変更して内部状態をオン識別状態ST1に遷移させる。連続する2フレーム分の画像256において、どちらも輝点を検出した場合、輝点は常時点灯していると考えられるからである。   For example, assume that when the internal state of the bright spot detection unit 710 is in the off-identification state (ST0), a bright spot derived from the position-designated light emitting element 404 is detected in both images 256 for two consecutive frames. In this case, the bright spot detection unit 710 changes the value of the push flag from 0 to 1, and transitions the internal state to the on identification state ST1. This is because it is considered that the luminescent spots are always lit when both detect the bright spots in the images 256 for two consecutive frames.

図19においては、オフ状態識別ST0からオン識別状態ST1に向かう矢印と(P→P)とを用いて示している。ここで記号「P」は、画像256中に輝点が存在することを表し、存在を意味する英語Presentの頭文字である。(P→P)は、ある画像256において輝点を検出し、続く画像256においても輝点を検出した事象を示す。   In FIG. 19, an arrow from the off state identification ST0 to the on identification state ST1 and (P → P) are used. Here, the symbol “P” represents the presence of a bright spot in the image 256, and is an acronym for English Present indicating the presence. (P → P) indicates an event in which a bright spot is detected in a certain image 256 and a bright spot is detected in a subsequent image 256.

輝点検出部710の内部状態がオフ識別状態(ST1)のとき、連続する2フレーム分の画像256において、輝点を検出できない状態から続く画像256において輝点を検出したとする。この場合、輝点検出部710は押下フラグの値を1から0に変更して内部状態をオン識別状態ST1に遷移させる。図19においては、オン状態識別ST1からオフ識別状態ST0に向かう矢印と事象(A→P)とを用いて示している。ここで記号「A」は、画像256中に輝点が存在しないことを表し、存在しないことを意味する英語Absentの頭文字である。事象(A→P)は、ある画像256において輝点を検出せず、続く画像256においても輝点を検出したことを示す。以下同様にして、事象(A→A)を連続する2フレーム分の画像256において、どちらも輝点を検出しない場合を表し、事象(P→A)は、ある画像256において輝点を検出し、続く画像256においては輝点を検出しないことを示す。   When the internal state of the bright spot detection unit 710 is the off identification state (ST1), it is assumed that a bright spot is detected in an image 256 that continues from a state in which no bright spot can be detected in the images 256 for two consecutive frames. In this case, the bright spot detection unit 710 changes the value of the push flag from 1 to 0 and changes the internal state to the on identification state ST1. In FIG. 19, an arrow and an event (A → P) from the on-state identification ST1 to the off-identification state ST0 are shown. Here, the symbol “A” represents the absence of a bright spot in the image 256, and is an acronym for English Absent that means it does not exist. The event (A → P) indicates that a bright spot is not detected in a certain image 256 and a bright spot is detected in the subsequent image 256. Similarly, the event (A → A) represents a case where no bright spot is detected in the image 256 for two consecutive frames, and the event (P → A) is detected as a bright spot in an image 256. In the subsequent image 256, no bright spot is detected.

同様に、輝点検出部710の内部状態がオフ識別状態(ST1)のとき、事象(A→A)が起こると、輝点検出部710は押下フラグの値を1から2に変更し、内部状態を識別不明状態ST2に遷移する。連続する2フレーム分の画像256において、どちらも輝点を検出しない場合は、画像256に輝点が存在せず、輝点を見失ったと考えられるからである。輝点検出部710の内部状態が識別不明状態(ST2)のとき、事象(P→P)が起こると、輝点検出部710は押下フラグの値を2から1に変更し、内部状態をオン識別状態ST2に遷移する。   Similarly, when the internal state of the bright spot detection unit 710 is the off identification state (ST1) and the event (A → A) occurs, the bright spot detection unit 710 changes the value of the push flag from 1 to 2, The state transitions to the identification unknown state ST2. This is because if no bright spot is detected in the images 256 for two consecutive frames, the bright spot is not present in the image 256 and it is considered that the bright spot has been lost. When the internal state of the bright spot detection unit 710 is the identification unknown state (ST2) and the event (P → P) occurs, the bright spot detection unit 710 changes the value of the push flag from 2 to 1, and turns on the internal state Transition to the identification state ST2.

輝点検出部710の内部状態が識別不明状態(ST2)のとき、事象(P→A)が起こると、輝点検出部710は押下フラグの値を2から0に変更し、内部状態をオフ識別状態ST2に遷移する。また輝点検出部710の内部状態がオフ識別状態(ST0)のとき、事象(A→A)が起こると、輝点検出部710は押下フラグの値を0から2に変更し、内部状態を識別不明状態ST2に遷移する。   When the internal state of the bright spot detection unit 710 is the identification unknown state (ST2), if an event (P → A) occurs, the bright spot detection unit 710 changes the value of the push flag from 2 to 0 and turns off the internal state Transition to the identification state ST2. When the internal state of the bright spot detection unit 710 is the off identification state (ST0) and the event (A → A) occurs, the bright spot detection unit 710 changes the value of the push flag from 0 to 2, and changes the internal state. Transition to the identification unknown state ST2.

以上より、輝点検出部710は、第2ボタン406に由来する輝点の有無、および輝点を検出した場合にはそのオン/オフ状態を識別することができる。   As described above, the bright spot detection unit 710 can identify the presence / absence of a bright spot derived from the second button 406 and the on / off state when the bright spot is detected.

以上述べたように、実施の形態に係る映像提示システム100によれば、ヘッドマウントディスプレイを装着したユーザの動きを検出する技術を提供することができる。   As described above, according to the video presentation system 100 according to the embodiment, it is possible to provide a technique for detecting the movement of the user wearing the head mounted display.

以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   The present invention has been described based on the embodiments. The embodiments are exemplifications, and it will be understood by those skilled in the art that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are within the scope of the present invention. .

(第1の変形例)
上記では、輝点選別部630が、胴部撮像素子302が撮像した画像308中に設定された筐体発光素子210の存在領域において検出した複数の輝点の大きさをもとに、筐体発光素子210に由来する輝点を選別する場合について説明した。輝点選別部630による輝点選別の方法はこれに限られない。この他にも例えば、輝点の元となる発光素子が照射する光の波長の相違を用いてもよい。以下この場合について説明する。
(First modification)
In the above, based on the size of the plurality of bright spots detected by the bright spot selection unit 630 in the existence region of the casing light emitting element 210 set in the image 308 captured by the torso imaging element 302, the casing The case where the bright spot derived from the light emitting element 210 is selected has been described. The method of selecting bright spots by the bright spot selecting unit 630 is not limited to this. In addition to this, for example, a difference in wavelength of light emitted by a light emitting element that is a source of a bright spot may be used. This case will be described below.

第1の変形例に係る筐体発光素子210が照射する光の波長は、位置指定発光素子404が照射する光の波長とは異なる。そこで、胴部撮像素子302は、筐体発光素子210が照射する光の透過率が、位置指定発光素子404が照射する光の透過率よりも大きい光学フィルタを介して撮像する。これにより、筐体発光素子210の存在領域中に筐体発光素子210に由来する輝点と位置指定発光素子404に由来する輝点とが存在しても、これらの輝点の輝度値に差が現れる。   The wavelength of light emitted from the housing light emitting element 210 according to the first modification is different from the wavelength of light emitted from the position specifying light emitting element 404. Therefore, the body imaging element 302 captures an image through an optical filter in which the transmittance of the light emitted from the housing light emitting element 210 is larger than the transmittance of the light emitted from the position designation light emitting element 404. As a result, even if a bright spot derived from the housing light emitting element 210 and a bright spot derived from the position-designated light emitting element 404 exist in the region where the housing light emitting element 210 exists, the brightness value of these bright spots is different. Appears.

具体的には、例えば胴部撮像素子302が光量が大きいほど輝度値が大きくなるように画像化する場合、筐体発光素子210に由来する輝点の輝度値の方が、位置指定発光素子404に由来する輝点の輝度値よりも大きくなる。位置指定発光素子404が照射する光は、光学フィルタで減衰されるからである。そこで輝点選別部630は、画像中におけるふたつの輝点の輝度値を比較して、輝度値の大きい方の輝点を筐体発光素子210に由来する輝点として選択する。   Specifically, for example, when imaging is performed such that the luminance value of the body imaging element 302 increases as the light amount increases, the luminance value of the bright spot derived from the housing light emitting element 210 is the position designation light emitting element 404. It becomes larger than the luminance value of the bright spot derived from. This is because the light emitted from the position designation light emitting element 404 is attenuated by the optical filter. Therefore, the bright spot selection unit 630 compares the brightness values of the two bright spots in the image, and selects the bright spot having the higher brightness value as the bright spot derived from the casing light emitting element 210.

(第2の変形例)
上記の説明では、輝点選別部630は前回の輝点の最近傍に位置する輝点を筐体発光素子210に由来する輝点として選択する場合について説明したが、過去に筐体発光素子210に由来する輝点を検出している場合、その位置から現在の輝点位置を予測してもよい。これは例えば、ヨー取得部670が取得した動径ベクトルの偏角をサンプリングして、輝点の角速度を推定することで実現できる。上述したように、筐体発光素子210に由来する輝点は、円弧状の軌跡を描くと予想できるため、前回の輝点位置と輝点の角速度から、現在の輝点位置を精度よく推定できる。
(Second modification)
In the above description, the case where the bright spot selection unit 630 selects the bright spot located closest to the previous bright spot as the bright spot derived from the casing light emitting element 210 has been described. If a bright spot derived from is detected, the current bright spot position may be predicted from that position. This can be realized, for example, by sampling the deviation angle of the radial vector acquired by the yaw acquisition unit 670 and estimating the angular velocity of the bright spot. As described above, since the bright spot derived from the housing light emitting element 210 can be expected to draw an arc-shaped locus, the current bright spot position can be accurately estimated from the previous bright spot position and the angular velocity of the bright spot. .

上述した光学フィルタを利用する場合と異なり、例えばテレビのリモコン等が発する光の波長が筐体発光素子210が照射する光の波長と近い波長であったとしても、現在の筐体発光素子210に由来する輝点位置を精度よく推定できる点で有利である。   Unlike the case where the optical filter described above is used, for example, even if the wavelength of light emitted from a television remote control or the like is close to the wavelength of light emitted from the casing light emitting element 210, the current casing light emitting element 210 This is advantageous in that the position of the bright spot derived from it can be accurately estimated.

(第3の変形例)
上記では、筐体撮像部204が赤外光等の不可視光領域の光を撮像する第1撮像素子206と、可視光領域の光を撮像する第2撮像素子208とを含む場合について説明したが、筐体撮像部204は、可視光領域と不可視光領域との光を同時に撮像自在な一つの撮像素子を用いてもよい。これにより、ヘッドマウントディスプレイ200の重量を軽減でき、ヘッドマウントディスプレイ200を装着するユーザ500の負担を軽減することができる。
(Third Modification)
In the above description, the case where the housing imaging unit 204 includes the first imaging element 206 that images light in the invisible light region such as infrared light and the second imaging element 208 that images light in the visible light region has been described. The housing imaging unit 204 may use a single imaging element that can simultaneously capture light in the visible light region and the invisible light region. Thereby, the weight of the head mounted display 200 can be reduced, and the burden on the user 500 wearing the head mounted display 200 can be reduced.

なお、本実施の形態に係る発明は、以下に記載する項目によって特定されてもよい。   The invention according to the present embodiment may be specified by the items described below.

(項目1−1)
3次元映像を提示する提示部を収納し、観察者の頭部に装着されたときに観察者の両眼球の前方に位置する筐体と、
前記筐体に備えられ、前記筐体の外部の光を画像化する撮像素子とを含み、
前記撮像素子は、前記筐体が観察者の頭部に装着されたときに、前記筐体に対して鉛直下方向かつ観察者の視線方向前方の光を撮像することを特徴とするヘッドマウントディスプレイ。
(項目1−2)
前記筐体を構成する面のうち、前記筐体が観察者の頭部に装着されたときに前記筐体に対して鉛直下方向に位置する下面の少なくとも一部は、鉛直上方向に向かって傾斜するスロープ領域を有しており、
前記撮像素子は、前記スロープ領域に備えられていることを特徴とする項目1−1に記載のヘッドマウントディスプレイ。
(項目1−3)
前記撮像素子は、前記筐体の外部の光を魚眼レンズを介して取得して画像化することを特徴とする項目1−1または項目1-2に記載のヘッドマウントディスプレイ。
(項目1−4)
前記撮像素子は、不可視光領域の光を画像化することを特徴とする項目1−1から項目1−3のいずれかに記載のヘッドマウントディスプレイ。
(項目1−5)
前記撮像素子は、観察者の手の動きと連動して移動する発光素子が発する光を画像化し、
前記撮像素子が撮像した画像を解析して前記発光素子の位置変化を追跡する手部追跡部をさらに含むことを特徴とする項目1−4に記載のヘッドマウントディスプレイ。
(項目1−6)
前記観察者の手の動きと連動して移動する発光素子は、観察者に把持される把持部に取り付けられていることを特徴とする項目1−5記載のヘッドマウントディスプレイ。
(項目1−7)
前記手部追跡部は、
前記撮像素子が撮像した画像における光の輝点を検出する輝点検出部と、
前記輝点検出部が検出した輝点を終点とし、前記撮像素子が撮像した画像の中心を始点とするベクトルを取得するベクトル取得部と、
前記ベクトル取得部が取得したベクトルの長さを、前記撮像素子に対する前記発光素子のピッチ(pitch)とするピッチ取得部と、
前記ベクトル取得部が取得したベクトルの偏角を、前記撮像素子に対する前記発光素子のヨー(yaw)とするヨー取得部とを含むことを特徴とする項目1−5または項目1−6に記載のヘッドマウントディスプレイ。
(項目1−8)
前記撮像素子は、可視光領域の光を画像化して可視光画像を生成し、
前記可視光画像と、前記提示部に提示させる仮想的な画像とを合成する画像合成部をさらに含むことを特徴とする項目1−1から項目1−3のいずれかに記載のヘッドマウントディスプレイ。
(項目1−9)
前記撮像素子が撮像した観察者のジェスチャーを認識するジェスチャー認識部をさらに含むことを特徴とする項目1−8に記載のヘッドマウントディスプレイ。
(項目1−10)
ユーザの手の動きと連動して移動する発光素子が照射する赤外光を、ユーザの頭部に装着された撮像素子が撮像した画像を取得する画像取得部と、
前記撮像素子が撮像した画像における赤外光の輝点を検出する輝点検出部と、
前記輝点検出部が検出した輝点を終点とし、前記撮像素子が撮像した画像の中心を始点とするベクトルを取得するベクトル取得部と、
前記ベクトル取得部が取得したベクトルの長さを、前記撮像素子に対する前記発光素子のピッチ(pitch)とするピッチ取得部と、
前記ベクトル取得部が取得したベクトルの偏角を、前記撮像素子に対する前記発光素子のヨー(yaw)とするヨー取得部とを含むことを特徴とする動き検出装置。
(項目1−11)
ユーザの手の動きと連動して移動する発光素子が照射する赤外光をユーザの頭部に装着された撮像素子で撮像した画像を取得するステップと、
取得した画像における赤外光の輝点を検出するステップと、
検出した輝点を終点とし、前記撮像素子が撮像した画像の中心を始点とするベクトルを取得するステップと、
取得したベクトルの長さ取得するステップと、
取得したベクトルの偏角を取得するステップとをプロセッサに実行させることを特徴とする動き検出方法。
(項目1−12)
ユーザの手の動きと連動して移動する発光素子が照射する赤外光をユーザの頭部に装着された撮像素子で撮像した画像を取得する機能と、
取得した画像における赤外光の輝点を検出する機能と、
検出した輝点を終点とし、前記撮像素子が撮像した画像の中心を始点とするベクトルを取得する機能と、
取得したベクトルの長さを取得する機能と、
取得したベクトルの偏角を取得する機能とをコンピュータに実現させることを特徴とするプログラム。
(項目1−13)
ヘッドマウントディスプレイと、観察者に把持される把持部に取り付けられ赤外光を照射する発光素子とを含む映像提示システムにおいて、
前記ヘッドマウントディスプレイは、
3次元映像を提示する提示部を収納し、観察者の頭部に装着されたときに観察者の両眼球の前方に位置する筐体と、
前記筐体に備えられ、前記把持部の動きと連動して移動する前記発光素子が照射する赤外光を撮像する撮像素子と、
前記撮像素子が撮像した赤外光の画像を解析して、前記撮像素子に対する前記発光素子の相対的な位置変化を追跡する動き追跡部とを含むことを特徴とする映像提示システム。
(Item 1-1)
A housing that houses a presentation unit that presents a three-dimensional image and is positioned in front of the viewer's eyes when worn on the viewer's head;
An image sensor that is provided in the housing and images light outside the housing;
The image pickup device picks up light vertically downward with respect to the housing and in front of the viewer's line of sight when the housing is mounted on an observer's head. .
(Item 1-2)
Of the surfaces constituting the housing, at least a part of the lower surface positioned vertically downward with respect to the housing when the housing is mounted on the observer's head is directed vertically upward. It has a slope area that slopes,
Item 11. The head mounted display according to Item 1-1, wherein the image sensor is provided in the slope region.
(Item 1-3)
Item 11. The head-mounted display according to Item 1-1 or Item 1-2, wherein the imaging device acquires light from the outside of the housing through a fisheye lens and images it.
(Item 1-4)
The head-mounted display according to any one of Items 1-1 to 1-3, wherein the imaging device images light in an invisible light region.
(Item 1-5)
The imaging element images light emitted from a light emitting element that moves in conjunction with the movement of an observer's hand,
Item 5. The head mounted display according to item 1-4, further comprising a hand tracking unit that analyzes an image captured by the image sensor and tracks a change in position of the light emitting element.
(Item 1-6)
Item 6. The head mounted display according to item 1-5, wherein the light emitting element that moves in conjunction with the movement of the observer's hand is attached to a gripping part that is gripped by the observer.
(Item 1-7)
The hand tracking unit is
A bright spot detection unit for detecting a bright spot of light in an image captured by the image sensor;
A vector acquisition unit for acquiring a vector starting from the bright spot detected by the bright spot detection unit and starting from the center of the image captured by the image sensor;
A pitch acquisition unit that sets the length of the vector acquired by the vector acquisition unit as a pitch of the light emitting element with respect to the imaging element;
Item 1-5 or Item 1-6, further comprising: a yaw acquisition unit that sets a deflection angle of the vector acquired by the vector acquisition unit as a yaw of the light emitting element with respect to the imaging element. Head mounted display.
(Item 1-8)
The imaging device generates a visible light image by imaging light in a visible light region,
4. The head mounted display according to any one of items 1-1 to 1-3, further comprising an image composition unit that synthesizes the visible light image and a virtual image to be presented to the presentation unit.
(Item 1-9)
Item 9. The head mounted display according to item 1-8, further comprising a gesture recognition unit that recognizes an observer's gesture imaged by the image sensor.
(Item 1-10)
An image acquisition unit for acquiring an image obtained by imaging an infrared light emitted by a light emitting element that moves in conjunction with a movement of a user's hand, by an imaging element attached to the user's head;
A bright spot detection unit for detecting a bright spot of infrared light in an image captured by the image sensor;
A vector acquisition unit for acquiring a vector starting from the bright spot detected by the bright spot detection unit and starting from the center of the image captured by the image sensor;
A pitch acquisition unit that sets the length of the vector acquired by the vector acquisition unit as a pitch of the light emitting element with respect to the imaging element;
A motion detection apparatus comprising: a yaw acquisition unit that sets a vector deflection angle acquired by the vector acquisition unit as a yaw of the light emitting element with respect to the imaging element.
(Item 1-11)
Acquiring an image obtained by imaging infrared light emitted by a light emitting element that moves in conjunction with the movement of a user's hand with an imaging element attached to the user's head;
Detecting a bright spot of infrared light in the acquired image;
Obtaining a vector having a detected bright spot as an end point and a start point at the center of an image captured by the image sensor;
Obtaining the length of the obtained vector;
A motion detection method, characterized by causing a processor to execute a step of acquiring an argument of an acquired vector.
(Item 1-12)
A function of acquiring an image obtained by imaging an infrared light emitted by a light emitting element that moves in conjunction with the movement of a user's hand with an imaging element attached to the user's head;
A function to detect the bright spot of infrared light in the acquired image;
A function of obtaining a vector having a detected bright spot as an end point and a center of an image captured by the image sensor as a start point;
A function to acquire the length of the acquired vector;
A program for causing a computer to realize a function of acquiring an argument of an acquired vector.
(Item 1-13)
In a video presentation system including a head-mounted display and a light emitting element that is attached to a gripping part that is gripped by an observer and emits infrared light,
The head mounted display is
A housing that houses a presentation unit that presents a three-dimensional image and is positioned in front of the viewer's eyes when worn on the viewer's head;
An imaging device that is provided in the housing and images infrared light emitted by the light emitting device that moves in conjunction with the movement of the gripping portion;
An image presentation system comprising: a motion tracking unit that analyzes an infrared light image captured by the image sensor and tracks a relative position change of the light emitting element with respect to the image sensor.

(項目2−1)
3次元映像を提示する提示部を収納し、観察者の頭部に装着されたときに観察者の両眼球の前方に位置する筐体と、
前記筐体が観察者の頭部に装着されたときに、前記筐体に対して鉛直下方向に光を照射する筐体発光素子と、
観察者の胴部に装着されて前記筐体発光素子が照射する光を撮像するように構成された胴部撮像素子が画像化した、前記筐体発光素子の光の画像を取得する画像取得部と、
前記画像取得部が取得した光の画像を解析して、前記胴部撮像素子に対する前記筐体発光素子の相対的な動きを追跡する頭部追跡部を含むことを特徴とするヘッドマウントディスプレイ。
(項目2−2)
前記筐体に備えられ、観察者の手の動きと連動して移動する発光素子が照射する光を撮像する筐体撮像部をさらに含み、
前記筐体発光素子は、前記筐体が観察者の頭部に装着されたときに、前記筐体撮像部の設置位置と比較して観察者の視線方向前方かつ鉛直方向上方に設置されており、
前記筐体は、前記筐体撮像部と前記筐体発光素子との間を遮蔽するように構成されていることを特徴とする項目2−1に記載のヘッドマウントディスプレイ。
(項目2−3)
前記頭部追跡部は、前記胴部撮像素子に対する前記筐体発光素子のヨー(yaw)を検出することを特徴とする項目2−1または項目2−2に記載のヘッドマウントディスプレイ。
(項目2−4)
前記頭部追跡部は、
前記胴部撮像素子が撮像した画像中に、前記筐体発光素子が撮像される領域として定められた筐体発光素子の存在領域を設定する領域設定部と、
前記領域設定部が設定した領域内に存在する輝点の動きを解析して、前記筐体発光素子の動きを検出する輝点解析部をさらに含むことを特徴とする項目2−1から項目2−3のいずれかに記載のヘッドマウントディスプレイ。
(項目2−5)
前記輝点解析部は、
前記胴部撮像素子が撮像した画像における光の輝点の軌跡を検出する軌跡検出部と、
前記軌跡検出部が検出した軌跡にフィットする円弧を取得するフィッティング部と、
前記フィッティング部が取得した円弧を含む円の中心を始点とし、画像上の輝点を終点とする動径ベクトルを取得するベクトル取得部と、
前記ベクトル取得部が取得した動径ベクトルの偏角を取得するヨー取得部とを含むことを特徴とする項目2−4に記載のヘッドマウントディスプレイ。
(項目2−6)
前記輝点解析部は、前記領域設定部が設定した領域内に複数の輝点が存在する場合、画像中における輝点の大きさの相違、または輝点の輝度値の相違の少なくともいずれか一方をもとに、前記筐体発光素子に起因する輝点を特定する輝点選別部をさらに含むことを特徴とする項目2−5に記載のヘッドマウントディスプレイ。
(項目2−7)
前記輝点選別部は、画像中における複数の輝点の大きさを比較して、小さい方の輝点を選択することを特徴とする項目2−6に記載のヘッドマウントディスプレイ。
(項目2−8)
前記筐体発光素子が照射する光の波長は、前記観察者の手の動きと連動して移動する発光素子が照射する光の波長とは異なり、
前記胴部撮像素子は、前記筐体発光素子が照射する光の透過率が、前記観察者の手の動きと連動して移動する発光素子が照射する光の透過率よりも大きい光学フィルタを透過した光を撮像し、
前記輝点選別部は、画像中における複数の輝点の輝度値を比較して、輝度値の大きい方の輝点を選択することを特徴とする項目2−6に記載のヘッドマウントディスプレイ。
(項目2−9)
前記領域設定部は、前記フィッティング部が取得した円弧を含む円の中心を中心とする扇形の領域を前記筐体発光素子の存在領域として設定することを特徴とする項目2−4から項目2−8のいずれかに記載のヘッドマウントディスプレイ。
(項目2−10)
前記筐体撮像部が撮像した画像を解析して、前記筐体撮像部に対する前記観察者の手の動きと連動して移動する発光素子の相対的な動きを追跡する手部追跡部をさらに含むことを特徴とする項目2−2に記載のヘッドマウントディスプレイ。
(項目2−11)
前記胴部撮像素子は、観察者の胴部に装着自在に構成された素子支持部を有し、
前記素子支持部は、前記胴部撮像素子の傾きを調整する調整部を含むことを特徴とする項目2−1から項目2−10のいずれかに記載のヘッドマウントディスプレイ。
(項目2−12)
前記筐体発光素子は、不可視光領域の光を照射することを特徴とする項目2−1から項目2−11のいずれかに記載のヘッドマウントディスプレイ。
(項目2−13)
ヘッドマウントディスプレイと、前記ヘッドマウントディスプレイと通信可能に構成され観察者の胴部に装着された胴部撮像素子と、前記ヘッドマウントディスプレイの観察者の手の動きと連動して移動する発光素子とを含む映像提示システムにおける動き検出方法であって、
前記ヘッドマウントディスプレイのプロセッサは、
前記観察者の手の動きと連動して移動する発光素子が照射する光を画像化するステップと、
画像化した前記発光素子が照射する光の画像を解析して、前記ヘッドマウントディスプレイに対する前記発光素子の相対的な動きを検出するステップと、
前記ヘッドマウントディスプレイが観察者の頭部に装着されたときに、前記ヘッドマウントディスプレイに対して鉛直下方向に光を照射するステップと、
前記鉛直下方向に照射された光を、前記胴部撮像素子が撮像した画像を取得するステップと、
取得した前記胴部撮像素子による画像を解析して、前記胴部撮像素子に対する前記ヘッドマウントディスプレイの相対的な動きを検出するステップとを実行することを特徴とする映像提示システムにおける動き検出方法。
(項目2−14)
ヘッドマウントディスプレイと、前記ヘッドマウントディスプレイと通信可能に構成され観察者の胴部に装着された胴部撮像素子と、前記ヘッドマウントディスプレイの観察者の手の動きと連動して移動する発光素子とを含む映像提示システムのコンピュータに動き検出機能を実現させるプログラムであって、前記動き検出機能は、
前記ヘッドマウントディスプレイが観察者の頭部に装着されたときに、前記ヘッドマウントディスプレイに対して鉛直下方向に光を照射する機能と、
前記観察者の手の動きと連動して移動する発光素子が照射する光を画像化する機能と、
画像化した前記発光素子が照射する光の画像を解析して、前記ヘッドマウントディスプレイに対する前記発光素子の相対的な動きを検出する機能と、
前記鉛直下方向に照射された光を、前記胴部撮像素子が撮像した画像を取得する機能と、
取得した前記胴部撮像素子による画像を解析して、前記胴部撮像素子に対する前記ヘッドマウントディスプレイの相対的な動きを検出する機能とを含むことを特徴とするプログラム。
(Item 2-1)
A housing that houses a presentation unit that presents a three-dimensional image and is positioned in front of the viewer's eyes when worn on the viewer's head;
A housing light emitting element that emits light vertically downward with respect to the housing when the housing is mounted on the head of an observer;
An image acquisition unit that acquires an image of light of the casing light emitting element, which is imaged by a trunk imaging element that is mounted on an observer's trunk and configured to capture light emitted by the casing light emitting element. When,
A head-mounted display, comprising: a head tracking unit that analyzes a light image acquired by the image acquisition unit and tracks a relative movement of the housing light-emitting element with respect to the trunk image sensor.
(Item 2-2)
The housing further includes a housing imaging unit that images light emitted by the light emitting element that moves in conjunction with the movement of the observer's hand,
The case light emitting element is installed forward in the observer's line of sight and vertically above the installation position of the case imaging unit when the case is mounted on the head of the observer. ,
Item 2. The head mounted display according to Item 2-1, wherein the casing is configured to shield between the casing imaging unit and the casing light emitting element.
(Item 2-3)
The head-mounted display according to item 2-1 or item 2-2, wherein the head tracking unit detects a yaw of the housing light-emitting element with respect to the trunk image sensor.
(Item 2-4)
The head tracking unit includes:
An area setting unit for setting a presence area of the casing light emitting element defined as an area in which the casing light emitting element is imaged in an image captured by the trunk imaging element;
Item 2-1 to Item 2 further comprising a luminescent spot analysis unit for analyzing the movement of the luminescent spot existing in the region set by the region setting unit and detecting the movement of the casing light emitting element. The head mounted display in any one of -3.
(Item 2-5)
The bright spot analysis unit
A locus detection unit for detecting a locus of a bright spot of light in an image captured by the trunk image sensor;
A fitting unit that acquires an arc that fits the locus detected by the locus detector;
A vector acquisition unit for acquiring a radial vector starting from a center of a circle including the arc acquired by the fitting unit and having a bright spot on the image as an end point;
The head mounted display according to item 2-4, further including a yaw acquisition unit that acquires a deflection angle of the radial vector acquired by the vector acquisition unit.
(Item 2-6)
The bright spot analysis unit, when there are a plurality of bright spots in the region set by the region setting unit, at least one of the difference in the size of the bright spot in the image and the difference in the brightness value of the bright spot Item 6. The head mounted display according to Item 2-5, further including a luminescent spot selection unit for specifying a luminescent spot caused by the housing light emitting element.
(Item 2-7)
Item 7. The head mounted display according to item 2-6, wherein the bright spot selection unit compares the sizes of a plurality of bright spots in an image and selects a smaller bright spot.
(Item 2-8)
The wavelength of light emitted by the housing light emitting element is different from the wavelength of light emitted by the light emitting element that moves in conjunction with the movement of the observer's hand,
The trunk imaging element transmits an optical filter in which the transmittance of light emitted from the housing light-emitting element is larger than the transmittance of light emitted from the light-emitting element moving in conjunction with the movement of the observer's hand. The captured light,
Item 7. The head mounted display according to item 2-6, wherein the bright spot selection unit compares the brightness values of a plurality of bright spots in the image and selects a bright spot having a larger brightness value.
(Item 2-9)
The area setting unit sets a fan-shaped area centered on the center of a circle including the arc acquired by the fitting section as an existing area of the housing light emitting element. 9. The head mounted display according to any one of 8.
(Item 2-10)
A hand tracking unit that analyzes an image captured by the housing imaging unit and tracks a relative movement of the light emitting element that moves in conjunction with the movement of the observer's hand relative to the housing imaging unit; Item 2-2. The head mounted display according to item 2-2.
(Item 2-11)
The torso imaging device has an element support portion configured to be freely mounted on an observer's torso,
The head mounted display according to any one of Items 2-1 to 2-10, wherein the element support section includes an adjustment section that adjusts an inclination of the body image sensor.
(Item 2-12)
The head mounted display according to any one of Items 2-1 to 2-11, wherein the casing light emitting element emits light in an invisible light region.
(Item 2-13)
A head-mounted display; a torso imaging device configured to be communicable with the head-mounted display; and mounted on an observer's torso; and a light-emitting element that moves in conjunction with movement of the observer's hand of the head-mounted display; A motion detection method in a video presentation system including:
The processor of the head mounted display is
Imaging light emitted by a light emitting element that moves in conjunction with the movement of the observer's hand;
Analyzing the imaged light image of the light emitting element to detect relative movement of the light emitting element with respect to the head mounted display;
Irradiating light vertically downward with respect to the head mounted display when the head mounted display is mounted on the head of an observer;
Obtaining an image obtained by imaging the light irradiated in the vertical downward direction by the torso imaging device;
Analyzing the acquired image by the torso image sensor and detecting a relative movement of the head mounted display with respect to the torso image sensor, and a motion detection method in a video presentation system.
(Item 2-14)
A head-mounted display; a torso imaging device configured to be communicable with the head-mounted display; and mounted on an observer's torso; and a light-emitting element that moves in conjunction with movement of the observer's hand of the head-mounted display; A program for realizing a motion detection function in a computer of a video presentation system including the motion detection function,
A function of irradiating light vertically downward with respect to the head mounted display when the head mounted display is mounted on an observer's head;
A function of imaging light emitted by a light emitting element that moves in conjunction with the movement of the observer's hand;
A function of analyzing the image of the light emitted by the light emitting element that has been imaged and detecting the relative movement of the light emitting element with respect to the head mounted display;
A function of acquiring an image captured by the torso image sensor with respect to the light irradiated vertically downward;
A program for analyzing the acquired image of the torso image sensor and detecting a relative movement of the head mounted display with respect to the torso image sensor.

(項目3−1)
ヘッドマウントディスプレイと、前記ヘッドマウントディスプレイと通信可能に構成された第1撮像素子と、前記ヘッドマウントディスプレイのユーザの手の動きと連動して移動する第1発光素子とを含む映像提示システムにおいて、
前記ヘッドマウントディスプレイは、
3次元映像を提示する提示部を収納し、ユーザの頭部に装着されたときにユーザの両眼球の前方に位置する筐体と、
前記筐体に備えられ、前記筐体がユーザの頭部に装着されたときに、前記筐体に対して鉛直下方向に光を照射する第2発光素子と、
前記筐体に備えられ、前記第1発光素子が照射する光を撮像する第2撮像素子とを含み、
前記第1撮像素子は、ユーザの胴部に装着されて前記第2発光素子が照射する光を撮像するように構成されていることを特徴とする映像提示システム。
(項目3−2)
ヘッドマウントディスプレイと、前記ヘッドマウントディスプレイと通信可能に構成された第1撮像素子と、前記ヘッドマウントディスプレイのユーザの手の動きと連動して移動する第1発光素子とを含む映像提示システムにおける動き検出方法であって、
前記ヘッドマウントディスプレイのプロセッサは、
前記ヘッドマウントディスプレイがユーザの頭部に装着されたときに、前記ヘッドマウントディスプレイに対して鉛直下方向に光を照射するステップと、
前記第1発光素子が照射する光を画像化するステップと、
画像化した前記第1発光素子が照射する光の画像を解析して、前記ヘッドマウントディスプレイに対する前記第1発光素子の相対的な動きを検出するステップと、
前記鉛直下方向に照射された光を、ユーザの胴部に装着された前記第1撮像素子が撮像した画像を取得するステップと、
取得した前記第1撮像素子による画像を解析して、前記第1撮像素子に対する前記ヘッドマウントディスプレイの相対的な動きを検出するステップとを実行することを特徴とする映像提示システムにおける動き検出方法。
(項目3−3)
3次元映像を提示する提示部を収納し、ユーザの頭部に装着されたときにユーザの両眼球の前方に位置する筐体と、
前記筐体に備えられ、ユーザの手の動きと連動して移動する第1発光素子が照射する光を撮像する撮像素子と、
前記筐体に備えられ、前記筐体がユーザの頭部に装着されたときに、前記筐体に対して鉛直下方向に光を照射する第2発光素子と、
ユーザの胴部に装着された撮像素子が撮像した、前記第2発光素子が照射する光の画像を取得する画像取得部とを含むことを特徴とするヘッドマウントディスプレイ。
(項目3−4)
ユーザの頭部の動きと連動して移動する発光素子が照射する光をユーザの胴部に装着された撮像素子で検出した画像を取得する画像取得部と、
前記画像取得部が取得した画像における光の輝点の軌跡を検出する軌跡検出部と、
前記軌跡検出部が検出した軌跡にフィットする円弧を取得するフィッティング部と、
前記フィッティング部が取得した円弧を含む円の中心を始点とし、画像上の輝点を終点とする動径ベクトルを取得するベクトル取得部と、
前記ベクトル取得部が取得した動径ベクトルの偏角を、前記撮像素子に対する前記発光素子のヨーとするヨー取得部とを含むことを特徴とする動き検出装置。
(Item 3-1)
In a video presentation system including a head mounted display, a first imaging device configured to be communicable with the head mounted display, and a first light emitting device that moves in conjunction with a movement of a user's hand of the head mounted display,
The head mounted display is
A housing that houses a presentation unit that presents a three-dimensional image and is positioned in front of the user's eyes when worn on the user's head;
A second light emitting element that is provided in the housing and emits light vertically downward with respect to the housing when the housing is mounted on a user's head;
A second imaging element that is provided in the housing and images the light emitted by the first light emitting element;
The video presenting system, wherein the first image sensor is mounted on a user's torso and images the light emitted by the second light emitting element.
(Item 3-2)
Movement in a video presentation system including a head-mounted display, a first imaging device configured to be able to communicate with the head-mounted display, and a first light-emitting element that moves in conjunction with the movement of a user's hand of the head-mounted display A detection method,
The processor of the head mounted display is
Irradiating light vertically downward with respect to the head mounted display when the head mounted display is mounted on a user's head;
Imaging the light emitted by the first light emitting element;
Analyzing the imaged light image emitted by the first light emitting element to detect relative movement of the first light emitting element with respect to the head mounted display;
Obtaining an image of the light irradiated in the vertically downward direction captured by the first image sensor mounted on a torso of a user;
Analyzing the acquired image by the first image sensor and detecting a relative movement of the head mounted display with respect to the first image sensor. 7. A motion detection method in a video presentation system, comprising:
(Item 3-3)
A housing that houses a presentation unit that presents a three-dimensional image and is positioned in front of the user's eyes when worn on the user's head;
An image sensor that is provided in the housing and that images light emitted by the first light emitting element that moves in conjunction with the movement of the user's hand;
A second light emitting element that is provided in the housing and emits light vertically downward with respect to the housing when the housing is mounted on a user's head;
A head-mounted display comprising: an image acquisition unit that acquires an image of light emitted by the second light emitting element, which is imaged by an imaging element mounted on a user's torso.
(Item 3-4)
An image acquisition unit for acquiring an image detected by an image sensor mounted on the user's torso, the light emitted by the light emitting element that moves in conjunction with the movement of the user's head;
A locus detecting unit for detecting a locus of a bright spot of light in the image obtained by the image obtaining unit;
A fitting unit that acquires an arc that fits the locus detected by the locus detector;
A vector acquisition unit for acquiring a radial vector starting from a center of a circle including the arc acquired by the fitting unit and having a bright spot on the image as an end point;
A motion detection apparatus comprising: a yaw acquisition unit that uses a deflection angle of a radial vector acquired by the vector acquisition unit as a yaw of the light emitting element with respect to the imaging element.

10,12 座標系、 22 CPU、 100 映像提示システム、 200 ヘッドマウントディスプレイ、 202 第1ボタン、 204 筐体撮像部、 206 第1撮像素子、 208 第2撮像素子、 210 筐体発光素子、 212 記憶部、 214 通信部、 216 記録媒体インタフェース、 218 提示部、 220 音声出力部、 222 CPU、 224 加速度センサ、 226 第1LED、 228 電源、 230 内部パス、 232 I/O制御部、 234 魚眼レンズ、 250 画像取得部、 252 第1画像取得部、 254 第2画像取得部、 260 追跡部、 262 出力部、 270 コンテンツ再生部、 280 合成部、 300 胴部固定装置、 302 胴部撮像素子、 304 I/O制御部、 306 第3撮像素子、 312 調整部、 314 素子支持部、 400 位置指定装置、 402 把持部、 404 位置指定発光素子、 406 第2ボタン、 408 I/O制御部、 410 第2LED、 412 電源、 500 ユーザ、 600 頭部追跡部、 610 領域設定部、 620 輝点解析部、 630 輝点選別部、 640 軌跡検出部、 650 フィッティング部、 660 ベクトル取得部、 670 ヨー取得部、 700 手部追跡部、 710 輝点検出部、 720 ベクトル取得部、 730 ピッチ取得部、 740 ヨー取得部、 750 ジェスチャー認識部。   10, 12 coordinate system, 22 CPU, 100 video presentation system, 200 head mounted display, 202 first button, 204 housing imaging unit, 206 first imaging device, 208 second imaging device, 210 housing light emitting device, 212 storage Unit, 214 communication unit, 216 recording medium interface, 218 presentation unit, 220 audio output unit, 222 CPU, 224 acceleration sensor, 226 first LED, 228 power supply, 230 internal path, 232 I / O control unit, 234 fisheye lens, 250 image Acquisition unit, 252 first image acquisition unit, 254 second image acquisition unit, 260 tracking unit, 262 output unit, 270 content playback unit, 280 composition unit, 300 trunk fixing device, 302 trunk imaging device, 304 I / O Control unit, 30 6 third image sensor, 312 adjustment unit, 314 element support unit, 400 position designation device, 402 gripping unit, 404 position designation light emitting element, 406 second button, 408 I / O control unit, 410 second LED, 412 power supply, 500 User, 600 head tracking unit, 610 region setting unit, 620 bright spot analysis unit, 630 bright spot selection unit, 640 locus detection unit, 650 fitting unit, 660 vector acquisition unit, 670 yaw acquisition unit, 700 hand tracking unit, 710 bright spot detection unit, 720 vector acquisition unit, 730 pitch acquisition unit, 740 yaw acquisition unit, 750 gesture recognition unit.

Claims (14)

3次元映像を提示する提示部を収納し、観察者の頭部に装着されたときに観察者の両眼球の前方に位置する筐体と、
前記筐体が観察者の頭部に装着されたときに、前記筐体に対して鉛直下方向に光を照射する筐体発光素子と、
観察者の胴部に装着されて前記筐体発光素子が照射する光を撮像するように構成された胴部撮像素子が画像化した、前記筐体発光素子の光の画像を取得する画像取得部と、
前記画像取得部が取得した光の画像を解析して、前記胴部撮像素子に対する前記筐体発光素子の相対的な動きを追跡する頭部追跡部を含むことを特徴とするヘッドマウントディスプレイ。
A housing that houses a presentation unit that presents a three-dimensional image and is positioned in front of the viewer's eyes when worn on the viewer's head;
A housing light emitting element that emits light vertically downward with respect to the housing when the housing is mounted on the head of an observer;
An image acquisition unit that acquires an image of light of the casing light emitting element, which is imaged by a trunk imaging element that is mounted on an observer's trunk and configured to capture light emitted by the casing light emitting element. When,
A head-mounted display, comprising: a head tracking unit that analyzes a light image acquired by the image acquisition unit and tracks a relative movement of the housing light-emitting element with respect to the trunk image sensor.
前記筐体に備えられ、観察者の手の動きと連動して移動する発光素子が照射する光を撮像する筐体撮像部をさらに含み、
前記筐体発光素子は、前記筐体が観察者の頭部に装着されたときに、前記筐体撮像部の設置位置と比較して観察者の視線方向前方かつ鉛直方向上方に設置されており、
前記筐体は、前記筐体撮像部と前記筐体発光素子との間を遮蔽するように構成されていることを特徴とする請求項1に記載のヘッドマウントディスプレイ。
The housing further includes a housing imaging unit that images light emitted by the light emitting element that moves in conjunction with the movement of the observer's hand,
The case light emitting element is installed forward in the observer's line of sight and vertically above the installation position of the case imaging unit when the case is mounted on the head of the observer. ,
The head mounted display according to claim 1, wherein the casing is configured to shield between the casing imaging unit and the casing light emitting element.
前記頭部追跡部は、前記胴部撮像素子に対する前記筐体発光素子のヨー(yaw)を検出することを特徴とする請求項1または2に記載のヘッドマウントディスプレイ。   The head mounted display according to claim 1, wherein the head tracking unit detects a yaw of the housing light emitting element with respect to the trunk image sensor. 前記頭部追跡部は、
前記胴部撮像素子が撮像した画像中に、前記筐体発光素子が撮像される領域として定められた筐体発光素子の存在領域を設定する領域設定部と、
前記領域設定部が設定した領域内に存在する輝点の動きを解析して、前記筐体発光素子の動きを検出する輝点解析部をさらに含むことを特徴とする請求項1から3のいずれかに記載のヘッドマウントディスプレイ。
The head tracking unit includes:
An area setting unit for setting a presence area of the casing light emitting element defined as an area in which the casing light emitting element is imaged in an image captured by the trunk imaging element;
4. The method according to claim 1, further comprising a bright spot analyzing section that analyzes a movement of a bright spot existing in an area set by the area setting section and detects a movement of the casing light emitting element. The head-mounted display according to crab.
前記輝点解析部は、
前記胴部撮像素子が撮像した画像における光の輝点の軌跡を検出する軌跡検出部と、
前記軌跡検出部が検出した軌跡にフィットする円弧を取得するフィッティング部と、
前記フィッティング部が取得した円弧を含む円の中心を始点とし、画像上の輝点を終点とする動径ベクトルを取得するベクトル取得部と、
前記ベクトル取得部が取得した動径ベクトルの偏角を取得するヨー取得部とを含むことを特徴とする請求項4に記載のヘッドマウントディスプレイ。
The bright spot analysis unit
A locus detection unit for detecting a locus of a bright spot of light in an image captured by the trunk image sensor;
A fitting unit that acquires an arc that fits the locus detected by the locus detector;
A vector acquisition unit for acquiring a radial vector starting from a center of a circle including the arc acquired by the fitting unit and having a bright spot on the image as an end point;
The head mounted display according to claim 4, further comprising a yaw acquisition unit that acquires a declination of the radial vector acquired by the vector acquisition unit.
前記輝点解析部は、前記領域設定部が設定した領域内に複数の輝点が存在する場合、画像中における輝点の大きさの相違、または輝点の輝度値の相違の少なくともいずれか一方をもとに、前記筐体発光素子に起因する輝点を特定する輝点選別部をさらに含むことを特徴とする請求項5に記載のヘッドマウントディスプレイ。   The bright spot analysis unit, when there are a plurality of bright spots in the region set by the region setting unit, at least one of the difference in the size of the bright spot in the image and the difference in the brightness value of the bright spot The head-mounted display according to claim 5, further comprising: a bright spot selection unit that identifies a bright spot due to the housing light emitting element. 前記輝点選別部は、画像中における複数の輝点の大きさを比較して、小さい方の輝点を選択することを特徴とする請求項6に記載のヘッドマウントディスプレイ。   The head mounted display according to claim 6, wherein the bright spot selection unit compares a plurality of bright spots in an image and selects a smaller bright spot. 前記筐体発光素子が照射する光の波長は、前記観察者の手の動きと連動して移動する発光素子が照射する光の波長とは異なり、
前記胴部撮像素子は、前記筐体発光素子が照射する光の透過率が、前記観察者の手の動きと連動して移動する発光素子が照射する光の透過率よりも大きい光学フィルタを透過した光を撮像し、
前記輝点選別部は、画像中における複数の輝点の輝度値を比較して、輝度値の大きい方の輝点を選択することを特徴とする請求項6に記載のヘッドマウントディスプレイ。
The wavelength of light emitted by the housing light emitting element is different from the wavelength of light emitted by the light emitting element that moves in conjunction with the movement of the observer's hand,
The trunk imaging element transmits an optical filter in which the transmittance of light emitted from the housing light-emitting element is larger than the transmittance of light emitted from the light-emitting element moving in conjunction with the movement of the observer's hand. The captured light,
The head mounted display according to claim 6, wherein the bright spot selection unit compares brightness values of a plurality of bright spots in an image and selects a bright spot having a larger brightness value.
前記領域設定部は、前記フィッティング部が取得した円弧を含む円の中心を中心とする扇形の領域を前記筐体発光素子の存在領域として設定することを特徴とする請求項5から8のいずれかに記載のヘッドマウントディスプレイ。   9. The area setting unit sets a fan-shaped area centering on a center of a circle including an arc acquired by the fitting unit as an existence area of the housing light emitting element. The head mounted display as described in. 前記筐体撮像部が撮像した画像を解析して、前記筐体撮像部に対する前記観察者の手の動きと連動して移動する発光素子の相対的な動きを追跡する手部追跡部をさらに含むことを特徴とする請求項2に記載のヘッドマウントディスプレイ。   A hand tracking unit that analyzes an image captured by the housing imaging unit and tracks a relative movement of the light emitting element that moves in conjunction with the movement of the observer's hand relative to the housing imaging unit; The head mounted display according to claim 2. 前記胴部撮像素子は、観察者の胴部に装着自在に構成された素子支持部を有し、
前記素子支持部は、前記胴部撮像素子の傾きを調整する調整部を含むことを特徴とする請求項1から10のいずれかに記載のヘッドマウントディスプレイ。
The torso imaging device has an element support portion configured to be freely mounted on an observer's torso,
The head-mounted display according to claim 1, wherein the element support part includes an adjustment part that adjusts an inclination of the body image pickup element.
前記筐体発光素子は、不可視光領域の光を照射することを特徴とする請求項1から11のいずれかに記載のヘッドマウントディスプレイ。   The head mounted display according to claim 1, wherein the housing light emitting element emits light in an invisible light region. ヘッドマウントディスプレイと、前記ヘッドマウントディスプレイと通信可能に構成され観察者の胴部に装着された胴部撮像素子と、前記ヘッドマウントディスプレイの観察者の手の動きと連動して移動する発光素子とを含む映像提示システムにおける動き検出方法であって、
前記ヘッドマウントディスプレイのプロセッサは、
前記観察者の手の動きと連動して移動する発光素子が照射する光を画像化するステップと、
画像化した前記発光素子が照射する光の画像を解析して、前記ヘッドマウントディスプレイに対する前記発光素子の相対的な動きを検出するステップと、
前記ヘッドマウントディスプレイが観察者の頭部に装着されたときに、前記ヘッドマウントディスプレイに対して鉛直下方向に光を照射するステップと、
前記鉛直下方向に照射された光を、前記胴部撮像素子が撮像した画像を取得するステップと、
取得した前記胴部撮像素子による画像を解析して、前記胴部撮像素子に対する前記ヘッドマウントディスプレイの相対的な動きを検出するステップとを実行することを特徴とする映像提示システムにおける動き検出方法。
A head-mounted display; a torso imaging device configured to be communicable with the head-mounted display; and mounted on an observer's torso; and a light-emitting element that moves in conjunction with movement of the observer's hand of the head-mounted display; A motion detection method in a video presentation system including:
The processor of the head mounted display is
Imaging light emitted by a light emitting element that moves in conjunction with the movement of the observer's hand;
Analyzing the imaged light image of the light emitting element to detect relative movement of the light emitting element with respect to the head mounted display;
Irradiating light vertically downward with respect to the head mounted display when the head mounted display is mounted on the head of an observer;
Obtaining an image obtained by imaging the light irradiated in the vertical downward direction by the torso imaging device;
Analyzing the acquired image by the torso image sensor and detecting a relative movement of the head mounted display with respect to the torso image sensor, and a motion detection method in a video presentation system.
ヘッドマウントディスプレイと、前記ヘッドマウントディスプレイと通信可能に構成され観察者の胴部に装着された胴部撮像素子と、前記ヘッドマウントディスプレイの観察者の手の動きと連動して移動する発光素子とを含む映像提示システムのコンピュータに動き検出機能を実現させるプログラムであって、前記動き検出機能は、
前記ヘッドマウントディスプレイが観察者の頭部に装着されたときに、前記ヘッドマウントディスプレイに対して鉛直下方向に光を照射する機能と、
前記観察者の手の動きと連動して移動する発光素子が照射する光を画像化する機能と、
画像化した前記発光素子が照射する光の画像を解析して、前記ヘッドマウントディスプレイに対する前記発光素子の相対的な動きを検出する機能と、
前記鉛直下方向に照射された光を、前記胴部撮像素子が撮像した画像を取得する機能と、
取得した前記胴部撮像素子による画像を解析して、前記胴部撮像素子に対する前記ヘッドマウントディスプレイの相対的な動きを検出する機能とを含むことを特徴とするプログラム。
A head-mounted display; a torso imaging device configured to be communicable with the head-mounted display; and mounted on an observer's torso; and a light-emitting element that moves in conjunction with movement of the observer's hand of the head-mounted display; A program for realizing a motion detection function in a computer of a video presentation system including the motion detection function,
A function of irradiating light vertically downward with respect to the head mounted display when the head mounted display is mounted on an observer's head;
A function of imaging light emitted by a light emitting element that moves in conjunction with the movement of the observer's hand;
A function of analyzing the image of the light emitted by the light emitting element that has been imaged and detecting the relative movement of the light emitting element with respect to the head mounted display;
A function of acquiring an image captured by the torso image sensor with respect to the light irradiated vertically downward;
A program for analyzing the acquired image of the torso image sensor and detecting a relative movement of the head mounted display with respect to the torso image sensor.
JP2012244143A 2012-11-06 2012-11-06 Head mounted display and motion detection method Active JP5732446B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012244143A JP5732446B2 (en) 2012-11-06 2012-11-06 Head mounted display and motion detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012244143A JP5732446B2 (en) 2012-11-06 2012-11-06 Head mounted display and motion detection method

Publications (2)

Publication Number Publication Date
JP2014093704A true JP2014093704A (en) 2014-05-19
JP5732446B2 JP5732446B2 (en) 2015-06-10

Family

ID=50937483

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012244143A Active JP5732446B2 (en) 2012-11-06 2012-11-06 Head mounted display and motion detection method

Country Status (1)

Country Link
JP (1) JP5732446B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016158080A1 (en) * 2015-03-30 2016-10-06 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method, and program
US10156724B2 (en) 2015-05-13 2018-12-18 Sony Interactive Entertainment Inc. Head-mounted display, information processing apparatus, information processing system, and content data outputting method
JP2022533205A (en) * 2019-05-20 2022-07-21 マジック リープ, インコーポレイテッド Systems and techniques for estimating eye posture

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000102036A (en) * 1998-09-22 2000-04-07 Mr System Kenkyusho:Kk Composite actual feeling presentation system, composite actual feeling presentation method, man-machine interface device and man-machine interface method
JP2001356875A (en) * 2000-06-13 2001-12-26 Toshiba Corp Pointer display system
JP2004219664A (en) * 2003-01-14 2004-08-05 Sumitomo Electric Ind Ltd Information display system and information display method
JP2009104249A (en) * 2007-10-19 2009-05-14 Canon Inc Image processing apparatus, and image processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000102036A (en) * 1998-09-22 2000-04-07 Mr System Kenkyusho:Kk Composite actual feeling presentation system, composite actual feeling presentation method, man-machine interface device and man-machine interface method
JP2001356875A (en) * 2000-06-13 2001-12-26 Toshiba Corp Pointer display system
JP2004219664A (en) * 2003-01-14 2004-08-05 Sumitomo Electric Ind Ltd Information display system and information display method
JP2009104249A (en) * 2007-10-19 2009-05-14 Canon Inc Image processing apparatus, and image processing method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016158080A1 (en) * 2015-03-30 2016-10-06 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method, and program
US10156724B2 (en) 2015-05-13 2018-12-18 Sony Interactive Entertainment Inc. Head-mounted display, information processing apparatus, information processing system, and content data outputting method
JP2022533205A (en) * 2019-05-20 2022-07-21 マジック リープ, インコーポレイテッド Systems and techniques for estimating eye posture
JP7423659B2 (en) 2019-05-20 2024-01-29 マジック リープ, インコーポレイテッド Systems and techniques for estimating eye pose

Also Published As

Publication number Publication date
JP5732446B2 (en) 2015-06-10

Similar Documents

Publication Publication Date Title
JP6066676B2 (en) Head mounted display and video presentation system
US11768383B2 (en) Display control apparatus and display control method
KR102200740B1 (en) Information processing apparatus, information processing method, program, and measuring system
WO2017090203A1 (en) Line-of-sight detection system, gaze point identification method, and gaze point identification program
US10427033B2 (en) Display control apparatus and display control method
US10976836B2 (en) Head-mounted display apparatus and method of controlling head-mounted display apparatus
US20180373349A1 (en) Display control apparatus and display control method
JPWO2017122299A1 (en) Facial expression recognition system, facial expression recognition method and facial expression recognition program
JP2018006914A (en) External imaging system, external imaging method, external imaging program
US11712619B2 (en) Handle controller
JP2019164420A (en) Transmission type head-mounted display device, control method of transmission type head-mounted display device, and computer program for control of transmission type head-mounted display device
JP2017215928A (en) Gaze detection system
JP5732446B2 (en) Head mounted display and motion detection method
JP6439448B2 (en) Display system, program, and control method for display device
KR102195450B1 (en) Zoom device and related methods
JP2018000308A (en) Image display device system, heart beat specification method, and heart beat specification program
JP6996115B2 (en) Head-mounted display device, program, and control method of head-mounted display device
JP2019066618A (en) Image display system, image display method and image display program
JP6932917B2 (en) Head-mounted display, program, and head-mounted display control method
JP6256779B2 (en) Information processing apparatus, information processing method, program, and measurement system
JP2018056791A (en) Display device, reception device, program, and control method of reception device
JP2018085595A (en) Head-mounted display device and method for controlling the same
JP2020115366A (en) Display control device and display control method
JP2021068296A (en) Information processing device, head-mounted display, and user operation processing method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140924

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150413

R150 Certificate of patent or registration of utility model

Ref document number: 5732446

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250