JP6689679B2 - Display device, information display system, and program - Google Patents

Display device, information display system, and program Download PDF

Info

Publication number
JP6689679B2
JP6689679B2 JP2016110440A JP2016110440A JP6689679B2 JP 6689679 B2 JP6689679 B2 JP 6689679B2 JP 2016110440 A JP2016110440 A JP 2016110440A JP 2016110440 A JP2016110440 A JP 2016110440A JP 6689679 B2 JP6689679 B2 JP 6689679B2
Authority
JP
Japan
Prior art keywords
vector
light source
imaging device
image
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016110440A
Other languages
Japanese (ja)
Other versions
JP2017215873A (en
Inventor
田中 奈緒
奈緒 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2016110440A priority Critical patent/JP6689679B2/en
Priority to US15/608,031 priority patent/US10388027B2/en
Publication of JP2017215873A publication Critical patent/JP2017215873A/en
Application granted granted Critical
Publication of JP6689679B2 publication Critical patent/JP6689679B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、表示装置、情報表示システム、及びプログラムに関する。   The present invention relates to a display device, an information display system, and a program.

従来、カメラを使用して物体の位置を検出するシステムが知られている。例えば、特許文献1には、カメラを使用して頭部装着型ディスプレイの位置及び姿勢を計測することにより、頭部装着型ディスプレイに表示する映像を変えるシステムが開示されている。   Conventionally, there is known a system that detects the position of an object using a camera. For example, Patent Document 1 discloses a system that changes the image displayed on the head-mounted display by measuring the position and orientation of the head-mounted display using a camera.

特開2007−71782号公報JP, 2007-71782, A

しかしながら、従来のシステムには、例えば利便性向上の観点から、改善の余地があった。   However, the conventional system has room for improvement, for example, from the viewpoint of improving convenience.

かかる事情に鑑みてなされた本発明の目的は、利便性を向上させた表示装置、情報表示システム、及びプログラムを提供することにある。   An object of the present invention made in view of such circumstances is to provide a display device, an information display system, and a program with improved convenience.

本発明の一実施形態に係る表示装置は、ユーザの頭部に装着される表示装置であって、光源と、前記頭部の3軸まわりの角度変化を検出するセンサと、第1撮像装置によって撮像された前記光源の第1撮像画像及び第2撮像装置によって撮像された前記光源の第2撮像画像に基づき特定される前記光源の位置に関する情報を取得する通信インターフェースと、前記光源の位置と、前記センサの出力に基づき推定される前記頭部の向きと、に基づいて表示制御を実行する制御部と、を備える。前記光源の位置は、前記第1撮像装置の位置ベクトルを第1ベクトル、前記第2撮像装置の位置ベクトルを第2ベクトル、前記第1撮像装置から前記第1撮像画像の画像平面上における前記光源に向かう方向ベクトルを第3ベクトル、前記第2撮像装置から前記第2撮像画像の画像平面上における前記光源に向かう方向ベクトルを第4ベクトル、としたときに、前記第4ベクトルと、前記第2撮像装置から前記光源に向かう方向ベクトルを前記第1ベクトル、前記第2ベクトル及び前記第3ベクトルで表したベクトルとの外積が0であることを利用して特定される。 A display device according to an embodiment of the present invention is a display device mounted on a user's head, and includes a light source, a sensor that detects a change in angle around the three axes of the head, and a first imaging device. a communication interface to obtain information about the position of the light source is specified based on second image of said light source imaged by the first image and the second image pickup device by it is shooting an image said light source, said light source A control unit that performs display control based on the position and the orientation of the head estimated based on the output of the sensor. As for the position of the light source, the position vector of the first image pickup device is a first vector, the position vector of the second image pickup device is a second vector, and the light source on the image plane of the first image pickup image from the first image pickup device is the light source. When the direction vector toward the light source is the third vector and the direction vector from the second imaging device toward the light source on the image plane of the second captured image is the fourth vector, the fourth vector and the second vector It is specified by using the fact that the cross product of the direction vector from the imaging device toward the light source with the vector represented by the first vector, the second vector, and the third vector is 0.

また、本発明の一実施形態に係る情報表示システムは、ユーザの頭部に装着される表示装置と、第1撮像装置と、第2撮像装置と、を備える情報処理システムである。前記表示装置は、光源と、前記頭部の3軸まわりの角度変化を検出するセンサと、前記第1撮像装置によって撮像された前記光源の第1撮像画像及び前記第2撮像装置によって撮像された前記光源の第2撮像画像に基づき特定される前記光源の位置に関する情報を取得する通信インターフェースと、前記光源の位置と、前記センサの出力に基づき推定される前記頭部の向きと、に基づいて表示制御を実行する制御部と、を備える。前記光源の位置は、前記第1撮像装置の位置ベクトルを第1ベクトル、前記第2撮像装置の位置ベクトルを第2ベクトル、前記第1撮像装置から前記第1撮像画像の画像平面上における前記光源に向かう方向ベクトルを第3ベクトル、前記第2撮像装置から前記第2撮像画像の画像平面上における前記光源に向かう方向ベクトルを第4ベクトル、としたときに、前記第4ベクトルと、前記第2撮像装置から前記光源に向かう方向ベクトルを前記第1ベクトル、前記第2ベクトル及び前記第3ベクトルで表したベクトルとの外積が0であることを利用して特定される。 An information display system according to an embodiment of the present invention is an information processing system including a display device mounted on a user's head, a first imaging device, and a second imaging device . The display device includes a light source and a sensor for detecting an angle change of about three axes of the head, by the first image and the second image pickup apparatus of the first light source that is shooting the image by the imaging device A communication interface that obtains information about the position of the light source that is specified based on the captured second image of the light source, the position of the light source, and the orientation of the head that is estimated based on the output of the sensor, And a control unit that executes display control based on the above. As for the position of the light source, the position vector of the first image pickup device is a first vector, the position vector of the second image pickup device is a second vector, and the light source on the image plane of the first image pickup image from the first image pickup device is the light source. When the direction vector toward the light source is the third vector and the direction vector from the second imaging device toward the light source on the image plane of the second captured image is the fourth vector, the fourth vector and the second vector It is specified by using the fact that the cross product of the direction vector from the imaging device toward the light source with the vector represented by the first vector, the second vector, and the third vector is 0.

また、本発明の一実施形態に係るプログラムは、ユーザの頭部に装着される表示装置に、前記表示装置に備えられたセンサを用いて前記頭部の3軸まわりの角度変化を検出するステップと、第1撮像装置によって撮像された前記光源の第1撮像画像及び第2撮像装置によって撮像された第2撮像画像に基づき特定される、前記表示装置に備えられた光源の位置に関する情報を取得するステップと、前記光源の位置と、前記センサの出力に基づき推定される前記頭部の向きと、に基づいて表示制御を実行するステップと、を実行させる。前記光源の位置は、前記第1撮像装置の位置ベクトルを第1ベクトル、前記第2撮像装置の位置ベクトルを第2ベクトル、前記第1撮像装置から前記第1撮像画像の画像平面上における前記光源に向かう方向ベクトルを第3ベクトル、前記第2撮像装置から前記第2撮像画像の画像平面上における前記光源に向かう方向ベクトルを第4ベクトル、としたときに、前記第4ベクトルと、前記第2撮像装置から前記光源に向かう方向ベクトルを前記第1ベクトル、前記第2ベクトル及び前記第3ベクトルで表したベクトルとの外積が0であることを利用して特定される。 Further, a program according to an embodiment of the present invention includes a step of detecting a change in angle of the head around three axes by using a sensor included in the display device on a display device mounted on a user's head. When, identified on the basis of the second image captured by the first image and the second image pickup device of the light source that is an image shooting by the first image pickup apparatus, a position of the light source provided in the display device The step of acquiring information, the step of executing display control based on the position of the light source, and the orientation of the head estimated based on the output of the sensor are executed. As for the position of the light source, the position vector of the first image pickup device is a first vector, the position vector of the second image pickup device is a second vector, and the light source on the image plane of the first image pickup image from the first image pickup device is the light source. When the direction vector toward the light source is the third vector and the direction vector from the second imaging device toward the light source on the image plane of the second captured image is the fourth vector, the fourth vector and the second vector It is specified by using the fact that the cross product of the direction vector from the imaging device toward the light source with the vector represented by the first vector, the second vector, and the third vector is 0.

本発明によれば、利便性を向上させた表示装置、情報表示システム、及びプログラムを提供できる。   According to the present invention, a display device, an information display system, and a program with improved convenience can be provided.

本発明の一実施形態に係る位置検出システムの概略構成を示す機能ブロック図である。It is a functional block diagram showing a schematic structure of a position detection system concerning one embodiment of the present invention. 図1の位置検出システムによる位置検出原理について説明する概略図である。It is a schematic diagram explaining the position detection principle by the position detection system of FIG. 図1の位置検出システムを用いた情報表示システムの概略構成を示す機能ブロック図である。It is a functional block diagram which shows schematic structure of the information display system using the position detection system of FIG. 図3のヘッドマウントディスプレイの一例を示す外観斜視図である。FIG. 4 is an external perspective view showing an example of the head mounted display of FIG. 3. 図3の情報表示システムによる情報表示処理の一例を示すシーケンス図である。FIG. 4 is a sequence diagram showing an example of information display processing by the information display system of FIG. 3.

以下、本発明の一実施形態について、図面を参照して詳細に説明する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施形態に係る位置検出システム100の概略構成を示す機能ブロック図である。本実施形態に係る位置検出システム100は、複数の撮像装置と、各撮像装置と通信可能に構成される情報処理装置130とを備える。本実施形態では、図1に示すように、位置検出システム100は、複数の撮像装置として、第1撮像装置110と、第2撮像装置120という、2つの撮像装置を備える。位置検出システム100は、3つ以上の撮像装置を備えていてもよい。   FIG. 1 is a functional block diagram showing a schematic configuration of a position detection system 100 according to an embodiment of the present invention. The position detection system 100 according to the present embodiment includes a plurality of image pickup devices and an information processing device 130 configured to communicate with each image pickup device. In the present embodiment, as shown in FIG. 1, the position detection system 100 includes two imaging devices, a first imaging device 110 and a second imaging device 120, as a plurality of imaging devices. The position detection system 100 may include three or more imaging devices.

図2は、図1の位置検出システム100による位置検出原理について説明する概略図である。本実施形態に係る位置検出システム100では、第1撮像装置110及び第2撮像装置120が、位置検出の対象である対象物Pを撮像し、情報処理装置130が、第1撮像装置110及び第2撮像装置120が取得した撮像画像に基づいて、対象物Pの位置を算出する。第1撮像装置110及び第2撮像装置120は、図2に一例として示すように、それぞれ異なる方向から対象物Pを撮像する。本実施形態において、対象物Pは、例えば700〜1500nm程度の近赤外線を発する赤外線LED(発光ダイオード:Light Emitting Diode)であるとして説明する。   FIG. 2 is a schematic diagram illustrating the principle of position detection by the position detection system 100 of FIG. In the position detection system 100 according to the present embodiment, the first image capturing device 110 and the second image capturing device 120 capture an image of the target object P that is the target of position detection, and the information processing device 130 causes the first image capturing device 110 and the first image capturing device 110 to 2 The position of the object P is calculated based on the captured image acquired by the imaging device 120. The first imaging device 110 and the second imaging device 120 respectively image the target P from different directions, as shown in FIG. 2 as an example. In the present embodiment, the target P will be described as an infrared LED (Light Emitting Diode) that emits near-infrared rays of about 700 to 1500 nm, for example.

再び図1を参照すると、第1撮像装置110は、制御部111と、記憶部112と、通信部113と、第1撮像部114とを備える。第1撮像装置110は、対象物Pを撮像し、撮像画像を情報処理装置130に送信する。   Referring back to FIG. 1, the first imaging device 110 includes a control unit 111, a storage unit 112, a communication unit 113, and a first imaging unit 114. The first imaging device 110 images the target object P and transmits the captured image to the information processing device 130.

制御部111は、第1撮像装置110が備える各機能ブロックをはじめとして、第1撮像装置110の全体を制御及び管理するプロセッサである。制御部111は、制御手順を規定したプログラムを実行するCPU(Central Processing Unit)等のプロセッサで構成される。プロセッサにより実行されるプログラムは、例えば記憶部112又は外部の記憶媒体等に格納される。制御部111は、例えば第1撮像部114による撮像処理の制御を行う。   The control unit 111 is a processor that controls and manages the entire first imaging device 110, including the functional blocks included in the first imaging device 110. The control unit 111 includes a processor such as a CPU (Central Processing Unit) that executes a program that defines a control procedure. The program executed by the processor is stored in, for example, the storage unit 112 or an external storage medium. The control unit 111 controls the imaging process performed by the first imaging unit 114, for example.

記憶部112は、多様なメモリデバイスを有し、用途に応じてそれぞれ各種情報、例えば制御部111の動作に必要なデータ等を記憶する。また、記憶部112は、ワークメモリとして機能するRAM(Random Access Memory)等のデバイスも有する。記憶部112は、例えば第1撮像部114が撮像して取得した撮像画像(以下「第1撮像画像」ともいう)を記憶してもよい。   The storage unit 112 has various memory devices, and stores various kinds of information, such as data necessary for the operation of the control unit 111, depending on the application. The storage unit 112 also has a device such as a RAM (Random Access Memory) that functions as a work memory. The storage unit 112 may store, for example, a captured image captured by the first image capturing unit 114 (hereinafter, also referred to as “first captured image”).

通信部113は、情報処理装置130と有線通信又は無線通信を行うことにより、各種情報の送受信を行う。例えば、第1撮像装置110は、通信部113を介して、第1撮像画像を情報処理装置130に送信する。   The communication unit 113 performs various kinds of information transmission / reception by performing wired communication or wireless communication with the information processing device 130. For example, the first imaging device 110 transmits the first captured image to the information processing device 130 via the communication unit 113.

第1撮像部114は、対象物Pを撮像する。第1撮像部114は、光を電気信号に変換することにより素子上に投影された画像を撮像する撮像素子(イメージセンサ)を備える。本実施形態では、第1撮像部114は、対象物Pが発する近赤外光を検出する赤外線カメラである。   The first imaging unit 114 images the object P. The first image capturing unit 114 includes an image sensor (image sensor) that captures an image projected on the element by converting light into an electric signal. In the present embodiment, the first imaging unit 114 is an infrared camera that detects near infrared light emitted by the object P.

第2撮像装置120は、制御部121と、記憶部122と、通信部123と、第2撮像部124とを備える。制御部121、記憶部122、通信部123及び第2撮像部124の各機能は、それぞれ第1撮像装置110の制御部111、記憶部112、通信部113及び第1撮像部114と同様であるため、ここではその詳細な説明を省略する。なお、本明細書において、第2撮像部124が撮像して取得した撮像画像を、以下「第2撮像画像」ともいう。   The second imaging device 120 includes a control unit 121, a storage unit 122, a communication unit 123, and a second imaging unit 124. The respective functions of the control unit 121, the storage unit 122, the communication unit 123, and the second imaging unit 124 are the same as those of the control unit 111, the storage unit 112, the communication unit 113, and the first imaging unit 114 of the first imaging device 110, respectively. Therefore, detailed description thereof is omitted here. In the present specification, the captured image captured by the second image capturing unit 124 is also referred to as “second captured image” below.

情報処理装置130は、制御部131と、記憶部132と、通信部133とを備える。情報処理装置130は、第1撮像装置110及び第2撮像装置120が取得した撮像画像に基づいて、対象物Pの位置を算出する。   The information processing device 130 includes a control unit 131, a storage unit 132, and a communication unit 133. The information processing device 130 calculates the position of the object P based on the captured images acquired by the first imaging device 110 and the second imaging device 120.

制御部131は、情報処理装置130が備える各機能ブロックをはじめとして、情報処理装置130の全体を制御及び管理するプロセッサである。制御部131は、制御手順を規定したプログラムを実行するCPU等のプロセッサで構成される。プロセッサにより実行されるプログラムは、例えば記憶部132又は外部の記憶媒体等に格納される。制御部131は、第1撮像装置110が取得した第1撮像画像と、第2撮像装置120が取得した第2撮像画像とに基づいて、検出対象の位置を算出する。制御部131による検出対象の位置の算出処理の詳細については、後述する。   The control unit 131 is a processor that controls and manages the entire information processing apparatus 130 including each functional block included in the information processing apparatus 130. The control unit 131 includes a processor such as a CPU that executes a program that defines a control procedure. The program executed by the processor is stored in, for example, the storage unit 132 or an external storage medium. The control unit 131 calculates the position of the detection target based on the first captured image acquired by the first imaging device 110 and the second captured image acquired by the second imaging device 120. Details of the process of calculating the position of the detection target by the control unit 131 will be described later.

記憶部132は、多様なメモリデバイスを有し、用途に応じてそれぞれ各種情報、例えば制御部131の動作に必要なデータ等を記憶する。また、記憶部132は、ワークメモリとして機能するRAM等のデバイスも有する。記憶部132は、例えば第1撮像装置110及び第2撮像装置120からそれぞれ取得した第1撮像画像及び第2撮像画像を記憶してもよい。また、記憶部132は、例えば算出した対象物の位置の履歴を記憶してもよい。情報処理装置130は、対象物の位置の履歴に基づき、対象物の変位(軌跡)を算出できる。   The storage unit 132 has various memory devices, and stores various kinds of information, such as data necessary for the operation of the control unit 131, depending on the application. The storage unit 132 also has a device such as a RAM that functions as a work memory. The storage unit 132 may store, for example, the first captured image and the second captured image acquired from the first imaging device 110 and the second imaging device 120, respectively. Further, the storage unit 132 may store, for example, a history of the calculated position of the object. The information processing apparatus 130 can calculate the displacement (trajectory) of the target object based on the history of the position of the target object.

通信部133は、第1撮像装置110及び第2撮像装置120と有線通信又は無線通信を行うことにより、各種情報の送受信を行う。例えば、情報処理装置130は、通信部133を介して、第1撮像画像及び第2撮像画像を、それぞれ第1撮像装置110及び第2撮像装置120から取得する。   The communication unit 133 transmits and receives various types of information by performing wired communication or wireless communication with the first imaging device 110 and the second imaging device 120. For example, the information processing apparatus 130 acquires the first captured image and the second captured image from the first image capturing apparatus 110 and the second image capturing apparatus 120, respectively, via the communication unit 133.

次に、図2を参照しながら、情報処理装置130による検出対象の位置の算出処理の詳細について説明する。   Next, the details of the process of calculating the position of the detection target by the information processing device 130 will be described with reference to FIG.

図2には、第1撮像装置110の撮像範囲A及び第2撮像装置120の撮像範囲Bが、それぞれ仮想的に示されている。すなわち、図2において、撮像範囲Aは、第1撮像装置110が取得した第1撮像画像を仮想的に示し、撮像範囲Bは、第2撮像装置120が取得した第2撮像画像を仮想的に示す。第1撮像画像及び第2撮像画像には、それぞれ画像平面上の所定の位置に、対象物Pが映っている。第1撮像画像及び第2撮像画像において、対象物Pが映っている位置の座標は、例えば、それぞれ第1撮像部114及び第2撮像部124の注視点を基準にして定められる。   In FIG. 2, the imaging range A of the first imaging device 110 and the imaging range B of the second imaging device 120 are virtually shown. That is, in FIG. 2, the imaging range A virtually represents the first captured image acquired by the first imaging device 110, and the imaging range B virtually represents the second captured image acquired by the second imaging device 120. Show. In the first captured image and the second captured image, the object P is reflected at predetermined positions on the image plane. In the first captured image and the second captured image, the coordinates of the position where the object P is reflected are determined, for example, with reference to the gazing points of the first imaging unit 114 and the second imaging unit 124, respectively.

本実施形態において、第1撮像装置110及び第2撮像装置120の位置ベクトルを、それぞれベクトルc及びベクトルcで示す。また、第1撮像装置110から対象物Pに向かう方向ベクトルをベクトルaで、第2撮像装置120から対象物Pに向かう方向ベクトルをベクトルbで示す。方向ベクトルaは、例えば第1撮像部114が備える撮像素子の位置から第1撮像画像の画像平面上における検出対象Pに向かう方向ベクトルとして定義される。また、同様に、方向ベクトルbは、例えば第2撮像部124が備える撮像素子の位置から第2撮像画像の画像平面上における対象物Pに向かう方向ベクトルとして定義される。方向ベクトルa及び方向ベクトルbは、例えば、情報処理装置130の制御部131が、それぞれ第1撮像画像及び第2撮像画像に基づいて算出する。なお、図2では、方向ベクトルa及び方向ベクトルbの長さは、例示的なものとして示している。また、対象物Pの位置ベクトルをベクトルpで表す。 In the present embodiment, the position vectors of the first imaging device 110 and the second imaging device 120 are indicated by vector c 1 and vector c 2 , respectively. Further, a direction vector from the first imaging device 110 to the object P is shown as a vector a, and a direction vector from the second imaging device 120 to the object P is shown as a vector b. The direction vector a is defined as, for example, a direction vector from the position of the image sensor included in the first imaging unit 114 toward the detection target P on the image plane of the first captured image. Similarly, the direction vector b is defined as a direction vector from the position of the image sensor included in the second image capturing unit 124 toward the object P on the image plane of the second captured image. The direction vector a and the direction vector b are calculated, for example, by the control unit 131 of the information processing device 130 based on the first captured image and the second captured image, respectively. In addition, in FIG. 2, the lengths of the direction vector a and the direction vector b are shown as an example. Further, the position vector of the object P is represented by the vector p.

対象物Pの位置ベクトルpは、位置ベクトルc及び方向ベクトルaを用いて、下式(1)のように表される。情報処理装置130の制御部131は、位置ベクトルpを、下式(1)のように設定する。 The position vector p of the object P is represented by the following expression (1) using the position vector c 1 and the direction vector a. The control unit 131 of the information processing device 130 sets the position vector p as in the following expression (1).

Figure 0006689679
Figure 0006689679

式(1)において、nは、実数であり、例えば第1撮像部114のセンサ位置から検出対象Pまでの距離に応じて定まる。nが算出(決定)されることにより、位置ベクトルpが定まり、対象物Pの位置が定まる。   In Expression (1), n is a real number, and is determined according to the distance from the sensor position of the first imaging unit 114 to the detection target P, for example. By calculating (determining) n, the position vector p is determined and the position of the object P is determined.

ここで、第2撮像装置120から対象物Pに向かう方向ベクトル(ここではベクトルdとする)は、第2撮像装置120の位置ベクトルcを用いて、下式(2)のように表すことができる。制御部131は、方向ベクトルdを算出する。 Here, the direction vector (here, vector d) from the second image pickup device 120 toward the object P is expressed by the following equation (2) using the position vector c 2 of the second image pickup device 120. You can The control unit 131 calculates the direction vector d.

Figure 0006689679
Figure 0006689679

上式(2)に示す方向ベクトルdは、第2撮像装置120から対象物Pに向かう方向ベクトルとして定義したため、方向ベクトルbと方向が等しい。従って、方向ベクトルdと方向ベクトルbとのなす角が0°であるため、方向ベクトルdと方向ベクトルbとの外積の大きさは0となる。これを式で表現すると、下式(3)のように表現される。   Since the direction vector d shown in the above equation (2) is defined as the direction vector from the second imaging device 120 to the target P, the direction is equal to the direction vector b. Therefore, since the angle formed by the direction vector d and the direction vector b is 0 °, the magnitude of the outer product of the direction vector d and the direction vector b is 0. When this is expressed by an expression, it is expressed as the following expression (3).

Figure 0006689679
Figure 0006689679

上式(3)を、nについて解くと、下式(4)が導出される。   By solving the above equation (3) for n, the following equation (4) is derived.

Figure 0006689679
Figure 0006689679

上式(4)を、上式(1)に代入すると、位置ベクトルpは、下式(5)のように表される。   By substituting the above equation (4) into the above equation (1), the position vector p is expressed by the following equation (5).

Figure 0006689679
Figure 0006689679

上式(5)において、位置ベクトルc及び位置ベクトルcは、それぞれ第1撮像装置110及び第2撮像装置120を設置した位置により定まる。また、方向ベクトルa及び方向ベクトルbは、それぞれ第1撮像装置110及び第2撮像装置120が取得した第1撮像画像及び第2撮像画像から、情報処理装置130が算出することができる。従って、情報処理装置130は、上式(5)を用いて、対象物Pの位置ベクトルpを算出できる。制御部131は、式(3)から式(5)に示すように、方向ベクトルdと方向ベクトルbとに基づいて、対象物Pの位置を算出する。とくに、制御部131は、方向ベクトルdと方向ベクトルbとの外積の値に基づいて、外積の値が0であると仮定して、対象物Pの位置を算出する。このようにして、位置検出システム100によれば、対象物Pの位置を特定可能である。 In the above equation (5), the position vector c 1 and the position vector c 2 are determined by the positions where the first imaging device 110 and the second imaging device 120 are installed, respectively. Further, the direction vector a and the direction vector b can be calculated by the information processing apparatus 130 from the first captured image and the second captured image acquired by the first imaging device 110 and the second imaging device 120, respectively. Therefore, the information processing apparatus 130 can calculate the position vector p of the object P using the above equation (5). The control unit 131 calculates the position of the object P based on the direction vector d and the direction vector b as shown in Expressions (3) to (5). In particular, the control unit 131 calculates the position of the object P based on the value of the outer product of the direction vector d and the direction vector b, assuming that the value of the outer product is 0. In this way, the position detection system 100 can specify the position of the object P.

また、本実施形態に係る位置検出システム100によれば、第1撮像装置110及び第2撮像装置120が、それぞれ異なる方向から、対象物Pを撮像する。そのため、例えばステレオカメラ等のように、2つのカメラを使用して1つの方向から撮像した画像に基づいて、視差を利用して距離を算出するシステムと比較して、本実施形態に係る位置検出システム100は、位置検出の精度が向上する。   Further, according to the position detection system 100 according to the present embodiment, the first imaging device 110 and the second imaging device 120 image the object P from different directions. Therefore, the position detection according to the present embodiment is compared with a system such as a stereo camera that calculates a distance using parallax based on an image captured from one direction using two cameras. The system 100 improves the accuracy of position detection.

次に、上述の位置検出システム100の応用例について説明する。本明細書では、位置検出システム100を、ユーザの頭部に装着される表示装置であるヘッドマウントディスプレイ(HMD:Head Mounted Display)の位置の特定に応用する場合の一例について説明する。位置検出システム100を応用した情報表示システムでは、上述の位置検出システム100によりHMDの位置を特定し、特定した位置に応じた情報をHMDが備える表示部に表示する。   Next, an application example of the position detection system 100 described above will be described. In this specification, an example in which the position detection system 100 is applied to specify the position of a head mounted display (HMD) which is a display device mounted on the head of a user will be described. In the information display system to which the position detection system 100 is applied, the position of the HMD is specified by the position detection system 100 described above, and information according to the specified position is displayed on the display unit included in the HMD.

図3は、位置検出システム100を応用した情報表示システム200の概略構成を示す機能ブロック図である。図3に示すように、情報表示システム200は、位置検出システム100が含む第1撮像装置110、第2撮像装置120及び情報処理装置130に加え、HMD140を備える。情報処理装置130と、HMD140とは、有線又は無線を介して通信可能に構成される。   FIG. 3 is a functional block diagram showing a schematic configuration of an information display system 200 to which the position detection system 100 is applied. As shown in FIG. 3, the information display system 200 includes an HMD 140 in addition to the first imaging device 110, the second imaging device 120, and the information processing device 130 included in the position detection system 100. The information processing device 130 and the HMD 140 are configured to be communicable via a wire or wirelessly.

図4は、HMD140の一例を示す外観斜視図である。HMD140は、ユーザが頭部に装着可能な略半球形状の装着部141と、ユーザがHMD140を装着した際にユーザに対して情報を表示する表示部142と、光源143とを備える。本実施形態では、HMD140は、図4に示すように、2つの光源143a及び143bを備えるとして説明する。なお、2つの光源143a及び143bを区別しない場合には、まとめて光源143と記載する。   FIG. 4 is an external perspective view showing an example of the HMD 140. The HMD 140 includes a substantially hemispherical mounting unit 141 that the user can wear on the head, a display unit 142 that displays information to the user when the user wears the HMD 140, and a light source 143. In the present embodiment, the HMD 140 will be described as including two light sources 143a and 143b, as shown in FIG. When the two light sources 143a and 143b are not distinguished, they are collectively referred to as the light source 143.

再び図3を参照すると、HMD140は、表示部142と、光源143と、制御部144と、記憶部145と、通信部146と、角速度検出部147とを備える。   Referring again to FIG. 3, the HMD 140 includes a display unit 142, a light source 143, a control unit 144, a storage unit 145, a communication unit 146, and an angular velocity detection unit 147.

表示部142は、HMD140を装着したユーザに情報を表示する。表示部142は、例えば情報を表示する液晶ディスプレイ(LCD:Liquid Crystal Display)又は有機ELディスプレイ(OELD:Organic Electroluminescence Display)等のディスプレイと、ディスプレイを保持するハウジングとを有する。図4には、ユーザの視線を外界から遮断するハウジングを有する、いわゆる没入型の表示部142が示されているが、表示部142は、没入型に限られない。表示部142は、例えば、ユーザが表示部142を介して外界を視認可能ないわゆる透過型(シースルー型)であってもよい。   The display unit 142 displays information to the user who wears the HMD 140. The display unit 142 has a display such as a liquid crystal display (LCD: Liquid Crystal Display) or an organic EL display (OELD: Organic Electroluminescence Display) for displaying information, and a housing that holds the display. FIG. 4 shows a so-called immersive display unit 142 that has a housing that shields the user's line of sight from the outside, but the display unit 142 is not limited to the immersive display unit. The display unit 142 may be, for example, a so-called transmissive type (see-through type) that allows the user to visually recognize the outside world via the display unit 142.

光源143は、第1撮像装置110及び第2撮像装置120により検出される光を発するものであり、図2で説明した対象物Pに相当するものである。光源143は、例えば図2で説明したものと同様に、近赤外光を発する赤外線LEDである。本実施形態では、2つの光源143a及び143bは、図4に一例として示すように、ユーザがHMD140を装着した際に、前後方向に配列されるように、装着部141に設けられる。   The light source 143 emits light detected by the first imaging device 110 and the second imaging device 120, and corresponds to the object P described in FIG. The light source 143 is an infrared LED that emits near-infrared light, similar to that described in FIG. 2, for example. In the present embodiment, the two light sources 143a and 143b are provided in the mounting portion 141 so as to be arranged in the front-rear direction when the user wears the HMD 140, as shown as an example in FIG.

制御部144は、HMD140が備える各機能ブロックをはじめとして、HMD140の全体を制御及び管理するプロセッサである。制御部144は、制御手順を規定したプログラムを実行するCPU等のプロセッサで構成される。プロセッサにより実行されるプログラムは、例えば記憶部145又は外部の記憶媒体等に格納される。制御部144は、例えば、ユーザの位置及びユーザの頭部の向き等に基づいて、表示部142に多様な情報を表示する。具体的には、制御部144は、例えばユーザの位置及び頭部の向きに追従した仮想空間を表示部142に表示させる。なお、ユーザの位置は、情報処理装置130によって特定される、ユーザが装着したHMD140の位置により定められる。また、ユーザの頭部の向きは、ユーザの頭部に装着されたHMD140の向きにより定められる。   The control unit 144 is a processor that controls and manages the entire HMD 140 including each functional block included in the HMD 140. The control unit 144 is composed of a processor such as a CPU that executes a program that defines a control procedure. The program executed by the processor is stored in, for example, the storage unit 145 or an external storage medium. The control unit 144 displays various information on the display unit 142 based on, for example, the position of the user and the orientation of the user's head. Specifically, the control unit 144 causes the display unit 142 to display a virtual space that follows the position of the user and the orientation of the head. The position of the user is determined by the position of the HMD 140 worn by the user, which is specified by the information processing device 130. The orientation of the user's head is determined by the orientation of the HMD 140 attached to the user's head.

記憶部145は、多様なメモリデバイスを有し、用途に応じてそれぞれ各種情報、例えば制御部144の動作に必要なデータ等を記憶する。また、記憶部145は、ワークメモリとして機能するRAM等のデバイスも有する。また、記憶部145は、例えば表示部142に表示する仮想空間に関する各種データを記憶する。   The storage unit 145 has various memory devices, and stores various kinds of information, such as data necessary for the operation of the control unit 144, depending on the application. The storage unit 145 also has a device such as a RAM that functions as a work memory. Further, the storage unit 145 stores, for example, various data regarding the virtual space displayed on the display unit 142.

通信部146は、情報処理装置130と有線通信又は無線通信を行うことにより、各種情報の送受信を行う通信インターフェースを有する。例えば、HMD140は、通信部146を介して、情報処理装置130から、第1撮像画像及び第2撮像画像に基づいて情報処理装置130が特定したHMD140の位置に関する情報を取得する。   The communication unit 146 has a communication interface that transmits and receives various types of information by performing wired communication or wireless communication with the information processing device 130. For example, the HMD 140 acquires information regarding the position of the HMD 140 specified by the information processing apparatus 130 based on the first captured image and the second captured image from the information processing apparatus 130 via the communication unit 146.

角速度検出部147は、例えばHMD140の角速度の変化を検出するセンサである。角速度検出部147は、例えばジャイロセンサにより構成される。なお、角速度検出部147は、ジャイロセンサに限られない。角速度検出部147は、HMD140の角度変化を検出できればよい。従って、角速度検出部147は、例えば、加速度センサ、角度センサ、その他のモーションセンサ、又はこれらのセンサの組合せ等によって構成されていてもよい。角速度検出部147が検出した角速度の変化に関する情報は、制御部144に送信される。制御部144は、角速度検出部147から取得した角速度の変化に関する情報に基づき、ユーザの頭部の向きを推定できる。本実施形態では、角速度検出部147は、例えば図4に示すように、ピッチ軸(x軸)、ヨー軸(y軸)、及びロール軸(z軸)の3軸まわりの角速度の変化を検出する。また、制御部144は、角速度検出部147の出力に基づき、ユーザの頭部の3軸まわりの角度、具体的にはピッチ角θ、ヨー角ψ、及びロール角φを推定する。   The angular velocity detection unit 147 is a sensor that detects a change in the angular velocity of the HMD 140, for example. The angular velocity detector 147 is composed of, for example, a gyro sensor. The angular velocity detection unit 147 is not limited to the gyro sensor. The angular velocity detection unit 147 only needs to be able to detect the angle change of the HMD 140. Therefore, the angular velocity detector 147 may be configured by, for example, an acceleration sensor, an angle sensor, another motion sensor, or a combination of these sensors. Information regarding the change in the angular velocity detected by the angular velocity detection unit 147 is transmitted to the control unit 144. The control unit 144 can estimate the orientation of the user's head based on the information regarding the change in angular velocity acquired from the angular velocity detection unit 147. In the present embodiment, the angular velocity detection unit 147 detects a change in angular velocity around three axes of a pitch axis (x axis), a yaw axis (y axis), and a roll axis (z axis), as shown in FIG. 4, for example. To do. Further, the control unit 144 estimates the angles of the user's head around the three axes, specifically, the pitch angle θ, the yaw angle ψ, and the roll angle φ, based on the output of the angular velocity detection unit 147.

次に、情報表示システム200における仮想空間の表示処理について、図5を参照して説明する。   Next, a virtual space display process in the information display system 200 will be described with reference to FIG.

まず、第1撮像装置110が、光源143の画像を撮像することにより、第1撮像画像を取得する(ステップS101)。   First, the first imaging device 110 acquires the first captured image by capturing the image of the light source 143 (step S101).

第1撮像装置110は、取得した第1撮像画像を情報処理装置130に送信する(ステップS102)。   The first imaging device 110 transmits the acquired first captured image to the information processing device 130 (step S102).

また、第2撮像装置120が、光源143の画像を撮像することにより、第2撮像画像を取得する(ステップS103)。   In addition, the second imaging device 120 acquires the second captured image by capturing the image of the light source 143 (step S103).

第2撮像装置120は、取得した第2撮像画像を情報処理装置130に送信する(ステップS104)。   The second imaging device 120 transmits the acquired second captured image to the information processing device 130 (step S104).

なお、第1撮像装置110によるステップS101及びS102の処理と、第2撮像装置120によるステップS103及びS104の処理とは、同時に実行されてもよい。   The processes of steps S101 and S102 by the first imaging device 110 and the processes of steps S103 and S104 by the second imaging device 120 may be executed at the same time.

情報処理装置130は、第1撮像装置110及び第2撮像装置120から、それぞれ第1撮像画像及び第2撮像画像を取得すると、取得した撮像画像に基づいて、HMD140の位置を特定する(ステップS105)。具体的には、情報処理装置130は、例えば予め記憶部132に記憶された第1撮像装置110の位置及び第2撮像装置120の位置と、取得した撮像画像とを用いて、式(5)により、光源143の位置を算出することにより、HMD140の位置を特定する。   When the information processing apparatus 130 acquires the first captured image and the second captured image from the first image capturing apparatus 110 and the second image capturing apparatus 120, respectively, the information processing apparatus 130 identifies the position of the HMD 140 based on the captured image acquired (step S105). ). Specifically, the information processing device 130 uses Expression (5) using, for example, the position of the first imaging device 110 and the position of the second imaging device 120, which are stored in advance in the storage unit 132, and the acquired captured image. Thus, the position of the HMD 140 is specified by calculating the position of the light source 143.

情報処理装置130は、特定したHMD140の位置に関する情報をHMD140に送信する(ステップS106)。   The information processing device 130 transmits information on the specified position of the HMD 140 to the HMD 140 (step S106).

HMD140は、角速度検出部147を用いて、HMD140の角速度の変化に関する情報を取得する(ステップS107)。   The HMD 140 uses the angular velocity detection unit 147 to acquire information regarding changes in the angular velocity of the HMD 140 (step S107).

そして、HMD140は、角速度検出部147が取得した角速度の変化に関する情報に基づいて、ユーザの頭部の向きを推定する(ステップS108)。   Then, the HMD 140 estimates the orientation of the user's head based on the information regarding the change in the angular velocity acquired by the angular velocity detection unit 147 (step S108).

HMD140は、ステップS106で情報処理装置130から取得した位置に関する情報と、ステップS108で推定した頭部の向きに基づいて、表示部142に仮想空間を表示する(ステップS109)。   The HMD 140 displays the virtual space on the display unit 142 based on the information regarding the position acquired from the information processing device 130 in step S106 and the head orientation estimated in step S108 (step S109).

このようにして、情報表示システム200は、HMD140の位置とユーザの頭部の向きとに基づいて、表示部142に仮想空間を表示する。情報表示システム200では、上述の位置検出システム100を応用して、HMD140の位置を特定しているため、HMD140の位置を正確に特定しやすくなる。   In this way, the information display system 200 displays the virtual space on the display unit 142 based on the position of the HMD 140 and the orientation of the user's head. In the information display system 200, the position of the HMD 140 is specified by applying the position detection system 100 described above, so that the position of the HMD 140 can be easily specified accurately.

また、情報表示システム200では、HMD140がユーザの頭部の向きを推定するので、例えば第1撮像画像及び第2撮像画像に基づき情報処理装置130が推定したユーザの頭部の向きをHMD140に通知する構成と比較して、ユーザの頭部の向きの変化に対する映像のディレイが低減される。このため、情報表示システム200の利便性が向上する。   Further, in the information display system 200, since the HMD 140 estimates the orientation of the user's head, for example, the HMD 140 is notified of the orientation of the user's head estimated by the information processing apparatus 130 based on the first captured image and the second captured image. Compared with the configuration described above, the image delay with respect to the change in the orientation of the user's head is reduced. Therefore, the convenience of the information display system 200 is improved.

なお、本発明は、上記実施形態にのみ限定されるものではなく、幾多の変形又は変更が可能である。例えば、各構成部等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の構成部等を1つに組み合わせたり、或いは分割したりすることが可能である。   It should be noted that the present invention is not limited to the above-described embodiment, and various modifications and changes can be made. For example, the functions and the like included in each component can be rearranged so as not to logically contradict, and a plurality of components can be combined into one or divided.

例えば、上記実施形態においては、位置検出システム100は、2つの撮像装置110及び120を備えるとして説明したが、位置検出システム100は、3つ以上の撮像装置を備えていてもよい。位置検出システム100が3つ以上の撮像装置を備える場合、情報処理装置130は、任意の2つの撮像装置が取得した撮像画像に基づいて、対象物Pの位置を特定できる。この場合、一部の撮像装置による撮像画像において、対象物Pが、例えば障害物に遮られることにより映っていない場合であっても、情報処理装置130は、対象物Pが映った他の撮像画像を用いて対象物Pの位置を特定することができる。   For example, in the above-described embodiment, the position detection system 100 has been described as including the two imaging devices 110 and 120, but the position detection system 100 may include three or more imaging devices. When the position detection system 100 includes three or more image capturing devices, the information processing device 130 can specify the position of the target object P based on the captured images acquired by any two image capturing devices. In this case, even if the target P is not displayed in the images captured by some of the image capturing devices due to being blocked by an obstacle, for example, the information processing apparatus 130 may capture another image of the target P. The position of the object P can be specified using the image.

また、上記応用例では、HMD140が2つの光源143a及び143bを備える場合について説明したが、HMD140が備える光源143の数は2つに限られない。HMD140が備える光源140の数は、1つであってもよく、3つ以上であってもよい。   Further, in the above application example, the case where the HMD 140 includes the two light sources 143a and 143b has been described, but the number of the light sources 143 included in the HMD 140 is not limited to two. The number of light sources 140 included in the HMD 140 may be one, or may be three or more.

また、上記応用例では、HMD140が光源143を備える場合について説明したが、応用例はこれに限られない。光源143は、HMD140以外の他の機器が備えていてもよく、この場合、情報処理装置130は、光源143を備える装置の位置を特定できる。   Further, in the above application example, the case where the HMD 140 includes the light source 143 has been described, but the application example is not limited to this. The light source 143 may be included in a device other than the HMD 140, and in this case, the information processing device 130 can identify the position of the device including the light source 143.

また、HMD140は、ユーザの頭部の向きに関する情報を、例えば情報処理装置130等の外部装置へ送信してもよい。かかる構成によって、以下に説明するように情報表示システム200の利便性が更に向上する。   The HMD 140 may also send information regarding the orientation of the user's head to an external device such as the information processing device 130. With this configuration, the convenience of the information display system 200 is further improved as described below.

例えば、ユーザの頭部の向きに関する情報を受信した情報処理装置130は、HMD140の位置とユーザの頭部の向きとに基づく所定の映像を、例えば外部の表示装置等に表示させることができる。所定の映像は、例えばHMD140に表示される映像と略同一の映像、及び仮想空間におけるユーザの位置及び向きを示すマップ映像等、多様な映像を含んでもよい。ここで、情報表示システム200が複数のHMD140を備える場合、情報処理装置130は、例えば第1のHMD140に表示される映像を第2のHMD140に表示させたり、複数のユーザの位置及び向きを示すマップ映像を複数のHMD140に表示させたりすることができる。   For example, the information processing device 130 that has received the information regarding the orientation of the user's head can display a predetermined image based on the position of the HMD 140 and the orientation of the user's head on, for example, an external display device. The predetermined image may include various images such as an image substantially the same as the image displayed on the HMD 140 and a map image showing the position and orientation of the user in the virtual space. Here, when the information display system 200 includes a plurality of HMDs 140, the information processing apparatus 130 causes the second HMD 140 to display an image displayed on the first HMD 140, and indicates the positions and orientations of a plurality of users. Map images can be displayed on a plurality of HMDs 140.

また、ユーザの頭部の向きに関する情報を受信した情報処理装置130は、当該向きに関する情報に基づき、ユーザの位置が次に変位する方向を予測することもできる。   In addition, the information processing apparatus 130 that has received the information regarding the orientation of the user's head can also predict the direction in which the user's position will be displaced next, based on the information regarding the orientation.

上記応用例において、情報処理装置130が実行するあらゆる処理をHMD140が実行できるようにしてもよい。このとき、情報表示システム200は、第1撮像装置110、第2撮像装置120及びHMD140からなるものであってよい。このとき、HMD140は、有線又は無線を介して、第1撮像装置110及び第2撮像装置120と通信可能に構成される。   In the above application example, the HMD 140 may be able to execute all the processes performed by the information processing device 130. At this time, the information display system 200 may include the first imaging device 110, the second imaging device 120, and the HMD 140. At this time, the HMD 140 is configured to be communicable with the first imaging device 110 and the second imaging device 120 via a wire or wirelessly.

また、上記実施形態に係る撮像装置110及び120、情報処理装置130、並びにHMD140として機能させるために、コンピュータ又は携帯電話等の情報処理装置を好適に用いることができる。このような情報処理装置は、実施形態に係る撮像装置110、120、情報処理装置130、又はHMD140の各機能を実現する処理内容を記述したプログラムを、情報処理装置の記憶部に格納し、情報処理装置のプロセッサによって当該プログラムを読み出して実行させることによって実現可能である。   Further, an information processing device such as a computer or a mobile phone can be preferably used in order to function as the imaging devices 110 and 120, the information processing device 130, and the HMD 140 according to the above-described embodiments. Such an information processing apparatus stores a program describing the processing content for realizing each function of the image capturing apparatus 110, 120, the information processing apparatus 130, or the HMD 140 according to the embodiment in a storage unit of the information processing apparatus, and It can be realized by reading and executing the program by the processor of the processing device.

100 位置検出システム
110 第1撮像装置
111、121、131、144 制御部
112、122、132、145 記憶部
113、123、133、146 通信部
114 第1撮像部
120 第2撮像装置
124 第2撮像部
130 情報処理装置
140 ヘッドマウントディスプレイ(HMD)
141 装着部
142 表示部
143 光源
147 角速度検出部
200 情報表示システム
100 Position Detection System 110 First Imaging Device 111, 121, 131, 144 Control Unit 112, 122, 132, 145 Storage Unit 113, 123, 133, 146 Communication Unit 114 First Imaging Unit 120 Second Imaging Device 124 Second Imaging Part 130 Information processing device 140 Head mounted display (HMD)
141 mounting unit 142 display unit 143 light source 147 angular velocity detection unit 200 information display system

Claims (4)

ユーザの頭部に装着される表示装置であって、
光源と、
前記頭部の3軸まわりの角度変化を検出するセンサと、
第1撮像装置によって撮像された前記光源の第1撮像画像及び第2撮像装置によって撮像された前記光源の第2撮像画像に基づき特定される前記光源の位置に関する情報を取得する通信インターフェースと、
前記光源の位置と、前記センサの出力に基づき推定される前記頭部の向きと、に基づいて表示制御を実行する制御部と、
を備え
前記光源の位置は、
前記第1撮像装置の位置ベクトルを第1ベクトル、
前記第2撮像装置の位置ベクトルを第2ベクトル、
前記第1撮像装置から前記第1撮像画像の画像平面上における前記光源に向かう方向ベクトルを第3ベクトル、
前記第2撮像装置から前記第2撮像画像の画像平面上における前記光源に向かう方向ベクトルを第4ベクトル、としたときに、
前記第4ベクトルと、前記第2撮像装置から前記光源に向かう方向ベクトルを前記第1ベクトル、前記第2ベクトル及び前記第3ベクトルで表したベクトルとの外積が0であることを利用して特定される、表示装置。
A display device worn on a user's head,
A light source,
A sensor for detecting an angle change of the head around three axes,
A communication interface to obtain information about the position of the light source to be identified based on the second image of the light source imaged by the first image and the second image pickup device of the light source that is an image shooting by the first imaging device When,
A position of the light source, and a controller that performs display control based on the orientation of the head estimated based on the output of the sensor,
Equipped with
The position of the light source is
The position vector of the first imaging device is a first vector,
The position vector of the second imaging device is a second vector,
A third vector is a direction vector from the first imaging device toward the light source on the image plane of the first captured image,
When the direction vector from the second imaging device toward the light source on the image plane of the second captured image is a fourth vector,
It is specified by using the outer product of the fourth vector and the direction vector from the second imaging device toward the light source represented by the first vector, the second vector and the third vector being 0. It is is, the display device.
請求項1に記載の表示装置であって、
前記光源の位置は、前記第1ベクトルをc 、前記第3ベクトルをa、実数をnとして、前記光源の位置ベクトルを下記の式(1)に示すようにpと表した場合に、前記外積が0であることを利用して実数nの値を算出することにより特定される、表示装置。
Figure 0006689679
The display device according to claim 1, wherein
If the position of the light source is c 1 , the third vector is a, the real number is n, and the position vector of the light source is p as shown in the following equation (1), the position of the light source is: A display device specified by calculating the value of a real number n using the fact that the outer product is 0 .
Figure 0006689679
ユーザの頭部に装着される表示装置と、第1撮像装置と、第2撮像装置と、を備える情報処理システムであって、
前記表示装置は、
光源と、
前記頭部の3軸まわりの角度変化を検出するセンサと、
前記第1撮像装置によって撮像された前記光源の第1撮像画像及び前記第2撮像装置によって撮像された前記光源の第2撮像画像に基づき特定される前記光源の位置に関する情報を取得する通信インターフェースと、
前記光源の位置と、前記センサの出力に基づき推定される前記頭部の向きと、に基づいて表示制御を実行する制御部と、を備え
前記光源の位置は、
前記第1撮像装置の位置ベクトルを第1ベクトル、
前記第2撮像装置の位置ベクトルを第2ベクトル、
前記第1撮像装置から前記第1撮像画像の画像平面上における前記光源に向かう方向ベクトルを第3ベクトル、
前記第2撮像装置から前記第2撮像画像の画像平面上における前記光源に向かう方向ベクトルを第4ベクトル、としたときに、
前記第4ベクトルと、前記第2撮像装置から前記光源に向かう方向ベクトルを前記第1ベクトル、前記第2ベクトル及び前記第3ベクトルで表したベクトルとの外積が0であることを利用して特定される、情報表示システム。
An information processing system comprising: a display device mounted on a user's head; a first imaging device; and a second imaging device ,
The display device is
A light source,
A sensor for detecting an angle change of the head around three axes,
To obtain information about the position of the light source to be identified based on the second image of the light source imaged by the first image and the second image pickup device of the light source that is shooting the image by the first imaging device Communication interface,
A position of the light source, and a direction of the head estimated based on the output of the sensor, and a control unit that performs display control based on ,
The position of the light source is
The position vector of the first imaging device is a first vector,
The position vector of the second imaging device is a second vector,
A third vector is a direction vector from the first imaging device toward the light source on the image plane of the first captured image,
When the direction vector from the second imaging device toward the light source on the image plane of the second captured image is a fourth vector,
It is specified by using the outer product of the fourth vector and the direction vector from the second imaging device toward the light source represented by the first vector, the second vector and the third vector being 0. It is is, the information display system.
ユーザの頭部に装着される表示装置に、
前記表示装置に備えられたセンサを用いて前記頭部の3軸まわりの角度変化を検出するステップと、
前記表示装置に備えられた光源の、第1撮像装置によって撮像された第1撮像画像及び第2撮像装置によって撮像された第2撮像画像に基づき特定される、前記光源の位置に関する情報を取得するステップと、
前記光源の位置と、前記センサの出力に基づき推定される前記頭部の向きと、に基づいて表示制御を実行するステップと、
を実行させ
前記光源の位置は、
前記第1撮像装置の位置ベクトルを第1ベクトル、
前記第2撮像装置の位置ベクトルを第2ベクトル、
前記第1撮像装置から前記第1撮像画像の画像平面上における前記光源に向かう方向ベクトルを第3ベクトル、
前記第2撮像装置から前記第2撮像画像の画像平面上における前記光源に向かう方向ベクトルを第4ベクトル、としたときに、
前記第4ベクトルと、前記第2撮像装置から前記光源に向かう方向ベクトルを前記第1ベクトル、前記第2ベクトル及び前記第3ベクトルで表したベクトルとの外積が0であることを利用して特定される、プログラム。
On the display device worn on the user's head,
Detecting a change in angle around the three axes of the head using a sensor provided in the display device;
Wherein the light source provided in the display device are identified on the basis of the second image captured by the first image and the second image pickup apparatus which is an image shooting by the first imaging device, information about the position of the light source To get
A step of performing display control based on the position of the light source and the orientation of the head estimated based on the output of the sensor;
Was executed,
The position of the light source is
The position vector of the first imaging device is a first vector,
The position vector of the second imaging device is a second vector,
A third vector is a direction vector from the first imaging device toward the light source on the image plane of the first captured image,
When the direction vector from the second imaging device toward the light source on the image plane of the second captured image is a fourth vector,
It is specified by using the outer product of the fourth vector and the vector representing the direction vector from the second imaging device toward the light source represented by the first vector, the second vector and the third vector being 0. Be a program.
JP2016110440A 2016-06-01 2016-06-01 Display device, information display system, and program Active JP6689679B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016110440A JP6689679B2 (en) 2016-06-01 2016-06-01 Display device, information display system, and program
US15/608,031 US10388027B2 (en) 2016-06-01 2017-05-30 Detection method, display apparatus, and detection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016110440A JP6689679B2 (en) 2016-06-01 2016-06-01 Display device, information display system, and program

Publications (2)

Publication Number Publication Date
JP2017215873A JP2017215873A (en) 2017-12-07
JP6689679B2 true JP6689679B2 (en) 2020-04-28

Family

ID=60575782

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016110440A Active JP6689679B2 (en) 2016-06-01 2016-06-01 Display device, information display system, and program

Country Status (1)

Country Link
JP (1) JP6689679B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4665872B2 (en) * 2006-08-30 2011-04-06 株式会社島津製作所 Head motion tracker device
KR101818024B1 (en) * 2011-03-29 2018-01-12 퀄컴 인코포레이티드 System for the rendering of shared digital interfaces relative to each user's point of view
US9897805B2 (en) * 2013-06-07 2018-02-20 Sony Interactive Entertainment Inc. Image rendering responsive to user actions in head mounted display
JP6008711B2 (en) * 2012-11-26 2016-10-19 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP6355978B2 (en) * 2014-06-09 2018-07-11 株式会社バンダイナムコエンターテインメント Program and image generation apparatus
JP2016071900A (en) * 2014-09-30 2016-05-09 キヤノンマーケティングジャパン株式会社 Information processing system and control method of the same, and program

Also Published As

Publication number Publication date
JP2017215873A (en) 2017-12-07

Similar Documents

Publication Publication Date Title
US9401050B2 (en) Recalibration of a flexible mixed reality device
US10852847B2 (en) Controller tracking for multiple degrees of freedom
US20150161762A1 (en) Information processing apparatus, information processing method, and program
WO2015093130A1 (en) Information processing device, information processing method, and program
EP2787425B1 (en) Optical detection of bending motions of a flexible display
JP2013124972A (en) Position estimation device and method and television receiver
US10388027B2 (en) Detection method, display apparatus, and detection system
US20140191959A1 (en) Pointing system and display having improved operable range
WO2020195875A1 (en) Information processing device, information processing method, and program
US9013404B2 (en) Method and locating device for locating a pointing device
US11137600B2 (en) Display device, display control method, and display system
JP6689679B2 (en) Display device, information display system, and program
JP6670682B2 (en) Position detection method and position detection system
TW201901371A (en) Three-dimensional positioning system and method thereof
JP6975001B2 (en) Tilt measuring device and tilt measuring method
JP2021051000A (en) Angular-velocity detector, image display device, method for detecting angular velocity, and program
JP6689678B2 (en) Detection method, object to be detected, and system
JP6670681B2 (en) Position detection method and position detection system
JP6681278B2 (en) Position detection system and position detection method
JP6488946B2 (en) Control method, program, and control apparatus
JP2019113881A (en) Head-mounted device
JP6134235B2 (en) Control device, electronic control system, control method, and program
JP2023026894A (en) Information processing apparatus, information processing system and information processing program
CN116295327A (en) Positioning method, positioning device, electronic equipment and computer readable storage medium
CN115712348A (en) Handle controller, head-mounted display device and tracking method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191001

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200408

R150 Certificate of patent or registration of utility model

Ref document number: 6689679

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150