JP7435330B2 - Head motion tracker device and head motion tracker device for aircraft - Google Patents
Head motion tracker device and head motion tracker device for aircraft Download PDFInfo
- Publication number
- JP7435330B2 JP7435330B2 JP2020120728A JP2020120728A JP7435330B2 JP 7435330 B2 JP7435330 B2 JP 7435330B2 JP 2020120728 A JP2020120728 A JP 2020120728A JP 2020120728 A JP2020120728 A JP 2020120728A JP 7435330 B2 JP7435330 B2 JP 7435330B2
- Authority
- JP
- Japan
- Prior art keywords
- head
- image
- angle
- control unit
- observer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004891 communication Methods 0.000 claims description 53
- 239000003550 marker Substances 0.000 claims description 20
- 230000007613 environmental effect Effects 0.000 claims description 5
- 238000012545 processing Methods 0.000 description 45
- 238000000034 method Methods 0.000 description 26
- 230000008569 process Effects 0.000 description 21
- 230000001133 acceleration Effects 0.000 description 20
- 238000001514 detection method Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 18
- 230000003287 optical effect Effects 0.000 description 17
- 230000000449 premovement Effects 0.000 description 17
- 230000006870 function Effects 0.000 description 16
- 238000009434 installation Methods 0.000 description 8
- 238000005259 measurement Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 239000002245 particle Substances 0.000 description 3
- 238000005286 illumination Methods 0.000 description 2
- 230000001151 other effect Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000000875 corresponding effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010248 power generation Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
Description
本発明は、ヘッドモーショントラッカ装置および航空機用ヘッドモーショントラッカ装置に関し、特に、観察者の頭部に装着される頭部装着部を備えるヘッドモーショントラッカ装置および航空機用ヘッドモーショントラッカ装置に関する。 The present invention relates to a head motion tracker device and an aircraft head motion tracker device, and more particularly to a head motion tracker device and an aircraft head motion tracker device that include a head attachment section that is mounted on the head of an observer.
従来、観察者の頭部に装着される頭部装着部を備えるヘッドモーショントラッカ装置および航空機用ヘッドモーショントラッカ装置が知られている(たとえば、特許文献1参照)。 BACKGROUND ART Conventionally, head motion tracker devices and aircraft head motion tracker devices that include a head-mounted section that is mounted on an observer's head are known (for example, see Patent Document 1).
上記特許文献1には、パイロット(観察者)の頭部に装着されるヘルメット(頭部装着部)を備えるヘッドモーショントラッカ装置が開示されている。このヘッドモーショントラッカ装置は、上記ヘルメットと、搭乗体(航空機の機体)内に設置されたカメラ装置と、制御部とを備える。 The above-mentioned Patent Document 1 discloses a head motion tracker device that includes a helmet (head attachment part) that is attached to the head of a pilot (observer). This head motion tracker device includes the helmet, a camera device installed in a passenger body (aircraft body), and a control section.
上記特許文献1のヘルメットには、互いに異なる波長の赤外光を発光する複数の頭部装着体発光部が配置されている。制御部は、カメラ装置により撮影された複数の頭部装着体発光部の各々の位置情報に基づいて、パイロットの頭部の位置および角度を取得する制御を行うように構成されている。ヘッドモーショントラッカ装置では、制御部によりパイロットの頭部の位置および角度を取得するために、複数の頭部装着体発光部を確実に撮影可能な位置にカメラ装置が配置されている。 In the helmet of Patent Document 1, a plurality of head-mounted body light emitting parts that emit infrared light of different wavelengths are arranged. The control unit is configured to perform control to obtain the position and angle of the pilot's head based on position information of each of the plurality of head-mounted body light emitting units photographed by the camera device. In the head motion tracker device, a camera device is arranged at a position where a plurality of head-mounted body light emitting units can be reliably photographed in order to obtain the position and angle of the pilot's head by the control unit.
しかしながら、上記特許文献1のヘッドモーショントラッカ装置では、複数の頭部装着体発光部を確実に撮影可能な位置にカメラ装置を航空機の機体内に設置する必要があるので、航空機の機体にカメラ装置(画像取得部)の設置スペースを確保する必要がある。このため、上記特許文献1のヘッドモーショントラッカ装置では、既存の搭乗体において上記設置スペースを確保することが困難な場合があるので、ヘッドモーショントラッカ装置を既存の搭乗体(移動体)であっても容易に適用可能とすることが望まれている。 However, in the head motion tracker device of Patent Document 1, it is necessary to install the camera device inside the aircraft body at a position where the plurality of head-mounted body light emitting parts can be reliably photographed. (Image acquisition unit) installation space must be secured. For this reason, with the head motion tracker device of Patent Document 1, it may be difficult to secure the above-mentioned installation space in an existing vehicle; It is also desired that the technology can be easily applied.
この発明は、上記のような課題を解決するためになされたものであり、この発明の1つの目的は、既存の移動体であっても容易に適用することが可能なヘッドモーショントラッカ装置および航空機用ヘッドモーショントラッカ装置を提供することである。 This invention has been made to solve the above problems, and one object of the invention is to provide a head motion tracker device and aircraft that can be easily applied even to existing moving objects. An object of the present invention is to provide a head motion tracker device for use in a vehicle.
上記目的を達成するために、この発明の第1の局面におけるヘッドモーショントラッカ装置は、観察者の頭部に装着される頭部装着部と、頭部装着部に取り付けられ、観察者の頭部の向きに沿った方向の画像を取得する画像取得部と、画像取得部により取得された画像に基づいて、観察者の頭部の位置および角度を取得する制御を行うように構成された制御部とを備え、制御部は、画像取得部により取得された画像に基づいて、観察者の周囲の三次元の周囲環境地図を作成する制御を行うように構成されており、周囲環境地図は、現時点において画像取得部により取得された第1画像により構成される第1周囲環境地図と、第1画像よりも前の第2画像により構成される第2周囲環境地図と、第2画像に第1画像を合成した画像に基づく第3周囲環境地図とを含み、制御部は、第2周囲環境地図と、第3周囲環境地図とに基づいて、第1周囲環境地図を取得するとともに、観察者の頭部の位置および角度を推定する制御を行うように構成されている。 In order to achieve the above object, a head motion tracker device according to a first aspect of the present invention includes a head-mounted part that is mounted on the head of an observer, a head-mounted part that is attached to the head-mounted part, and a head motion tracker device that is mounted on the head of the observer. an image acquisition unit that acquires an image in a direction along the direction of the image acquisition unit; and a control unit configured to perform control to acquire the position and angle of the observer's head based on the image acquired by the image acquisition unit. The control unit is configured to perform control to create a three-dimensional surrounding environment map around the observer based on the image acquired by the image acquisition unit, and the surrounding environment map is A first surrounding environment map made up of the first image acquired by the image obtaining unit in , a second surrounding environment map made up of the second image before the first image, and a second surrounding environment map made up of the first image acquired by the image acquisition unit; and a third surrounding environment map based on a composite image, the control unit acquires the first surrounding environment map based on the second surrounding environment map and the third surrounding environment map, and The controller is configured to perform control to estimate the position and angle of the part .
この発明の第1の局面におけるヘッドモーショントラッカ装置では、上記のように、頭部装着部に取り付けられた画像取得部を設ける。また、ヘッドモーショントラッカ装置では、画像取得部により取得された画像に基づいて、観察者の頭部の位置および角度を取得する制御を行うように構成された制御部を設ける。これにより、移動体ではなく、頭部装着部に取り付けられた画像取得部の画像に基づいて、制御部により観察者の頭部の位置および角度を取得することができる。すなわち、移動体に画像取得部を設置することなく、制御部により観察者の頭部の位置および角度を取得することができる。その結果、移動体に画像取得部の設置スペースを確保する必要がないので、ヘッドモーショントラッカ装置を既存の移動体であっても容易に適用することができる。 As described above, the head motion tracker device according to the first aspect of the invention includes an image acquisition section attached to the head mounting section. Further, the head motion tracker device includes a control unit configured to perform control to acquire the position and angle of the observer's head based on the image acquired by the image acquisition unit. Thereby, the position and angle of the observer's head can be acquired by the control unit based on the image of the image acquisition unit attached to the head mounted unit rather than the moving object. That is, the position and angle of the observer's head can be acquired by the control unit without installing an image acquisition unit in the moving object. As a result, there is no need to secure installation space for the image acquisition unit in the moving object, so the head motion tracker device can be easily applied even to an existing moving object.
上記目的を達成するために、この発明の第2の局面における航空機用ヘッドモーショントラッカ装置は、航空機の機体内の観察者としてのパイロットに装着されるヘッドモーショントラッカ装置を備え、ヘッドモーショントラッカ装置は、パイロットの頭部に取り付けられる頭部装着部と、頭部装着部に取り付けられ、パイロットの頭部の向きに沿った方向の画像を取得する画像取得部と、画像取得部により取得された画像に基づいて、パイロットの頭部の位置および角度を取得する制御を行うように構成された制御部とを含み、制御部は、画像取得部により取得された画像に基づいて、観察者の周囲の三次元の周囲環境地図を作成する制御を行うように構成されており、周囲環境地図は、現時点において画像取得部により取得された第1画像により構成される第1周囲環境地図と、第1画像よりも前の第2画像により構成される第2周囲環境地図と、第2画像に第1画像を合成した画像に基づく第3周囲環境地図とを含み、制御部は、第2周囲環境地図と、第3周囲環境地図とに基づいて、第1周囲環境地図を取得するとともに、観察者の頭部の位置および角度を推定する制御を行うように構成されている。 In order to achieve the above object, a head motion tracker device for an aircraft according to a second aspect of the present invention includes a head motion tracker device worn by a pilot as an observer inside an aircraft body, and the head motion tracker device , a head-mounted section attached to the pilot's head; an image acquisition section attached to the head-mounted section that acquires an image in a direction along the direction of the pilot's head; and an image acquired by the image acquisition section. a control unit configured to perform control to acquire the position and angle of the pilot's head based on the image acquisition unit; The surrounding environment map is configured to control the creation of a three-dimensional surrounding environment map, and the surrounding environment map includes a first surrounding environment map formed from a first image acquired by the image acquisition unit at the present time, and a first The controller includes a second surrounding environment map configured by a second image before the image, and a third surrounding environment map based on an image obtained by combining the first image with the second image, and the control unit controls the second surrounding environment map. The first surrounding environment map is acquired based on the first surrounding environment map and the third surrounding environment map, and control is performed to estimate the position and angle of the observer's head .
この発明の第2の局面における航空機用ヘッドモーショントラッカ装置は、上記のように、頭部装着部に取り付けられた画像取得部を設ける。また、ヘッドモーショントラッカ装置では、画像取得部により取得された画像に基づいて、観察者の頭部の位置および角度を取得する制御を行うように構成された制御部を設ける。これにより、移動体ではなく、頭部装着部に取り付けられた画像取得部の画像に基づいて制御部により、観察者の頭部の位置および角度を取得することができる。すなわち、移動体に画像取得部を設置することなく、制御部により観察者の頭部の位置および角度を取得することができる。その結果、移動体に画像取得部の設置スペースを確保する必要がないので、ヘッドモーショントラッカ装置を既存の移動体であっても容易に適用することが可能な航空機用ヘッドモーショントラッカ装置を得ることができる。 The aircraft head motion tracker device according to the second aspect of the invention includes the image acquisition section attached to the head mounting section, as described above. Further, the head motion tracker device includes a control unit configured to perform control to acquire the position and angle of the observer's head based on the image acquired by the image acquisition unit. Thereby, the position and angle of the observer's head can be acquired by the control unit based on the image of the image acquisition unit attached to the head mounted unit instead of the moving body. That is, the position and angle of the observer's head can be acquired by the control unit without installing an image acquisition unit in the moving object. As a result, there is no need to secure installation space for an image acquisition unit on the moving object, so that the head motion tracker device for an aircraft can be easily applied even to an existing moving object. Can be done.
上記第1の局面におけるヘッドモーショントラッカ装置は、観察者の頭部に装着される頭部装着部と、頭部装着部に取り付けられ、観察者の頭部の向きに沿った方向の画像を取得する画像取得部と、画像取得部により取得された画像に基づいて、観察者の頭部の位置および角度を取得する制御を行うように構成された制御部とを備える。これにより、移動体ではなく、頭部装着部に取り付けられた画像取得部の画像に基づいて、制御部により観察者の頭部の位置および角度を取得することができる。すなわち、移動体に画像取得部を設置することなく、制御部により観察者の頭部の位置および角度を取得することができる。その結果、移動体に画像取得部の設置スペースを確保する必要がないので、ヘッドモーショントラッカ装置を既存の移動体であっても容易に適用することができる。 The head motion tracker device according to the first aspect includes a head-mounted part that is attached to the head of an observer, and a head-mounted part that is attached to the head-mounted part to acquire an image in a direction along the direction of the head of the observer. and a control section configured to perform control to acquire the position and angle of the observer's head based on the image acquired by the image acquisition section. Thereby, the position and angle of the observer's head can be acquired by the control unit based on the image of the image acquisition unit attached to the head mounted unit rather than the moving object. That is, the position and angle of the observer's head can be acquired by the control unit without installing an image acquisition unit in the moving body. As a result, there is no need to secure installation space for the image acquisition unit in the moving object, so the head motion tracker device can be easily applied even to an existing moving object.
上記第2の局面における航空機用ヘッドモーショントラッカ装置は、航空機の機体内の観察者としてのパイロットに装着されるヘッドモーショントラッカ装置を備え、ヘッドモーショントラッカ装置は、パイロットの頭部に取り付けられる頭部装着部と、頭部装着部に取り付けられ、パイロットの頭部の向きに沿った方向の画像を取得する画像取得部と、画像取得部により取得された画像に基づいて、パイロットの頭部の位置および角度を取得する制御を行うように構成された制御部とを含む。これにより、移動体ではなく、頭部装着部に取り付けられた画像取得部の画像に基づいて制御部により、観察者の頭部の位置および角度を取得することができる。すなわち、移動体に画像取得部を設置することなく、制御部により観察者の頭部の位置および角度を取得することができる。その結果、移動体に画像取得部の設置スペースを確保する必要がないので、ヘッドモーショントラッカ装置を既存の移動体であっても容易に適用することが可能な航空機用ヘッドモーショントラッカ装置を得ることができる。 The aircraft head motion tracker device according to the second aspect includes a head motion tracker device attached to a pilot as an observer inside the aircraft body, and the head motion tracker device includes a head motion tracker device attached to the pilot's head. an image acquisition unit that is attached to the head attachment unit and acquires an image in a direction along the orientation of the pilot's head; and a position of the pilot's head based on the image acquired by the image acquisition unit. and a control unit configured to perform control to obtain the angle. Thereby, the position and angle of the observer's head can be acquired by the control unit based on the image of the image acquisition unit attached to the head mounted unit instead of the moving object. That is, the position and angle of the observer's head can be acquired by the control unit without installing an image acquisition unit in the moving object. As a result, there is no need to secure installation space for an image acquisition unit on the moving object, so that the head motion tracker device for an aircraft can be easily applied even to an existing moving object. Can be done.
以下、本発明を具体化した実施形態を図面に基づいて説明する。 DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments embodying the present invention will be described based on the drawings.
[第1実施形態]
図1~図9を参照して、第1実施形態による航空機用ヘッドモーショントラッカ装置10(以下、単にヘッドモーショントラッカ装置10と記載)の構成について説明する。ヘッドモーショントラッカ装置10は、図1に示すように、航空機100内のパイロット11に装着されるヘッドマウントディスプレイに設けられている。詳細には、ヘッドモーショントラッカ装置10は、ヘッドマウントディスプレイにおいて、パイロット11の頭部の位置および角度を計測する機能を有している。なお、航空機用ヘッドモーショントラッカ装置10は、特許請求の範囲の「ヘッドモーショントラッカ装置」の一例である。また、航空機100は、特許請求の範囲の「移動体」の一例である。パイロット11は、特許請求の範囲の「観察者」の一例である。
[First embodiment]
The configuration of an aircraft head motion tracker device 10 (hereinafter simply referred to as head motion tracker device 10) according to the first embodiment will be described with reference to FIGS. 1 to 9. The head
具体的には、図1および図2に示すように、ヘッドモーショントラッカ装置10は、頭部装着部1と、画像取得部2と、目印部3と、制御部4とを備えている。
Specifically, as shown in FIGS. 1 and 2, the head
頭部装着部1は、頭部装着部1は、ヘルメット、ヘッドセットおよびベルトなどの、パイロット11の頭部に装着される部材である。画像取得部2は、頭部装着部1に取り付けられ、パイロット11の頭部の向きに沿った方向(以下、A方向とする)の画像を取得するように構成されている。画像取得部2は、並んで配置された複数(2つ)のカメラ21を含んでいる。詳細には、2つのカメラ21は、エリアセンサカメラである。2つのカメラ21は、紫外光および近赤外光に感度を有している。2つのカメラ21は、所定の間隔を空けて配置されている。2つのカメラ21の各々は、同一のA方向を撮影するように構成されている。2つのカメラ21には、同じレンズが装着されている。具体的には、2つのカメラ21には、同じ広角レンズまたは魚眼レンズが装着されている。
The head-mounted part 1 is a member mounted on the head of the
目印部3は、パイロット11の周囲に配置され、画像取得部2により画像として取得される。すなわち、目印部3は、マーカとしての機能を有している。目印部3は、航空機100に複数(3つ)配置されている。目印部3は、航空機100のコクピット内に配置されている。なお、目印部3は、1、2または4つ以上配置されてもよい。
The landmark section 3 is arranged around the
目印部3は、取付部31と、発光部32とを含んでいる。取付部31は、目印部3を移動体に取り付けるための土台である。発光部32は、取付部31のパイロット11側の面に取り付けられている。発光部32は、紫外光または近赤外光を照射可能なLED(Light Emitting Diode)、VCSEL(Vertical Cavity Surface Emitting Laser(垂直共振器面発光レーザ))などにより構成されている。また、発光部32は、広角に光を照射可能とするためのレンズが取り付けられている。
The mark section 3 includes a mounting
目印部3は、非接触給電および太陽光発電などにより電力が供給されるように構成されている。このように、目印部3に電力を供給するための配線接続が不要である。 The mark section 3 is configured to be supplied with electric power by non-contact power supply, solar power generation, or the like. In this way, wiring connections for supplying power to the mark section 3 are not required.
目印部3は、パイロット11の頭部の位置および角度を精度よく計測する必要があるので、パイロット11の正面側に複数(2つ)配置されている。これにより、パイロット11が正面を向いた際、画像取得部2により複数(2つ)の目印部3が取得される。
Since it is necessary to accurately measure the position and angle of the pilot's 11's head, a plurality (two) of the marker parts 3 are arranged on the front side of the
制御部4は、各種の制御および演算処理を行うコンピュータにより構成されている。制御部4は、画像処理部41と、CPU(Central Processing Unit)部42と、記憶部43とを含んでいる。
The
画像処理部41は、画像取得部2において取得した画像に基づいて、画像における特徴点12の抽出処理、および、機械学習により画像に基づいて三次元地図としての周囲環境地図5を作成する処理などを行う機能を有している。画像処理部41において作成された周囲環境地図5は、記憶部43に記憶される。ここで、画像中の特徴点12とは、取得された画像中において、コントラストの差から取得される、航空機100内の躯体の形状、航空機100内に配置されたスイッチおよびディスプレイなどの部分の重心点を示す。また、画像の特徴点12としては、目印部3も特徴点12として取得される。
The
周囲環境地図5において、相対座標系(XYZ座標系)は、2つのカメラ21の並ぶ方向に延びる軸をX軸(図4参照)とし、2つのカメラ21の光軸方向に延びる軸をY軸(図4参照)とし、X軸およびY軸に直交する方向に延びる軸をZ軸(図4参照)とする。また、相対座標系の原点は、2つのカメラ21の中点とする。
In the surrounding environment map 5, the relative coordinate system (XYZ coordinate system) has an axis extending in the direction in which the two
ここで、2つのカメラ21がエリアセンサカメラであるので、画像処理部41は、周囲環境地図5におけるXZ平面の情報を取得可能である。また、画像取得部2は、2つのカメラ21の視差に基づくステレオ法により、周囲環境地図5におけるY軸方向の情報を取得可能である。
Here, since the two
周囲環境地図5は、ベース地図51(図4参照)と、現フレーム地図52(図6参照)と、前フレーム地図53(図4参照)とを有している。なお、ベース地図51および前フレーム地図53は、特許請求の範囲の「第2周囲環境地図」の一例である。なお、現フレーム地図52は、特許請求の範囲の「第3周囲環境地図」の一例である。
The surrounding environment map 5 includes a base map 51 (see FIG. 4), a current frame map 52 (see FIG. 6), and a previous frame map 53 (see FIG. 4). Note that the
ベース地図51は、周囲環境地図5において基準となる地図である。ベース地図51は、たとえば、A方向として真正面をパイロット11が向いた状態で際に撮影されたベース画像61に基づく周囲環境地図5であってもよい。ベース地図51は、記憶部43にあらかじめ登録されている。
The
前フレーム地図53は、現時点よりも前に記憶部43に記憶された現フレーム地図52である。前フレーム地図53は、たとえば、A方向として真正面をパイロット11が向いた際に撮影された移動前画像62に基づく三次元地図であってもよい。なお、移動前画像62は、特許請求の範囲の「第2画像」の一例である。
The
現フレーム地図52は、たとえば、真正面をパイロット11が向いた際に撮影された移動前画像62と、真正面からパイロット11の頭部が移動した際に撮影された移動後画像63とを合成した画像に基づく三次元地図であってもよい。現フレーム地図52は、画像取得部2により取得された画像に合わせて追加されていく。なお、移動後画像63は、特許請求の範囲の「第1画像」の一例である。
The
CPU部42は、比較処理42aと、位置角度検出処理42bとを実行する機能を有している。比較処理42aは、画像処理部41において変換された周囲環境地図5を比較する処理である。位置角度検出処理42bは、画像処理部41により作成された周囲環境地図5に基づいて、パイロット11の頭部の現時点における位置および角度を検出する処理である。位置角度検出処理42bについては、一例を用いて後に説明する。
The
記憶部43は、RAM(Random Access Memory)およびROM(Read Only Memory)を有する記憶媒体である。ここで、RAMには、前フレーム地図53が記憶されている。また、ROMには、ベース地図51が記憶されている。
The
(位置角度検出処理)
第1実施形態の制御部4は、画像取得部2により取得された画像に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成されている。なお、パイロット11の頭部の位置および角度は、2つのカメラ21の中点の位置および角度として示される。
(Position angle detection processing)
The
詳細には、制御部4は、画像取得部2により取得される画像のうち、航空機100内の外界を視認可能な窓以外の部分に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成されている。すなわち、制御部4は、画像取得部2により取得された画像中において、航空機100内の躯体の形状、航空機100内に配置されたスイッチおよびディスプレイなどの特徴点12に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成されている。
In detail, the
図3~図9を参照して、パーティクルフィルタを適用した位置角度検出処理42bを一例として説明する。なお、以下の説明では、ベース地図51と、前フレーム地図53とが、同じである例を示しているが、ベース地図51と、前フレーム地図53とが、異なっていてもよい。ベース地図51と、前フレーム地図53とが、異なる場合、前フレーム地図53を用いて位置角度検出処理42bが行われてもよい。
With reference to FIGS. 3 to 9, position and
図3および図4に示すように、制御部4は、パイロット11が真正面を向いた時の画像(移動前画像62)に基づいて、機械学習によりパイロット11の周囲の三次元の周囲環境地図5(前フレーム地図53)を作成する制御を行うように構成されている。すなわち、制御部4は、2つのカメラ21の視差に基づいて、パイロット11の頭部の向きに沿った方向の距離を取得するとともに、取得した距離に基づいて、三次元の周囲環境地図5(前フレーム地図53)を作成する制御を行うように構成されている。この際、制御部4は、移動前画像62中のコントラストの差に基づいて、複数の特徴点12を取得する制御を行うように構成されている。制御部4は、移動前画像62中のコントラストの差に基づいて、複数の目印部3を取得する制御を行うように構成されている。
As shown in FIGS. 3 and 4, the
ここで、パイロット11の頭部の位置および角度は、それぞれ、(X1、Y1、Z1)および(RL1、EL1、AZ1)と示される。RL1は、ロール方向(X軸に対する回転)の角度である。EL1は、エレベーション方向(Y軸に対する回転)の角度である。AZ1は、アジマス方向(Z軸に対する回転)の角度である。
Here, the position and angle of the head of the
次に、図5および図6には、パイロット11の頭部を真正面の向きから下方向に移動させた場合が示されている。この場合、制御部4は、移動前画像62およびパイロット11の頭部が移動した後のA方向の画像(移動後画像63)に基づいて、機械学習によりパイロット11の周囲の三次元の周囲環境地図5(現フレーム地図52)を作成する制御を行うように構成されている。すなわち、制御部4は、2つのカメラ21の視差に基づいて、パイロット11の頭部の向きに沿った方向の距離を取得するとともに、取得した距離に基づいて、三次元の周囲環境地図5(現フレーム地図52)を作成する制御を行うように構成されている。この際、制御部4は、移動後画像63中のコントラストの差に基づいて、複数の特徴点12を取得する制御を行うように構成されている。制御部4は、移動後画像63中のコントラストの差に基づいて、複数の目印部3を取得する制御を行うように構成されている。
Next, FIGS. 5 and 6 show a case in which the head of the
現フレーム地図52は、移動前画像62と、移動後画像63とにおいて同じ部分(共通部分)を合成するとともに、移動前画像62とは異なる移動後画像63の部分を追加した画像に基づいて作成される一続きの三次元地図である。ここで、現フレーム地図52は、次に移動後画像63が取得される際には、前フレーム地図53となる。そして、上記前フレーム地図53には、同様に、移動後画像63が合成・追加されていく。このように、現フレーム地図52は、現フレーム以降の周囲環境地図5の作成に用いられる。
The
ここで、真正面の向きから下方向に移動させた後のパイロット11の頭部の位置および角度は、それぞれ、(X2、Y2、Z2)および(RL2、EL2、AZ2)と示される。
Here, the position and angle of the head of the
次に、図7に示すように、制御部4は、前フレーム地図53と、現フレーム地図52との比較に基づいて、移動後環境地図54を取得する制御を行うように構成されている。すなわち、制御部4は、現フレーム地図52の中から、移動後画像63に対応する部分を取得する制御を行うように構成されている。なお、移動後環境地図54は、特許請求の範囲の「第1周囲環境地図」の一例である。
Next, as shown in FIG. 7, the
このように、移動後環境地図54は、現フレーム(現時点)において画像取得部2により取得された移動後画像63により構成された地図である。現フレーム地図52は、移動前画像62に移動後画像63を合成した画像に基づく地図である。前フレーム地図53は、移動後画像63よりも前のフレーム(前の時点)の移動前画像62により構成された地図である。
In this way, the
そして、図7および図8に示すように、制御部4は、移動後環境地図54に含まれる複数の特徴点12および特徴点12としての目印部3を全て取得可能なパイロット11の頭部の位置および角度を、現時点のパイロット11の頭部の位置および角度として推定する制御を行うように構成されている。
Then, as shown in FIGS. 7 and 8, the
詳細には、図9に示すように、制御部4は、パーティクルフィルタに基づいて、現フレームのパイロット11の頭部の位置および角度として推定する制御を行うように構成されている。
Specifically, as shown in FIG. 9, the
すなわち、制御部4は、現フレームよりも前のフレームのパイロット11の頭部の位置および角度に基づいて、互いに頭部の位置および角度が異なる複数のパイロット11の頭部の位置および角度を作成する制御を行うように構成されている。制御部4は、作成した互いに頭部の位置および角度が異なる複数のパイロット11の頭部の位置および角度をランダムに移動させる制御を行うように構成されている。
That is, the
制御部4は、ランダムに移動させた複数のパイロット11の頭部の位置および角度のうちから、現フレーム地図52から移動後環境地図54と相関関係のある地図を取得可能なパイロット11の頭部の位置および角度を選択する制御を行うように構成されている。詳細には、制御部4は、作成した複数のパイロット11の頭部の位置および角度のうちから、移動後環境地図54に含まれる複数の特徴点12および特徴点12としての目印部3を全て取得可能なパイロット11の頭部の位置および角度を選択する制御を行うように構成されている。
The
そして、制御部4は、相関関係のある地図を取得可能なパイロット11の頭部の位置および角度(図9の○印)に基づいて、互いに頭部の位置および角度が異なる複数のパイロット11の頭部の位置および角度を作成する制御を行うように構成されている。この際、制御部4は、相関関係のないパイロット11の頭部の位置および角度(図9の×印)を削除する制御を行うように構成されている。
Based on the head positions and angles of the pilots 11 (marked with circles in FIG. 9) for which correlated maps can be obtained, the
上記したように、制御部4は、A方向(パイロット11の頭部の向きに沿った方向)の移動前画像62に基づいて、パイロット11の周囲の三次元の前フレーム地図53を作成する制御を行うように構成されている。制御部4は、A方向(パイロット11の頭部の向きに沿った方向)の移動前画像62および移動後画像63に基づいて、パイロット11の周囲の三次元の現フレーム地図52を作成する制御を行うように構成されている。制御部4は、前フレーム地図53および現フレーム地図52に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成されている。
As described above, the
ここで、制御部4は、前フレーム地図53と、現フレーム地図52との比較に基づいて、移動後環境地図54を取得するとともに、パイロット11の頭部の位置および角度を推定する制御を行うように構成されている。すなわち、制御部4は、現フレーム地図52から移動後環境地図54を取得する制御を行うように構成されている。
Here, the
制御部4は、目印部3が取得された移動後画像63に基づく三次元の移動後環境地図54中の目印部3に基づいて、パイロット11の頭部の位置および角度を取得するとともに、複数の特徴点12が取得された移動後画像63に基づく三次元の移動後環境地図54中の複数の特徴点12に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成されている。すなわち、制御部4は、移動後環境地図54に含まれる複数の特徴点12および目印部3に基づいて、パイロット11の頭部の位置および角度を推定する制御を行うように構成されている。
The
(頭部の位置および角度取得処理)
以下に、図3~図10を参照して、頭部の位置および角度取得処理について説明する。頭部の位置および角度取得処理は、パイロット11の頭部に装着されたカメラ21を用いて、パイロット11の頭部の位置および角度を取得する処理である。
(Head position and angle acquisition processing)
The head position and angle acquisition process will be described below with reference to FIGS. 3 to 10. The head position and angle acquisition process is a process of acquiring the position and angle of the pilot's 11 head using the
ステップS1において、制御部4では、記憶部43からベース地図51が前フレーム地図53として取得される(図3および図4を参照)。
In step S1, the
ステップS2において、制御部4では、パイロット11の向いてる方向の画像に基づいて現フレーム地図52が取得される(図5および図6を参照)。ステップS3において、制御部4では、前フレーム地図53と、現フレーム地図52との比較に基づいて、移動後環境地図54が取得される(図7を参照)。ステップS4において、制御部4では、現フレーム地図52において、移動後環境地図54に含まれる複数の特徴点12および目印部3を全て取得可能な観察者の頭部の位置および角度が推定される(図9を参照)。
In step S2, the
ステップS5において、制御部4では、現フレーム地図52が前フレーム地図53として記憶部43に記憶される。ステップS5の後、ステップS3に戻り処理が繰り返される。
In step S5, the
(第1実施形態の効果)
第1実施形態では、以下のような効果を得ることができる。
(Effects of the first embodiment)
In the first embodiment, the following effects can be obtained.
第1実施形態では、上記のように、ヘッドモーショントラッカ装置10に、頭部装着部1に取り付けられた画像取得部2を設ける。また、ヘッドモーショントラッカ装置10に、画像取得部2により取得された画像に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成された制御部4を設ける。これにより、航空機100ではなく、頭部装着部1に取り付けられた画像取得部2の画像に基づいて、制御部4によりパイロット11の頭部の位置および角度を取得することができる。すなわち、航空機100に画像取得部2を設置することなく、制御部4によりパイロット11の頭部の位置および角度を取得することができる。この結果、航空機100に画像取得部2の設置スペースを確保する必要がないので、ヘッドモーショントラッカ装置10を既存の航空機100であっても容易に適用することができる。
In the first embodiment, as described above, the head
また、第1実施形態では、上記のように、制御部4を、パイロット11の頭部の向きに沿った方向の画像に基づいて、パイロット11の周囲の三次元の周囲環境地図5を作成する制御を行うとともに、周囲環境地図5に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成する。これにより、仮想空間上の周囲環境地図5に対する制御部4の演算によって、パイロット11の頭部の位置および角度を取得することができるので、航空機100ごとに異なるパイロット11の周囲の三次元の周囲環境地図5においてもパイロット11の頭部の位置および角度を確実に取得することができる。
Further, in the first embodiment, as described above, the
また、第1実施形態では、上記のように、周囲環境地図5に、現フレーム(現時点)において画像取得部2により取得された移動後画像63により構成される移動後環境地図54を設ける。制御部4を、移動後環境地図54に含まれる複数の特徴点12に基づいて、パイロット11の頭部の位置および角度を推定する制御を行うように構成する。これにより、複数の特徴点12を参照してパイロット11の頭部の位置および角度を推定するので、パイロット11の頭部の位置および角度をより正確に推定することができる。
Furthermore, in the first embodiment, as described above, the surrounding environment map 5 is provided with a
また、第1実施形態では、上記のように、周囲環境地図5に、移動後画像63よりも前の移動前画像62により構成される前フレーム地図53を設ける。制御部4を、少なくとも移動後環境地図54に含まれる複数の特徴点12および前フレーム地図53に基づいて、パイロット11の頭部の位置および角度を推定する制御を行うように構成する。これにより、移動後環境地図54の複数の特徴点12のみに基づいてパイロット11の頭部の位置および角度を推定する場合と比較して、移動前画像62により構成される前フレーム地図53も用いることにより、パイロット11の頭部の位置および角度の変化をより正確に把握することができる。この結果、パイロット11の頭部の位置および角度の推定の精度を向上させることができる。
Furthermore, in the first embodiment, as described above, the surrounding environment map 5 is provided with the
また、第1実施形態では、上記のように、周囲環境地図5に、移動前画像62に移動後画像63を合成した画像に基づく現フレーム地図52を設ける。制御部4を、前フレーム地図53と、現フレーム地図52との比較に基づいて、移動後環境地図54を取得するとともに、パイロット11の頭部の位置および角度を推定する制御を行うように構成する。これにより、移動前画像62に移動後画像63を合成した画像に基づく現フレーム地図52により、移動後画像63のみに基づいて移動後環境地図54を取得する場合と比較して、移動後環境地図54に含まれる情報量を増加させることができる。この結果、より緻密な移動後環境地図54を作成することができるので、パイロット11の頭部の位置および角度の推定の精度をより向上させることができる。
Further, in the first embodiment, as described above, the
また、第1実施形態では、上記のように、制御部4を、移動後環境地図54に含まれる複数の特徴点12を全て取得可能なパイロット11の頭部の位置および角度を、現フレーム(現時点)のパイロット11の頭部の位置および角度として推定する制御を行うように構成する。これにより、移動後環境地図54に含まれる複数の特徴点12を全て取得可能か否かで、現フレーム(現時点)のパイロット11の頭部の位置および角度を取得することができるので、簡易な方法によりパイロット11の頭部の位置および角度を推定することができる。
In addition, in the first embodiment, as described above, the
また、第1実施形態では、上記のように、制御部4を、前フレーム(現フレーム(現時点)よりも前の時点)のパイロット11の頭部の位置および角度に基づいて、互いに頭部の位置および角度が異なる複数のパイロット11の頭部の位置および角度を作成するとともに、作成した複数のパイロット11の頭部の位置および角度を変化させた後、移動後環境地図54に含まれる複数の特徴点12を全て取得可能なパイロット11の頭部の位置および角度を選択する制御を行うように構成する。これにより、パイロット11の頭部の位置および角度を複数作成することにより、多くのバリエーションから現フレーム(現時点)のパイロット11の頭部の位置および角度を推定することができるので、より適切なパイロット11の頭部の位置および角度を選択することができる。
In addition, in the first embodiment, as described above, the
また、第1実施形態では、上記のように、制御部4を、移動後画像63中のコントラストの差に基づいて、複数の特徴点12を取得する制御を行うように構成する。これにより、簡易な方法により複数の特徴点12を取得することができるので、制御部4への処理負荷の増加を抑制することができる。
Further, in the first embodiment, as described above, the
また、第1実施形態では、上記のように、ヘッドモーショントラッカ装置10に、パイロット11の周囲に配置され、画像取得部2により画像として取得される目印部3を設ける。制御部4を、目印部3が取得された画像に基づく三次元の周囲環境地図5中の目印部3に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成する。これにより、画像取得部2により取得される画像中の特徴点12として目印部3を用いることができるので、画像取得部2が特徴点12をより確実に取得することができる。
Further, in the first embodiment, as described above, the head
また、第1実施形態では、上記のように、画像取得部2に、並んで配置された2つのカメラ21を設ける。制御部4を、2つのカメラ21の視差に基づいて、パイロット11の頭部の向きに沿った方向の距離を取得するとともに、2つのカメラ21により取得した距離に基づいて、三次元の周囲環境地図5を作成する制御を行うように構成する。これにより、1つのカメラ21によりパイロット11の頭部の向きに沿った方向の距離を取得する場合と比較して、パイロット11の頭部の向きに沿った方向の距離を正確に取得することができるので、三次元の周囲環境地図5をより正確に作成することができる。
Further, in the first embodiment, as described above, the
また、第1実施形態では、上記のように、航空機用ヘッドモーショントラッカ装置に、航空機100の機体内の観察者としてのパイロット11に装着されるヘッドモーショントラッカ装置10を設ける。ヘッドモーショントラッカ装置10に、頭部装着部1に取り付けられた画像取得部2を設ける。また、ヘッドモーショントラッカ装置10では、画像取得部2により取得された画像に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成された制御部4を設ける。これにより、航空機100ではなく、頭部装着部1に取り付けられた画像取得部2の画像に基づいて制御部4により、パイロット11の頭部の位置および角度を取得することができる。すなわち、航空機100に画像取得部2を設置することなく、制御部4によりパイロット11の頭部の位置および角度を取得することができる。この結果、航空機100に画像取得部2の設置スペースを確保する必要がないので、ヘッドモーショントラッカ装置10を既存の航空機100であっても容易に適用することが可能な航空機用ヘッドモーショントラッカ装置10を得ることができる。
Further, in the first embodiment, as described above, the head motion tracker device for an aircraft is provided with the head
[第2実施形態]
次に、図11~図14を参照して、第2実施形態のヘッドモーショントラッカ装置210について説明する。詳細には、発光するだけの目印部3を備える第1実施形態のヘッドモーショントラッカ装置10とは異なり、第2実施形態のヘッドモーショントラッカ装置210では、目印部203が目印部側通信部234を備えている。なお、第2実施形態において、上記第1実施形態と同様の構成に関しては、同じ符号を付して説明を省略する。
[Second embodiment]
Next, a head
図11および図12に示すように、ヘッドモーショントラッカ装置210は、頭部装着部1と、画像取得部2と、目印部203と、制御部204(図13参照)とを備えている。
As shown in FIGS. 11 and 12, the head
目印部203は、パイロット11の周囲に配置され、画像取得部2により画像として取得される。目印部203は、マーカとしての機能および通信機能の両方を有している。目印部203は、移動体に複数(3つ)配置されている。なお、目印部203は、1、2または4つ以上配置されてもよい。
The
複数の目印部203は、良好な現フレーム地図52を持続的に取得可能とするため、パイロット11がいずれの方向を向いた場合においても、少なくとも1つ以上の目印部203が画像取得部2により撮影可能な位置に配置されている。これにより、制御部204によりパイロット11の頭部の位置および角度の推定精度の低下を回避することができる。また、制御部204により目印部203が検出されない状態を確実に回避することができる。
The plurality of
目印部203は、取付部31と、発光部203aと、受光部203bと、制御部203cとを含んでいる。
The
発光部203aは、マーカ機能とともに、制御部204との光通信のために用いられている。発光部203aは、紫外光または近赤外光を照射可能なLEDおよびVCSELなどにより構成されている。また、発光部203aは、広角に光を照射可能とするためのレンズが取り付けられている。受光部203bは、紫外光または近赤外光を受光可能なフォトダイオードなどの受光素子により構成されている。受光部203bは、広角に光を受光可能とするためのレンズが取り付けられている。
The
制御部203cは、CPU部231と、記憶部232と、センサ部233と、目印部側通信部234とを有している。
The
CPU部231は、センサデータ処理231aに所定の処理を実行させる機能を有している。センサデータ処理231aは、センサ部233からの計測値を、制御部204に送信可能な計測値情報に変換する処理を行う。センサデータ処理231aは、制御部204からのデータを、制御部203cに認識可能なデータに変換する処理を行う。
The
記憶部232は、RAMおよびROMを有する記憶媒体である。記憶部232には、目印部203の識別番号232aと、機体座標位置232bとが記憶されている。機体座標位置232bとは、パイロット11を乗せた航空機100の機体の基準位置に対する目印部203の座標位置を示す。機体座標位置232bは、目印部203を機体に設置する際に、計測した後、記憶部232に入力される。なお、機体座標位置232bは、特許請求の範囲の「目印部の位置」の一例である。また、航空機100は、特許請求の範囲の「移動体」の一例である。
The
センサ部233は、加速度センサ233a、ジャイロセンサ233b、傾斜センサ233cおよび方位センサ233dを有している。加速度センサ233aは、機体の加速度を計測する。ジャイロセンサ233bは、機体の角速度を計測する。傾斜センサ233cは、機体の傾きを計測する。方位センサ233dは、機体の方位を計測する。なお、ジャイロセンサ233bは、特許請求の範囲の「目印部側ジャイロセンサ」の一例である。
The
目印部側通信部234は、後述する制御部側通信部204f(図13参照)と通信可能に構成されている。目印部側通信部234は、光および電波による無線通信機能を有している。目印部側通信部234は、制御部204の記憶部204bの機体座標位置232bの調整・設定の際、制御部側通信部204fと電波による無線通信を行う。また、目印部側通信部234は、調整・設定以外の通常使用の際、制御部側通信部204fと光による無線通信を行う。目印部側通信部234は、目印部203の識別番号232aの情報、目印部203の機体座標位置232bの情報、センサ部233の計測値情報を光により、制御部側通信部204fに送信するように構成されている。
The mark unit
ここで、目印部側通信部234は、発光部203aを発光させる制御を行うように構成されている。すなわち、目印部側通信部234は、発光部203aのマーカとしての発光、および、制御部側通信部204fと光による無線通信としての発光部203aの発光を重畳して行うことが可能である。目印部側通信部234は、制御部204側の発光部204cの発光を受光部203bにより受光する。
Here, the mark
図13および図14に示すように、制御部204は、各種の制御および演算処理を行うコンピュータにより構成されている。制御部204は、画像処理部41と、CPU部204aと、記憶部204bと、発光部204cと、受光部204dと、センサ部204eと、制御部側通信部204fとを含んでいる。
As shown in FIGS. 13 and 14, the
CPU部204aは、比較処理42aと、位置角度検出処理42bと、センサデータ処理240とに所定の処理実行させる機能を有している。センサデータ処理240は、センサ部204eからの計測値を、制御部204において認識可能な計測値情報に変換する処理を行う。センサデータ処理240は、目印部203から送信された情報を受け渡す処理も行う。センサデータ処理240は、制御部204から送信するデータを、制御部203cに送信可能なデータに変換する処理を行う。
The CPU section 204a has a function of causing the
記憶部204bは、RAMおよびROMを有する記憶媒体である。記憶部204bには、前フレーム地図53と、ベース地図51と、機体座標位置232bとが記憶されている。
The
発光部204cは、紫外光または近赤外光を照射可能なLEDおよびVCSELなどにより構成されている。発光部204cの光軸は、カメラ21の光軸と同じ方向に配置されている。発光部204cは、広角に光を照射可能とするためのレンズが取り付けられている。発光部204cは、制御部側通信部204fにより、発光部204cの照明光としての発光、および、目印部側通信部234と光による無線通信としての発光部204cの発光の両方を行うことが可能である。
The
受光部204dは、紫外光または近赤外光を受光可能なフォトダイオードなどの受光素子により構成されている。受光部204dは、広角に光を受光可能とするためのレンズが取り付けられている。
The
センサ部204eは、加速度センサ241、ジャイロセンサ242、傾斜センサ243および方位センサ244を有している。加速度センサ241は、パイロット11の頭部の加速度を計測する。ジャイロセンサ242は、パイロット11の頭部の角速度を計測する。傾斜センサ243は、パイロット11の頭部の傾きを計測する。方位センサ244は、パイロット11の頭部の方位を計測する。なお、ジャイロセンサ242は、特許請求の範囲の「装置側ジャイロセンサ」の一例である。
The
制御部側通信部204fは、目印部側通信部234と通信可能に構成されている。制御部側通信部204fは、光および電波による無線通信機能を有している。制御部側通信部204fは、制御部204の記憶部204bの機体座標位置232bの調整・設定の際、目印部側通信部234と電波による無線通信を行う。また、制御部側通信部204fは、調整・設定以外の通常使用の際、目印部側通信部234と光による無線通信を行う。制御側通信部は、目印部203の識別番号232aの情報、目印部203の機体座標位置232bの情報、センサ部233の計測値情報を光により、目印部側通信部234から受信するように構成されている。制御部側通信部204fは、発光部204cを照明光として発光させるように構成されている。
The control unit
(位置角度検出処理)
図13および図14に示すように。第2実施形態の制御部204は、画像取得部2により取得された画像に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成されている。なお、パイロット11の頭部の位置および角度は、2つのカメラ21の中点の位置および角度として示される。
(Position angle detection processing)
As shown in FIGS. 13 and 14. The
制御部204は、画像取得部2により取得された移動後画像63から十分な数の特徴点12を抽出できなかった場合、センサ部233の計測値情報と、センサ部204eの計測値情報とに基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成されている。また、制御部204は、前フレーム地図53および現フレーム地図52に基づいて、観察者の頭部の角度が所定時間内に取得できない場合も同様の制御を行うように構成されている。この際、制御部204は、発光部204cの光により、画像取得部2により取得された目印部203にセンサ部204eの計測値情報を要求する信号を送信する制御を行うように構成されている。
If a sufficient number of feature points 12 cannot be extracted from the moved
詳細には、制御部204は、前フレーム地図53および現フレーム地図52に基づいてパイロット11の頭部の角度が所定時間内に取得できない場合、ジャイロセンサ242により計測されたパイロット11の頭部の角速度と、ジャイロセンサ233bにより計測された航空機100の角速度との差に基づいて、パイロット11の頭部の角度を取得する制御を行うように構成されている。すなわち、ジャイロセンサ233bにより計測された航空機100の角速度の情報は、ジャイロセンサ242により計測された頭部の角速度に含まれる航空機100の角速度の情報を相殺するために用いられる。これにより、制御部204が光通信により航空機100の角速度の情報を取得可能であるので、制御部204が航空機100の角速度の情報を取得するために専用のケーブルを用いなくてもよい。
Specifically, if the angle of the pilot's 11 head cannot be obtained within a predetermined time based on the
また、詳細には、制御部204は、前フレーム地図53および現フレーム地図52に基づいてパイロット11の頭部の角度が所定時間内に取得できない場合、加速度センサ241により計測されたパイロット11の頭部の加速度と、加速度センサ233aにより計測された航空機100の加速度との差に基づいて、パイロット11の頭部の位置を取得する制御を行うように構成されている。すなわち、加速度センサ233aにより計測された航空機100の加速度の情報は、加速度センサ241により計測された頭部の加速度に含まれる航空機100の加速度の情報を相殺するために用いられる。これにより、制御部204が光通信により航空機100の加速度の情報を取得可能であるので、制御部204が航空機100の加速度の情報を取得するために専用のケーブルを用いなくてもよい。
In addition, in detail, if the angle of the head of the
なお、光による通信だけではなく、必要に応じて、パイロット11により、航空機100の機体の姿勢、方位角などが入力されてもよい。
In addition to optical communication, the
制御部204は、ジャイロセンサ233bおよびジャイロセンサ242により取得されたパイロット11の頭部の角度と、前フレーム地図53および現フレーム地図52に基づいて推定されたパイロット11の頭部の角度とを比較する制御を行うように構成されている。さらに、制御部204は、加速度センサ233aおよび加速度センサ241により取得されたパイロット11の頭部の位置と、前フレーム地図53および現フレーム地図52に基づいて推定されたパイロット11の頭部の位置とを比較する制御を行うように構成されている。制御部204は、上記した2つの比較結果の両方において、パイロット11の頭部の角度および位置が一致する場合、前フレーム地図53と、ベース地図51とを合成するか、または、ベース地図51を前フレーム地図53に更新する制御を行うように構成されている。
The
制御部204は、前フレーム地図53と現フレーム地図52とが似通っていること、および、外乱などに起因するパイロット11の頭部の位置および角度の精度の低下を防止するため、移動後環境地図54上の特徴点12の座標位置ではなく、目印部203の機体座標位置232bによるパイロット11の頭部の位置および角度の推定を行うように構成されている。詳細には、制御部204は、画像取得部2により目印部203を取得した場合、目印部側通信部234を介して記憶部232から取得した目印部203の機体座標位置232bに基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成されている。これにより、画像取得部2により目印部203を取得するたびに、パイロット11の頭部の位置および角度を再設定(リセット)することが可能である。ここで、制御部204は、パイロット11の頭部の位置および角度を再設定した場合、目印部203の機体座標位置232bに基づいて、前フレーム地図53の座標位置を補正する制御を行うことが好ましい。なお、機体座標位置232bは、特許請求の範囲の「目印部の位置」の一例である。
The
図15に示すように、制御部204は、現フレームよりも前のフレームのパイロット11の頭部の位置および角度に基づいて、互いに頭部の位置および角度が異なる複数のパイロット11の頭部の位置および角度を作成する際、作成する複数のパイロット11の頭部の位置および角度を制限する制御を行うように構成されている。すなわち、制御部204は、傾斜センサ243および方位センサ244の計測値情報に基づいて、作成する複数のパイロット11の頭部の位置および角度を制限する制御を行うように構成されている。これにより、参照して比較する複数のパイロット11の頭部の位置および角度が減少するので、制御部204の処理を軽減することが可能である。なお、第2実施形態のその他の構成は、第1実施形態の構成と同様である。
As shown in FIG. 15, the
(第2実施形態の効果)
第2実施形態では、以下のような効果を得ることができる。
(Effects of the second embodiment)
In the second embodiment, the following effects can be obtained.
第2実施形態では、上記のように、ヘッドモーショントラッカ装置210に、頭部装着部1に取り付けられた画像取得部2を設ける。また、ヘッドモーショントラッカ装置210に、画像取得部2により取得された画像に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成された制御部204を設ける。これにより、ヘッドモーショントラッカ装置210を既存の航空機100であっても容易に適用することができる。
In the second embodiment, as described above, the head
また、第2実施形態では、上記のように、制御部204に、制御部側通信部204fを設ける。目印部203に、制御部側通信部304fと通信可能な目印部側通信部234と、パイロット11を乗せた航空機100の基準位置に対する目印部203の位置を記憶する記憶部232とを設ける。制御部204を、画像取得部2により目印部203を取得した場合、目印部側通信部234を介して記憶部232から取得した目印部203の位置に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成する。これにより、画像取得部2により取得される画像により目印部203の位置を取得する場合と比較して、目印部203の位置の精度を高くすることができるので、三次元の周囲環境地図5中の目印部203の位置の精度を向上させることができる。この結果、制御部204により、より正確なパイロット11の頭部の位置および角度を取得することができる。
Further, in the second embodiment, as described above, the
また、第2実施形態では、上記のように、ヘッドモーショントラッカ装置210に、パイロット11の頭部の角速度を計測するジャイロセンサ242を設ける。目印部203に、パイロットを乗せた航空機100の角速度を計測するジャイロセンサ233bを設ける。制御部204を、周囲環境地図5に基づいてパイロット11の頭部の角度が所定時間内に取得できない場合、ジャイロセンサ242により計測されたパイロット11の頭部の角速度と、ジャイロセンサ233bにより計測された航空機100の角速度との差に基づいて、パイロット11の頭部の角度を取得する制御を行うように構成する。これにより、周囲環境地図5に基づいてパイロット11の頭部の角度を取得できない場合に、ジャイロセンサ242およびジャイロセンサ233bによりパイロット11の頭部の角度を補完することができるので、パイロット11の頭部の角度を確実に取得することができる。なお、第2実施形態のその他の効果は、第1実施形態の効果と同様である。
Furthermore, in the second embodiment, as described above, the head
[第3実施形態]
次に、図16および図17を参照して、第3実施形態のヘッドモーショントラッカ装置310について説明する。詳細には、発光部203aを有する目印部203を備える第2実施形態のヘッドモーショントラッカ装置210とは異なり、第3実施形態のヘッドモーショントラッカ装置310では、目印部304が反射して発光する。なお、第3実施形態において、上記第2実施形態と同様の構成に関しては、同じ符号を付して説明を省略する。
[Third embodiment]
Next, a head
具体的には、図16および図17に示すように、ヘッドモーショントラッカ装置310は、頭部装着部1と、画像取得部302と、発光部303と、目印部304と、制御部305とを備えている。
Specifically, as shown in FIGS. 16 and 17, the head
画像取得部302は、1つのカメラ21と、受光光学系(図示せず)とを含んでいる。詳細には、カメラ21は、エリアセンサカメラである。カメラ21は、紫外光および近赤外光に感度を有している。カメラ21には、発光部303から発光し、機体の内表面において反射した反射光が受光光学系を介して入射する。受光光学系は、カメラ21に特定の波長領域以外の光を受光させないようにするため、特定波長領域の光のみを通過させるフィルタおよびレンズなどを有している。
The
画像取得部302は、距離を算出する機能を有する。詳細には、画像取得部302は、発光部303の発光時の波長と、発光部303の上記反射光の波長との差に基づいて、距離を取得可能なように構成されている。
The
発光部303は、紫外光または近赤外光を照射可能なLEDおよびVCSELなどにより構成されている。発光部303の光軸は、カメラ21の光軸と同じ方向に配置されている。ここで、発光部303は、周囲の光の影響を受けにくい波長の光であることが好ましい。発光部303は、広角に光を照射可能とするためのレンズが取り付けられている。
The
ここで、画像取得部302には、距離を算出する機能を向上させるために、カメラ21の光軸方向角度および発光部303の光軸方向角度を変更可能な機構(モータなど)が設けられていることが好ましい。
Here, in order to improve the distance calculation function, the
目印部304は、パイロット11の周囲に配置され、画像取得部302により画像として取得される。目印部304は、マーカとしての機能を有している。目印部304は、特徴点抽出処理を容易にするため、再帰性反射体または特定波長領域に反射特性を有する反射体で構成されている。目印部304は、移動体に複数(3つ)配置されている。なお、目印部304は、1、2または4つ以上配置されてもよい。
The
複数の目印部304は、パイロット11の頭部の位置および角度の推定精度が特に必要な領域、および、特徴点12を抽出しにくい領域などに配置されている。
The plurality of
制御部305は、各種の制御および演算処理を行うコンピュータにより構成されている。制御部305は、画像処理部41と、CPU部305aと、記憶部305bと、センサ部305cとを含んでいる。
The
CPU部305aは、比較処理42aと、位置角度検出処理42bと、センサデータ処理350とを実行する機能を有している。センサデータ処理350は、センサ部305cからの計測値を、制御部305において認識可能な計測値情報に変換する処理を行う。
The
記憶部305bは、RAMおよびROMを有する記憶媒体である。記憶部305bには、前フレーム地図53と、ベース地図51と、機体座標位置306とが記憶されている。
The
センサ部305cは、加速度センサ351、ジャイロセンサ352、傾斜センサ353および方位センサ354を有している。なお、ジャイロセンサ352は、特許請求の範囲の「装置側ジャイロセンサ」の一例である。
The
(位置角度検出処理)
図16および図17に示すように。第3実施形態の制御部305は、画像取得部302により取得された画像に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成されている。なお、パイロット11の頭部の位置および角度は、1つのカメラ21の先端の中点の位置および角度として示される。
(Position angle detection processing)
As shown in FIGS. 16 and 17. The
ここで、1つのカメラ21がエリアセンサカメラであるので、画像処理部41は、三次元地図におけるXZ平面の情報を取得可能である。また、画像取得部302は、距離測定機能により、三次元地図におけるY軸方向の情報を取得可能である。
Here, since one
詳細には、制御部305は、画像取得部302により取得される画像のうち、航空機100内の部分に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成されている。すなわち、制御部305は、画像取得部302により取得された画像中において、航空機100内の躯体の形状、航空機100内に配置されたスイッチおよびディスプレイなどの特徴点12に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成されている。また、画像の特徴点12としては、目印部304も特徴点12である。
Specifically, the
制御部305は、発光部303から発光した光に対する、スイッチ、ディスプレイおよび目印部304などからの反射光を利用して、複数の特徴点12を取得する制御を行うように構成されている。ここで、制御部305は、機体内表面に対する発光部303からの光の角度および反射率、発光部303からの光が届かない領域、および、画像中のコントラストに起因して画像中の情報の欠損の発生を抑制するために、画像取得部302により算出される距離により画像中の情報を補完する制御を行うように構成されている。なお、第3実施形態のその他の構成は、第2実施形態の構成と同様である。
The
(第3実施形態の効果)
第3実施形態では、以下のような効果を得ることができる。
(Effects of the third embodiment)
In the third embodiment, the following effects can be obtained.
第3実施形態では、上記のように、ヘッドモーショントラッカ装置310に、頭部装着部1に取り付けられた画像取得部302を設ける。また、ヘッドモーショントラッカ装置310に、画像取得部302により取得された画像に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成された制御部305を設ける。これにより、ヘッドモーショントラッカ装置310を既存の航空機100であっても容易に適用することができる。なお、第3実施形態のその他の効果は、第2実施形態の効果と同様である。
In the third embodiment, as described above, the head
[変形例]
なお、今回開示された実施形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施形態の説明ではなく特許請求の範囲によって示され、さらに特許請求の範囲と均等の意味および範囲内でのすべての変更(変形例)が含まれる。
[Modified example]
Note that the embodiments disclosed this time should be considered to be illustrative in all respects and not restrictive. The scope of the present invention is indicated by the claims rather than the description of the embodiments described above, and further includes all changes (modifications) within the meaning and range equivalent to the claims.
たとえば、上記第1~第3実施形態では、航空機100は、特許請求の範囲の「移動体」の一例である例を示したが、本発明はこれに限られない。本発明では、移動体は、車輌であってもよい。
For example, in the first to third embodiments described above, the
また、上記第1~第3実施形態では、パーティクルフィルタによる位置角度検出処理42bを一例として説明したが、本発明はこれに限られない。本発明では、位置角度検出処理は、拡張カルマンフィルタなどにより行われてもよい。
Furthermore, in the first to third embodiments described above, the position and
また、上記第1~第3実施形態では、制御部4(204,305)は、特徴点12および目印部3の両方で位置角度検出処理42bを行う例を示したが、本発明はこれに限られない。本発明では、制御部は、特徴点または目印部のいずれかで位置角度検出処理を行ってもよい。たとえば、図18に示す第1変形例のように、目印部3が配置されていない領域では、制御部は、航空機100の機体のフレームなどに基づく特徴点12のみにより位置角度検出処理42bを行うように構成されていてもよい。
Further, in the first to third embodiments described above, an example was shown in which the control unit 4 (204, 305) performs the position
また、上記第1~第3実施形態では、制御部4(204、305)は、前フレーム地図53(第2周囲環境地図)と、現フレーム地図52(第3周囲環境地図)との比較に基づいて、位置角度検出処理42bを行うように構成されている例を示したが、本発明はこれに限られない。本発明では、制御部は、ベース地図と、第3周囲環境地図との比較に基づいて、位置角度検出処理を行うように構成されていてもよい。また、制御部は、ベース地図と、第2周囲環境地図と、第3周囲環境地図との比較に基づいて、位置角度検出処理を行うように構成されていてもよい。
Further, in the first to third embodiments described above, the control unit 4 (204, 305) compares the previous frame map 53 (second surrounding environment map) and the current frame map 52 (third surrounding environment map). Although an example is shown in which the position and
また、上記第1~第3実施形態では、ヘッドモーショントラッカ装置10(210、310)は、目印部3(203、304)を備えている例を示したが、本発明はこれに限られない。本発明では、ヘッドモーショントラッカ装置は、目印部を備えていなくてもよい。 Furthermore, in the first to third embodiments described above, the head motion tracker device 10 (210, 310) is provided with the mark section 3 (203, 304), but the present invention is not limited to this. . In the present invention, the head motion tracker device does not need to include a mark section.
また、上記第1~第3実施形態では、移動前画像62(第2画像)は、1枚である例を示したが、本発明はこれに限られない。本発明では、第2画像は、複数枚あってもよい。 Further, in the first to third embodiments described above, an example was shown in which there is one pre-movement image 62 (second image), but the present invention is not limited to this. In the present invention, there may be a plurality of second images.
また、上記第1および第2実施形態では、目印部3は、発光するように構成された例を示したが、本発明はこれに限られない。本発明では、目印部は、画像取得部から観測する角度によって、取付部の形状が変化するような構成を有していてもよいし、発光部の光の形状が変化するような構成を有していてもよい。 Furthermore, in the first and second embodiments described above, an example was shown in which the mark section 3 was configured to emit light, but the present invention is not limited to this. In the present invention, the mark section may have a configuration in which the shape of the attachment section changes depending on the angle observed from the image acquisition section, or a configuration in which the shape of the light from the light emitting section changes. You may do so.
また、上記第2実施形態では、制御部204は、目印部203からの光通信により、目印部3の識別番号232aおよび機体座標位置232bを取得する例を示したが、本発明はこれに限られない。本発明では、制御部は、目印部にAR(Augumented Reality)タグ(QR(Quick Response)コード、AprilTAGなど)を設けることにより、画像取得部により目印部の位置、識別番号を取得させてもよい。
Further, in the second embodiment, the
また、上記第3実施形態では、ヘッドモーショントラッカ装置310は、1つの画像取得部302を備えている例を示したが、本発明はこれに限られない。本発明では、図19に示す第2変形例のように、ヘッドモーショントラッカ装置410は、2つの画像取得部402を備えていてもよい。この場合、ヘッドモーショントラッカ装置410は、2つの画像取得部402を同期させて撮影させることにより、2つの画像取得部402の視差に基づいて距離を取得するステレオ画像処理部403を備えていてもよい。
Further, in the third embodiment described above, the head
また、上記第1~第3実施形態では、制御部4(204、305)は、機械学習により、パイロット11(観察者)の周囲の三次元の周囲環境地図5を作成する制御を行うように構成されている例を示したが、本発明はこれに限られない。本発明では、制御部は、機械学習以外の方法により、三次元の周囲環境地図を作成してもよい。 Further, in the first to third embodiments described above, the control unit 4 (204, 305) performs control to create a three-dimensional environmental map 5 around the pilot 11 (observer) using machine learning. Although an example of the configuration has been shown, the present invention is not limited to this. In the present invention, the control unit may create a three-dimensional surrounding environment map using a method other than machine learning.
また、上記第1~第3実施形態では、航空機100(移動体)内にパイロット11(観測者)だけが搭乗している例を示したが、本発明はこれに限られない。本発明では、移動体内に複数の観測者が乗っていてもよい。そして、複数の観測者は各々は、ヘッドモーショントラッカ装置を装着していてもよい。この場合、複数のヘッドモーショントラッカ装置は、それぞれ、異なる光(紫外光および近赤外光)を受光可能な画像取得部を備えていてもよい。これにより、複数のヘッドモーショントラッカ装置が、同時に運用可能となる。 Further, in the first to third embodiments described above, an example was shown in which only the pilot 11 (observer) was on board the aircraft 100 (mobile body), but the present invention is not limited to this. In the present invention, a plurality of observers may be inside the moving object. Each of the plurality of observers may be equipped with a head motion tracker device. In this case, the plurality of head motion tracker devices may each include an image acquisition unit capable of receiving different lights (ultraviolet light and near-infrared light). This allows multiple head motion tracker devices to be operated simultaneously.
1 頭部装着部
2、302、402 画像取得部
3、203、304 目印部
4、204、305 制御部
5 周囲環境地図
10、210、310、410 航空機用ヘッドモーショントラッカ装置(ヘッドモーショントラッカ装置)
11 パイロット(観察者)
12 特徴点
21 カメラ
52 現フレーム地図(第3周囲環境地図)
53 前フレーム地図(第2周囲環境地図)
54 移動後環境地図(第1周囲環境地図)
62 移動前画像(第2画像)
63 移動後画像(第1画像)
100 航空機
204f 制御部側通信部
232 記憶部
233b ジャイロセンサ(目印部側ジャイロセンサ)
234 目印部側通信部
242 ジャイロセンサ(装置側ジャイロセンサ)
1 Head
11 Pilot (observer)
12 Feature points 21
53 Previous frame map (second surrounding environment map)
54 Environmental map after movement (first surrounding environment map)
62 Image before movement (second image)
63 Image after movement (first image)
100
234 Marker
Claims (12)
前記頭部装着部に取り付けられ、前記観察者の頭部の向きに沿った方向の画像を取得する画像取得部と、
前記画像取得部により取得された前記画像に基づいて、前記観察者の頭部の位置および角度を取得する制御を行うように構成された制御部とを備え、
前記制御部は、前記画像取得部により取得された前記画像に基づいて、前記観察者の周囲の三次元の周囲環境地図を作成する制御を行うように構成されており、
前記周囲環境地図は、
現時点において前記画像取得部により取得された第1画像により構成される第1周囲環境地図と、
前記第1画像よりも前の第2画像により構成される第2周囲環境地図と、
前記第2画像に前記第1画像を合成した画像に基づく第3周囲環境地図とを含み、
前記制御部は、前記第2周囲環境地図と、前記第3周囲環境地図とに基づいて、前記第1周囲環境地図を取得するとともに、前記観察者の頭部の位置および角度を推定する制御を行うように構成されている、ヘッドモーショントラッカ装置。 a head-mounted part that is mounted on the observer's head;
an image acquisition unit that is attached to the head-mounted unit and acquires an image in a direction along the direction of the observer's head;
a control unit configured to perform control to acquire the position and angle of the observer's head based on the image acquired by the image acquisition unit ;
The control unit is configured to perform control to create a three-dimensional environmental map around the observer based on the image acquired by the image acquisition unit,
The surrounding environment map is
a first surrounding environment map constituted by a first image acquired by the image acquisition unit at the current time;
a second surrounding environment map configured by a second image before the first image;
a third surrounding environment map based on an image obtained by combining the first image with the second image,
The control unit acquires the first surrounding environment map based on the second surrounding environment map and the third surrounding environment map, and controls estimating the position and angle of the observer's head. A head motion tracker device configured to perform .
前記制御部は、前記第1周囲環境地図に含まれる前記複数の目印部を前記複数の特徴点を全て取得可能な前記観察者の頭部の位置および角度を、現時点の前記観察者の頭部の位置および角度として推定する制御を行うように構成されている、請求項2~4のいずれか1項に記載のヘッドモーショントラッカ装置。 further comprising a plurality of landmarks arranged around the observer and acquired as the image by the image acquisition unit,
The control unit determines the position and angle of the observer's head from which all of the plurality of feature points can be obtained from the plurality of landmarks included in the first surrounding environment map, based on the position and angle of the observer's head at the current moment. The head motion tracker device according to any one of claims 2 to 4 , wherein the head motion tracker device is configured to perform control to estimate the position and angle of.
前記制御部は、前記目印部が取得された前記画像に基づく三次元の前記周囲環境地図中の前記目印部に基づいて、前記観察者の頭部の位置および角度を取得する制御を行うように構成されている、請求項1~7のいずれか1項に記載のヘッドモーショントラッカ装置。 further comprising a landmark section arranged around the observer and acquired as the image by the image acquisition section,
The control unit is configured to perform control to acquire the position and angle of the observer's head based on the landmark portion in the three-dimensional surrounding environment map based on the image in which the landmark portion is acquired. A head motion tracker device according to any one of claims 1 to 7 , comprising:
前記目印部は、
前記制御部側通信部と通信可能な目印部側通信部と、
前記観察者を乗せた移動体の基準位置に対する前記目印部の位置を記憶する記憶部とを含み、
前記制御部は、前記画像取得部により前記目印部を取得した場合、前記目印部側通信部を介して前記記憶部から取得した前記目印部の位置に基づいて、前記観察者の頭部の位置および角度を取得する制御を行うように構成されている、請求項8に記載のヘッドモーショントラッカ装置。 The control unit includes a control unit side communication unit,
The landmark portion is
a marker side communication unit capable of communicating with the control unit side communication unit;
a storage unit that stores the position of the landmark with respect to a reference position of the moving object carrying the observer;
When the image acquisition unit acquires the landmark, the control unit determines the position of the observer's head based on the position of the landmark acquired from the storage unit via the landmark side communication unit. The head motion tracker device according to claim 8 , wherein the head motion tracker device is configured to perform control to obtain the angle and angle.
前記目印部は、前記観察者を乗せた移動体の角速度を計測する目印部側ジャイロセンサを含み、
前記制御部は、前記周囲環境地図に基づいて前記観察者の頭部の角度が所定時間内に取得できない場合、前記装置側ジャイロセンサにより計測された前記観察者の頭部の角速度と、前記目印部側ジャイロセンサにより計測された前記移動体の角速度との差に基づいて、前記観察者の頭部の角度を取得する制御を行うように構成されている、請求項8または9に記載のヘッドモーショントラッカ装置。 further comprising a device-side gyro sensor that measures the angular velocity of the observer's head;
The landmark section includes a landmark section-side gyro sensor that measures the angular velocity of the moving object carrying the observer,
If the angle of the observer's head cannot be obtained within a predetermined time based on the surrounding environment map, the control unit may obtain the angular velocity of the observer's head measured by the device-side gyro sensor and the landmark. The head according to claim 8 or 9 , wherein the head is configured to perform control to obtain the angle of the observer's head based on a difference between the angular velocity of the moving body and the angular velocity measured by the side gyro sensor. Motion tracker device.
前記制御部は、2つの前記カメラの視差に基づいて、前記観察者の頭部の向きに沿った方向の距離を取得するとともに、2つの前記カメラにより取得した距離に基づいて、三次元の前記周囲環境地図を作成する制御を行うように構成されている、請求項1~10のいずれか1項に記載のヘッドモーショントラッカ装置。 The image acquisition unit includes two cameras arranged side by side,
The control unit acquires a distance in a direction along the direction of the observer's head based on the parallax between the two cameras, and also acquires the three-dimensional distance based on the distance acquired by the two cameras. The head motion tracker device according to any one of claims 1 to 10 , wherein the head motion tracker device is configured to perform control to create a surrounding environment map.
前記ヘッドモーショントラッカ装置は、
前記パイロットの頭部に取り付けられる頭部装着部と、
前記頭部装着部に取り付けられ、前記パイロットの頭部の向きに沿った方向の画像を取得する画像取得部と、
前記画像取得部により取得された前記画像に基づいて、前記パイロットの頭部の位置および角度を取得する制御を行うように構成された制御部とを含み、
前記制御部は、前記画像取得部により取得された前記画像に基づいて、前記観察者の周囲の三次元の周囲環境地図を作成する制御を行うように構成されており、
前記周囲環境地図は、
現時点において前記画像取得部により取得された第1画像により構成される第1周囲環境地図と、
前記第1画像よりも前の第2画像により構成される第2周囲環境地図と、
前記第2画像に前記第1画像を合成した画像に基づく第3周囲環境地図とを含み、
前記制御部は、前記第2周囲環境地図と、前記第3周囲環境地図とに基づいて、前記第1周囲環境地図を取得するとともに、前記観察者の頭部の位置および角度を推定する制御を行うように構成されている、航空機用ヘッドモーショントラッカ装置。 Equipped with a head motion tracker device attached to the pilot as an observer inside the aircraft body,
The head motion tracker device includes:
a head mounting section attached to the pilot's head;
an image acquisition unit that is attached to the head mounted unit and acquires an image in a direction along the direction of the pilot's head;
a control unit configured to perform control to acquire the position and angle of the pilot's head based on the image acquired by the image acquisition unit ,
The control unit is configured to perform control to create a three-dimensional environmental map around the observer based on the image acquired by the image acquisition unit,
The surrounding environment map is
a first surrounding environment map constituted by a first image acquired by the image acquisition unit at the current time;
a second surrounding environment map configured by a second image before the first image;
a third surrounding environment map based on an image obtained by combining the first image with the second image,
The control unit acquires the first surrounding environment map based on the second surrounding environment map and the third surrounding environment map, and controls estimating the position and angle of the observer's head. An aircraft head motion tracker device configured to perform .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020120728A JP7435330B2 (en) | 2020-07-14 | 2020-07-14 | Head motion tracker device and head motion tracker device for aircraft |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020120728A JP7435330B2 (en) | 2020-07-14 | 2020-07-14 | Head motion tracker device and head motion tracker device for aircraft |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022017894A JP2022017894A (en) | 2022-01-26 |
JP7435330B2 true JP7435330B2 (en) | 2024-02-21 |
Family
ID=80186093
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020120728A Active JP7435330B2 (en) | 2020-07-14 | 2020-07-14 | Head motion tracker device and head motion tracker device for aircraft |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7435330B2 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009036517A (en) | 2007-07-31 | 2009-02-19 | Shimadzu Corp | Head motion tracker device |
JP2011015831A (en) | 2009-07-09 | 2011-01-27 | Shimadzu Corp | Head motion tracker |
JP2014215748A (en) | 2013-04-24 | 2014-11-17 | 川崎重工業株式会社 | Component mounting work supporting system, and component mounting method |
JP2016541035A (en) | 2013-09-30 | 2016-12-28 | 株式会社ソニー・インタラクティブエンタテインメント | Camera-based safety mechanism for head-mounted display users |
JP2017530438A (en) | 2014-07-25 | 2017-10-12 | マイクロソフト テクノロジー ライセンシング,エルエルシー | Object placement based on gaze in a virtual reality environment |
WO2018189880A1 (en) | 2017-04-14 | 2018-10-18 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing device, information processing system, and image processing method |
-
2020
- 2020-07-14 JP JP2020120728A patent/JP7435330B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009036517A (en) | 2007-07-31 | 2009-02-19 | Shimadzu Corp | Head motion tracker device |
JP2011015831A (en) | 2009-07-09 | 2011-01-27 | Shimadzu Corp | Head motion tracker |
JP2014215748A (en) | 2013-04-24 | 2014-11-17 | 川崎重工業株式会社 | Component mounting work supporting system, and component mounting method |
JP2016541035A (en) | 2013-09-30 | 2016-12-28 | 株式会社ソニー・インタラクティブエンタテインメント | Camera-based safety mechanism for head-mounted display users |
JP2017530438A (en) | 2014-07-25 | 2017-10-12 | マイクロソフト テクノロジー ライセンシング,エルエルシー | Object placement based on gaze in a virtual reality environment |
WO2018189880A1 (en) | 2017-04-14 | 2018-10-18 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing device, information processing system, and image processing method |
Also Published As
Publication number | Publication date |
---|---|
JP2022017894A (en) | 2022-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110458961B (en) | Augmented reality based system | |
JP4961904B2 (en) | Head motion tracker device | |
US20180356492A1 (en) | Vision based location estimation system | |
JP5055516B2 (en) | System and method for displaying device maintenance and operation instructions using augmented reality | |
JP5594944B2 (en) | Motion tracker device | |
CN106681510B (en) | Pose recognition device, virtual reality display device and virtual reality system | |
CN107014378A (en) | A kind of eye tracking aims at control system and method | |
JP7319303B2 (en) | Radar head pose localization | |
TW201447372A (en) | System, method and computer program product for real-time alignment of an augmented reality device | |
JP4924342B2 (en) | Motion tracker device | |
US10719944B2 (en) | Dynamic object tracking | |
JP5292725B2 (en) | Motion tracker device | |
JP2016151566A (en) | Motion tracker device | |
JP7435330B2 (en) | Head motion tracker device and head motion tracker device for aircraft | |
US11360552B1 (en) | High assurance headtracking via structured light projection for head worn display (HWD) | |
JP2020525956A (en) | Display device for computer-mediated reality | |
JP2012226666A (en) | Motion tracker device | |
JP2008026265A (en) | Head motion tracker system | |
JP4905311B2 (en) | Head motion tracker system and calibration device used therefor | |
US12014515B2 (en) | Estimating a pose of a spatially movable platform | |
JP4905321B2 (en) | Head motion tracker device | |
JP5029531B2 (en) | Motion tracker system and coordinate system setting method thereof | |
JP6890759B2 (en) | Flight route guidance system, flight route guidance device and flight route guidance method | |
JP4656016B2 (en) | Motion tracker device | |
JP2009036517A (en) | Head motion tracker device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221102 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230927 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231024 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231218 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240122 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7435330 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |