JP2022017894A - Head motion tracker device and head motion tracker device for aircraft - Google Patents

Head motion tracker device and head motion tracker device for aircraft Download PDF

Info

Publication number
JP2022017894A
JP2022017894A JP2020120728A JP2020120728A JP2022017894A JP 2022017894 A JP2022017894 A JP 2022017894A JP 2020120728 A JP2020120728 A JP 2020120728A JP 2020120728 A JP2020120728 A JP 2020120728A JP 2022017894 A JP2022017894 A JP 2022017894A
Authority
JP
Japan
Prior art keywords
head
unit
image
control unit
observer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020120728A
Other languages
Japanese (ja)
Other versions
JP7435330B2 (en
Inventor
行信 松原
Yukinobu Matsubara
一穂 多和田
Kazuo Tawada
柾宏 日比
Masahiro Hibi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Original Assignee
Shimadzu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp filed Critical Shimadzu Corp
Priority to JP2020120728A priority Critical patent/JP7435330B2/en
Publication of JP2022017894A publication Critical patent/JP2022017894A/en
Application granted granted Critical
Publication of JP7435330B2 publication Critical patent/JP7435330B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

To provide a head motion tracker device easy to apply to even a conventional travel body, and a head motion tracker device for an aircraft.SOLUTION: A head motion tracker device 10 comprises: an image acquisition part 2 which is mounted to a head mounting part 1 and acquires an image of a direction along the orientation of the head of an observer 11; and a control part 4 which on the basis of the image acquired by the image acquisition part 2, performs control to acquire the position and angle of the head of the observer 11.SELECTED DRAWING: Figure 9

Description

本発明は、ヘッドモーショントラッカ装置および航空機用ヘッドモーショントラッカ装置に関し、特に、観察者の頭部に装着される頭部装着部を備えるヘッドモーショントラッカ装置および航空機用ヘッドモーショントラッカ装置に関する。 The present invention relates to a head motion tracker device and an aircraft head motion tracker device, and more particularly to a head motion tracker device having a head mounting portion mounted on the observer's head and an aircraft head motion tracker device.

従来、観察者の頭部に装着される頭部装着部を備えるヘッドモーショントラッカ装置および航空機用ヘッドモーショントラッカ装置が知られている(たとえば、特許文献1参照)。 Conventionally, a head motion tracker device and an aircraft head motion tracker device having a head-mounted portion mounted on the observer's head are known (see, for example, Patent Document 1).

上記特許文献1には、パイロット(観察者)の頭部に装着されるヘルメット(頭部装着部)を備えるヘッドモーショントラッカ装置が開示されている。このヘッドモーショントラッカ装置は、上記ヘルメットと、搭乗体(航空機の機体)内に設置されたカメラ装置と、制御部とを備える。 The above-mentioned Patent Document 1 discloses a head motion tracker device including a helmet (head mounting portion) mounted on the head of a pilot (observer). This head motion tracker device includes the helmet, a camera device installed in a boarding body (airframe body), and a control unit.

上記特許文献1のヘルメットには、互いに異なる波長の赤外光を発光する複数の頭部装着体発光部が配置されている。制御部は、カメラ装置により撮影された複数の頭部装着体発光部の各々の位置情報に基づいて、パイロットの頭部の位置および角度を取得する制御を行うように構成されている。ヘッドモーショントラッカ装置では、制御部によりパイロットの頭部の位置および角度を取得するために、複数の頭部装着体発光部を確実に撮影可能な位置にカメラ装置が配置されている。 The helmet of Patent Document 1 is provided with a plurality of head-mounted body light emitting portions that emit infrared light having different wavelengths from each other. The control unit is configured to perform control to acquire the position and angle of the pilot's head based on the position information of each of the plurality of head-mounted body light emitting units captured by the camera device. In the head motion tracker device, the camera device is arranged at a position where a plurality of head-mounted body light emitting units can be reliably photographed in order to acquire the position and angle of the pilot's head by the control unit.

特開2009-109319号公報Japanese Unexamined Patent Publication No. 2009-109319

しかしながら、上記特許文献1のヘッドモーショントラッカ装置では、複数の頭部装着体発光部を確実に撮影可能な位置にカメラ装置を航空機の機体内に設置する必要があるので、航空機の機体にカメラ装置(画像取得部)の設置スペースを確保する必要がある。このため、上記特許文献1のヘッドモーショントラッカ装置では、既存の搭乗体において上記設置スペースを確保することが困難な場合があるので、ヘッドモーショントラッカ装置を既存の搭乗体(移動体)であっても容易に適用可能とすることが望まれている。 However, in the head motion tracker device of Patent Document 1, since it is necessary to install the camera device in the aircraft body at a position where a plurality of head-mounted body light emitting portions can be reliably photographed, the camera device is mounted on the aircraft body. It is necessary to secure the installation space for the (image acquisition unit). Therefore, in the head motion tracker device of Patent Document 1, it may be difficult to secure the installation space in the existing boarding body. Therefore, the head motion tracker device is an existing boarding body (moving body). Is also desired to be easily applicable.

この発明は、上記のような課題を解決するためになされたものであり、この発明の1つの目的は、既存の移動体であっても容易に適用することが可能なヘッドモーショントラッカ装置および航空機用ヘッドモーショントラッカ装置を提供することである。 The present invention has been made to solve the above-mentioned problems, and one object of the present invention is a head motion tracker device and an aircraft that can be easily applied even to an existing mobile body. It is to provide a head motion tracker device for.

上記目的を達成するために、この発明の第1の局面におけるヘッドモーショントラッカ装置は、観察者の頭部に装着される頭部装着部と、頭部装着部に取り付けられ、観察者の頭部の向きに沿った方向の画像を取得する画像取得部と、画像取得部により取得された画像に基づいて、観察者の頭部の位置および角度を取得する制御を行うように構成された制御部とを備える。 In order to achieve the above object, the head motion tracker device according to the first aspect of the present invention is attached to a head-mounted portion mounted on the observer's head and a head-mounted portion, and is attached to the observer's head. An image acquisition unit that acquires an image in a direction along the direction of the image, and a control unit configured to control the position and angle of the observer's head based on the image acquired by the image acquisition unit. And.

この発明の第1の局面におけるヘッドモーショントラッカ装置では、上記のように、頭部装着部に取り付けられた画像取得部を設ける。また、ヘッドモーショントラッカ装置では、画像取得部により取得された画像に基づいて、観察者の頭部の位置および角度を取得する制御を行うように構成された制御部を設ける。これにより、移動体ではなく、頭部装着部に取り付けられた画像取得部の画像に基づいて、制御部により観察者の頭部の位置および角度を取得することができる。すなわち、移動体に画像取得部を設置することなく、制御部により観察者の頭部の位置および角度を取得することができる。その結果、移動体に画像取得部の設置スペースを確保する必要がないので、ヘッドモーショントラッカ装置を既存の移動体であっても容易に適用することができる。 In the head motion tracker device according to the first aspect of the present invention, the image acquisition unit attached to the head mounting unit is provided as described above. Further, the head motion tracker device is provided with a control unit configured to control the position and angle of the observer's head based on the image acquired by the image acquisition unit. Thereby, the position and angle of the observer's head can be acquired by the control unit based on the image of the image acquisition unit attached to the head mounting unit instead of the moving body. That is, the position and angle of the observer's head can be acquired by the control unit without installing the image acquisition unit on the moving body. As a result, it is not necessary to secure an installation space for the image acquisition unit in the moving body, so that the head motion tracker device can be easily applied even to an existing moving body.

上記目的を達成するために、この発明の第2の局面における航空機用ヘッドモーショントラッカ装置は、航空機の機体内の観察者としてのパイロットに装着されるヘッドモーショントラッカ装置を備え、ヘッドモーショントラッカ装置は、パイロットの頭部に取り付けられる頭部装着部と、頭部装着部に取り付けられ、パイロットの頭部の向きに沿った方向の画像を取得する画像取得部と、画像取得部により取得された画像に基づいて、パイロットの頭部の位置および角度を取得する制御を行うように構成された制御部とを含む。 In order to achieve the above object, the aircraft head motion tracker device according to the second aspect of the present invention includes a head motion tracker device mounted on a pilot as an observer inside the aircraft, and the head motion tracker device is a head motion tracker device. , The head-mounted part attached to the pilot's head, the image acquisition part attached to the head-mounted part and acquiring an image in the direction along the direction of the pilot's head, and the image acquired by the image acquisition part. Includes a control unit configured to control the acquisition of the position and angle of the pilot's head based on.

この発明の第2の局面における航空機用ヘッドモーショントラッカ装置は、上記のように、頭部装着部に取り付けられた画像取得部を設ける。また、ヘッドモーショントラッカ装置では、画像取得部により取得された画像に基づいて、観察者の頭部の位置および角度を取得する制御を行うように構成された制御部を設ける。これにより、移動体ではなく、頭部装着部に取り付けられた画像取得部の画像に基づいて制御部により、観察者の頭部の位置および角度を取得することができる。すなわち、移動体に画像取得部を設置することなく、制御部により観察者の頭部の位置および角度を取得することができる。その結果、移動体に画像取得部の設置スペースを確保する必要がないので、ヘッドモーショントラッカ装置を既存の移動体であっても容易に適用することが可能な航空機用ヘッドモーショントラッカ装置を得ることができる。 The aircraft head motion tracker device according to the second aspect of the present invention is provided with an image acquisition unit attached to the head mounting portion as described above. Further, the head motion tracker device is provided with a control unit configured to control the position and angle of the observer's head based on the image acquired by the image acquisition unit. As a result, the position and angle of the observer's head can be acquired by the control unit based on the image of the image acquisition unit attached to the head mounting unit instead of the moving body. That is, the position and angle of the observer's head can be acquired by the control unit without installing the image acquisition unit on the moving body. As a result, since it is not necessary to secure an installation space for the image acquisition unit on the moving body, it is possible to obtain an aircraft head motion tracker device to which the head motion tracker device can be easily applied even to an existing moving body. Can be done.

上記第1の局面におけるヘッドモーショントラッカ装置は、観察者の頭部に装着される頭部装着部と、頭部装着部に取り付けられ、観察者の頭部の向きに沿った方向の画像を取得する画像取得部と、画像取得部により取得された画像に基づいて、観察者の頭部の位置および角度を取得する制御を行うように構成された制御部とを備える。これにより、移動体ではなく、頭部装着部に取り付けられた画像取得部の画像に基づいて、制御部により観察者の頭部の位置および角度を取得することができる。すなわち、移動体に画像取得部を設置することなく、制御部により観察者の頭部の位置および角度を取得することができる。その結果、移動体に画像取得部の設置スペースを確保する必要がないので、ヘッドモーショントラッカ装置を既存の移動体であっても容易に適用することができる。 The head motion tracker device in the first aspect is attached to the head-mounted portion mounted on the observer's head and the head-mounted portion, and acquires an image in a direction along the direction of the observer's head. An image acquisition unit is provided, and a control unit configured to control the acquisition of the position and angle of the observer's head based on the image acquired by the image acquisition unit. Thereby, the position and angle of the observer's head can be acquired by the control unit based on the image of the image acquisition unit attached to the head mounting unit instead of the moving body. That is, the position and angle of the observer's head can be acquired by the control unit without installing the image acquisition unit on the moving body. As a result, it is not necessary to secure an installation space for the image acquisition unit in the moving body, so that the head motion tracker device can be easily applied even to an existing moving body.

上記第2の局面における航空機用ヘッドモーショントラッカ装置は、航空機の機体内の観察者としてのパイロットに装着されるヘッドモーショントラッカ装置を備え、ヘッドモーショントラッカ装置は、パイロットの頭部に取り付けられる頭部装着部と、頭部装着部に取り付けられ、パイロットの頭部の向きに沿った方向の画像を取得する画像取得部と、画像取得部により取得された画像に基づいて、パイロットの頭部の位置および角度を取得する制御を行うように構成された制御部とを含む。これにより、移動体ではなく、頭部装着部に取り付けられた画像取得部の画像に基づいて制御部により、観察者の頭部の位置および角度を取得することができる。すなわち、移動体に画像取得部を設置することなく、制御部により観察者の頭部の位置および角度を取得することができる。その結果、移動体に画像取得部の設置スペースを確保する必要がないので、ヘッドモーショントラッカ装置を既存の移動体であっても容易に適用することが可能な航空機用ヘッドモーショントラッカ装置を得ることができる。 The aircraft head motion tracker device in the second aspect is provided with a head motion tracker device mounted on the pilot as an observer inside the aircraft, and the head motion tracker device is a head mounted on the pilot's head. The position of the pilot's head based on the mounting part, the image acquisition part that is attached to the head mounting part and acquires an image in the direction along the direction of the pilot's head, and the image acquired by the image acquisition part. And a control unit configured to control the acquisition of the angle. As a result, the position and angle of the observer's head can be acquired by the control unit based on the image of the image acquisition unit attached to the head mounting unit instead of the moving body. That is, the position and angle of the observer's head can be acquired by the control unit without installing the image acquisition unit on the moving body. As a result, since it is not necessary to secure an installation space for the image acquisition unit on the moving body, it is possible to obtain an aircraft head motion tracker device to which the head motion tracker device can be easily applied even to an existing moving body. Can be done.

第1実施形態によるヘッドモーショントラッカ装置を航空機内のパイロットが装着した状態を示した模式図である。It is a schematic diagram which showed the state which the pilot in the aircraft wears the head motion tracker device by 1st Embodiment. 第1実施形態によるヘッドモーショントラッカ装置の構成を示したブロック図である。It is a block diagram which showed the structure of the head motion tracker apparatus by 1st Embodiment. 第1実施形態によるヘッドモーショントラッカ装置の画像取得部によりパイロットの正面を撮影した状態および移動前画像(ベース画像)を示した模式図である。It is a schematic diagram which showed the state which photographed the front of the pilot by the image acquisition part of the head motion tracker apparatus by 1st Embodiment, and the image before movement (base image). 第1実施形態によるヘッドモーショントラッカ装置の画像取得部により作成された前フレーム地図(ベース地図)を示した模式図である。It is a schematic diagram which showed the front frame map (base map) created by the image acquisition part of the head motion tracker apparatus by 1st Embodiment. 第1実施形態によるヘッドモーショントラッカ装置の画像取得部によりパイロットの正面よりも下側を撮影した状態、移動前画像および移動後画像を示した模式図である。It is a schematic diagram which showed the state which imaged the lower side than the front of the pilot by the image acquisition part of the head motion tracker apparatus by 1st Embodiment, the image before movement and the image after movement. 第1実施形態によるヘッドモーショントラッカ装置の画像取得部により作成された現フレーム地図を示した模式図である。It is a schematic diagram which showed the current frame map created by the image acquisition part of the head motion tracker apparatus by 1st Embodiment. 第1実施形態によるヘッドモーショントラッカ装置において作成された移動後環境地図を示した模式図である。It is a schematic diagram which showed the post-movement environment map created in the head motion tracker apparatus by 1st Embodiment. 第1実施形態によるヘッドモーショントラッカ装置を装着したパイロットの頭部の動きの一例を示した模式図である。It is a schematic diagram which showed an example of the movement of the head of the pilot which attached the head motion tracker device by 1st Embodiment. 第1実施形態によるヘッドモーショントラッカ装置の制御部におけるパイロットの頭部の位置および角度を推定する方法を示した模式図である。It is a schematic diagram which showed the method of estimating the position and the angle of the head of the pilot in the control part of the head motion tracker apparatus by 1st Embodiment. 第1実施形態によるパイロットの頭部の位置および角度取得処理を示したフローチャートである。It is a flowchart which showed the position and angle acquisition process of the head of a pilot by 1st Embodiment. 第2実施形態によるヘッドモーショントラッカ装置を航空機内のパイロットが装着した状態を示した模式図である。It is a schematic diagram which showed the state which the pilot in the aircraft wears the head motion tracker device by 2nd Embodiment. 第2実施形態によるヘッドモーショントラッカ装置の目印部の構成を示したブロック図である。It is a block diagram which showed the structure of the mark part of the head motion tracker apparatus by 2nd Embodiment. 第2実施形態によるヘッドモーショントラッカ装置の構成を示したブロック図である。It is a block diagram which showed the structure of the head motion tracker apparatus by 2nd Embodiment. 第2実施形態によるヘッドモーショントラッカ装置の制御部側通信部と、目印部側通信部とが通信している状態を示した模式図である。It is a schematic diagram which showed the state which the control part side communication part of the head motion tracker apparatus by 2nd Embodiment, and the mark part side communication part communicate with each other. 第2実施形態によるヘッドモーショントラッカ装置の制御部におけるパイロットの頭部の位置および角度の推定において、作成するパイロットの頭部の位置および角度を減少させた例を示した模式図である。It is a schematic diagram which showed the example which reduced the position and the angle of the head of the pilot to be created in the estimation of the position and the angle of the head of a pilot in the control part of the head motion tracker apparatus by 2nd Embodiment. 第3実施形態によるヘッドモーショントラッカ装置の構成を示したブロック図である。It is a block diagram which showed the structure of the head motion tracker apparatus by 3rd Embodiment. 第3実施形態によるヘッドモーショントラッカ装置および目印部を示した模式図である。It is a schematic diagram which showed the head motion tracker device and the mark part by 3rd Embodiment. 第2実施形態の第1変形例によるヘッドモーショントラッカ装置を示した模式図である。It is a schematic diagram which showed the head motion tracker apparatus by 1st modification of 2nd Embodiment. 第3実施形態の第2変形例によるヘッドモーショントラッカ装置の構成を示したブロック図である。It is a block diagram which showed the structure of the head motion tracker apparatus by the 2nd modification of 3rd Embodiment.

以下、本発明を具体化した実施形態を図面に基づいて説明する。 Hereinafter, embodiments embodying the present invention will be described with reference to the drawings.

[第1実施形態]
図1~図9を参照して、第1実施形態による航空機用ヘッドモーショントラッカ装置10(以下、単にヘッドモーショントラッカ装置10と記載)の構成について説明する。ヘッドモーショントラッカ装置10は、図1に示すように、航空機100内のパイロット11に装着されるヘッドマウントディスプレイに設けられている。詳細には、ヘッドモーショントラッカ装置10は、ヘッドマウントディスプレイにおいて、パイロット11の頭部の位置および角度を計測する機能を有している。なお、航空機用ヘッドモーショントラッカ装置10は、特許請求の範囲の「ヘッドモーショントラッカ装置」の一例である。また、航空機100は、特許請求の範囲の「移動体」の一例である。パイロット11は、特許請求の範囲の「観察者」の一例である。
[First Embodiment]
The configuration of the aircraft head motion tracker device 10 (hereinafter, simply referred to as the head motion tracker device 10) according to the first embodiment will be described with reference to FIGS. 1 to 9. As shown in FIG. 1, the head motion tracker device 10 is provided on a head-mounted display mounted on the pilot 11 in the aircraft 100. Specifically, the head motion tracker device 10 has a function of measuring the position and angle of the head of the pilot 11 in the head-mounted display. The aircraft head motion tracker device 10 is an example of a "head motion tracker device" within the scope of the claims. Further, the aircraft 100 is an example of a "moving body" within the scope of claims. Pilot 11 is an example of an "observer" in the claims.

具体的には、図1および図2に示すように、ヘッドモーショントラッカ装置10は、頭部装着部1と、画像取得部2と、目印部3と、制御部4とを備えている。 Specifically, as shown in FIGS. 1 and 2, the head motion tracker device 10 includes a head mounting unit 1, an image acquisition unit 2, a marker unit 3, and a control unit 4.

頭部装着部1は、頭部装着部1は、ヘルメット、ヘッドセットおよびベルトなどの、パイロット11の頭部に装着される部材である。画像取得部2は、頭部装着部1に取り付けられ、パイロット11の頭部の向きに沿った方向(以下、A方向とする)の画像を取得するように構成されている。画像取得部2は、並んで配置された複数(2つ)のカメラ21を含んでいる。詳細には、2つのカメラ21は、エリアセンサカメラである。2つのカメラ21は、紫外光および近赤外光に感度を有している。2つのカメラ21は、所定の間隔を空けて配置されている。2つのカメラ21の各々は、同一のA方向を撮影するように構成されている。2つのカメラ21には、同じレンズが装着されている。具体的には、2つのカメラ21には、同じ広角レンズまたは魚眼レンズが装着されている。 The head mounting portion 1 is a member mounted on the head of the pilot 11, such as a helmet, a headset, and a belt. The image acquisition unit 2 is attached to the head mounting unit 1 and is configured to acquire an image in a direction along the direction of the head of the pilot 11 (hereinafter referred to as the A direction). The image acquisition unit 2 includes a plurality (two) cameras 21 arranged side by side. Specifically, the two cameras 21 are area sensor cameras. The two cameras 21 are sensitive to ultraviolet light and near infrared light. The two cameras 21 are arranged at a predetermined distance from each other. Each of the two cameras 21 is configured to shoot in the same A direction. The same lens is attached to the two cameras 21. Specifically, the two cameras 21 are equipped with the same wide-angle lens or fisheye lens.

目印部3は、パイロット11の周囲に配置され、画像取得部2により画像として取得される。すなわち、目印部3は、マーカとしての機能を有している。目印部3は、航空機100に複数(3つ)配置されている。目印部3は、航空機100のコクピット内に配置されている。なお、目印部3は、1、2または4つ以上配置されてもよい。 The mark portion 3 is arranged around the pilot 11 and is acquired as an image by the image acquisition portion 2. That is, the mark portion 3 has a function as a marker. A plurality (three) of the mark portions 3 are arranged on the aircraft 100. The mark portion 3 is arranged in the cockpit of the aircraft 100. In addition, the mark portion 3 may be arranged in 1, 2 or 4 or more.

目印部3は、取付部31と、発光部32とを含んでいる。取付部31は、目印部3を移動体に取り付けるための土台である。発光部32は、取付部31のパイロット11側の面に取り付けられている。発光部32は、紫外光または近赤外光を照射可能なLED(Light Emitting Diode)、VCSEL(Vertical Cavity Surface Emitting Laser(垂直共振器面発光レーザ))などにより構成されている。また、発光部32は、広角に光を照射可能とするためのレンズが取り付けられている。 The mark portion 3 includes a mounting portion 31 and a light emitting portion 32. The attachment portion 31 is a base for attaching the mark portion 3 to the moving body. The light emitting portion 32 is mounted on the surface of the mounting portion 31 on the pilot 11 side. The light emitting unit 32 is composed of an LED (Light Emitting Diode) capable of irradiating ultraviolet light or near-infrared light, a VCSEL (Vertical Cavity Surface Emitting Laser), and the like. Further, the light emitting unit 32 is attached with a lens for irradiating light at a wide angle.

目印部3は、非接触給電および太陽光発電などにより電力が供給されるように構成されている。このように、目印部3に電力を供給するための配線接続が不要である。 The mark portion 3 is configured to be supplied with electric power by non-contact power supply, solar power generation, or the like. As described above, the wiring connection for supplying electric power to the mark portion 3 is unnecessary.

目印部3は、パイロット11の頭部の位置および角度を精度よく計測する必要があるので、パイロット11の正面側に複数(2つ)配置されている。これにより、パイロット11が正面を向いた際、画像取得部2により複数(2つ)の目印部3が取得される。 Since it is necessary to accurately measure the position and angle of the head of the pilot 11, a plurality (two) of the mark portions 3 are arranged on the front side of the pilot 11. As a result, when the pilot 11 faces the front, the image acquisition unit 2 acquires a plurality (two) of the mark portions 3.

制御部4は、各種の制御および演算処理を行うコンピュータにより構成されている。制御部4は、画像処理部41と、CPU(Central Processing Unit)部42と、記憶部43とを含んでいる。 The control unit 4 is composed of a computer that performs various controls and arithmetic processing. The control unit 4 includes an image processing unit 41, a CPU (Central Processing Unit) unit 42, and a storage unit 43.

画像処理部41は、画像取得部2において取得した画像に基づいて、画像における特徴点12の抽出処理、および、機械学習により画像に基づいて三次元地図としての周囲環境地図5を作成する処理などを行う機能を有している。画像処理部41において作成された周囲環境地図5は、記憶部43に記憶される。ここで、画像中の特徴点12とは、取得された画像中において、コントラストの差から取得される、航空機100内の躯体の形状、航空機100内に配置されたスイッチおよびディスプレイなどの部分の重心点を示す。また、画像の特徴点12としては、目印部3も特徴点12として取得される。 The image processing unit 41 extracts feature points 12 in the image based on the image acquired by the image acquisition unit 2, and creates an ambient environment map 5 as a three-dimensional map based on the image by machine learning. Has a function to perform. The ambient environment map 5 created by the image processing unit 41 is stored in the storage unit 43. Here, the feature point 12 in the image is the shape of the skeleton in the aircraft 100, the center of gravity of a part such as a switch and a display arranged in the aircraft 100, which is acquired from the difference in contrast in the acquired image. Show a point. Further, as the feature point 12 of the image, the mark portion 3 is also acquired as the feature point 12.

周囲環境地図5において、相対座標系(XYZ座標系)は、2つのカメラ21の並ぶ方向に延びる軸をX軸(図4参照)とし、2つのカメラ21の光軸方向に延びる軸をY軸(図4参照)とし、X軸およびY軸に直交する方向に延びる軸をZ軸(図4参照)とする。また、相対座標系の原点は、2つのカメラ21の中点とする。 In the ambient environment map 5, in the relative coordinate system (XYZ coordinate system), the axis extending in the direction in which the two cameras 21 are lined up is the X axis (see FIG. 4), and the axis extending in the optical axis direction of the two cameras 21 is the Y axis. (See FIG. 4), and the axis extending in the direction orthogonal to the X-axis and the Y-axis is the Z-axis (see FIG. 4). The origin of the relative coordinate system is the midpoint of the two cameras 21.

ここで、2つのカメラ21がエリアセンサカメラであるので、画像処理部41は、周囲環境地図5におけるXZ平面の情報を取得可能である。また、画像取得部2は、2つのカメラ21の視差に基づくステレオ法により、周囲環境地図5におけるY軸方向の情報を取得可能である。 Here, since the two cameras 21 are area sensor cameras, the image processing unit 41 can acquire information on the XZ plane in the surrounding environment map 5. Further, the image acquisition unit 2 can acquire information in the Y-axis direction in the surrounding environment map 5 by a stereo method based on the parallax of the two cameras 21.

周囲環境地図5は、ベース地図51(図4参照)と、現フレーム地図52(図6参照)と、前フレーム地図53(図4参照)とを有している。なお、ベース地図51および前フレーム地図53は、特許請求の範囲の「第2周囲環境地図」の一例である。なお、現フレーム地図52は、特許請求の範囲の「第3周囲環境地図」の一例である。 The surrounding environment map 5 has a base map 51 (see FIG. 4), a current frame map 52 (see FIG. 6), and a front frame map 53 (see FIG. 4). The base map 51 and the front frame map 53 are examples of the "second surrounding environment map" in the claims. The current frame map 52 is an example of the "third ambient environment map" in the claims.

ベース地図51は、周囲環境地図5において基準となる地図である。ベース地図51は、たとえば、A方向として真正面をパイロット11が向いた状態で際に撮影されたベース画像61に基づく周囲環境地図5であってもよい。ベース地図51は、記憶部43にあらかじめ登録されている。 The base map 51 is a reference map in the surrounding environment map 5. The base map 51 may be, for example, an ambient environment map 5 based on the base image 61 taken when the pilot 11 faces directly in front of the A direction. The base map 51 is registered in the storage unit 43 in advance.

前フレーム地図53は、現時点よりも前に記憶部43に記憶された現フレーム地図52である。前フレーム地図53は、たとえば、A方向として真正面をパイロット11が向いた際に撮影された移動前画像62に基づく三次元地図であってもよい。なお、移動前画像62は、特許請求の範囲の「第2画像」の一例である。 The front frame map 53 is a current frame map 52 stored in the storage unit 43 before the present time. The front frame map 53 may be, for example, a three-dimensional map based on the pre-movement image 62 taken when the pilot 11 faces directly in front of the A direction. The pre-movement image 62 is an example of the “second image” in the claims.

現フレーム地図52は、たとえば、真正面をパイロット11が向いた際に撮影された移動前画像62と、真正面からパイロット11の頭部が移動した際に撮影された移動後画像63とを合成した画像に基づく三次元地図であってもよい。現フレーム地図52は、画像取得部2により取得された画像に合わせて追加されていく。なお、移動後画像63は、特許請求の範囲の「第1画像」の一例である。 The current frame map 52 is, for example, an image obtained by synthesizing a pre-movement image 62 taken when the pilot 11 faces directly in front and a post-movement image 63 taken when the head of the pilot 11 moves from the front. It may be a three-dimensional map based on. The current frame map 52 is added according to the image acquired by the image acquisition unit 2. The moved image 63 is an example of the "first image" in the claims.

CPU部42は、比較処理42aと、位置角度検出処理42bとを実行する機能を有している。比較処理42aは、画像処理部41において変換された周囲環境地図5を比較する処理である。位置角度検出処理42bは、画像処理部41により作成された周囲環境地図5に基づいて、パイロット11の頭部の現時点における位置および角度を検出する処理である。位置角度検出処理42bについては、一例を用いて後に説明する。 The CPU unit 42 has a function of executing the comparison process 42a and the position angle detection process 42b. The comparison process 42a is a process of comparing the surrounding environment map 5 converted by the image processing unit 41. The position / angle detection process 42b is a process of detecting the current position and angle of the head of the pilot 11 based on the surrounding environment map 5 created by the image processing unit 41. The position / angle detection process 42b will be described later with reference to an example.

記憶部43は、RAM(Random Access Memory)およびROM(Read Only Memory)を有する記憶媒体である。ここで、RAMには、前フレーム地図53が記憶されている。また、ROMには、ベース地図51が記憶されている。 The storage unit 43 is a storage medium having a RAM (Random Access Memory) and a ROM (Read Only Memory). Here, the previous frame map 53 is stored in the RAM. Further, the base map 51 is stored in the ROM.

(位置角度検出処理)
第1実施形態の制御部4は、画像取得部2により取得された画像に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成されている。なお、パイロット11の頭部の位置および角度は、2つのカメラ21の中点の位置および角度として示される。
(Position and angle detection processing)
The control unit 4 of the first embodiment is configured to control the acquisition of the position and angle of the head of the pilot 11 based on the image acquired by the image acquisition unit 2. The position and angle of the head of the pilot 11 are shown as the position and angle of the midpoint of the two cameras 21.

詳細には、制御部4は、画像取得部2により取得される画像のうち、航空機100内の外界を視認可能な窓以外の部分に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成されている。すなわち、制御部4は、画像取得部2により取得された画像中において、航空機100内の躯体の形状、航空機100内に配置されたスイッチおよびディスプレイなどの特徴点12に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成されている。 Specifically, the control unit 4 acquires the position and angle of the head of the pilot 11 based on the portion of the image acquired by the image acquisition unit 2 other than the window in which the outside world can be visually recognized in the aircraft 100. It is configured to provide control. That is, the control unit 4 has the head of the pilot 11 based on the shape of the skeleton in the aircraft 100 and the feature points 12 such as the switch and the display arranged in the aircraft 100 in the image acquired by the image acquisition unit 2. It is configured to control the acquisition of the position and angle of the unit.

図3~図9を参照して、パーティクルフィルタを適用した位置角度検出処理42bを一例として説明する。なお、以下の説明では、ベース地図51と、前フレーム地図53とが、同じである例を示しているが、ベース地図51と、前フレーム地図53とが、異なっていてもよい。ベース地図51と、前フレーム地図53とが、異なる場合、前フレーム地図53を用いて位置角度検出処理42bが行われてもよい。 The position angle detection process 42b to which the particle filter is applied will be described as an example with reference to FIGS. 3 to 9. In the following description, an example in which the base map 51 and the front frame map 53 are the same is shown, but the base map 51 and the front frame map 53 may be different. When the base map 51 and the front frame map 53 are different, the position angle detection process 42b may be performed using the front frame map 53.

図3および図4に示すように、制御部4は、パイロット11が真正面を向いた時の画像(移動前画像62)に基づいて、機械学習によりパイロット11の周囲の三次元の周囲環境地図5(前フレーム地図53)を作成する制御を行うように構成されている。すなわち、制御部4は、2つのカメラ21の視差に基づいて、パイロット11の頭部の向きに沿った方向の距離を取得するとともに、取得した距離に基づいて、三次元の周囲環境地図5(前フレーム地図53)を作成する制御を行うように構成されている。この際、制御部4は、移動前画像62中のコントラストの差に基づいて、複数の特徴点12を取得する制御を行うように構成されている。制御部4は、移動前画像62中のコントラストの差に基づいて、複数の目印部3を取得する制御を行うように構成されている。 As shown in FIGS. 3 and 4, the control unit 4 uses machine learning to perform machine learning on a three-dimensional ambient environment map 5 around the pilot 11 based on an image when the pilot 11 faces directly in front (image 62 before movement). It is configured to control the creation of (previous frame map 53). That is, the control unit 4 acquires the distance in the direction along the direction of the head of the pilot 11 based on the parallax of the two cameras 21, and based on the acquired distance, the three-dimensional ambient environment map 5 ( It is configured to control the creation of the front frame map 53). At this time, the control unit 4 is configured to control acquisition of a plurality of feature points 12 based on the difference in contrast in the pre-movement image 62. The control unit 4 is configured to control acquisition of a plurality of marker units 3 based on the difference in contrast in the pre-movement image 62.

ここで、パイロット11の頭部の位置および角度は、それぞれ、(X1、Y1、Z1)および(RL1、EL1、AZ1)と示される。RL1は、ロール方向(X軸に対する回転)の角度である。EL1は、エレベーション方向(Y軸に対する回転)の角度である。AZ1は、アジマス方向(Z軸に対する回転)の角度である。 Here, the positions and angles of the head of the pilot 11 are indicated as (X1, Y1, Z1) and (RL1, EL1, AZ1), respectively. RL1 is an angle in the roll direction (rotation with respect to the X axis). EL1 is an angle in the elevation direction (rotation with respect to the Y axis). AZ1 is an angle in the azimuth direction (rotation with respect to the Z axis).

次に、図5および図6には、パイロット11の頭部を真正面の向きから下方向に移動させた場合が示されている。この場合、制御部4は、移動前画像62およびパイロット11の頭部が移動した後のA方向の画像(移動後画像63)に基づいて、機械学習によりパイロット11の周囲の三次元の周囲環境地図5(現フレーム地図52)を作成する制御を行うように構成されている。すなわち、制御部4は、2つのカメラ21の視差に基づいて、パイロット11の頭部の向きに沿った方向の距離を取得するとともに、取得した距離に基づいて、三次元の周囲環境地図5(現フレーム地図52)を作成する制御を行うように構成されている。この際、制御部4は、移動後画像63中のコントラストの差に基づいて、複数の特徴点12を取得する制御を行うように構成されている。制御部4は、移動後画像63中のコントラストの差に基づいて、複数の目印部3を取得する制御を行うように構成されている。 Next, FIGS. 5 and 6 show a case where the head of the pilot 11 is moved downward from the direction directly in front of the pilot 11. In this case, the control unit 4 uses machine learning to create a three-dimensional ambient environment around the pilot 11 based on the pre-movement image 62 and the image in the A direction after the head of the pilot 11 has moved (post-movement image 63). It is configured to control the creation of the map 5 (current frame map 52). That is, the control unit 4 acquires the distance in the direction along the direction of the head of the pilot 11 based on the parallax of the two cameras 21, and based on the acquired distance, the three-dimensional ambient environment map 5 ( It is configured to control the creation of the current frame map 52). At this time, the control unit 4 is configured to control acquisition of a plurality of feature points 12 based on the difference in contrast in the image 63 after movement. The control unit 4 is configured to control acquisition of a plurality of marker units 3 based on the difference in contrast in the image 63 after movement.

現フレーム地図52は、移動前画像62と、移動後画像63とにおいて同じ部分(共通部分)を合成するとともに、移動前画像62とは異なる移動後画像63の部分を追加した画像に基づいて作成される一続きの三次元地図である。ここで、現フレーム地図52は、次に移動後画像63が取得される際には、前フレーム地図53となる。そして、上記前フレーム地図53には、同様に、移動後画像63が合成・追加されていく。このように、現フレーム地図52は、現フレーム以降の周囲環境地図5の作成に用いられる。 The current frame map 52 is created based on an image in which the same portion (common portion) of the pre-movement image 62 and the post-movement image 63 is combined, and a portion of the post-movement image 63 different from the pre-movement image 62 is added. It is a series of three-dimensional maps. Here, the current frame map 52 becomes the front frame map 53 the next time the post-movement image 63 is acquired. Then, the post-movement image 63 is similarly combined and added to the front frame map 53. In this way, the current frame map 52 is used to create the surrounding environment map 5 after the current frame.

ここで、真正面の向きから下方向に移動させた後のパイロット11の頭部の位置および角度は、それぞれ、(X2、Y2、Z2)および(RL2、EL2、AZ2)と示される。 Here, the positions and angles of the head of the pilot 11 after being moved downward from the direction directly in front are shown as (X2, Y2, Z2) and (RL2, EL2, AZ2), respectively.

次に、図7に示すように、制御部4は、前フレーム地図53と、現フレーム地図52との比較に基づいて、移動後環境地図54を取得する制御を行うように構成されている。すなわち、制御部4は、現フレーム地図52の中から、移動後画像63に対応する部分を取得する制御を行うように構成されている。なお、移動後環境地図54は、特許請求の範囲の「第1周囲環境地図」の一例である。 Next, as shown in FIG. 7, the control unit 4 is configured to control to acquire the post-movement environment map 54 based on the comparison between the front frame map 53 and the current frame map 52. That is, the control unit 4 is configured to control the acquisition of the portion corresponding to the moved image 63 from the current frame map 52. The post-movement environment map 54 is an example of the "first surrounding environment map" in the claims.

このように、移動後環境地図54は、現フレーム(現時点)において画像取得部2により取得された移動後画像63により構成された地図である。現フレーム地図52は、移動前画像62に移動後画像63を合成した画像に基づく地図である。前フレーム地図53は、移動後画像63よりも前のフレーム(前の時点)の移動前画像62により構成された地図である。 As described above, the post-movement environment map 54 is a map composed of the post-movement image 63 acquired by the image acquisition unit 2 in the current frame (current time). The current frame map 52 is a map based on an image obtained by synthesizing the pre-movement image 62 and the post-movement image 63. The front frame map 53 is a map composed of the pre-movement image 62 of the frame (previous time point) before the post-movement image 63.

そして、図7および図8に示すように、制御部4は、移動後環境地図54に含まれる複数の特徴点12および特徴点12としての目印部3を全て取得可能なパイロット11の頭部の位置および角度を、現時点のパイロット11の頭部の位置および角度として推定する制御を行うように構成されている。 Then, as shown in FIGS. 7 and 8, the control unit 4 is the head of the pilot 11 capable of acquiring all of the plurality of feature points 12 and the mark portions 3 as the feature points 12 included in the post-movement environment map 54. It is configured to control the position and angle to be estimated as the current position and angle of the head of the pilot 11.

詳細には、図9に示すように、制御部4は、パーティクルフィルタに基づいて、現フレームのパイロット11の頭部の位置および角度として推定する制御を行うように構成されている。 In detail, as shown in FIG. 9, the control unit 4 is configured to perform control to estimate the position and angle of the head of the pilot 11 of the current frame based on the particle filter.

すなわち、制御部4は、現フレームよりも前のフレームのパイロット11の頭部の位置および角度に基づいて、互いに頭部の位置および角度が異なる複数のパイロット11の頭部の位置および角度を作成する制御を行うように構成されている。制御部4は、作成した互いに頭部の位置および角度が異なる複数のパイロット11の頭部の位置および角度をランダムに移動させる制御を行うように構成されている。 That is, the control unit 4 creates the positions and angles of the heads of the plurality of pilots 11 having different head positions and angles from each other based on the positions and angles of the heads of the pilots 11 in the frames before the current frame. It is configured to control the operation. The control unit 4 is configured to randomly move the positions and angles of the heads of the plurality of pilots 11 having different head positions and angles from each other.

制御部4は、ランダムに移動させた複数のパイロット11の頭部の位置および角度のうちから、現フレーム地図52から移動後環境地図54と相関関係のある地図を取得可能なパイロット11の頭部の位置および角度を選択する制御を行うように構成されている。詳細には、制御部4は、作成した複数のパイロット11の頭部の位置および角度のうちから、移動後環境地図54に含まれる複数の特徴点12および特徴点12としての目印部3を全て取得可能なパイロット11の頭部の位置および角度を選択する制御を行うように構成されている。 The control unit 4 can acquire a map correlated with the post-movement environment map 54 from the current frame map 52 from the positions and angles of the heads of the plurality of pilots 11 randomly moved. It is configured to control the selection of the position and angle of. Specifically, the control unit 4 includes all of the plurality of feature points 12 and the marker portions 3 as the feature points 12 included in the post-movement environment map 54 from the positions and angles of the heads of the plurality of pilots 11 created. It is configured to control the selection of the position and angle of the head of the pilot 11 that can be acquired.

そして、制御部4は、相関関係のある地図を取得可能なパイロット11の頭部の位置および角度(図9の○印)に基づいて、互いに頭部の位置および角度が異なる複数のパイロット11の頭部の位置および角度を作成する制御を行うように構成されている。この際、制御部4は、相関関係のないパイロット11の頭部の位置および角度(図9の×印)を削除する制御を行うように構成されている。 Then, the control unit 4 of the plurality of pilots 11 having different head positions and angles from each other based on the positions and angles of the heads of the pilots 11 (marked with a circle in FIG. 9) capable of acquiring a correlated map. It is configured to control the position and angle of the head. At this time, the control unit 4 is configured to control to delete the position and angle (marked with x in FIG. 9) of the head of the pilot 11 having no correlation.

上記したように、制御部4は、A方向(パイロット11の頭部の向きに沿った方向)の移動前画像62に基づいて、パイロット11の周囲の三次元の前フレーム地図53を作成する制御を行うように構成されている。制御部4は、A方向(パイロット11の頭部の向きに沿った方向)の移動前画像62および移動後画像63に基づいて、パイロット11の周囲の三次元の現フレーム地図52を作成する制御を行うように構成されている。制御部4は、前フレーム地図53および現フレーム地図52に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成されている。 As described above, the control unit 4 controls to create a three-dimensional front frame map 53 around the pilot 11 based on the pre-movement image 62 in the A direction (direction along the direction of the head of the pilot 11). Is configured to do. The control unit 4 controls to create a three-dimensional current frame map 52 around the pilot 11 based on the pre-movement image 62 and the post-movement image 63 in the A direction (direction along the direction of the head of the pilot 11). Is configured to do. The control unit 4 is configured to control the acquisition of the position and angle of the head of the pilot 11 based on the front frame map 53 and the current frame map 52.

ここで、制御部4は、前フレーム地図53と、現フレーム地図52との比較に基づいて、移動後環境地図54を取得するとともに、パイロット11の頭部の位置および角度を推定する制御を行うように構成されている。すなわち、制御部4は、現フレーム地図52から移動後環境地図54を取得する制御を行うように構成されている。 Here, the control unit 4 acquires the post-movement environment map 54 based on the comparison between the front frame map 53 and the current frame map 52, and controls to estimate the position and angle of the head of the pilot 11. It is configured as follows. That is, the control unit 4 is configured to control the acquisition of the post-movement environment map 54 from the current frame map 52.

制御部4は、目印部3が取得された移動後画像63に基づく三次元の移動後環境地図54中の目印部3に基づいて、パイロット11の頭部の位置および角度を取得するとともに、複数の特徴点12が取得された移動後画像63に基づく三次元の移動後環境地図54中の複数の特徴点12に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成されている。すなわち、制御部4は、移動後環境地図54に含まれる複数の特徴点12および目印部3に基づいて、パイロット11の頭部の位置および角度を推定する制御を行うように構成されている。 The control unit 4 acquires the position and angle of the head of the pilot 11 based on the mark portion 3 in the three-dimensional post-movement environment map 54 based on the acquired post-movement image 63, and a plurality of control units 4. Control to acquire the position and angle of the head of the pilot 11 based on the plurality of feature points 12 in the three-dimensional post-movement environment map 54 based on the acquired post-movement image 63. It is configured. That is, the control unit 4 is configured to perform control to estimate the position and angle of the head of the pilot 11 based on the plurality of feature points 12 and the mark unit 3 included in the post-movement environment map 54.

(頭部の位置および角度取得処理)
以下に、図3~図10を参照して、頭部の位置および角度取得処理について説明する。頭部の位置および角度取得処理は、パイロット11の頭部に装着されたカメラ21を用いて、パイロット11の頭部の位置および角度を取得する処理である。
(Head position and angle acquisition process)
Hereinafter, the position and angle acquisition process of the head will be described with reference to FIGS. 3 to 10. The head position and angle acquisition process is a process of acquiring the position and angle of the head of the pilot 11 by using the camera 21 mounted on the head of the pilot 11.

ステップS1において、制御部4では、記憶部43からベース地図51が前フレーム地図53として取得される(図3および図4を参照)。 In step S1, the control unit 4 acquires the base map 51 as the front frame map 53 from the storage unit 43 (see FIGS. 3 and 4).

ステップS2において、制御部4では、パイロット11の向いてる方向の画像に基づいて現フレーム地図52が取得される(図5および図6を参照)。ステップS3において、制御部4では、前フレーム地図53と、現フレーム地図52との比較に基づいて、移動後環境地図54が取得される(図7を参照)。ステップS4において、制御部4では、現フレーム地図52において、移動後環境地図54に含まれる複数の特徴点12および目印部3を全て取得可能な観察者の頭部の位置および角度が推定される(図9を参照)。 In step S2, the control unit 4 acquires the current frame map 52 based on the image in the direction in which the pilot 11 is facing (see FIGS. 5 and 6). In step S3, the control unit 4 acquires the post-movement environment map 54 based on the comparison between the front frame map 53 and the current frame map 52 (see FIG. 7). In step S4, the control unit 4 estimates the position and angle of the observer's head capable of acquiring all of the plurality of feature points 12 and the mark portions 3 included in the post-movement environment map 54 in the current frame map 52. (See FIG. 9).

ステップS5において、制御部4では、現フレーム地図52が前フレーム地図53として記憶部43に記憶される。ステップS5の後、ステップS3に戻り処理が繰り返される。 In step S5, in the control unit 4, the current frame map 52 is stored in the storage unit 43 as the front frame map 53. After step S5, the process returns to step S3 and is repeated.

(第1実施形態の効果)
第1実施形態では、以下のような効果を得ることができる。
(Effect of the first embodiment)
In the first embodiment, the following effects can be obtained.

第1実施形態では、上記のように、ヘッドモーショントラッカ装置10に、頭部装着部1に取り付けられた画像取得部2を設ける。また、ヘッドモーショントラッカ装置10に、画像取得部2により取得された画像に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成された制御部4を設ける。これにより、航空機100ではなく、頭部装着部1に取り付けられた画像取得部2の画像に基づいて、制御部4によりパイロット11の頭部の位置および角度を取得することができる。すなわち、航空機100に画像取得部2を設置することなく、制御部4によりパイロット11の頭部の位置および角度を取得することができる。この結果、航空機100に画像取得部2の設置スペースを確保する必要がないので、ヘッドモーショントラッカ装置10を既存の航空機100であっても容易に適用することができる。 In the first embodiment, as described above, the head motion tracker device 10 is provided with the image acquisition unit 2 attached to the head mounting unit 1. Further, the head motion tracker device 10 is provided with a control unit 4 configured to control the acquisition of the position and angle of the head of the pilot 11 based on the image acquired by the image acquisition unit 2. As a result, the position and angle of the head of the pilot 11 can be acquired by the control unit 4 based on the image of the image acquisition unit 2 attached to the head mounting unit 1 instead of the aircraft 100. That is, the position and angle of the head of the pilot 11 can be acquired by the control unit 4 without installing the image acquisition unit 2 on the aircraft 100. As a result, since it is not necessary to secure an installation space for the image acquisition unit 2 in the aircraft 100, the head motion tracker device 10 can be easily applied even to the existing aircraft 100.

また、第1実施形態では、上記のように、制御部4を、パイロット11の頭部の向きに沿った方向の画像に基づいて、パイロット11の周囲の三次元の周囲環境地図5を作成する制御を行うとともに、周囲環境地図5に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成する。これにより、仮想空間上の周囲環境地図5に対する制御部4の演算によって、パイロット11の頭部の位置および角度を取得することができるので、航空機100ごとに異なるパイロット11の周囲の三次元の周囲環境地図5においてもパイロット11の頭部の位置および角度を確実に取得することができる。 Further, in the first embodiment, as described above, the control unit 4 creates a three-dimensional ambient environment map 5 around the pilot 11 based on the image in the direction along the direction of the head of the pilot 11. It is configured to control and acquire the position and angle of the head of the pilot 11 based on the surrounding environment map 5. As a result, the position and angle of the head of the pilot 11 can be acquired by the calculation of the control unit 4 with respect to the surrounding environment map 5 on the virtual space. The position and angle of the head of the pilot 11 can be reliably acquired also in the environment map 5.

また、第1実施形態では、上記のように、周囲環境地図5に、現フレーム(現時点)において画像取得部2により取得された移動後画像63により構成される移動後環境地図54を設ける。制御部4を、移動後環境地図54に含まれる複数の特徴点12に基づいて、パイロット11の頭部の位置および角度を推定する制御を行うように構成する。これにより、複数の特徴点12を参照してパイロット11の頭部の位置および角度を推定するので、パイロット11の頭部の位置および角度をより正確に推定することができる。 Further, in the first embodiment, as described above, the surrounding environment map 5 is provided with the post-movement environment map 54 composed of the post-movement image 63 acquired by the image acquisition unit 2 in the current frame (current time). The control unit 4 is configured to perform control to estimate the position and angle of the head of the pilot 11 based on the plurality of feature points 12 included in the post-movement environment map 54. As a result, since the position and angle of the head of the pilot 11 are estimated with reference to the plurality of feature points 12, the position and angle of the head of the pilot 11 can be estimated more accurately.

また、第1実施形態では、上記のように、周囲環境地図5に、移動後画像63よりも前の移動前画像62により構成される前フレーム地図53を設ける。制御部4を、少なくとも移動後環境地図54に含まれる複数の特徴点12および前フレーム地図53に基づいて、パイロット11の頭部の位置および角度を推定する制御を行うように構成する。これにより、移動後環境地図54の複数の特徴点12のみに基づいてパイロット11の頭部の位置および角度を推定する場合と比較して、移動前画像62により構成される前フレーム地図53も用いることにより、パイロット11の頭部の位置および角度の変化をより正確に把握することができる。この結果、パイロット11の頭部の位置および角度の推定の精度を向上させることができる。 Further, in the first embodiment, as described above, the surrounding environment map 5 is provided with the front frame map 53 composed of the pre-movement image 62 before the post-movement image 63. The control unit 4 is configured to perform control to estimate the position and angle of the head of the pilot 11 based on at least a plurality of feature points 12 and the front frame map 53 included in the post-movement environment map 54. As a result, the front frame map 53 composed of the pre-movement image 62 is also used as compared with the case where the position and angle of the head of the pilot 11 are estimated based only on the plurality of feature points 12 of the post-movement environment map 54. This makes it possible to more accurately grasp changes in the position and angle of the head of the pilot 11. As a result, the accuracy of estimating the position and angle of the head of the pilot 11 can be improved.

また、第1実施形態では、上記のように、周囲環境地図5に、移動前画像62に移動後画像63を合成した画像に基づく現フレーム地図52を設ける。制御部4を、前フレーム地図53と、現フレーム地図52との比較に基づいて、移動後環境地図54を取得するとともに、パイロット11の頭部の位置および角度を推定する制御を行うように構成する。これにより、移動前画像62に移動後画像63を合成した画像に基づく現フレーム地図52により、移動後画像63のみに基づいて移動後環境地図54を取得する場合と比較して、移動後環境地図54に含まれる情報量を増加させることができる。この結果、より緻密な移動後環境地図54を作成することができるので、パイロット11の頭部の位置および角度の推定の精度をより向上させることができる。 Further, in the first embodiment, as described above, the surrounding environment map 5 is provided with the current frame map 52 based on the image obtained by synthesizing the pre-movement image 62 and the post-movement image 63. The control unit 4 is configured to acquire the post-movement environment map 54 based on the comparison between the front frame map 53 and the current frame map 52, and to control to estimate the position and angle of the head of the pilot 11. do. As a result, the post-movement environment map is compared with the case where the post-movement environment map 54 is acquired based only on the post-movement image 63 by the current frame map 52 based on the image obtained by synthesizing the post-movement image 63 with the pre-movement image 62. The amount of information contained in 54 can be increased. As a result, since the more precise post-movement environment map 54 can be created, the accuracy of estimating the position and angle of the head of the pilot 11 can be further improved.

また、第1実施形態では、上記のように、制御部4を、移動後環境地図54に含まれる複数の特徴点12を全て取得可能なパイロット11の頭部の位置および角度を、現フレーム(現時点)のパイロット11の頭部の位置および角度として推定する制御を行うように構成する。これにより、移動後環境地図54に含まれる複数の特徴点12を全て取得可能か否かで、現フレーム(現時点)のパイロット11の頭部の位置および角度を取得することができるので、簡易な方法によりパイロット11の頭部の位置および角度を推定することができる。 Further, in the first embodiment, as described above, the position and angle of the head of the pilot 11 capable of acquiring all the plurality of feature points 12 included in the post-movement environment map 54 by the control unit 4 are set to the current frame ( It is configured to control the estimation as the position and angle of the head of the pilot 11 (currently). As a result, the position and angle of the head of the pilot 11 in the current frame (current time) can be acquired depending on whether or not all of the plurality of feature points 12 included in the post-movement environment map 54 can be acquired, which is simple. The position and angle of the head of the pilot 11 can be estimated by the method.

また、第1実施形態では、上記のように、制御部4を、前フレーム(現フレーム(現時点)よりも前の時点)のパイロット11の頭部の位置および角度に基づいて、互いに頭部の位置および角度が異なる複数のパイロット11の頭部の位置および角度を作成するとともに、作成した複数のパイロット11の頭部の位置および角度を変化させた後、移動後環境地図54に含まれる複数の特徴点12を全て取得可能なパイロット11の頭部の位置および角度を選択する制御を行うように構成する。これにより、パイロット11の頭部の位置および角度を複数作成することにより、多くのバリエーションから現フレーム(現時点)のパイロット11の頭部の位置および角度を推定することができるので、より適切なパイロット11の頭部の位置および角度を選択することができる。 Further, in the first embodiment, as described above, the control units 4 are headed to each other based on the position and angle of the head of the pilot 11 of the front frame (the time point before the current frame (current time)). After creating the positions and angles of the heads of the plurality of pilots 11 having different positions and angles and changing the positions and angles of the heads of the created plurality of pilots 11, a plurality of images included in the post-movement environment map 54. It is configured to control the position and angle of the head of the pilot 11 that can acquire all the feature points 12. As a result, by creating a plurality of positions and angles of the head of the pilot 11, the position and angle of the head of the pilot 11 in the current frame (current time) can be estimated from many variations, so that a more appropriate pilot can be used. The position and angle of the head of 11 can be selected.

また、第1実施形態では、上記のように、制御部4を、移動後画像63中のコントラストの差に基づいて、複数の特徴点12を取得する制御を行うように構成する。これにより、簡易な方法により複数の特徴点12を取得することができるので、制御部4への処理負荷の増加を抑制することができる。 Further, in the first embodiment, as described above, the control unit 4 is configured to control the acquisition of a plurality of feature points 12 based on the difference in contrast in the image 63 after movement. As a result, since a plurality of feature points 12 can be acquired by a simple method, it is possible to suppress an increase in the processing load on the control unit 4.

また、第1実施形態では、上記のように、ヘッドモーショントラッカ装置10に、パイロット11の周囲に配置され、画像取得部2により画像として取得される目印部3を設ける。制御部4を、目印部3が取得された画像に基づく三次元の周囲環境地図5中の目印部3に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成する。これにより、画像取得部2により取得される画像中の特徴点12として目印部3を用いることができるので、画像取得部2が特徴点12をより確実に取得することができる。 Further, in the first embodiment, as described above, the head motion tracker device 10 is provided with a marker portion 3 arranged around the pilot 11 and acquired as an image by the image acquisition unit 2. The control unit 4 is configured to control the acquisition of the position and angle of the head of the pilot 11 based on the marker unit 3 in the three-dimensional ambient environment map 5 based on the image acquired by the marker unit 3. .. As a result, the mark portion 3 can be used as the feature point 12 in the image acquired by the image acquisition unit 2, so that the image acquisition unit 2 can acquire the feature point 12 more reliably.

また、第1実施形態では、上記のように、画像取得部2に、並んで配置された2つのカメラ21を設ける。制御部4を、2つのカメラ21の視差に基づいて、パイロット11の頭部の向きに沿った方向の距離を取得するとともに、2つのカメラ21により取得した距離に基づいて、三次元の周囲環境地図5を作成する制御を行うように構成する。これにより、1つのカメラ21によりパイロット11の頭部の向きに沿った方向の距離を取得する場合と比較して、パイロット11の頭部の向きに沿った方向の距離を正確に取得することができるので、三次元の周囲環境地図5をより正確に作成することができる。 Further, in the first embodiment, as described above, the image acquisition unit 2 is provided with two cameras 21 arranged side by side. The control unit 4 acquires the distance in the direction along the direction of the head of the pilot 11 based on the parallax of the two cameras 21, and the three-dimensional ambient environment based on the distance acquired by the two cameras 21. It is configured to control the creation of the map 5. As a result, it is possible to accurately acquire the distance in the direction along the direction of the head of the pilot 11 as compared with the case of acquiring the distance in the direction along the direction of the head of the pilot 11 by one camera 21. Therefore, it is possible to create a three-dimensional ambient environment map 5 more accurately.

また、第1実施形態では、上記のように、航空機用ヘッドモーショントラッカ装置に、航空機100の機体内の観察者としてのパイロット11に装着されるヘッドモーショントラッカ装置10を設ける。ヘッドモーショントラッカ装置10に、頭部装着部1に取り付けられた画像取得部2を設ける。また、ヘッドモーショントラッカ装置10では、画像取得部2により取得された画像に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成された制御部4を設ける。これにより、航空機100ではなく、頭部装着部1に取り付けられた画像取得部2の画像に基づいて制御部4により、パイロット11の頭部の位置および角度を取得することができる。すなわち、航空機100に画像取得部2を設置することなく、制御部4によりパイロット11の頭部の位置および角度を取得することができる。この結果、航空機100に画像取得部2の設置スペースを確保する必要がないので、ヘッドモーショントラッカ装置10を既存の航空機100であっても容易に適用することが可能な航空機用ヘッドモーショントラッカ装置10を得ることができる。 Further, in the first embodiment, as described above, the aircraft head motion tracker device is provided with the head motion tracker device 10 mounted on the pilot 11 as an observer inside the aircraft 100. The head motion tracker device 10 is provided with an image acquisition unit 2 attached to the head mounting unit 1. Further, the head motion tracker device 10 is provided with a control unit 4 configured to control the acquisition of the position and angle of the head of the pilot 11 based on the image acquired by the image acquisition unit 2. As a result, the position and angle of the head of the pilot 11 can be acquired by the control unit 4 based on the image of the image acquisition unit 2 attached to the head mounting unit 1 instead of the aircraft 100. That is, the position and angle of the head of the pilot 11 can be acquired by the control unit 4 without installing the image acquisition unit 2 on the aircraft 100. As a result, since it is not necessary to secure an installation space for the image acquisition unit 2 in the aircraft 100, the aircraft head motion tracker device 10 can be easily applied even to the existing aircraft 100. Can be obtained.

[第2実施形態]
次に、図11~図14を参照して、第2実施形態のヘッドモーショントラッカ装置210について説明する。詳細には、発光するだけの目印部3を備える第1実施形態のヘッドモーショントラッカ装置10とは異なり、第2実施形態のヘッドモーショントラッカ装置210では、目印部203が目印部側通信部234を備えている。なお、第2実施形態において、上記第1実施形態と同様の構成に関しては、同じ符号を付して説明を省略する。
[Second Embodiment]
Next, the head motion tracker device 210 of the second embodiment will be described with reference to FIGS. 11 to 14. Specifically, unlike the head motion tracker device 10 of the first embodiment, which includes the mark portion 3 that only emits light, in the head motion tracker device 210 of the second embodiment, the mark portion 203 uses the mark portion side communication unit 234. I have. In the second embodiment, the same components as those in the first embodiment are designated by the same reference numerals and the description thereof will be omitted.

図11および図12に示すように、ヘッドモーショントラッカ装置210は、頭部装着部1と、画像取得部2と、目印部203と、制御部204(図13参照)とを備えている。 As shown in FIGS. 11 and 12, the head motion tracker device 210 includes a head mounting unit 1, an image acquisition unit 2, a marker unit 203, and a control unit 204 (see FIG. 13).

目印部203は、パイロット11の周囲に配置され、画像取得部2により画像として取得される。目印部203は、マーカとしての機能および通信機能の両方を有している。目印部203は、移動体に複数(3つ)配置されている。なお、目印部203は、1、2または4つ以上配置されてもよい。 The mark portion 203 is arranged around the pilot 11 and is acquired as an image by the image acquisition unit 2. The mark portion 203 has both a function as a marker and a communication function. A plurality (three) of the mark portions 203 are arranged on the moving body. In addition, the mark portion 203 may be arranged in 1, 2 or 4 or more.

複数の目印部203は、良好な現フレーム地図52を持続的に取得可能とするため、パイロット11がいずれの方向を向いた場合においても、少なくとも1つ以上の目印部203が画像取得部2により撮影可能な位置に配置されている。これにより、制御部204によりパイロット11の頭部の位置および角度の推定精度の低下を回避することができる。また、制御部204により目印部203が検出されない状態を確実に回避することができる。 Since the plurality of marking portions 203 can continuously acquire a good current frame map 52, at least one marking portion 203 is provided by the image acquisition unit 2 regardless of the direction in which the pilot 11 is oriented. It is located in a position where it can be photographed. As a result, the control unit 204 can avoid a decrease in the estimation accuracy of the position and angle of the head of the pilot 11. In addition, it is possible to reliably avoid a state in which the mark portion 203 is not detected by the control unit 204.

目印部203は、取付部31と、発光部203aと、受光部203bと、制御部203cとを含んでいる。 The mark unit 203 includes a mounting unit 31, a light emitting unit 203a, a light receiving unit 203b, and a control unit 203c.

発光部203aは、マーカ機能とともに、制御部204との光通信のために用いられている。発光部203aは、紫外光または近赤外光を照射可能なLEDおよびVCSELなどにより構成されている。また、発光部203aは、広角に光を照射可能とするためのレンズが取り付けられている。受光部203bは、紫外光または近赤外光を受光可能なフォトダイオードなどの受光素子により構成されている。受光部203bは、広角に光を受光可能とするためのレンズが取り付けられている。 The light emitting unit 203a is used for optical communication with the control unit 204 together with a marker function. The light emitting unit 203a is composed of an LED capable of irradiating ultraviolet light or near infrared light, a VCSEL, and the like. Further, the light emitting unit 203a is attached with a lens for irradiating light at a wide angle. The light receiving unit 203b is composed of a light receiving element such as a photodiode capable of receiving ultraviolet light or near infrared light. A lens for enabling light to be received at a wide angle is attached to the light receiving unit 203b.

制御部203cは、CPU部231と、記憶部232と、センサ部233と、目印部側通信部234とを有している。 The control unit 203c has a CPU unit 231, a storage unit 232, a sensor unit 233, and a mark unit side communication unit 234.

CPU部231は、センサデータ処理231aに所定の処理を実行させる機能を有している。センサデータ処理231aは、センサ部233からの計測値を、制御部204に送信可能な計測値情報に変換する処理を行う。センサデータ処理231aは、制御部204からのデータを、制御部203cに認識可能なデータに変換する処理を行う。 The CPU unit 231 has a function of causing the sensor data processing 231a to execute a predetermined process. The sensor data processing 231a performs a process of converting the measured value from the sensor unit 233 into the measured value information that can be transmitted to the control unit 204. The sensor data processing 231a performs a process of converting the data from the control unit 204 into data recognizable by the control unit 203c.

記憶部232は、RAMおよびROMを有する記憶媒体である。記憶部232には、目印部203の識別番号232aと、機体座標位置232bとが記憶されている。機体座標位置232bとは、パイロット11を乗せた航空機100の機体の基準位置に対する目印部203の座標位置を示す。機体座標位置232bは、目印部203を機体に設置する際に、計測した後、記憶部232に入力される。なお、機体座標位置232bは、特許請求の範囲の「目印部の位置」の一例である。また、航空機100は、特許請求の範囲の「移動体」の一例である。 The storage unit 232 is a storage medium having a RAM and a ROM. The storage unit 232 stores the identification number 232a of the mark unit 203 and the aircraft coordinate position 232b. The aircraft coordinate position 232b indicates the coordinate position of the mark portion 203 with respect to the reference position of the aircraft of the aircraft 100 carrying the pilot 11. The machine body coordinate position 232b is input to the storage unit 232 after being measured when the mark unit 203 is installed on the machine body. The aircraft coordinate position 232b is an example of the "position of the mark portion" in the claims. Further, the aircraft 100 is an example of a "moving body" within the scope of claims.

センサ部233は、加速度センサ233a、ジャイロセンサ233b、傾斜センサ233cおよび方位センサ233dを有している。加速度センサ233aは、機体の加速度を計測する。ジャイロセンサ233bは、機体の角速度を計測する。傾斜センサ233cは、機体の傾きを計測する。方位センサ233dは、機体の方位を計測する。なお、ジャイロセンサ233bは、特許請求の範囲の「目印部側ジャイロセンサ」の一例である。 The sensor unit 233 has an acceleration sensor 233a, a gyro sensor 233b, a tilt sensor 233c, and an orientation sensor 233d. The acceleration sensor 233a measures the acceleration of the airframe. The gyro sensor 233b measures the angular velocity of the airframe. The tilt sensor 233c measures the tilt of the airframe. The azimuth sensor 233d measures the azimuth of the aircraft. The gyro sensor 233b is an example of the "mark portion side gyro sensor" in the claims.

目印部側通信部234は、後述する制御部側通信部204f(図13参照)と通信可能に構成されている。目印部側通信部234は、光および電波による無線通信機能を有している。目印部側通信部234は、制御部204の記憶部204bの機体座標位置232bの調整・設定の際、制御部側通信部204fと電波による無線通信を行う。また、目印部側通信部234は、調整・設定以外の通常使用の際、制御部側通信部204fと光による無線通信を行う。目印部側通信部234は、目印部203の識別番号232aの情報、目印部203の機体座標位置232bの情報、センサ部233の計測値情報を光により、制御部側通信部204fに送信するように構成されている。 The mark unit side communication unit 234 is configured to be communicable with the control unit side communication unit 204f (see FIG. 13), which will be described later. The marker unit side communication unit 234 has a wireless communication function using light and radio waves. The mark unit side communication unit 234 performs wireless communication with the control unit side communication unit 204f by radio waves when adjusting / setting the machine coordinate position 232b of the storage unit 204b of the control unit 204. Further, the mark unit side communication unit 234 performs wireless communication with the control unit side communication unit 204f by light during normal use other than adjustment / setting. The mark unit side communication unit 234 transmits the information of the identification number 232a of the mark unit 203, the information of the machine coordinate position 232b of the mark unit 203, and the measurement value information of the sensor unit 233 to the control unit side communication unit 204f by light. It is configured in.

ここで、目印部側通信部234は、発光部203aを発光させる制御を行うように構成されている。すなわち、目印部側通信部234は、発光部203aのマーカとしての発光、および、制御部側通信部204fと光による無線通信としての発光部203aの発光を重畳して行うことが可能である。目印部側通信部234は、制御部204側の発光部204cの発光を受光部203bにより受光する。 Here, the mark unit side communication unit 234 is configured to control the light emitting unit 203a to emit light. That is, the mark unit side communication unit 234 can superimpose light emission as a marker of the light emitting unit 203a and light emission of the light emitting unit 203a as wireless communication by light with the control unit side communication unit 204f. The mark unit side communication unit 234 receives the light emitted from the light emitting unit 204c on the control unit 204 side by the light receiving unit 203b.

図13および図14に示すように、制御部204は、各種の制御および演算処理を行うコンピュータにより構成されている。制御部204は、画像処理部41と、CPU部204aと、記憶部204bと、発光部204cと、受光部204dと、センサ部204eと、制御部側通信部204fとを含んでいる。 As shown in FIGS. 13 and 14, the control unit 204 is composed of a computer that performs various controls and arithmetic processing. The control unit 204 includes an image processing unit 41, a CPU unit 204a, a storage unit 204b, a light emitting unit 204c, a light receiving unit 204d, a sensor unit 204e, and a control unit side communication unit 204f.

CPU部204aは、比較処理42aと、位置角度検出処理42bと、センサデータ処理240とに所定の処理実行させる機能を有している。センサデータ処理240は、センサ部204eからの計測値を、制御部204において認識可能な計測値情報に変換する処理を行う。センサデータ処理240は、目印部203から送信された情報を受け渡す処理も行う。センサデータ処理240は、制御部204から送信するデータを、制御部203cに送信可能なデータに変換する処理を行う。 The CPU unit 204a has a function of causing the comparison process 42a, the position angle detection process 42b, and the sensor data process 240 to execute predetermined processes. The sensor data processing 240 performs a process of converting the measured value from the sensor unit 204e into the measured value information recognizable by the control unit 204. The sensor data processing 240 also performs a process of passing information transmitted from the mark portion 203. The sensor data processing 240 performs a process of converting the data transmitted from the control unit 204 into data that can be transmitted to the control unit 203c.

記憶部204bは、RAMおよびROMを有する記憶媒体である。記憶部204bには、前フレーム地図53と、ベース地図51と、機体座標位置232bとが記憶されている。 The storage unit 204b is a storage medium having a RAM and a ROM. The storage unit 204b stores the front frame map 53, the base map 51, and the aircraft coordinate position 232b.

発光部204cは、紫外光または近赤外光を照射可能なLEDおよびVCSELなどにより構成されている。発光部204cの光軸は、カメラ21の光軸と同じ方向に配置されている。発光部204cは、広角に光を照射可能とするためのレンズが取り付けられている。発光部204cは、制御部側通信部204fにより、発光部204cの照明光としての発光、および、目印部側通信部234と光による無線通信としての発光部204cの発光の両方を行うことが可能である。 The light emitting unit 204c is composed of an LED capable of irradiating ultraviolet light or near infrared light, a VCSEL, and the like. The optical axis of the light emitting unit 204c is arranged in the same direction as the optical axis of the camera 21. A lens for enabling light to be irradiated at a wide angle is attached to the light emitting unit 204c. The light emitting unit 204c can both emit light as illumination light of the light emitting unit 204c and emit light from the marker unit side communication unit 234 and the light emitting unit 204c as wireless communication by light by the control unit side communication unit 204f. Is.

受光部204dは、紫外光または近赤外光を受光可能なフォトダイオードなどの受光素子により構成されている。受光部204dは、広角に光を受光可能とするためのレンズが取り付けられている。 The light receiving unit 204d is composed of a light receiving element such as a photodiode capable of receiving ultraviolet light or near infrared light. A lens for enabling light to be received at a wide angle is attached to the light receiving unit 204d.

センサ部204eは、加速度センサ241、ジャイロセンサ242、傾斜センサ243および方位センサ244を有している。加速度センサ241は、パイロット11の頭部の加速度を計測する。ジャイロセンサ242は、パイロット11の頭部の角速度を計測する。傾斜センサ243は、パイロット11の頭部の傾きを計測する。方位センサ244は、パイロット11の頭部の方位を計測する。なお、ジャイロセンサ242は、特許請求の範囲の「装置側ジャイロセンサ」の一例である。 The sensor unit 204e has an acceleration sensor 241, a gyro sensor 242, a tilt sensor 243, and an azimuth sensor 244. The accelerometer 241 measures the acceleration of the head of the pilot 11. The gyro sensor 242 measures the angular velocity of the head of the pilot 11. The tilt sensor 243 measures the tilt of the head of the pilot 11. The orientation sensor 244 measures the orientation of the head of the pilot 11. The gyro sensor 242 is an example of the "device-side gyro sensor" in the claims.

制御部側通信部204fは、目印部側通信部234と通信可能に構成されている。制御部側通信部204fは、光および電波による無線通信機能を有している。制御部側通信部204fは、制御部204の記憶部204bの機体座標位置232bの調整・設定の際、目印部側通信部234と電波による無線通信を行う。また、制御部側通信部204fは、調整・設定以外の通常使用の際、目印部側通信部234と光による無線通信を行う。制御側通信部は、目印部203の識別番号232aの情報、目印部203の機体座標位置232bの情報、センサ部233の計測値情報を光により、目印部側通信部234から受信するように構成されている。制御部側通信部204fは、発光部204cを照明光として発光させるように構成されている。 The control unit side communication unit 204f is configured to be able to communicate with the mark unit side communication unit 234. The control unit side communication unit 204f has a wireless communication function using light and radio waves. The control unit side communication unit 204f performs wireless communication with the mark unit side communication unit 234 by radio waves when adjusting and setting the machine coordinate position 232b of the storage unit 204b of the control unit 204. Further, the control unit side communication unit 204f performs wireless communication with the mark unit side communication unit 234 by light during normal use other than adjustment / setting. The control side communication unit is configured to receive the information of the identification number 232a of the mark unit 203, the information of the machine coordinate position 232b of the mark unit 203, and the measured value information of the sensor unit 233 from the mark unit side communication unit 234 by light. Has been done. The control unit side communication unit 204f is configured to cause the light emitting unit 204c to emit light as illumination light.

(位置角度検出処理)
図13および図14に示すように。第2実施形態の制御部204は、画像取得部2により取得された画像に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成されている。なお、パイロット11の頭部の位置および角度は、2つのカメラ21の中点の位置および角度として示される。
(Position and angle detection processing)
As shown in FIGS. 13 and 14. The control unit 204 of the second embodiment is configured to control the acquisition of the position and angle of the head of the pilot 11 based on the image acquired by the image acquisition unit 2. The position and angle of the head of the pilot 11 are shown as the position and angle of the midpoint of the two cameras 21.

制御部204は、画像取得部2により取得された移動後画像63から十分な数の特徴点12を抽出できなかった場合、センサ部233の計測値情報と、センサ部204eの計測値情報とに基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成されている。また、制御部204は、前フレーム地図53および現フレーム地図52に基づいて、観察者の頭部の角度が所定時間内に取得できない場合も同様の制御を行うように構成されている。この際、制御部204は、発光部204cの光により、画像取得部2により取得された目印部203にセンサ部204eの計測値情報を要求する信号を送信する制御を行うように構成されている。 When a sufficient number of feature points 12 cannot be extracted from the moved image 63 acquired by the image acquisition unit 2, the control unit 204 uses the measured value information of the sensor unit 233 and the measured value information of the sensor unit 204e. Based on this, it is configured to control the acquisition of the position and angle of the head of the pilot 11. Further, the control unit 204 is configured to perform the same control based on the front frame map 53 and the current frame map 52 even when the angle of the observer's head cannot be acquired within a predetermined time. At this time, the control unit 204 is configured to control the light of the light emitting unit 204c to transmit a signal requesting the measurement value information of the sensor unit 204e to the mark unit 203 acquired by the image acquisition unit 2. ..

詳細には、制御部204は、前フレーム地図53および現フレーム地図52に基づいてパイロット11の頭部の角度が所定時間内に取得できない場合、ジャイロセンサ242により計測されたパイロット11の頭部の角速度と、ジャイロセンサ233bにより計測された航空機100の角速度との差に基づいて、パイロット11の頭部の角度を取得する制御を行うように構成されている。すなわち、ジャイロセンサ233bにより計測された航空機100の角速度の情報は、ジャイロセンサ242により計測された頭部の角速度に含まれる航空機100の角速度の情報を相殺するために用いられる。これにより、制御部204が光通信により航空機100の角速度の情報を取得可能であるので、制御部204が航空機100の角速度の情報を取得するために専用のケーブルを用いなくてもよい。 Specifically, the control unit 204 of the pilot 11's head measured by the gyro sensor 242 when the angle of the pilot 11's head cannot be acquired within a predetermined time based on the front frame map 53 and the current frame map 52. It is configured to control the acquisition of the angle of the head of the pilot 11 based on the difference between the angular velocity and the angular velocity of the aircraft 100 measured by the gyro sensor 233b. That is, the information on the angular velocity of the aircraft 100 measured by the gyro sensor 233b is used to offset the information on the angular velocity of the aircraft 100 included in the angular velocity of the head measured by the gyro sensor 242. As a result, the control unit 204 can acquire the information on the angular velocity of the aircraft 100 by optical communication, so that the control unit 204 does not need to use a dedicated cable to acquire the information on the angular velocity of the aircraft 100.

また、詳細には、制御部204は、前フレーム地図53および現フレーム地図52に基づいてパイロット11の頭部の角度が所定時間内に取得できない場合、加速度センサ241により計測されたパイロット11の頭部の加速度と、加速度センサ233aにより計測された航空機100の加速度との差に基づいて、パイロット11の頭部の位置を取得する制御を行うように構成されている。すなわち、加速度センサ233aにより計測された航空機100の加速度の情報は、加速度センサ241により計測された頭部の加速度に含まれる航空機100の加速度の情報を相殺するために用いられる。これにより、制御部204が光通信により航空機100の加速度の情報を取得可能であるので、制御部204が航空機100の加速度の情報を取得するために専用のケーブルを用いなくてもよい。 Further, in detail, when the angle of the head of the pilot 11 cannot be acquired within a predetermined time based on the front frame map 53 and the current frame map 52, the control unit 204 measures the head of the pilot 11 by the acceleration sensor 241. It is configured to control the acquisition of the position of the head of the pilot 11 based on the difference between the acceleration of the unit and the acceleration of the aircraft 100 measured by the acceleration sensor 233a. That is, the information on the acceleration of the aircraft 100 measured by the acceleration sensor 233a is used to offset the information on the acceleration of the aircraft 100 included in the acceleration of the head measured by the acceleration sensor 241. As a result, the control unit 204 can acquire the acceleration information of the aircraft 100 by optical communication, so that the control unit 204 does not need to use a dedicated cable to acquire the acceleration information of the aircraft 100.

なお、光による通信だけではなく、必要に応じて、パイロット11により、航空機100の機体の姿勢、方位角などが入力されてもよい。 In addition to optical communication, the pilot 11 may input the attitude, azimuth, and the like of the aircraft 100 as needed.

制御部204は、ジャイロセンサ233bおよびジャイロセンサ242により取得されたパイロット11の頭部の角度と、前フレーム地図53および現フレーム地図52に基づいて推定されたパイロット11の頭部の角度とを比較する制御を行うように構成されている。さらに、制御部204は、加速度センサ233aおよび加速度センサ241により取得されたパイロット11の頭部の位置と、前フレーム地図53および現フレーム地図52に基づいて推定されたパイロット11の頭部の位置とを比較する制御を行うように構成されている。制御部204は、上記した2つの比較結果の両方において、パイロット11の頭部の角度および位置が一致する場合、前フレーム地図53と、ベース地図51とを合成するか、または、ベース地図51を前フレーム地図53に更新する制御を行うように構成されている。 The control unit 204 compares the angle of the head of the pilot 11 acquired by the gyro sensor 233b and the gyro sensor 242 with the angle of the head of the pilot 11 estimated based on the front frame map 53 and the current frame map 52. It is configured to control the operation. Further, the control unit 204 has a position of the head of the pilot 11 acquired by the acceleration sensor 233a and the acceleration sensor 241 and a position of the head of the pilot 11 estimated based on the front frame map 53 and the current frame map 52. It is configured to control the comparison. When the angle and position of the head of the pilot 11 match in both of the above two comparison results, the control unit 204 synthesizes the front frame map 53 and the base map 51, or combines the base map 51 with the base map 51. It is configured to control updating to the previous frame map 53.

制御部204は、前フレーム地図53と現フレーム地図52とが似通っていること、および、外乱などに起因するパイロット11の頭部の位置および角度の精度の低下を防止するため、移動後環境地図54上の特徴点12の座標位置ではなく、目印部203の機体座標位置232bによるパイロット11の頭部の位置および角度の推定を行うように構成されている。詳細には、制御部204は、画像取得部2により目印部203を取得した場合、目印部側通信部234を介して記憶部232から取得した目印部203の機体座標位置232bに基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成されている。これにより、画像取得部2により目印部203を取得するたびに、パイロット11の頭部の位置および角度を再設定(リセット)することが可能である。ここで、制御部204は、パイロット11の頭部の位置および角度を再設定した場合、目印部203の機体座標位置232bに基づいて、前フレーム地図53の座標位置を補正する制御を行うことが好ましい。なお、機体座標位置232bは、特許請求の範囲の「目印部の位置」の一例である。 The control unit 204 has a post-movement environment map in order to prevent the front frame map 53 and the current frame map 52 from being similar to each other and to prevent the accuracy of the position and angle of the head of the pilot 11 from deteriorating due to disturbance or the like. It is configured to estimate the position and angle of the head of the pilot 11 by the aircraft coordinate position 232b of the mark portion 203 instead of the coordinate position of the feature point 12 on the 54. Specifically, when the mark unit 203 is acquired by the image acquisition unit 2, the control unit 204 pilots based on the machine coordinate position 232b of the mark unit 203 acquired from the storage unit 232 via the marker unit side communication unit 234. It is configured to control the acquisition of the position and angle of the head of the eleven. This makes it possible to reset (reset) the position and angle of the head of the pilot 11 each time the image acquisition unit 2 acquires the mark unit 203. Here, when the position and angle of the head of the pilot 11 are reset, the control unit 204 may perform control to correct the coordinate position of the front frame map 53 based on the aircraft coordinate position 232b of the mark unit 203. preferable. The aircraft coordinate position 232b is an example of the "position of the mark portion" in the claims.

図15に示すように、制御部204は、現フレームよりも前のフレームのパイロット11の頭部の位置および角度に基づいて、互いに頭部の位置および角度が異なる複数のパイロット11の頭部の位置および角度を作成する際、作成する複数のパイロット11の頭部の位置および角度を制限する制御を行うように構成されている。すなわち、制御部204は、傾斜センサ243および方位センサ244の計測値情報に基づいて、作成する複数のパイロット11の頭部の位置および角度を制限する制御を行うように構成されている。これにより、参照して比較する複数のパイロット11の頭部の位置および角度が減少するので、制御部204の処理を軽減することが可能である。なお、第2実施形態のその他の構成は、第1実施形態の構成と同様である。 As shown in FIG. 15, the control unit 204 has heads of a plurality of pilots 11 having different head positions and angles from each other based on the positions and angles of the heads of the pilots 11 in the frames prior to the current frame. When creating a position and an angle, it is configured to control the position and angle of the heads of the plurality of pilots 11 to be created. That is, the control unit 204 is configured to perform control for limiting the positions and angles of the heads of the plurality of pilots 11 to be created based on the measured value information of the tilt sensor 243 and the azimuth sensor 244. As a result, the positions and angles of the heads of the plurality of pilots 11 to be referred to and compared are reduced, so that the processing of the control unit 204 can be reduced. The other configurations of the second embodiment are the same as the configurations of the first embodiment.

(第2実施形態の効果)
第2実施形態では、以下のような効果を得ることができる。
(Effect of the second embodiment)
In the second embodiment, the following effects can be obtained.

第2実施形態では、上記のように、ヘッドモーショントラッカ装置210に、頭部装着部1に取り付けられた画像取得部2を設ける。また、ヘッドモーショントラッカ装置210に、画像取得部2により取得された画像に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成された制御部204を設ける。これにより、ヘッドモーショントラッカ装置210を既存の航空機100であっても容易に適用することができる。 In the second embodiment, as described above, the head motion tracker device 210 is provided with the image acquisition unit 2 attached to the head mounting unit 1. Further, the head motion tracker device 210 is provided with a control unit 204 configured to control the acquisition of the position and angle of the head of the pilot 11 based on the image acquired by the image acquisition unit 2. As a result, the head motion tracker device 210 can be easily applied even to the existing aircraft 100.

また、第2実施形態では、上記のように、制御部204に、制御部側通信部204fを設ける。目印部203に、制御部側通信部304fと通信可能な目印部側通信部234と、パイロット11を乗せた航空機100の基準位置に対する目印部203の位置を記憶する記憶部232とを設ける。制御部204を、画像取得部2により目印部203を取得した場合、目印部側通信部234を介して記憶部232から取得した目印部203の位置に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成する。これにより、画像取得部2により取得される画像により目印部203の位置を取得する場合と比較して、目印部203の位置の精度を高くすることができるので、三次元の周囲環境地図5中の目印部203の位置の精度を向上させることができる。この結果、制御部204により、より正確なパイロット11の頭部の位置および角度を取得することができる。 Further, in the second embodiment, as described above, the control unit 204 is provided with the control unit side communication unit 204f. The mark unit 203 is provided with a mark unit side communication unit 234 capable of communicating with the control unit side communication unit 304f and a storage unit 232 for storing the position of the mark unit 203 with respect to the reference position of the aircraft 100 on which the pilot 11 is placed. When the control unit 204 acquires the mark unit 203 by the image acquisition unit 2, the position of the head of the pilot 11 and the position of the head of the pilot 11 based on the position of the mark unit 203 acquired from the storage unit 232 via the marker unit side communication unit 234. It is configured to control the acquisition of the angle. As a result, the accuracy of the position of the mark portion 203 can be improved as compared with the case of acquiring the position of the mark portion 203 from the image acquired by the image acquisition unit 2, so that the three-dimensional ambient environment map 5 can be used. It is possible to improve the accuracy of the position of the mark portion 203 of. As a result, the control unit 204 can acquire a more accurate position and angle of the head of the pilot 11.

また、第2実施形態では、上記のように、ヘッドモーショントラッカ装置210に、パイロット11の頭部の角速度を計測するジャイロセンサ242を設ける。目印部203に、パイロットを乗せた航空機100の角速度を計測するジャイロセンサ233bを設ける。制御部204を、周囲環境地図5に基づいてパイロット11の頭部の角度が所定時間内に取得できない場合、ジャイロセンサ242により計測されたパイロット11の頭部の角速度と、ジャイロセンサ233bにより計測された航空機100の角速度との差に基づいて、パイロット11の頭部の角度を取得する制御を行うように構成する。これにより、周囲環境地図5に基づいてパイロット11の頭部の角度を取得できない場合に、ジャイロセンサ242およびジャイロセンサ233bによりパイロット11の頭部の角度を補完することができるので、パイロット11の頭部の角度を確実に取得することができる。なお、第2実施形態のその他の効果は、第1実施形態の効果と同様である。 Further, in the second embodiment, as described above, the head motion tracker device 210 is provided with a gyro sensor 242 for measuring the angular velocity of the head of the pilot 11. A gyro sensor 233b for measuring the angular velocity of the aircraft 100 carrying the pilot is provided on the mark portion 203. When the angle of the head of the pilot 11 cannot be acquired within a predetermined time by the control unit 204 based on the ambient environment map 5, the angular velocity of the head of the pilot 11 measured by the gyro sensor 242 and the angular velocity of the head of the pilot 11 are measured by the gyro sensor 233b. It is configured to control to acquire the angle of the head of the pilot 11 based on the difference from the angular velocity of the aircraft 100. As a result, when the angle of the head of the pilot 11 cannot be obtained based on the surrounding environment map 5, the angle of the head of the pilot 11 can be complemented by the gyro sensor 242 and the gyro sensor 233b, so that the head of the pilot 11 can be complemented. The angle of the part can be surely acquired. The other effects of the second embodiment are the same as the effects of the first embodiment.

[第3実施形態]
次に、図16および図17を参照して、第3実施形態のヘッドモーショントラッカ装置310について説明する。詳細には、発光部203aを有する目印部203を備える第2実施形態のヘッドモーショントラッカ装置210とは異なり、第3実施形態のヘッドモーショントラッカ装置310では、目印部304が反射して発光する。なお、第3実施形態において、上記第2実施形態と同様の構成に関しては、同じ符号を付して説明を省略する。
[Third Embodiment]
Next, the head motion tracker device 310 of the third embodiment will be described with reference to FIGS. 16 and 17. Specifically, unlike the head motion tracker device 210 of the second embodiment, which includes the mark portion 203 having the light emitting unit 203a, the mark portion 304 reflects and emits light in the head motion tracker device 310 of the third embodiment. In the third embodiment, the same components as those in the second embodiment are designated by the same reference numerals and the description thereof will be omitted.

具体的には、図16および図17に示すように、ヘッドモーショントラッカ装置310は、頭部装着部1と、画像取得部302と、発光部303と、目印部304と、制御部305とを備えている。 Specifically, as shown in FIGS. 16 and 17, the head motion tracker device 310 includes a head mounting unit 1, an image acquisition unit 302, a light emitting unit 303, a marker unit 304, and a control unit 305. I have.

画像取得部302は、1つのカメラ21と、受光光学系(図示せず)とを含んでいる。詳細には、カメラ21は、エリアセンサカメラである。カメラ21は、紫外光および近赤外光に感度を有している。カメラ21には、発光部303から発光し、機体の内表面において反射した反射光が受光光学系を介して入射する。受光光学系は、カメラ21に特定の波長領域以外の光を受光させないようにするため、特定波長領域の光のみを通過させるフィルタおよびレンズなどを有している。 The image acquisition unit 302 includes one camera 21 and a light receiving optical system (not shown). Specifically, the camera 21 is an area sensor camera. The camera 21 is sensitive to ultraviolet light and near infrared light. The reflected light emitted from the light emitting unit 303 and reflected on the inner surface of the machine body is incident on the camera 21 via the light receiving optical system. The light-receiving optical system includes a filter, a lens, and the like that allow only light in a specific wavelength region to pass through so that the camera 21 does not receive light other than the specific wavelength region.

画像取得部302は、距離を算出する機能を有する。詳細には、画像取得部302は、発光部303の発光時の波長と、発光部303の上記反射光の波長との差に基づいて、距離を取得可能なように構成されている。 The image acquisition unit 302 has a function of calculating the distance. Specifically, the image acquisition unit 302 is configured to be able to acquire a distance based on the difference between the wavelength of the light emitting unit 303 at the time of light emission and the wavelength of the reflected light of the light emitting unit 303.

発光部303は、紫外光または近赤外光を照射可能なLEDおよびVCSELなどにより構成されている。発光部303の光軸は、カメラ21の光軸と同じ方向に配置されている。ここで、発光部303は、周囲の光の影響を受けにくい波長の光であることが好ましい。発光部303は、広角に光を照射可能とするためのレンズが取り付けられている。 The light emitting unit 303 is composed of an LED capable of irradiating ultraviolet light or near infrared light, a VCSEL, and the like. The optical axis of the light emitting unit 303 is arranged in the same direction as the optical axis of the camera 21. Here, the light emitting unit 303 is preferably light having a wavelength that is not easily affected by ambient light. The light emitting unit 303 is attached with a lens for irradiating light at a wide angle.

ここで、画像取得部302には、距離を算出する機能を向上させるために、カメラ21の光軸方向角度および発光部303の光軸方向角度を変更可能な機構(モータなど)が設けられていることが好ましい。 Here, in order to improve the function of calculating the distance, the image acquisition unit 302 is provided with a mechanism (motor or the like) capable of changing the optical axis direction angle of the camera 21 and the optical axis direction angle of the light emitting unit 303. It is preferable to have.

目印部304は、パイロット11の周囲に配置され、画像取得部302により画像として取得される。目印部304は、マーカとしての機能を有している。目印部304は、特徴点抽出処理を容易にするため、再帰性反射体または特定波長領域に反射特性を有する反射体で構成されている。目印部304は、移動体に複数(3つ)配置されている。なお、目印部304は、1、2または4つ以上配置されてもよい。 The mark portion 304 is arranged around the pilot 11 and is acquired as an image by the image acquisition portion 302. The mark portion 304 has a function as a marker. The mark portion 304 is composed of a retroreflector or a reflector having a reflection characteristic in a specific wavelength region in order to facilitate the feature point extraction process. A plurality (three) of the mark portions 304 are arranged on the moving body. In addition, the mark portion 304 may be arranged in 1, 2 or 4 or more.

複数の目印部304は、パイロット11の頭部の位置および角度の推定精度が特に必要な領域、および、特徴点12を抽出しにくい領域などに配置されている。 The plurality of marking portions 304 are arranged in a region where estimation accuracy of the position and angle of the head of the pilot 11 is particularly required, a region where it is difficult to extract the feature point 12, and the like.

制御部305は、各種の制御および演算処理を行うコンピュータにより構成されている。制御部305は、画像処理部41と、CPU部305aと、記憶部305bと、センサ部305cとを含んでいる。 The control unit 305 is composed of a computer that performs various controls and arithmetic processing. The control unit 305 includes an image processing unit 41, a CPU unit 305a, a storage unit 305b, and a sensor unit 305c.

CPU部305aは、比較処理42aと、位置角度検出処理42bと、センサデータ処理350とを実行する機能を有している。センサデータ処理350は、センサ部305cからの計測値を、制御部305において認識可能な計測値情報に変換する処理を行う。 The CPU unit 305a has a function of executing the comparison process 42a, the position angle detection process 42b, and the sensor data process 350. The sensor data processing 350 performs a process of converting the measured value from the sensor unit 305c into the measured value information recognizable by the control unit 305.

記憶部305bは、RAMおよびROMを有する記憶媒体である。記憶部305bには、前フレーム地図53と、ベース地図51と、機体座標位置306とが記憶されている。 The storage unit 305b is a storage medium having a RAM and a ROM. The storage unit 305b stores the front frame map 53, the base map 51, and the aircraft coordinate position 306.

センサ部305cは、加速度センサ351、ジャイロセンサ352、傾斜センサ353および方位センサ354を有している。なお、ジャイロセンサ352は、特許請求の範囲の「装置側ジャイロセンサ」の一例である。 The sensor unit 305c has an acceleration sensor 351, a gyro sensor 352, a tilt sensor 353, and an azimuth sensor 354. The gyro sensor 352 is an example of the "device-side gyro sensor" in the claims.

(位置角度検出処理)
図16および図17に示すように。第3実施形態の制御部305は、画像取得部302により取得された画像に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成されている。なお、パイロット11の頭部の位置および角度は、1つのカメラ21の先端の中点の位置および角度として示される。
(Position and angle detection processing)
As shown in FIGS. 16 and 17. The control unit 305 of the third embodiment is configured to control to acquire the position and angle of the head of the pilot 11 based on the image acquired by the image acquisition unit 302. The position and angle of the head of the pilot 11 are shown as the position and angle of the midpoint of the tip of one camera 21.

ここで、1つのカメラ21がエリアセンサカメラであるので、画像処理部41は、三次元地図におけるXZ平面の情報を取得可能である。また、画像取得部302は、距離測定機能により、三次元地図におけるY軸方向の情報を取得可能である。 Here, since one camera 21 is an area sensor camera, the image processing unit 41 can acquire information on the XZ plane in the three-dimensional map. Further, the image acquisition unit 302 can acquire information in the Y-axis direction in the three-dimensional map by the distance measurement function.

詳細には、制御部305は、画像取得部302により取得される画像のうち、航空機100内の部分に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成されている。すなわち、制御部305は、画像取得部302により取得された画像中において、航空機100内の躯体の形状、航空機100内に配置されたスイッチおよびディスプレイなどの特徴点12に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成されている。また、画像の特徴点12としては、目印部304も特徴点12である。 Specifically, the control unit 305 is configured to control to acquire the position and angle of the head of the pilot 11 based on the portion of the image acquired by the image acquisition unit 302 in the aircraft 100. There is. That is, the control unit 305 heads the pilot 11 based on the shape of the skeleton in the aircraft 100 and the feature points 12 such as the switch and the display arranged in the aircraft 100 in the image acquired by the image acquisition unit 302. It is configured to control the acquisition of the position and angle of the unit. Further, as the feature point 12 of the image, the mark portion 304 is also the feature point 12.

制御部305は、発光部303から発光した光に対する、スイッチ、ディスプレイおよび目印部304などからの反射光を利用して、複数の特徴点12を取得する制御を行うように構成されている。ここで、制御部305は、機体内表面に対する発光部303からの光の角度および反射率、発光部303からの光が届かない領域、および、画像中のコントラストに起因して画像中の情報の欠損の発生を抑制するために、画像取得部302により算出される距離により画像中の情報を補完する制御を行うように構成されている。なお、第3実施形態のその他の構成は、第2実施形態の構成と同様である。 The control unit 305 is configured to control the light emitted from the light emitting unit 303 to acquire a plurality of feature points 12 by using the reflected light from the switch, the display, the mark unit 304, and the like. Here, the control unit 305 determines the angle and reflectance of the light from the light emitting unit 303 with respect to the surface of the machine body, the region where the light from the light emitting unit 303 does not reach, and the information in the image due to the contrast in the image. In order to suppress the occurrence of defects, it is configured to perform control to complement the information in the image by the distance calculated by the image acquisition unit 302. The other configurations of the third embodiment are the same as the configurations of the second embodiment.

(第3実施形態の効果)
第3実施形態では、以下のような効果を得ることができる。
(Effect of the third embodiment)
In the third embodiment, the following effects can be obtained.

第3実施形態では、上記のように、ヘッドモーショントラッカ装置310に、頭部装着部1に取り付けられた画像取得部302を設ける。また、ヘッドモーショントラッカ装置310に、画像取得部302により取得された画像に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成された制御部305を設ける。これにより、ヘッドモーショントラッカ装置310を既存の航空機100であっても容易に適用することができる。なお、第3実施形態のその他の効果は、第2実施形態の効果と同様である。 In the third embodiment, as described above, the head motion tracker device 310 is provided with the image acquisition unit 302 attached to the head mounting unit 1. Further, the head motion tracker device 310 is provided with a control unit 305 configured to control the acquisition of the position and angle of the head of the pilot 11 based on the image acquired by the image acquisition unit 302. Thereby, the head motion tracker device 310 can be easily applied even to the existing aircraft 100. The other effects of the third embodiment are the same as the effects of the second embodiment.

[変形例]
なお、今回開示された実施形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施形態の説明ではなく特許請求の範囲によって示され、さらに特許請求の範囲と均等の意味および範囲内でのすべての変更(変形例)が含まれる。
[Modification example]
It should be noted that the embodiments disclosed this time are exemplary in all respects and are not considered to be restrictive. The scope of the present invention is shown by the scope of claims rather than the description of the above-described embodiment, and further includes all modifications (modifications) within the meaning and scope equivalent to the scope of claims.

たとえば、上記第1~第3実施形態では、航空機100は、特許請求の範囲の「移動体」の一例である例を示したが、本発明はこれに限られない。本発明では、移動体は、車輌であってもよい。 For example, in the first to third embodiments, the aircraft 100 is an example of a "moving body" in the claims, but the present invention is not limited to this. In the present invention, the moving body may be a vehicle.

また、上記第1~第3実施形態では、パーティクルフィルタによる位置角度検出処理42bを一例として説明したが、本発明はこれに限られない。本発明では、位置角度検出処理は、拡張カルマンフィルタなどにより行われてもよい。 Further, in the first to third embodiments, the position / angle detection process 42b by the particle filter has been described as an example, but the present invention is not limited to this. In the present invention, the position / angle detection process may be performed by an extended Kalman filter or the like.

また、上記第1~第3実施形態では、制御部4(204,305)は、特徴点12および目印部3の両方で位置角度検出処理42bを行う例を示したが、本発明はこれに限られない。本発明では、制御部は、特徴点または目印部のいずれかで位置角度検出処理を行ってもよい。たとえば、図18に示す第1変形例のように、目印部3が配置されていない領域では、制御部は、航空機100の機体のフレームなどに基づく特徴点12のみにより位置角度検出処理42bを行うように構成されていてもよい。 Further, in the first to third embodiments, the control unit 4 (204,305) has shown an example in which the position angle detection process 42b is performed at both the feature point 12 and the mark unit 3, but the present invention relates to this. Not limited. In the present invention, the control unit may perform the position / angle detection process at either the feature point or the mark unit. For example, as in the first modification shown in FIG. 18, in the region where the mark portion 3 is not arranged, the control unit performs the position angle detection process 42b only by the feature point 12 based on the frame of the aircraft 100. It may be configured as follows.

また、上記第1~第3実施形態では、制御部4(204、305)は、前フレーム地図53(第2周囲環境地図)と、現フレーム地図52(第3周囲環境地図)との比較に基づいて、位置角度検出処理42bを行うように構成されている例を示したが、本発明はこれに限られない。本発明では、制御部は、ベース地図と、第3周囲環境地図との比較に基づいて、位置角度検出処理を行うように構成されていてもよい。また、制御部は、ベース地図と、第2周囲環境地図と、第3周囲環境地図との比較に基づいて、位置角度検出処理を行うように構成されていてもよい。 Further, in the first to third embodiments, the control unit 4 (204, 305) compares the front frame map 53 (second surrounding environment map) with the current frame map 52 (third surrounding environment map). Based on the above, an example configured to perform the position / angle detection process 42b has been shown, but the present invention is not limited to this. In the present invention, the control unit may be configured to perform the position / angle detection process based on the comparison between the base map and the third surrounding environment map. Further, the control unit may be configured to perform the position / angle detection process based on the comparison between the base map, the second surrounding environment map, and the third surrounding environment map.

また、上記第1~第3実施形態では、ヘッドモーショントラッカ装置10(210、310)は、目印部3(203、304)を備えている例を示したが、本発明はこれに限られない。本発明では、ヘッドモーショントラッカ装置は、目印部を備えていなくてもよい。 Further, in the first to third embodiments, the head motion tracker device 10 (210, 310) has shown an example including the mark portion 3 (203, 304), but the present invention is not limited to this. .. In the present invention, the head motion tracker device may not have a marker portion.

また、上記第1~第3実施形態では、移動前画像62(第2画像)は、1枚である例を示したが、本発明はこれに限られない。本発明では、第2画像は、複数枚あってもよい。 Further, in the first to third embodiments, the pre-movement image 62 (second image) shows an example of one image, but the present invention is not limited to this. In the present invention, there may be a plurality of second images.

また、上記第1および第2実施形態では、目印部3は、発光するように構成された例を示したが、本発明はこれに限られない。本発明では、目印部は、画像取得部から観測する角度によって、取付部の形状が変化するような構成を有していてもよいし、発光部の光の形状が変化するような構成を有していてもよい。 Further, in the first and second embodiments, the mark portion 3 is configured to emit light, but the present invention is not limited to this. In the present invention, the mark portion may have a configuration in which the shape of the mounting portion changes depending on the angle observed from the image acquisition portion, or has a configuration in which the shape of the light of the light emitting portion changes. You may be doing it.

また、上記第2実施形態では、制御部204は、目印部203からの光通信により、目印部3の識別番号232aおよび機体座標位置232bを取得する例を示したが、本発明はこれに限られない。本発明では、制御部は、目印部にAR(Augumented Reality)タグ(QR(Quick Response)コード、AprilTAGなど)を設けることにより、画像取得部により目印部の位置、識別番号を取得させてもよい。 Further, in the second embodiment, the control unit 204 has shown an example of acquiring the identification number 232a and the aircraft coordinate position 232b of the mark unit 3 by optical communication from the mark unit 203, but the present invention is limited to this. I can't. In the present invention, the control unit may obtain the position and identification number of the mark portion by the image acquisition unit by providing an AR (Augmented Reality) tag (QR (Quick Response) code, AprilTAG, etc.) on the mark portion. ..

また、上記第3実施形態では、ヘッドモーショントラッカ装置310は、1つの画像取得部302を備えている例を示したが、本発明はこれに限られない。本発明では、図19に示す第2変形例のように、ヘッドモーショントラッカ装置410は、2つの画像取得部402を備えていてもよい。この場合、ヘッドモーショントラッカ装置410は、2つの画像取得部402を同期させて撮影させることにより、2つの画像取得部402の視差に基づいて距離を取得するステレオ画像処理部403を備えていてもよい。 Further, in the third embodiment, the head motion tracker device 310 shows an example including one image acquisition unit 302, but the present invention is not limited to this. In the present invention, as in the second modification shown in FIG. 19, the head motion tracker device 410 may include two image acquisition units 402. In this case, even if the head motion tracker device 410 includes a stereo image processing unit 403 that acquires a distance based on the parallax of the two image acquisition units 402 by synchronizing the two image acquisition units 402 for shooting. good.

また、上記第1~第3実施形態では、制御部4(204、305)は、機械学習により、パイロット11(観察者)の周囲の三次元の周囲環境地図5を作成する制御を行うように構成されている例を示したが、本発明はこれに限られない。本発明では、制御部は、機械学習以外の方法により、三次元の周囲環境地図を作成してもよい。 Further, in the first to third embodiments, the control unit 4 (204, 305) controls to create a three-dimensional ambient environment map 5 around the pilot 11 (observer) by machine learning. Although the configured example is shown, the present invention is not limited to this. In the present invention, the control unit may create a three-dimensional ambient environment map by a method other than machine learning.

また、上記第1~第3実施形態では、航空機100(移動体)内にパイロット11(観測者)だけが搭乗している例を示したが、本発明はこれに限られない。本発明では、移動体内に複数の観測者が乗っていてもよい。そして、複数の観測者は各々は、ヘッドモーショントラッカ装置を装着していてもよい。この場合、複数のヘッドモーショントラッカ装置は、それぞれ、異なる光(紫外光および近赤外光)を受光可能な画像取得部を備えていてもよい。これにより、複数のヘッドモーショントラッカ装置が、同時に運用可能となる。 Further, in the first to third embodiments, only the pilot 11 (observer) is on board in the aircraft 100 (mobile body), but the present invention is not limited to this. In the present invention, a plurality of observers may be on board in the moving body. Each of the plurality of observers may be equipped with a head motion tracker device. In this case, the plurality of head motion tracker devices may each include an image acquisition unit capable of receiving different light (ultraviolet light and near-infrared light). As a result, a plurality of head motion tracker devices can be operated at the same time.

1 頭部装着部
2、302、402 画像取得部
3、203、304 目印部
4、204、305 制御部
5 周囲環境地図
10、210、310、410 航空機用ヘッドモーショントラッカ装置(ヘッドモーショントラッカ装置)
11 パイロット(観察者)
12 特徴点
21 カメラ
52 現フレーム地図(第3周囲環境地図)
53 前フレーム地図(第2周囲環境地図)
54 移動後環境地図(第1周囲環境地図)
62 移動前画像(第2画像)
63 移動後画像(第1画像)
100 航空機
204f 制御部側通信部
232 記憶部
233b ジャイロセンサ(目印部側ジャイロセンサ)
234 目印部側通信部
242 ジャイロセンサ(装置側ジャイロセンサ)
1 Head mounting part 2, 302, 402 Image acquisition part 3, 203, 304 Mark part 4, 204, 305 Control part 5 Surrounding environment map 10, 210, 310, 410 Aircraft head motion tracker device (head motion tracker device)
11 Pilot (observer)
12 Feature points 21 Camera 52 Current frame map (3rd surrounding environment map)
53 Previous frame map (second surrounding environment map)
54 Post-movement environment map (1st surrounding environment map)
62 Image before moving (second image)
63 Image after movement (first image)
100 Aircraft 204f Control unit side communication unit 232 Storage unit 233b Gyro sensor (mark part side gyro sensor)
234 Mark side communication part 242 Gyro sensor (device side gyro sensor)

Claims (13)

観察者の頭部に装着される頭部装着部と、
前記頭部装着部に取り付けられ、前記観察者の頭部の向きに沿った方向の画像を取得する画像取得部と、
前記画像取得部により取得された前記画像に基づいて、前記観察者の頭部の位置および角度を取得する制御を行うように構成された制御部とを備える、ヘッドモーショントラッカ装置。
The head-mounted part that is attached to the observer's head,
An image acquisition unit that is attached to the head mounting unit and acquires an image in a direction along the direction of the observer's head, and an image acquisition unit.
A head motion tracker device including a control unit configured to control the position and angle of the observer's head based on the image acquired by the image acquisition unit.
前記制御部は、前記観察者の頭部の向きに沿った方向の前記画像に基づいて、前記観察者の周囲の三次元の周囲環境地図を作成する制御を行うとともに、前記周囲環境地図に基づいて、前記観察者の頭部の位置および角度を取得する制御を行うように構成されている、請求項1に記載のヘッドモーショントラッカ装置。 The control unit controls to create a three-dimensional surrounding environment map around the observer based on the image in the direction along the direction of the observer's head, and is based on the surrounding environment map. The head motion tracker device according to claim 1, further controlled to acquire the position and angle of the observer's head. 前記周囲環境地図は、現時点において前記画像取得部により取得された第1画像により構成される第1周囲環境地図を含み、
前記制御部は、第1周囲環境地図に含まれる複数の特徴点に基づいて、前記観察者の頭部の位置および角度を推定する制御を行うように構成されている、請求項2に記載のヘッドモーショントラッカ装置。
The surrounding environment map includes a first surrounding environment map composed of a first image acquired by the image acquisition unit at a present time.
The second aspect of the present invention, wherein the control unit is configured to control to estimate the position and angle of the observer's head based on a plurality of feature points included in the first ambient environment map. Head motion tracker device.
前記周囲環境地図は、前記第1画像よりも前の第2画像により構成される第2周囲環境地図を含み、
前記制御部は、少なくとも前記第1周囲環境地図に含まれる前記複数の特徴点および前記第2周囲環境地図に基づいて、前記観察者の頭部の位置および角度を推定する制御を行うように構成されている、請求項3に記載のヘッドモーショントラッカ装置。
The surrounding environment map includes a second surrounding environment map composed of a second image before the first image.
The control unit is configured to control to estimate the position and angle of the observer's head based on at least the plurality of feature points included in the first ambient environment map and the second ambient environment map. The head motion tracker device according to claim 3.
前記周囲環境地図は、前記第2画像に前記第1画像を合成した画像に基づく第3周囲環境地図をさらに含み、
前記制御部は、前記第2周囲環境地図と、前記第3周囲環境地図との比較に基づいて、前記第1周囲環境地図を取得するとともに、前記観察者の頭部の位置および角度を推定する制御を行うように構成されている、請求項4に記載のヘッドモーショントラッカ装置。
The surrounding environment map further includes a third surrounding environment map based on an image obtained by synthesizing the first image with the second image.
The control unit acquires the first surrounding environment map and estimates the position and angle of the observer's head based on the comparison between the second surrounding environment map and the third surrounding environment map. The head motion tracker device according to claim 4, which is configured to perform control.
前記制御部は、前記第1周囲環境地図に含まれる前記複数の特徴点を全て取得可能な前記観察者の頭部の位置および角度を、現時点の前記観察者の頭部の位置および角度として推定する制御を行うように構成されている、請求項3~5のいずれか1項に記載のヘッドモーショントラッカ装置。 The control unit estimates the position and angle of the observer's head capable of acquiring all the plurality of feature points included in the first ambient environment map as the current position and angle of the observer's head. The head motion tracker device according to any one of claims 3 to 5, which is configured to perform control. 前記制御部は、現時点よりも前の時点の前記観察者の頭部の位置および角度に基づいて、互いに頭部の位置および角度が異なる複数の前記観察者の頭部の位置および角度を作成するとともに、作成した前記複数の前記観察者の頭部の位置および角度を変化させた後、前記第1周囲環境地図に含まれる前記複数の特徴点を全て取得可能な前記観察者の頭部の位置および角度を選択する制御を行うように構成されている、請求項6に記載のヘッドモーショントラッカ装置。 The control unit creates a plurality of positions and angles of the observer's heads having different head positions and angles from each other based on the positions and angles of the observer's heads at a time point before the present time. At the same time, after changing the positions and angles of the heads of the plurality of observers created, the positions of the heads of the observers capable of acquiring all of the plurality of feature points included in the first surrounding environment map. The head motion tracker device according to claim 6, wherein the head motion tracker device is configured to control the selection of an angle. 前記制御部は、前記第1画像中のコントラストの差に基づいて、前記複数の特徴点を取得する制御を行うように構成されている、請求項3~7のいずれか1項に記載のヘッドモーショントラッカ装置。 The head according to any one of claims 3 to 7, wherein the control unit is configured to control acquisition of the plurality of feature points based on the difference in contrast in the first image. Motion tracker device. 前記観察者の周囲に配置され、前記画像取得部により前記画像として取得される目印部をさらに備え、
前記制御部は、前記目印部が取得された前記画像に基づく三次元の前記周囲環境地図中の前記目印部に基づいて、前記観察者の頭部の位置および角度を取得する制御を行うように構成されている、請求項2~8のいずれか1項に記載のヘッドモーショントラッカ装置。
Further provided with a marker portion arranged around the observer and acquired as the image by the image acquisition unit.
The control unit controls to acquire the position and angle of the observer's head based on the mark portion in the three-dimensional ambient environment map based on the image obtained from the mark portion. The head motion tracker device according to any one of claims 2 to 8, which is configured.
前記制御部は、制御部側通信部を含み、
前記目印部は、
前記制御部側通信部と通信可能な目印部側通信部と、
前記観察者を乗せた移動体の基準位置に対する前記目印部の位置を記憶する記憶部とを含み、
前記制御部は、前記画像取得部により前記目印部を取得した場合、前記目印部側通信部を介して前記記憶部から取得した前記目印部の位置に基づいて、前記観察者の頭部の位置および角度を取得する制御を行うように構成されている、請求項9に記載のヘッドモーショントラッカ装置。
The control unit includes a control unit side communication unit.
The mark is
A marker side communication unit capable of communicating with the control unit side communication unit,
Includes a storage unit that stores the position of the mark portion with respect to the reference position of the moving body on which the observer is placed.
When the mark portion is acquired by the image acquisition unit, the control unit determines the position of the observer's head based on the position of the mark portion acquired from the storage unit via the mark portion side communication unit. The head motion tracker device according to claim 9, wherein the head motion tracker device is configured to control the acquisition of an angle.
前記観察者の頭部の角速度を計測する装置側ジャイロセンサをさらに備え、
前記目印部は、前記観察者を乗せた移動体の角速度を計測する目印部側ジャイロセンサを含み、
前記制御部は、前記周囲環境地図に基づいて前記観察者の頭部の角度が所定時間内に取得できない場合、前記装置側ジャイロセンサにより計測された前記観察者の頭部の角速度と、前記目印部側ジャイロセンサにより計測された前記移動体の角速度との差に基づいて、前記観察者の頭部の角度を取得する制御を行うように構成されている、請求項9または10に記載のヘッドモーショントラッカ装置。
Further equipped with a device-side gyro sensor for measuring the angular velocity of the observer's head,
The mark portion includes a mark portion side gyro sensor that measures the angular velocity of the moving body carrying the observer.
When the angle of the observer's head cannot be acquired within a predetermined time based on the ambient environment map, the control unit has the angular velocity of the observer's head measured by the device-side gyro sensor and the mark. The head according to claim 9 or 10, which is configured to control to acquire the angle of the observer's head based on the difference from the angular velocity of the moving body measured by the unit-side gyro sensor. Motion tracker device.
前記画像取得部は、並んで配置された2つのカメラを有し、
前記制御部は、2つの前記カメラの視差に基づいて、前記観察者の頭部の向きに沿った方向の距離を取得するとともに、2つの前記カメラにより取得した距離に基づいて、三次元の前記周囲環境地図を作成する制御を行うように構成されている、請求項2~11のいずれか1項に記載のヘッドモーショントラッカ装置。
The image acquisition unit has two cameras arranged side by side.
The control unit acquires the distance in the direction along the direction of the observer's head based on the parallax of the two cameras, and the three-dimensional said distance based on the distance acquired by the two cameras. The head motion tracker device according to any one of claims 2 to 11, which is configured to control the creation of an ambient environment map.
航空機の機体内の観察者としてのパイロットに装着されるヘッドモーショントラッカ装置を備え、
前記ヘッドモーショントラッカ装置は、
前記パイロットの頭部に取り付けられる頭部装着部と、
前記頭部装着部に取り付けられ、前記パイロットの頭部の向きに沿った方向の画像を取得する画像取得部と、
前記画像取得部により取得された前記画像に基づいて、前記パイロットの頭部の位置および角度を取得する制御を行うように構成された制御部とを含む、航空機用ヘッドモーショントラッカ装置。
Equipped with a head motion tracker device worn by the pilot as an observer inside the aircraft
The head motion tracker device is
A head-mounted portion attached to the pilot's head,
An image acquisition unit that is attached to the head mounting unit and acquires an image in a direction along the direction of the pilot's head, and an image acquisition unit.
An aircraft head motion tracker device comprising a control unit configured to control the acquisition of the position and angle of the pilot's head based on the image acquired by the image acquisition unit.
JP2020120728A 2020-07-14 2020-07-14 Head motion tracker device and head motion tracker device for aircraft Active JP7435330B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020120728A JP7435330B2 (en) 2020-07-14 2020-07-14 Head motion tracker device and head motion tracker device for aircraft

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020120728A JP7435330B2 (en) 2020-07-14 2020-07-14 Head motion tracker device and head motion tracker device for aircraft

Publications (2)

Publication Number Publication Date
JP2022017894A true JP2022017894A (en) 2022-01-26
JP7435330B2 JP7435330B2 (en) 2024-02-21

Family

ID=80186093

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020120728A Active JP7435330B2 (en) 2020-07-14 2020-07-14 Head motion tracker device and head motion tracker device for aircraft

Country Status (1)

Country Link
JP (1) JP7435330B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009036517A (en) 2007-07-31 2009-02-19 Shimadzu Corp Head motion tracker device
JP5560600B2 (en) 2009-07-09 2014-07-30 株式会社島津製作所 Head motion tracker device
JP6138566B2 (en) 2013-04-24 2017-05-31 川崎重工業株式会社 Component mounting work support system and component mounting method
US9630105B2 (en) 2013-09-30 2017-04-25 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
US10416760B2 (en) 2014-07-25 2019-09-17 Microsoft Technology Licensing, Llc Gaze-based object placement within a virtual reality environment
US11030732B2 (en) 2017-04-14 2021-06-08 Sony Interactive Entertainment Inc. Information processing device, information processing system, and image processing method for generating a sum picture by adding pixel values of multiple pictures

Also Published As

Publication number Publication date
JP7435330B2 (en) 2024-02-21

Similar Documents

Publication Publication Date Title
US10414494B2 (en) Systems and methods for reliable relative navigation and autonomous following between unmanned aerial vehicle and a target object
JP2023051993A (en) Display of virtual image of building information model
US20180356492A1 (en) Vision based location estimation system
JP6920523B2 (en) Small vision inertial navigation system with extended dynamic range
JP5594944B2 (en) Motion tracker device
CN106681510B (en) Pose recognition device, virtual reality display device and virtual reality system
US20070276590A1 (en) Beacon-Augmented Pose Estimation
KR20170032226A (en) Registration for vehicular augmented reality using auto-harmonization
CN107014378A (en) A kind of eye tracking aims at control system and method
JP2003505985A (en) Head tracker system
JP7011908B2 (en) Optical information processing equipment, optical information processing method and optical information processing program
JP2008058102A (en) Head motion tracker device
JP4924342B2 (en) Motion tracker device
CN110895676B (en) dynamic object tracking
JP5292725B2 (en) Motion tracker device
JP5092279B2 (en) Head motion tracker device and method of using the same
JP2016151566A (en) Motion tracker device
CN110799929B (en) Display device for computer-mediated reality
JP5092300B2 (en) Head motion tracker device
JP7435330B2 (en) Head motion tracker device and head motion tracker device for aircraft
JP4905321B2 (en) Head motion tracker device
JP5029531B2 (en) Motion tracker system and coordinate system setting method thereof
JP2009036517A (en) Head motion tracker device
JP4656016B2 (en) Motion tracker device
JP4656017B2 (en) Head motion tracker device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240122

R151 Written notification of patent or utility model registration

Ref document number: 7435330

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151