JP7435330B2 - Head motion tracker device and head motion tracker device for aircraft - Google Patents

Head motion tracker device and head motion tracker device for aircraft Download PDF

Info

Publication number
JP7435330B2
JP7435330B2 JP2020120728A JP2020120728A JP7435330B2 JP 7435330 B2 JP7435330 B2 JP 7435330B2 JP 2020120728 A JP2020120728 A JP 2020120728A JP 2020120728 A JP2020120728 A JP 2020120728A JP 7435330 B2 JP7435330 B2 JP 7435330B2
Authority
JP
Japan
Prior art keywords
head
image
angle
control unit
observer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020120728A
Other languages
Japanese (ja)
Other versions
JP2022017894A (en
Inventor
行信 松原
一穂 多和田
柾宏 日比
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Original Assignee
Shimadzu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp filed Critical Shimadzu Corp
Priority to JP2020120728A priority Critical patent/JP7435330B2/en
Publication of JP2022017894A publication Critical patent/JP2022017894A/en
Application granted granted Critical
Publication of JP7435330B2 publication Critical patent/JP7435330B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Description

本発明は、ヘッドモーショントラッカ装置および航空機用ヘッドモーショントラッカ装置に関し、特に、観察者の頭部に装着される頭部装着部を備えるヘッドモーショントラッカ装置および航空機用ヘッドモーショントラッカ装置に関する。 The present invention relates to a head motion tracker device and an aircraft head motion tracker device, and more particularly to a head motion tracker device and an aircraft head motion tracker device that include a head attachment section that is mounted on the head of an observer.

従来、観察者の頭部に装着される頭部装着部を備えるヘッドモーショントラッカ装置および航空機用ヘッドモーショントラッカ装置が知られている(たとえば、特許文献1参照)。 BACKGROUND ART Conventionally, head motion tracker devices and aircraft head motion tracker devices that include a head-mounted section that is mounted on an observer's head are known (for example, see Patent Document 1).

上記特許文献1には、パイロット(観察者)の頭部に装着されるヘルメット(頭部装着部)を備えるヘッドモーショントラッカ装置が開示されている。このヘッドモーショントラッカ装置は、上記ヘルメットと、搭乗体(航空機の機体)内に設置されたカメラ装置と、制御部とを備える。 The above-mentioned Patent Document 1 discloses a head motion tracker device that includes a helmet (head attachment part) that is attached to the head of a pilot (observer). This head motion tracker device includes the helmet, a camera device installed in a passenger body (aircraft body), and a control section.

上記特許文献1のヘルメットには、互いに異なる波長の赤外光を発光する複数の頭部装着体発光部が配置されている。制御部は、カメラ装置により撮影された複数の頭部装着体発光部の各々の位置情報に基づいて、パイロットの頭部の位置および角度を取得する制御を行うように構成されている。ヘッドモーショントラッカ装置では、制御部によりパイロットの頭部の位置および角度を取得するために、複数の頭部装着体発光部を確実に撮影可能な位置にカメラ装置が配置されている。 In the helmet of Patent Document 1, a plurality of head-mounted body light emitting parts that emit infrared light of different wavelengths are arranged. The control unit is configured to perform control to obtain the position and angle of the pilot's head based on position information of each of the plurality of head-mounted body light emitting units photographed by the camera device. In the head motion tracker device, a camera device is arranged at a position where a plurality of head-mounted body light emitting units can be reliably photographed in order to obtain the position and angle of the pilot's head by the control unit.

特開2009-109319号公報Japanese Patent Application Publication No. 2009-109319

しかしながら、上記特許文献1のヘッドモーショントラッカ装置では、複数の頭部装着体発光部を確実に撮影可能な位置にカメラ装置を航空機の機体内に設置する必要があるので、航空機の機体にカメラ装置(画像取得部)の設置スペースを確保する必要がある。このため、上記特許文献1のヘッドモーショントラッカ装置では、既存の搭乗体において上記設置スペースを確保することが困難な場合があるので、ヘッドモーショントラッカ装置を既存の搭乗体(移動体)であっても容易に適用可能とすることが望まれている。 However, in the head motion tracker device of Patent Document 1, it is necessary to install the camera device inside the aircraft body at a position where the plurality of head-mounted body light emitting parts can be reliably photographed. (Image acquisition unit) installation space must be secured. For this reason, with the head motion tracker device of Patent Document 1, it may be difficult to secure the above-mentioned installation space in an existing vehicle; It is also desired that the technology can be easily applied.

この発明は、上記のような課題を解決するためになされたものであり、この発明の1つの目的は、既存の移動体であっても容易に適用することが可能なヘッドモーショントラッカ装置および航空機用ヘッドモーショントラッカ装置を提供することである。 This invention has been made to solve the above problems, and one object of the invention is to provide a head motion tracker device and aircraft that can be easily applied even to existing moving objects. An object of the present invention is to provide a head motion tracker device for use in a vehicle.

上記目的を達成するために、この発明の第1の局面におけるヘッドモーショントラッカ装置は、観察者の頭部に装着される頭部装着部と、頭部装着部に取り付けられ、観察者の頭部の向きに沿った方向の画像を取得する画像取得部と、画像取得部により取得された画像に基づいて、観察者の頭部の位置および角度を取得する制御を行うように構成された制御部とを備え、制御部は、画像取得部により取得された画像に基づいて、観察者の周囲の三次元の周囲環境地図を作成する制御を行うように構成されており、周囲環境地図は、現時点において画像取得部により取得された第1画像により構成される第1周囲環境地図と、第1画像よりも前の第2画像により構成される第2周囲環境地図と、第2画像に第1画像を合成した画像に基づく第3周囲環境地図とを含み、制御部は、第2周囲環境地図と、第3周囲環境地図とに基づいて、第1周囲環境地図を取得するとともに、観察者の頭部の位置および角度を推定する制御を行うように構成されている In order to achieve the above object, a head motion tracker device according to a first aspect of the present invention includes a head-mounted part that is mounted on the head of an observer, a head-mounted part that is attached to the head-mounted part, and a head motion tracker device that is mounted on the head of the observer. an image acquisition unit that acquires an image in a direction along the direction of the image acquisition unit; and a control unit configured to perform control to acquire the position and angle of the observer's head based on the image acquired by the image acquisition unit. The control unit is configured to perform control to create a three-dimensional surrounding environment map around the observer based on the image acquired by the image acquisition unit, and the surrounding environment map is A first surrounding environment map made up of the first image acquired by the image obtaining unit in , a second surrounding environment map made up of the second image before the first image, and a second surrounding environment map made up of the first image acquired by the image acquisition unit; and a third surrounding environment map based on a composite image, the control unit acquires the first surrounding environment map based on the second surrounding environment map and the third surrounding environment map, and The controller is configured to perform control to estimate the position and angle of the part .

この発明の第1の局面におけるヘッドモーショントラッカ装置では、上記のように、頭部装着部に取り付けられた画像取得部を設ける。また、ヘッドモーショントラッカ装置では、画像取得部により取得された画像に基づいて、観察者の頭部の位置および角度を取得する制御を行うように構成された制御部を設ける。これにより、移動体ではなく、頭部装着部に取り付けられた画像取得部の画像に基づいて、制御部により観察者の頭部の位置および角度を取得することができる。すなわち、移動体に画像取得部を設置することなく、制御部により観察者の頭部の位置および角度を取得することができる。その結果、移動体に画像取得部の設置スペースを確保する必要がないので、ヘッドモーショントラッカ装置を既存の移動体であっても容易に適用することができる。 As described above, the head motion tracker device according to the first aspect of the invention includes an image acquisition section attached to the head mounting section. Further, the head motion tracker device includes a control unit configured to perform control to acquire the position and angle of the observer's head based on the image acquired by the image acquisition unit. Thereby, the position and angle of the observer's head can be acquired by the control unit based on the image of the image acquisition unit attached to the head mounted unit rather than the moving object. That is, the position and angle of the observer's head can be acquired by the control unit without installing an image acquisition unit in the moving object. As a result, there is no need to secure installation space for the image acquisition unit in the moving object, so the head motion tracker device can be easily applied even to an existing moving object.

上記目的を達成するために、この発明の第2の局面における航空機用ヘッドモーショントラッカ装置は、航空機の機体内の観察者としてのパイロットに装着されるヘッドモーショントラッカ装置を備え、ヘッドモーショントラッカ装置は、パイロットの頭部に取り付けられる頭部装着部と、頭部装着部に取り付けられ、パイロットの頭部の向きに沿った方向の画像を取得する画像取得部と、画像取得部により取得された画像に基づいて、パイロットの頭部の位置および角度を取得する制御を行うように構成された制御部とを含み、制御部は、画像取得部により取得された画像に基づいて、観察者の周囲の三次元の周囲環境地図を作成する制御を行うように構成されており、周囲環境地図は、現時点において画像取得部により取得された第1画像により構成される第1周囲環境地図と、第1画像よりも前の第2画像により構成される第2周囲環境地図と、第2画像に第1画像を合成した画像に基づく第3周囲環境地図とを含み、制御部は、第2周囲環境地図と、第3周囲環境地図とに基づいて、第1周囲環境地図を取得するとともに、観察者の頭部の位置および角度を推定する制御を行うように構成されている In order to achieve the above object, a head motion tracker device for an aircraft according to a second aspect of the present invention includes a head motion tracker device worn by a pilot as an observer inside an aircraft body, and the head motion tracker device , a head-mounted section attached to the pilot's head; an image acquisition section attached to the head-mounted section that acquires an image in a direction along the direction of the pilot's head; and an image acquired by the image acquisition section. a control unit configured to perform control to acquire the position and angle of the pilot's head based on the image acquisition unit; The surrounding environment map is configured to control the creation of a three-dimensional surrounding environment map, and the surrounding environment map includes a first surrounding environment map formed from a first image acquired by the image acquisition unit at the present time, and a first The controller includes a second surrounding environment map configured by a second image before the image, and a third surrounding environment map based on an image obtained by combining the first image with the second image, and the control unit controls the second surrounding environment map. The first surrounding environment map is acquired based on the first surrounding environment map and the third surrounding environment map, and control is performed to estimate the position and angle of the observer's head .

この発明の第2の局面における航空機用ヘッドモーショントラッカ装置は、上記のように、頭部装着部に取り付けられた画像取得部を設ける。また、ヘッドモーショントラッカ装置では、画像取得部により取得された画像に基づいて、観察者の頭部の位置および角度を取得する制御を行うように構成された制御部を設ける。これにより、移動体ではなく、頭部装着部に取り付けられた画像取得部の画像に基づいて制御部により、観察者の頭部の位置および角度を取得することができる。すなわち、移動体に画像取得部を設置することなく、制御部により観察者の頭部の位置および角度を取得することができる。その結果、移動体に画像取得部の設置スペースを確保する必要がないので、ヘッドモーショントラッカ装置を既存の移動体であっても容易に適用することが可能な航空機用ヘッドモーショントラッカ装置を得ることができる。 The aircraft head motion tracker device according to the second aspect of the invention includes the image acquisition section attached to the head mounting section, as described above. Further, the head motion tracker device includes a control unit configured to perform control to acquire the position and angle of the observer's head based on the image acquired by the image acquisition unit. Thereby, the position and angle of the observer's head can be acquired by the control unit based on the image of the image acquisition unit attached to the head mounted unit instead of the moving body. That is, the position and angle of the observer's head can be acquired by the control unit without installing an image acquisition unit in the moving object. As a result, there is no need to secure installation space for an image acquisition unit on the moving object, so that the head motion tracker device for an aircraft can be easily applied even to an existing moving object. Can be done.

上記第1の局面におけるヘッドモーショントラッカ装置は、観察者の頭部に装着される頭部装着部と、頭部装着部に取り付けられ、観察者の頭部の向きに沿った方向の画像を取得する画像取得部と、画像取得部により取得された画像に基づいて、観察者の頭部の位置および角度を取得する制御を行うように構成された制御部とを備える。これにより、移動体ではなく、頭部装着部に取り付けられた画像取得部の画像に基づいて、制御部により観察者の頭部の位置および角度を取得することができる。すなわち、移動体に画像取得部を設置することなく、制御部により観察者の頭部の位置および角度を取得することができる。その結果、移動体に画像取得部の設置スペースを確保する必要がないので、ヘッドモーショントラッカ装置を既存の移動体であっても容易に適用することができる。 The head motion tracker device according to the first aspect includes a head-mounted part that is attached to the head of an observer, and a head-mounted part that is attached to the head-mounted part to acquire an image in a direction along the direction of the head of the observer. and a control section configured to perform control to acquire the position and angle of the observer's head based on the image acquired by the image acquisition section. Thereby, the position and angle of the observer's head can be acquired by the control unit based on the image of the image acquisition unit attached to the head mounted unit rather than the moving object. That is, the position and angle of the observer's head can be acquired by the control unit without installing an image acquisition unit in the moving body. As a result, there is no need to secure installation space for the image acquisition unit in the moving object, so the head motion tracker device can be easily applied even to an existing moving object.

上記第2の局面における航空機用ヘッドモーショントラッカ装置は、航空機の機体内の観察者としてのパイロットに装着されるヘッドモーショントラッカ装置を備え、ヘッドモーショントラッカ装置は、パイロットの頭部に取り付けられる頭部装着部と、頭部装着部に取り付けられ、パイロットの頭部の向きに沿った方向の画像を取得する画像取得部と、画像取得部により取得された画像に基づいて、パイロットの頭部の位置および角度を取得する制御を行うように構成された制御部とを含む。これにより、移動体ではなく、頭部装着部に取り付けられた画像取得部の画像に基づいて制御部により、観察者の頭部の位置および角度を取得することができる。すなわち、移動体に画像取得部を設置することなく、制御部により観察者の頭部の位置および角度を取得することができる。その結果、移動体に画像取得部の設置スペースを確保する必要がないので、ヘッドモーショントラッカ装置を既存の移動体であっても容易に適用することが可能な航空機用ヘッドモーショントラッカ装置を得ることができる。 The aircraft head motion tracker device according to the second aspect includes a head motion tracker device attached to a pilot as an observer inside the aircraft body, and the head motion tracker device includes a head motion tracker device attached to the pilot's head. an image acquisition unit that is attached to the head attachment unit and acquires an image in a direction along the orientation of the pilot's head; and a position of the pilot's head based on the image acquired by the image acquisition unit. and a control unit configured to perform control to obtain the angle. Thereby, the position and angle of the observer's head can be acquired by the control unit based on the image of the image acquisition unit attached to the head mounted unit instead of the moving object. That is, the position and angle of the observer's head can be acquired by the control unit without installing an image acquisition unit in the moving object. As a result, there is no need to secure installation space for an image acquisition unit on the moving object, so that the head motion tracker device for an aircraft can be easily applied even to an existing moving object. Can be done.

第1実施形態によるヘッドモーショントラッカ装置を航空機内のパイロットが装着した状態を示した模式図である。1 is a schematic diagram showing a state in which a pilot in an aircraft is wearing a head motion tracker device according to a first embodiment; FIG. 第1実施形態によるヘッドモーショントラッカ装置の構成を示したブロック図である。FIG. 1 is a block diagram showing the configuration of a head motion tracker device according to a first embodiment. 第1実施形態によるヘッドモーショントラッカ装置の画像取得部によりパイロットの正面を撮影した状態および移動前画像(ベース画像)を示した模式図である。FIG. 2 is a schematic diagram showing a front view of a pilot and a pre-movement image (base image) taken by the image acquisition unit of the head motion tracker device according to the first embodiment. 第1実施形態によるヘッドモーショントラッカ装置の画像取得部により作成された前フレーム地図(ベース地図)を示した模式図である。FIG. 3 is a schematic diagram showing a previous frame map (base map) created by the image acquisition unit of the head motion tracker device according to the first embodiment. 第1実施形態によるヘッドモーショントラッカ装置の画像取得部によりパイロットの正面よりも下側を撮影した状態、移動前画像および移動後画像を示した模式図である。FIG. 2 is a schematic diagram showing a state in which a lower side than the front of the pilot is photographed by the image acquisition unit of the head motion tracker device according to the first embodiment, a pre-movement image, and a post-movement image. 第1実施形態によるヘッドモーショントラッカ装置の画像取得部により作成された現フレーム地図を示した模式図である。FIG. 3 is a schematic diagram showing a current frame map created by the image acquisition unit of the head motion tracker device according to the first embodiment. 第1実施形態によるヘッドモーショントラッカ装置において作成された移動後環境地図を示した模式図である。FIG. 2 is a schematic diagram showing a post-movement environment map created by the head motion tracker device according to the first embodiment. 第1実施形態によるヘッドモーショントラッカ装置を装着したパイロットの頭部の動きの一例を示した模式図である。FIG. 2 is a schematic diagram showing an example of the movement of the head of a pilot wearing the head motion tracker device according to the first embodiment. 第1実施形態によるヘッドモーショントラッカ装置の制御部におけるパイロットの頭部の位置および角度を推定する方法を示した模式図である。FIG. 3 is a schematic diagram showing a method for estimating the position and angle of a pilot's head in the control unit of the head motion tracker device according to the first embodiment. 第1実施形態によるパイロットの頭部の位置および角度取得処理を示したフローチャートである。5 is a flowchart illustrating processing for acquiring the position and angle of a pilot's head according to the first embodiment. 第2実施形態によるヘッドモーショントラッカ装置を航空機内のパイロットが装着した状態を示した模式図である。FIG. 7 is a schematic diagram showing a state in which a head motion tracker device according to a second embodiment is worn by a pilot in an aircraft. 第2実施形態によるヘッドモーショントラッカ装置の目印部の構成を示したブロック図である。FIG. 7 is a block diagram showing the configuration of a marker section of a head motion tracker device according to a second embodiment. 第2実施形態によるヘッドモーショントラッカ装置の構成を示したブロック図である。FIG. 2 is a block diagram showing the configuration of a head motion tracker device according to a second embodiment. 第2実施形態によるヘッドモーショントラッカ装置の制御部側通信部と、目印部側通信部とが通信している状態を示した模式図である。FIG. 7 is a schematic diagram showing a state in which a control unit side communication unit and a mark unit side communication unit of the head motion tracker device according to the second embodiment are communicating with each other. 第2実施形態によるヘッドモーショントラッカ装置の制御部におけるパイロットの頭部の位置および角度の推定において、作成するパイロットの頭部の位置および角度を減少させた例を示した模式図である。FIG. 7 is a schematic diagram showing an example in which the position and angle of the pilot's head to be created are reduced in estimating the position and angle of the pilot's head in the control unit of the head motion tracker device according to the second embodiment. 第3実施形態によるヘッドモーショントラッカ装置の構成を示したブロック図である。FIG. 3 is a block diagram showing the configuration of a head motion tracker device according to a third embodiment. 第3実施形態によるヘッドモーショントラッカ装置および目印部を示した模式図である。FIG. 7 is a schematic diagram showing a head motion tracker device and a mark section according to a third embodiment. 第2実施形態の第1変形例によるヘッドモーショントラッカ装置を示した模式図である。FIG. 7 is a schematic diagram showing a head motion tracker device according to a first modification of the second embodiment. 第3実施形態の第2変形例によるヘッドモーショントラッカ装置の構成を示したブロック図である。FIG. 7 is a block diagram showing the configuration of a head motion tracker device according to a second modification of the third embodiment.

以下、本発明を具体化した実施形態を図面に基づいて説明する。 DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments embodying the present invention will be described based on the drawings.

[第1実施形態]
図1~図9を参照して、第1実施形態による航空機用ヘッドモーショントラッカ装置10(以下、単にヘッドモーショントラッカ装置10と記載)の構成について説明する。ヘッドモーショントラッカ装置10は、図1に示すように、航空機100内のパイロット11に装着されるヘッドマウントディスプレイに設けられている。詳細には、ヘッドモーショントラッカ装置10は、ヘッドマウントディスプレイにおいて、パイロット11の頭部の位置および角度を計測する機能を有している。なお、航空機用ヘッドモーショントラッカ装置10は、特許請求の範囲の「ヘッドモーショントラッカ装置」の一例である。また、航空機100は、特許請求の範囲の「移動体」の一例である。パイロット11は、特許請求の範囲の「観察者」の一例である。
[First embodiment]
The configuration of an aircraft head motion tracker device 10 (hereinafter simply referred to as head motion tracker device 10) according to the first embodiment will be described with reference to FIGS. 1 to 9. The head motion tracker device 10 is provided in a head mounted display mounted on a pilot 11 in an aircraft 100, as shown in FIG. Specifically, the head motion tracker device 10 has a function of measuring the position and angle of the pilot's 11 head in a head mounted display. Note that the aircraft head motion tracker device 10 is an example of a "head motion tracker device" in the claims. Further, the aircraft 100 is an example of a "mobile object" in the claims. The pilot 11 is an example of an "observer" in the claims.

具体的には、図1および図2に示すように、ヘッドモーショントラッカ装置10は、頭部装着部1と、画像取得部2と、目印部3と、制御部4とを備えている。 Specifically, as shown in FIGS. 1 and 2, the head motion tracker device 10 includes a head-mounted section 1, an image acquisition section 2, a mark section 3, and a control section 4.

頭部装着部1は、頭部装着部1は、ヘルメット、ヘッドセットおよびベルトなどの、パイロット11の頭部に装着される部材である。画像取得部2は、頭部装着部1に取り付けられ、パイロット11の頭部の向きに沿った方向(以下、A方向とする)の画像を取得するように構成されている。画像取得部2は、並んで配置された複数(2つ)のカメラ21を含んでいる。詳細には、2つのカメラ21は、エリアセンサカメラである。2つのカメラ21は、紫外光および近赤外光に感度を有している。2つのカメラ21は、所定の間隔を空けて配置されている。2つのカメラ21の各々は、同一のA方向を撮影するように構成されている。2つのカメラ21には、同じレンズが装着されている。具体的には、2つのカメラ21には、同じ広角レンズまたは魚眼レンズが装着されている。 The head-mounted part 1 is a member mounted on the head of the pilot 11, such as a helmet, a headset, and a belt. The image acquisition section 2 is attached to the head mounted section 1 and is configured to acquire an image in a direction along the direction of the pilot's 11 head (hereinafter referred to as direction A). The image acquisition unit 2 includes a plurality of (two) cameras 21 arranged in line. Specifically, the two cameras 21 are area sensor cameras. The two cameras 21 are sensitive to ultraviolet light and near-infrared light. The two cameras 21 are arranged at a predetermined interval. Each of the two cameras 21 is configured to take pictures in the same direction A. The two cameras 21 are equipped with the same lens. Specifically, the two cameras 21 are equipped with the same wide-angle lens or fisheye lens.

目印部3は、パイロット11の周囲に配置され、画像取得部2により画像として取得される。すなわち、目印部3は、マーカとしての機能を有している。目印部3は、航空機100に複数(3つ)配置されている。目印部3は、航空機100のコクピット内に配置されている。なお、目印部3は、1、2または4つ以上配置されてもよい。 The landmark section 3 is arranged around the pilot 11, and is acquired as an image by the image acquisition section 2. That is, the landmark section 3 has a function as a marker. A plurality of (three) marker portions 3 are arranged on the aircraft 100. The landmark section 3 is arranged in the cockpit of the aircraft 100. Note that one, two, or four or more mark portions 3 may be arranged.

目印部3は、取付部31と、発光部32とを含んでいる。取付部31は、目印部3を移動体に取り付けるための土台である。発光部32は、取付部31のパイロット11側の面に取り付けられている。発光部32は、紫外光または近赤外光を照射可能なLED(Light Emitting Diode)、VCSEL(Vertical Cavity Surface Emitting Laser(垂直共振器面発光レーザ))などにより構成されている。また、発光部32は、広角に光を照射可能とするためのレンズが取り付けられている。 The mark section 3 includes a mounting section 31 and a light emitting section 32. The attachment part 31 is a base for attaching the mark part 3 to a moving body. The light emitting section 32 is attached to the surface of the mounting section 31 on the pilot 11 side. The light emitting unit 32 includes an LED (Light Emitting Diode), a VCSEL (Vertical Cavity Surface Emitting Laser), etc. that can emit ultraviolet light or near infrared light. Furthermore, a lens is attached to the light emitting unit 32 to enable wide-angle irradiation of light.

目印部3は、非接触給電および太陽光発電などにより電力が供給されるように構成されている。このように、目印部3に電力を供給するための配線接続が不要である。 The mark section 3 is configured to be supplied with electric power by non-contact power supply, solar power generation, or the like. In this way, wiring connections for supplying power to the mark section 3 are not required.

目印部3は、パイロット11の頭部の位置および角度を精度よく計測する必要があるので、パイロット11の正面側に複数(2つ)配置されている。これにより、パイロット11が正面を向いた際、画像取得部2により複数(2つ)の目印部3が取得される。 Since it is necessary to accurately measure the position and angle of the pilot's 11's head, a plurality (two) of the marker parts 3 are arranged on the front side of the pilot 11. Thereby, when the pilot 11 faces forward, the image acquisition section 2 acquires a plurality of (two) landmark sections 3.

制御部4は、各種の制御および演算処理を行うコンピュータにより構成されている。制御部4は、画像処理部41と、CPU(Central Processing Unit)部42と、記憶部43とを含んでいる。 The control unit 4 is composed of a computer that performs various types of control and arithmetic processing. The control section 4 includes an image processing section 41, a CPU (Central Processing Unit) section 42, and a storage section 43.

画像処理部41は、画像取得部2において取得した画像に基づいて、画像における特徴点12の抽出処理、および、機械学習により画像に基づいて三次元地図としての周囲環境地図5を作成する処理などを行う機能を有している。画像処理部41において作成された周囲環境地図5は、記憶部43に記憶される。ここで、画像中の特徴点12とは、取得された画像中において、コントラストの差から取得される、航空機100内の躯体の形状、航空機100内に配置されたスイッチおよびディスプレイなどの部分の重心点を示す。また、画像の特徴点12としては、目印部3も特徴点12として取得される。 The image processing unit 41 performs processing to extract feature points 12 in the image based on the image obtained by the image acquisition unit 2, processing to create a surrounding environment map 5 as a three-dimensional map based on the image by machine learning, etc. It has the function to perform The surrounding environment map 5 created by the image processing section 41 is stored in the storage section 43. Here, the feature points 12 in the image refer to the shape of the frame inside the aircraft 100, the center of gravity of parts such as switches and displays arranged inside the aircraft 100, which are acquired from the difference in contrast in the acquired image. Show points. Furthermore, the landmark portion 3 is also acquired as the feature point 12 of the image.

周囲環境地図5において、相対座標系(XYZ座標系)は、2つのカメラ21の並ぶ方向に延びる軸をX軸(図4参照)とし、2つのカメラ21の光軸方向に延びる軸をY軸(図4参照)とし、X軸およびY軸に直交する方向に延びる軸をZ軸(図4参照)とする。また、相対座標系の原点は、2つのカメラ21の中点とする。 In the surrounding environment map 5, the relative coordinate system (XYZ coordinate system) has an axis extending in the direction in which the two cameras 21 are lined up as the X axis (see FIG. 4), and an axis extending in the direction of the optical axes of the two cameras 21 as the Y axis. (See FIG. 4), and an axis extending in a direction perpendicular to the X-axis and the Y-axis is the Z-axis (see FIG. 4). Further, the origin of the relative coordinate system is the midpoint of the two cameras 21.

ここで、2つのカメラ21がエリアセンサカメラであるので、画像処理部41は、周囲環境地図5におけるXZ平面の情報を取得可能である。また、画像取得部2は、2つのカメラ21の視差に基づくステレオ法により、周囲環境地図5におけるY軸方向の情報を取得可能である。 Here, since the two cameras 21 are area sensor cameras, the image processing unit 41 can acquire information on the XZ plane in the surrounding environment map 5. Furthermore, the image acquisition unit 2 can acquire information in the Y-axis direction on the surrounding environment map 5 using a stereo method based on the parallax between the two cameras 21.

周囲環境地図5は、ベース地図51(図4参照)と、現フレーム地図52(図6参照)と、前フレーム地図53(図4参照)とを有している。なお、ベース地図51および前フレーム地図53は、特許請求の範囲の「第2周囲環境地図」の一例である。なお、現フレーム地図52は、特許請求の範囲の「第3周囲環境地図」の一例である。 The surrounding environment map 5 includes a base map 51 (see FIG. 4), a current frame map 52 (see FIG. 6), and a previous frame map 53 (see FIG. 4). Note that the base map 51 and the previous frame map 53 are an example of a "second surrounding environment map" in the claims. Note that the current frame map 52 is an example of a "third surrounding environment map" in the claims.

ベース地図51は、周囲環境地図5において基準となる地図である。ベース地図51は、たとえば、A方向として真正面をパイロット11が向いた状態で際に撮影されたベース画像61に基づく周囲環境地図5であってもよい。ベース地図51は、記憶部43にあらかじめ登録されている。 The base map 51 is a reference map for the surrounding environment map 5. The base map 51 may be, for example, the surrounding environment map 5 based on the base image 61 photographed with the pilot 11 facing straight ahead in the A direction. The base map 51 is registered in the storage unit 43 in advance.

前フレーム地図53は、現時点よりも前に記憶部43に記憶された現フレーム地図52である。前フレーム地図53は、たとえば、A方向として真正面をパイロット11が向いた際に撮影された移動前画像62に基づく三次元地図であってもよい。なお、移動前画像62は、特許請求の範囲の「第2画像」の一例である。 The previous frame map 53 is the current frame map 52 stored in the storage unit 43 before the current time. The previous frame map 53 may be, for example, a three-dimensional map based on a pre-movement image 62 taken when the pilot 11 faced directly in the A direction. Note that the pre-movement image 62 is an example of a "second image" in the claims.

現フレーム地図52は、たとえば、真正面をパイロット11が向いた際に撮影された移動前画像62と、真正面からパイロット11の頭部が移動した際に撮影された移動後画像63とを合成した画像に基づく三次元地図であってもよい。現フレーム地図52は、画像取得部2により取得された画像に合わせて追加されていく。なお、移動後画像63は、特許請求の範囲の「第1画像」の一例である。 The current frame map 52 is, for example, an image obtained by combining a pre-movement image 62 taken when the pilot 11 faced directly in front of the pilot 11 and an after-movement image 63 taken when the pilot 11's head moved from directly in front. It may be a three-dimensional map based on The current frame map 52 is added in accordance with the images acquired by the image acquisition unit 2. Note that the moved image 63 is an example of a "first image" in the claims.

CPU部42は、比較処理42aと、位置角度検出処理42bとを実行する機能を有している。比較処理42aは、画像処理部41において変換された周囲環境地図5を比較する処理である。位置角度検出処理42bは、画像処理部41により作成された周囲環境地図5に基づいて、パイロット11の頭部の現時点における位置および角度を検出する処理である。位置角度検出処理42bについては、一例を用いて後に説明する。 The CPU unit 42 has a function of executing a comparison process 42a and a position angle detection process 42b. The comparison process 42a is a process of comparing the surrounding environment map 5 converted by the image processing unit 41. The position angle detection process 42b is a process of detecting the current position and angle of the pilot's 11 head based on the surrounding environment map 5 created by the image processing unit 41. The position angle detection process 42b will be explained later using an example.

記憶部43は、RAM(Random Access Memory)およびROM(Read Only Memory)を有する記憶媒体である。ここで、RAMには、前フレーム地図53が記憶されている。また、ROMには、ベース地図51が記憶されている。 The storage unit 43 is a storage medium including a RAM (Random Access Memory) and a ROM (Read Only Memory). Here, a previous frame map 53 is stored in the RAM. A base map 51 is also stored in the ROM.

(位置角度検出処理)
第1実施形態の制御部4は、画像取得部2により取得された画像に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成されている。なお、パイロット11の頭部の位置および角度は、2つのカメラ21の中点の位置および角度として示される。
(Position angle detection processing)
The control unit 4 of the first embodiment is configured to perform control to acquire the position and angle of the head of the pilot 11 based on the image acquired by the image acquisition unit 2. Note that the position and angle of the pilot's 11 head are shown as the position and angle of the midpoint of the two cameras 21.

詳細には、制御部4は、画像取得部2により取得される画像のうち、航空機100内の外界を視認可能な窓以外の部分に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成されている。すなわち、制御部4は、画像取得部2により取得された画像中において、航空機100内の躯体の形状、航空機100内に配置されたスイッチおよびディスプレイなどの特徴点12に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成されている。 In detail, the control unit 4 acquires the position and angle of the pilot's 11 head based on the portion of the image acquired by the image acquisition unit 2 other than the window through which the outside world inside the aircraft 100 is visible. configured to perform control. That is, the control unit 4 determines the head of the pilot 11 in the image acquired by the image acquisition unit 2 based on feature points 12 such as the shape of the frame inside the aircraft 100 and the switches and displays arranged inside the aircraft 100. The controller is configured to perform control to obtain the position and angle of the part.

図3~図9を参照して、パーティクルフィルタを適用した位置角度検出処理42bを一例として説明する。なお、以下の説明では、ベース地図51と、前フレーム地図53とが、同じである例を示しているが、ベース地図51と、前フレーム地図53とが、異なっていてもよい。ベース地図51と、前フレーム地図53とが、異なる場合、前フレーム地図53を用いて位置角度検出処理42bが行われてもよい。 With reference to FIGS. 3 to 9, position and angle detection processing 42b using a particle filter will be described as an example. In addition, although the following description shows an example in which the base map 51 and the previous frame map 53 are the same, the base map 51 and the previous frame map 53 may be different. When the base map 51 and the previous frame map 53 are different, the position angle detection process 42b may be performed using the previous frame map 53.

図3および図4に示すように、制御部4は、パイロット11が真正面を向いた時の画像(移動前画像62)に基づいて、機械学習によりパイロット11の周囲の三次元の周囲環境地図5(前フレーム地図53)を作成する制御を行うように構成されている。すなわち、制御部4は、2つのカメラ21の視差に基づいて、パイロット11の頭部の向きに沿った方向の距離を取得するとともに、取得した距離に基づいて、三次元の周囲環境地図5(前フレーム地図53)を作成する制御を行うように構成されている。この際、制御部4は、移動前画像62中のコントラストの差に基づいて、複数の特徴点12を取得する制御を行うように構成されている。制御部4は、移動前画像62中のコントラストの差に基づいて、複数の目印部3を取得する制御を行うように構成されている。 As shown in FIGS. 3 and 4, the control unit 4 uses machine learning to create a three-dimensional surrounding environment map 5 around the pilot 11 based on the image when the pilot 11 faces directly ahead (the pre-movement image 62). (previous frame map 53). That is, the control unit 4 acquires the distance in the direction along the direction of the head of the pilot 11 based on the parallax between the two cameras 21, and also creates a three-dimensional surrounding environment map 5 ( It is configured to control the creation of a previous frame map 53). At this time, the control unit 4 is configured to perform control to acquire a plurality of feature points 12 based on the contrast difference in the pre-movement image 62. The control unit 4 is configured to perform control to acquire a plurality of landmarks 3 based on the difference in contrast in the pre-movement image 62.

ここで、パイロット11の頭部の位置および角度は、それぞれ、(X1、Y1、Z1)および(RL1、EL1、AZ1)と示される。RL1は、ロール方向(X軸に対する回転)の角度である。EL1は、エレベーション方向(Y軸に対する回転)の角度である。AZ1は、アジマス方向(Z軸に対する回転)の角度である。 Here, the position and angle of the head of the pilot 11 are shown as (X1, Y1, Z1) and (RL1, EL1, AZ1), respectively. RL1 is an angle in the roll direction (rotation with respect to the X axis). EL1 is an angle in the elevation direction (rotation with respect to the Y axis). AZ1 is an angle in the azimuth direction (rotation with respect to the Z axis).

次に、図5および図6には、パイロット11の頭部を真正面の向きから下方向に移動させた場合が示されている。この場合、制御部4は、移動前画像62およびパイロット11の頭部が移動した後のA方向の画像(移動後画像63)に基づいて、機械学習によりパイロット11の周囲の三次元の周囲環境地図5(現フレーム地図52)を作成する制御を行うように構成されている。すなわち、制御部4は、2つのカメラ21の視差に基づいて、パイロット11の頭部の向きに沿った方向の距離を取得するとともに、取得した距離に基づいて、三次元の周囲環境地図5(現フレーム地図52)を作成する制御を行うように構成されている。この際、制御部4は、移動後画像63中のコントラストの差に基づいて、複数の特徴点12を取得する制御を行うように構成されている。制御部4は、移動後画像63中のコントラストの差に基づいて、複数の目印部3を取得する制御を行うように構成されている。 Next, FIGS. 5 and 6 show a case in which the head of the pilot 11 is moved downward from the front direction. In this case, the control unit 4 uses machine learning to create a three-dimensional environment around the pilot 11 based on the pre-movement image 62 and the image in the A direction after the pilot 11's head has moved (post-movement image 63). It is configured to control the creation of map 5 (current frame map 52). That is, the control unit 4 acquires the distance in the direction along the direction of the head of the pilot 11 based on the parallax between the two cameras 21, and also creates a three-dimensional surrounding environment map 5 ( It is configured to control the creation of a current frame map 52). At this time, the control unit 4 is configured to perform control to acquire the plurality of feature points 12 based on the difference in contrast in the moved image 63. The control unit 4 is configured to perform control to acquire a plurality of landmarks 3 based on the difference in contrast in the moved image 63.

現フレーム地図52は、移動前画像62と、移動後画像63とにおいて同じ部分(共通部分)を合成するとともに、移動前画像62とは異なる移動後画像63の部分を追加した画像に基づいて作成される一続きの三次元地図である。ここで、現フレーム地図52は、次に移動後画像63が取得される際には、前フレーム地図53となる。そして、上記前フレーム地図53には、同様に、移動後画像63が合成・追加されていく。このように、現フレーム地図52は、現フレーム以降の周囲環境地図5の作成に用いられる。 The current frame map 52 is created based on an image in which the same parts (common parts) of the pre-movement image 62 and the post-movement image 63 are combined, and a part of the post-movement image 63 that is different from the pre-movement image 62 is added. It is a series of three-dimensional maps. Here, the current frame map 52 becomes the previous frame map 53 when the moved image 63 is acquired next time. Similarly, the post-movement image 63 is synthesized and added to the previous frame map 53. In this way, the current frame map 52 is used to create the surrounding environment map 5 for the current frame and subsequent frames.

ここで、真正面の向きから下方向に移動させた後のパイロット11の頭部の位置および角度は、それぞれ、(X2、Y2、Z2)および(RL2、EL2、AZ2)と示される。 Here, the position and angle of the head of the pilot 11 after being moved downward from the frontal direction are respectively shown as (X2, Y2, Z2) and (RL2, EL2, AZ2).

次に、図7に示すように、制御部4は、前フレーム地図53と、現フレーム地図52との比較に基づいて、移動後環境地図54を取得する制御を行うように構成されている。すなわち、制御部4は、現フレーム地図52の中から、移動後画像63に対応する部分を取得する制御を行うように構成されている。なお、移動後環境地図54は、特許請求の範囲の「第1周囲環境地図」の一例である。 Next, as shown in FIG. 7, the control unit 4 is configured to perform control to obtain a post-movement environment map 54 based on a comparison between the previous frame map 53 and the current frame map 52. That is, the control unit 4 is configured to perform control to acquire a portion corresponding to the post-movement image 63 from the current frame map 52. Note that the post-movement environment map 54 is an example of a "first surrounding environment map" in the claims.

このように、移動後環境地図54は、現フレーム(現時点)において画像取得部2により取得された移動後画像63により構成された地図である。現フレーム地図52は、移動前画像62に移動後画像63を合成した画像に基づく地図である。前フレーム地図53は、移動後画像63よりも前のフレーム(前の時点)の移動前画像62により構成された地図である。 In this way, the post-movement environment map 54 is a map constructed from the post-movement images 63 acquired by the image acquisition unit 2 in the current frame (current time). The current frame map 52 is a map based on an image obtained by combining the pre-movement image 62 and the post-movement image 63. The previous frame map 53 is a map composed of the pre-movement image 62 of the frame (previous time point) before the post-movement image 63.

そして、図7および図8に示すように、制御部4は、移動後環境地図54に含まれる複数の特徴点12および特徴点12としての目印部3を全て取得可能なパイロット11の頭部の位置および角度を、現時点のパイロット11の頭部の位置および角度として推定する制御を行うように構成されている。 Then, as shown in FIGS. 7 and 8, the control unit 4 controls the head of the pilot 11 from which all the plurality of feature points 12 and the landmarks 3 as the feature points 12 included in the post-movement environment map 54 can be acquired. It is configured to perform control to estimate the position and angle as the current position and angle of the head of the pilot 11.

詳細には、図9に示すように、制御部4は、パーティクルフィルタに基づいて、現フレームのパイロット11の頭部の位置および角度として推定する制御を行うように構成されている。 Specifically, as shown in FIG. 9, the control unit 4 is configured to perform control to estimate the position and angle of the head of the pilot 11 in the current frame based on the particle filter.

すなわち、制御部4は、現フレームよりも前のフレームのパイロット11の頭部の位置および角度に基づいて、互いに頭部の位置および角度が異なる複数のパイロット11の頭部の位置および角度を作成する制御を行うように構成されている。制御部4は、作成した互いに頭部の位置および角度が異なる複数のパイロット11の頭部の位置および角度をランダムに移動させる制御を行うように構成されている。 That is, the control unit 4 creates the head positions and angles of a plurality of pilots 11 having different head positions and angles based on the head positions and angles of the pilots 11 in frames before the current frame. The system is configured to perform control such as: The control unit 4 is configured to perform control to randomly move the head positions and angles of the plurality of pilots 11 that have been created and have different head positions and angles.

制御部4は、ランダムに移動させた複数のパイロット11の頭部の位置および角度のうちから、現フレーム地図52から移動後環境地図54と相関関係のある地図を取得可能なパイロット11の頭部の位置および角度を選択する制御を行うように構成されている。詳細には、制御部4は、作成した複数のパイロット11の頭部の位置および角度のうちから、移動後環境地図54に含まれる複数の特徴点12および特徴点12としての目印部3を全て取得可能なパイロット11の頭部の位置および角度を選択する制御を行うように構成されている。 The control unit 4 selects the heads of the pilots 11 from which a map having a correlation with the post-movement environment map 54 can be obtained from the current frame map 52 from among the positions and angles of the heads of the plurality of randomly moved pilots 11. It is configured to control the selection of the position and angle of the Specifically, the control unit 4 selects all of the plurality of feature points 12 included in the post-movement environment map 54 and the landmarks 3 as the feature points 12 from among the positions and angles of the heads of the plurality of pilots 11 that have been created. It is configured to perform control to select the position and angle of the head of the pilot 11 that can be obtained.

そして、制御部4は、相関関係のある地図を取得可能なパイロット11の頭部の位置および角度(図9の○印)に基づいて、互いに頭部の位置および角度が異なる複数のパイロット11の頭部の位置および角度を作成する制御を行うように構成されている。この際、制御部4は、相関関係のないパイロット11の頭部の位置および角度(図9の×印)を削除する制御を行うように構成されている。 Based on the head positions and angles of the pilots 11 (marked with circles in FIG. 9) for which correlated maps can be obtained, the control unit 4 controls the head positions and angles of the plurality of pilots 11 whose head positions and angles are different from each other. The device is configured to provide control to create the position and angle of the head. At this time, the control unit 4 is configured to perform control to delete the position and angle of the head of the pilot 11 (marked with an x in FIG. 9) that have no correlation.

上記したように、制御部4は、A方向(パイロット11の頭部の向きに沿った方向)の移動前画像62に基づいて、パイロット11の周囲の三次元の前フレーム地図53を作成する制御を行うように構成されている。制御部4は、A方向(パイロット11の頭部の向きに沿った方向)の移動前画像62および移動後画像63に基づいて、パイロット11の周囲の三次元の現フレーム地図52を作成する制御を行うように構成されている。制御部4は、前フレーム地図53および現フレーム地図52に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成されている。 As described above, the control unit 4 performs control to create a three-dimensional previous frame map 53 around the pilot 11 based on the pre-movement image 62 in the A direction (direction along the direction of the pilot's 11 head). is configured to do so. The control unit 4 performs control to create a three-dimensional current frame map 52 around the pilot 11 based on a pre-movement image 62 and a post-movement image 63 in the A direction (direction along the direction of the pilot's 11 head). is configured to do so. The control unit 4 is configured to perform control to obtain the position and angle of the pilot's 11 head based on the previous frame map 53 and the current frame map 52.

ここで、制御部4は、前フレーム地図53と、現フレーム地図52との比較に基づいて、移動後環境地図54を取得するとともに、パイロット11の頭部の位置および角度を推定する制御を行うように構成されている。すなわち、制御部4は、現フレーム地図52から移動後環境地図54を取得する制御を行うように構成されている。 Here, the control unit 4 acquires a post-movement environment map 54 based on a comparison between the previous frame map 53 and the current frame map 52, and performs control to estimate the position and angle of the pilot's 11 head. It is configured as follows. That is, the control unit 4 is configured to perform control to obtain the moved environment map 54 from the current frame map 52.

制御部4は、目印部3が取得された移動後画像63に基づく三次元の移動後環境地図54中の目印部3に基づいて、パイロット11の頭部の位置および角度を取得するとともに、複数の特徴点12が取得された移動後画像63に基づく三次元の移動後環境地図54中の複数の特徴点12に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成されている。すなわち、制御部4は、移動後環境地図54に含まれる複数の特徴点12および目印部3に基づいて、パイロット11の頭部の位置および角度を推定する制御を行うように構成されている。 The control unit 4 acquires the position and angle of the head of the pilot 11 based on the landmark part 3 in the three-dimensional post-movement environment map 54 based on the acquired post-movement image 63, and also acquires the position and angle of the head of the pilot 11. Control is performed to obtain the position and angle of the head of the pilot 11 based on a plurality of feature points 12 in a three-dimensional post-movement environment map 54 based on a post-movement image 63 in which feature points 12 have been obtained. It is configured. That is, the control unit 4 is configured to perform control to estimate the position and angle of the pilot's 11 head based on the plurality of feature points 12 and the landmark unit 3 included in the post-movement environment map 54.

(頭部の位置および角度取得処理)
以下に、図3~図10を参照して、頭部の位置および角度取得処理について説明する。頭部の位置および角度取得処理は、パイロット11の頭部に装着されたカメラ21を用いて、パイロット11の頭部の位置および角度を取得する処理である。
(Head position and angle acquisition processing)
The head position and angle acquisition process will be described below with reference to FIGS. 3 to 10. The head position and angle acquisition process is a process of acquiring the position and angle of the pilot's 11 head using the camera 21 attached to the pilot's 11 head.

ステップS1において、制御部4では、記憶部43からベース地図51が前フレーム地図53として取得される(図3および図4を参照)。 In step S1, the control unit 4 acquires the base map 51 from the storage unit 43 as the previous frame map 53 (see FIGS. 3 and 4).

ステップS2において、制御部4では、パイロット11の向いてる方向の画像に基づいて現フレーム地図52が取得される(図5および図6を参照)。ステップS3において、制御部4では、前フレーム地図53と、現フレーム地図52との比較に基づいて、移動後環境地図54が取得される(図7を参照)。ステップS4において、制御部4では、現フレーム地図52において、移動後環境地図54に含まれる複数の特徴点12および目印部3を全て取得可能な観察者の頭部の位置および角度が推定される(図9を参照)。 In step S2, the control unit 4 obtains the current frame map 52 based on the image of the direction in which the pilot 11 is facing (see FIGS. 5 and 6). In step S3, the control unit 4 obtains the post-movement environment map 54 based on the comparison between the previous frame map 53 and the current frame map 52 (see FIG. 7). In step S4, the control unit 4 estimates the position and angle of the head of the observer who can acquire all the plurality of feature points 12 and landmarks 3 included in the post-movement environment map 54 in the current frame map 52. (See Figure 9).

ステップS5において、制御部4では、現フレーム地図52が前フレーム地図53として記憶部43に記憶される。ステップS5の後、ステップS3に戻り処理が繰り返される。 In step S5, the control unit 4 stores the current frame map 52 in the storage unit 43 as the previous frame map 53. After step S5, the process returns to step S3 and is repeated.

(第1実施形態の効果)
第1実施形態では、以下のような効果を得ることができる。
(Effects of the first embodiment)
In the first embodiment, the following effects can be obtained.

第1実施形態では、上記のように、ヘッドモーショントラッカ装置10に、頭部装着部1に取り付けられた画像取得部2を設ける。また、ヘッドモーショントラッカ装置10に、画像取得部2により取得された画像に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成された制御部4を設ける。これにより、航空機100ではなく、頭部装着部1に取り付けられた画像取得部2の画像に基づいて、制御部4によりパイロット11の頭部の位置および角度を取得することができる。すなわち、航空機100に画像取得部2を設置することなく、制御部4によりパイロット11の頭部の位置および角度を取得することができる。この結果、航空機100に画像取得部2の設置スペースを確保する必要がないので、ヘッドモーショントラッカ装置10を既存の航空機100であっても容易に適用することができる。 In the first embodiment, as described above, the head motion tracker device 10 is provided with the image acquisition section 2 attached to the head mounted section 1. Further, the head motion tracker device 10 is provided with a control unit 4 configured to perform control to acquire the position and angle of the head of the pilot 11 based on the image acquired by the image acquisition unit 2. Thereby, the position and angle of the head of the pilot 11 can be acquired by the control unit 4 based on the image of the image acquisition unit 2 attached to the head mounted unit 1 instead of the aircraft 100. That is, the position and angle of the pilot's 11 head can be acquired by the control unit 4 without installing the image acquisition unit 2 in the aircraft 100. As a result, there is no need to secure installation space for the image acquisition unit 2 in the aircraft 100, so the head motion tracker device 10 can be easily applied even to an existing aircraft 100.

また、第1実施形態では、上記のように、制御部4を、パイロット11の頭部の向きに沿った方向の画像に基づいて、パイロット11の周囲の三次元の周囲環境地図5を作成する制御を行うとともに、周囲環境地図5に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成する。これにより、仮想空間上の周囲環境地図5に対する制御部4の演算によって、パイロット11の頭部の位置および角度を取得することができるので、航空機100ごとに異なるパイロット11の周囲の三次元の周囲環境地図5においてもパイロット11の頭部の位置および角度を確実に取得することができる。 Further, in the first embodiment, as described above, the control unit 4 creates the three-dimensional surrounding environment map 5 around the pilot 11 based on the image in the direction along the direction of the pilot 11's head. It is configured to perform control and also perform control to obtain the position and angle of the pilot's head based on the surrounding environment map 5. As a result, the position and angle of the pilot's 11 head can be obtained by the calculation of the control unit 4 on the surrounding environment map 5 in the virtual space, so that the three-dimensional surroundings around the pilot 11, which differ for each aircraft 100, can be obtained. Even in the environmental map 5, the position and angle of the pilot's 11 head can be reliably acquired.

また、第1実施形態では、上記のように、周囲環境地図5に、現フレーム(現時点)において画像取得部2により取得された移動後画像63により構成される移動後環境地図54を設ける。制御部4を、移動後環境地図54に含まれる複数の特徴点12に基づいて、パイロット11の頭部の位置および角度を推定する制御を行うように構成する。これにより、複数の特徴点12を参照してパイロット11の頭部の位置および角度を推定するので、パイロット11の頭部の位置および角度をより正確に推定することができる。 Furthermore, in the first embodiment, as described above, the surrounding environment map 5 is provided with a post-movement environment map 54 configured by the post-movement image 63 acquired by the image acquisition unit 2 in the current frame (current time). The control unit 4 is configured to perform control to estimate the position and angle of the pilot's 11 head based on the plurality of feature points 12 included in the post-movement environment map 54. Thereby, the position and angle of the pilot's 11 head are estimated with reference to the plurality of feature points 12, so the position and angle of the pilot's 11 head can be estimated more accurately.

また、第1実施形態では、上記のように、周囲環境地図5に、移動後画像63よりも前の移動前画像62により構成される前フレーム地図53を設ける。制御部4を、少なくとも移動後環境地図54に含まれる複数の特徴点12および前フレーム地図53に基づいて、パイロット11の頭部の位置および角度を推定する制御を行うように構成する。これにより、移動後環境地図54の複数の特徴点12のみに基づいてパイロット11の頭部の位置および角度を推定する場合と比較して、移動前画像62により構成される前フレーム地図53も用いることにより、パイロット11の頭部の位置および角度の変化をより正確に把握することができる。この結果、パイロット11の頭部の位置および角度の推定の精度を向上させることができる。 Furthermore, in the first embodiment, as described above, the surrounding environment map 5 is provided with the previous frame map 53 configured by the before-movement image 62 that is earlier than the after-movement image 63. The control unit 4 is configured to perform control to estimate the position and angle of the pilot's 11 head based on at least the plurality of feature points 12 included in the post-movement environment map 54 and the previous frame map 53. As a result, compared to estimating the position and angle of the pilot's 11 head based only on the plurality of feature points 12 of the post-movement environment map 54, the previous frame map 53 composed of the pre-movement image 62 is also used. By doing so, changes in the position and angle of the pilot's 11 head can be more accurately grasped. As a result, the accuracy of estimating the position and angle of the pilot's 11 head can be improved.

また、第1実施形態では、上記のように、周囲環境地図5に、移動前画像62に移動後画像63を合成した画像に基づく現フレーム地図52を設ける。制御部4を、前フレーム地図53と、現フレーム地図52との比較に基づいて、移動後環境地図54を取得するとともに、パイロット11の頭部の位置および角度を推定する制御を行うように構成する。これにより、移動前画像62に移動後画像63を合成した画像に基づく現フレーム地図52により、移動後画像63のみに基づいて移動後環境地図54を取得する場合と比較して、移動後環境地図54に含まれる情報量を増加させることができる。この結果、より緻密な移動後環境地図54を作成することができるので、パイロット11の頭部の位置および角度の推定の精度をより向上させることができる。 Further, in the first embodiment, as described above, the current frame map 52 is provided in the surrounding environment map 5 based on an image obtained by combining the before-movement image 62 and the after-movement image 63. The control unit 4 is configured to obtain a post-movement environment map 54 based on a comparison between the previous frame map 53 and the current frame map 52, and perform control to estimate the position and angle of the pilot 11's head. do. As a result, the current frame map 52 is based on the image obtained by combining the image 62 before movement and the image 63 after movement. 54 can be increased. As a result, a more precise post-movement environment map 54 can be created, so that the accuracy of estimating the position and angle of the pilot's 11 head can be further improved.

また、第1実施形態では、上記のように、制御部4を、移動後環境地図54に含まれる複数の特徴点12を全て取得可能なパイロット11の頭部の位置および角度を、現フレーム(現時点)のパイロット11の頭部の位置および角度として推定する制御を行うように構成する。これにより、移動後環境地図54に含まれる複数の特徴点12を全て取得可能か否かで、現フレーム(現時点)のパイロット11の頭部の位置および角度を取得することができるので、簡易な方法によりパイロット11の頭部の位置および角度を推定することができる。 In addition, in the first embodiment, as described above, the control unit 4 controls the position and angle of the head of the pilot 11 from which all the plurality of feature points 12 included in the post-movement environment map 54 can be acquired in the current frame ( The configuration is such that control is performed to estimate the position and angle of the pilot's 11's head at the current time. As a result, the position and angle of the pilot's head in the current frame (currently) can be obtained depending on whether or not all the plurality of feature points 12 included in the post-movement environment map 54 can be obtained. The method allows the position and angle of the pilot's 11 head to be estimated.

また、第1実施形態では、上記のように、制御部4を、前フレーム(現フレーム(現時点)よりも前の時点)のパイロット11の頭部の位置および角度に基づいて、互いに頭部の位置および角度が異なる複数のパイロット11の頭部の位置および角度を作成するとともに、作成した複数のパイロット11の頭部の位置および角度を変化させた後、移動後環境地図54に含まれる複数の特徴点12を全て取得可能なパイロット11の頭部の位置および角度を選択する制御を行うように構成する。これにより、パイロット11の頭部の位置および角度を複数作成することにより、多くのバリエーションから現フレーム(現時点)のパイロット11の頭部の位置および角度を推定することができるので、より適切なパイロット11の頭部の位置および角度を選択することができる。 In addition, in the first embodiment, as described above, the control unit 4 controls the head position of each pilot 11 based on the position and angle of the head of the pilot 11 in the previous frame (time point before the current frame (current time)). After creating head positions and angles of a plurality of pilots 11 having different positions and angles, and changing the created head positions and angles of a plurality of pilots 11, a plurality of head positions and angles included in the post-movement environment map 54 are created. It is configured to perform control to select the position and angle of the head of the pilot 11 from which all the feature points 12 can be acquired. As a result, by creating multiple positions and angles of the head of the pilot 11, it is possible to estimate the position and angle of the head of the pilot 11 in the current frame (currently) from many variations. Eleven head positions and angles can be selected.

また、第1実施形態では、上記のように、制御部4を、移動後画像63中のコントラストの差に基づいて、複数の特徴点12を取得する制御を行うように構成する。これにより、簡易な方法により複数の特徴点12を取得することができるので、制御部4への処理負荷の増加を抑制することができる。 Further, in the first embodiment, as described above, the control unit 4 is configured to perform control to acquire a plurality of feature points 12 based on the contrast difference in the moved image 63. With this, it is possible to obtain a plurality of feature points 12 using a simple method, so it is possible to suppress an increase in the processing load on the control unit 4.

また、第1実施形態では、上記のように、ヘッドモーショントラッカ装置10に、パイロット11の周囲に配置され、画像取得部2により画像として取得される目印部3を設ける。制御部4を、目印部3が取得された画像に基づく三次元の周囲環境地図5中の目印部3に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成する。これにより、画像取得部2により取得される画像中の特徴点12として目印部3を用いることができるので、画像取得部2が特徴点12をより確実に取得することができる。 Further, in the first embodiment, as described above, the head motion tracker device 10 is provided with the mark section 3 that is arranged around the pilot 11 and is acquired as an image by the image acquisition section 2. The control unit 4 is configured to control the landmark unit 3 to acquire the position and angle of the pilot 11's head based on the landmark unit 3 in the three-dimensional surrounding environment map 5 based on the acquired image. . Thereby, the landmark section 3 can be used as the feature point 12 in the image acquired by the image acquisition section 2, so that the image acquisition section 2 can more reliably acquire the feature point 12.

また、第1実施形態では、上記のように、画像取得部2に、並んで配置された2つのカメラ21を設ける。制御部4を、2つのカメラ21の視差に基づいて、パイロット11の頭部の向きに沿った方向の距離を取得するとともに、2つのカメラ21により取得した距離に基づいて、三次元の周囲環境地図5を作成する制御を行うように構成する。これにより、1つのカメラ21によりパイロット11の頭部の向きに沿った方向の距離を取得する場合と比較して、パイロット11の頭部の向きに沿った方向の距離を正確に取得することができるので、三次元の周囲環境地図5をより正確に作成することができる。 Further, in the first embodiment, as described above, the image acquisition unit 2 is provided with two cameras 21 arranged side by side. The control unit 4 acquires the distance in the direction along the direction of the head of the pilot 11 based on the parallax between the two cameras 21, and also determines the three-dimensional surrounding environment based on the distance acquired by the two cameras 21. It is configured to control the creation of map 5. This makes it possible to accurately obtain the distance in the direction along the direction of the pilot's 11 head, compared to the case where the distance in the direction along the direction of the pilot's 11 head is obtained using one camera 21. Therefore, the three-dimensional surrounding environment map 5 can be created more accurately.

また、第1実施形態では、上記のように、航空機用ヘッドモーショントラッカ装置に、航空機100の機体内の観察者としてのパイロット11に装着されるヘッドモーショントラッカ装置10を設ける。ヘッドモーショントラッカ装置10に、頭部装着部1に取り付けられた画像取得部2を設ける。また、ヘッドモーショントラッカ装置10では、画像取得部2により取得された画像に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成された制御部4を設ける。これにより、航空機100ではなく、頭部装着部1に取り付けられた画像取得部2の画像に基づいて制御部4により、パイロット11の頭部の位置および角度を取得することができる。すなわち、航空機100に画像取得部2を設置することなく、制御部4によりパイロット11の頭部の位置および角度を取得することができる。この結果、航空機100に画像取得部2の設置スペースを確保する必要がないので、ヘッドモーショントラッカ装置10を既存の航空機100であっても容易に適用することが可能な航空機用ヘッドモーショントラッカ装置10を得ることができる。 Further, in the first embodiment, as described above, the head motion tracker device for an aircraft is provided with the head motion tracker device 10 that is attached to the pilot 11 as an observer inside the aircraft 100. A head motion tracker device 10 is provided with an image acquisition section 2 attached to a head mounted section 1. Further, the head motion tracker device 10 is provided with a control unit 4 configured to perform control to acquire the position and angle of the head of the pilot 11 based on the image acquired by the image acquisition unit 2. Thereby, the position and angle of the head of the pilot 11 can be acquired by the control unit 4 based on the image of the image acquisition unit 2 attached to the head mounted unit 1 instead of the aircraft 100. That is, the position and angle of the pilot's 11 head can be acquired by the control unit 4 without installing the image acquisition unit 2 in the aircraft 100. As a result, there is no need to secure installation space for the image acquisition unit 2 in the aircraft 100, so the head motion tracker device 10 for an aircraft can be easily applied even to an existing aircraft 100. can be obtained.

[第2実施形態]
次に、図11~図14を参照して、第2実施形態のヘッドモーショントラッカ装置210について説明する。詳細には、発光するだけの目印部3を備える第1実施形態のヘッドモーショントラッカ装置10とは異なり、第2実施形態のヘッドモーショントラッカ装置210では、目印部203が目印部側通信部234を備えている。なお、第2実施形態において、上記第1実施形態と同様の構成に関しては、同じ符号を付して説明を省略する。
[Second embodiment]
Next, a head motion tracker device 210 according to a second embodiment will be described with reference to FIGS. 11 to 14. Specifically, unlike the head motion tracker device 10 of the first embodiment, which includes the mark section 3 that only emits light, in the head motion tracker device 210 of the second embodiment, the mark section 203 communicates with the mark section side communication section 234. We are prepared. Note that in the second embodiment, the same components as in the first embodiment are given the same reference numerals, and the description thereof will be omitted.

図11および図12に示すように、ヘッドモーショントラッカ装置210は、頭部装着部1と、画像取得部2と、目印部203と、制御部204(図13参照)とを備えている。 As shown in FIGS. 11 and 12, the head motion tracker device 210 includes a head mounted section 1, an image acquisition section 2, a mark section 203, and a control section 204 (see FIG. 13).

目印部203は、パイロット11の周囲に配置され、画像取得部2により画像として取得される。目印部203は、マーカとしての機能および通信機能の両方を有している。目印部203は、移動体に複数(3つ)配置されている。なお、目印部203は、1、2または4つ以上配置されてもよい。 The mark section 203 is arranged around the pilot 11 and is acquired as an image by the image acquisition section 2. The mark section 203 has both a marker function and a communication function. A plurality (three) of mark sections 203 are arranged on the moving object. Note that one, two, or four or more mark portions 203 may be arranged.

複数の目印部203は、良好な現フレーム地図52を持続的に取得可能とするため、パイロット11がいずれの方向を向いた場合においても、少なくとも1つ以上の目印部203が画像取得部2により撮影可能な位置に配置されている。これにより、制御部204によりパイロット11の頭部の位置および角度の推定精度の低下を回避することができる。また、制御部204により目印部203が検出されない状態を確実に回避することができる。 The plurality of landmarks 203 enables continuous acquisition of a good current frame map 52, so that no matter which direction the pilot 11 faces, at least one or more landmarks 203 can be detected by the image acquisition unit 2. It is placed in a position where it can be photographed. Thereby, the control unit 204 can avoid a decrease in the accuracy of estimating the position and angle of the pilot's 11 head. Further, it is possible to reliably avoid a situation in which the mark section 203 is not detected by the control section 204.

目印部203は、取付部31と、発光部203aと、受光部203bと、制御部203cとを含んでいる。 The mark section 203 includes a mounting section 31, a light emitting section 203a, a light receiving section 203b, and a control section 203c.

発光部203aは、マーカ機能とともに、制御部204との光通信のために用いられている。発光部203aは、紫外光または近赤外光を照射可能なLEDおよびVCSELなどにより構成されている。また、発光部203aは、広角に光を照射可能とするためのレンズが取り付けられている。受光部203bは、紫外光または近赤外光を受光可能なフォトダイオードなどの受光素子により構成されている。受光部203bは、広角に光を受光可能とするためのレンズが取り付けられている。 The light emitting unit 203a is used for optical communication with the control unit 204 as well as a marker function. The light emitting unit 203a is composed of an LED, a VCSEL, etc. that can emit ultraviolet light or near-infrared light. Furthermore, a lens is attached to the light emitting unit 203a to enable wide-angle irradiation of light. The light receiving section 203b is composed of a light receiving element such as a photodiode capable of receiving ultraviolet light or near infrared light. A lens is attached to the light receiving section 203b so as to be able to receive light at a wide angle.

制御部203cは、CPU部231と、記憶部232と、センサ部233と、目印部側通信部234とを有している。 The control section 203c includes a CPU section 231, a storage section 232, a sensor section 233, and a mark section side communication section 234.

CPU部231は、センサデータ処理231aに所定の処理を実行させる機能を有している。センサデータ処理231aは、センサ部233からの計測値を、制御部204に送信可能な計測値情報に変換する処理を行う。センサデータ処理231aは、制御部204からのデータを、制御部203cに認識可能なデータに変換する処理を行う。 The CPU section 231 has a function of causing the sensor data processing 231a to execute predetermined processing. The sensor data processing 231a performs a process of converting the measured value from the sensor unit 233 into measured value information that can be transmitted to the control unit 204. The sensor data processing 231a performs a process of converting data from the control unit 204 into data that can be recognized by the control unit 203c.

記憶部232は、RAMおよびROMを有する記憶媒体である。記憶部232には、目印部203の識別番号232aと、機体座標位置232bとが記憶されている。機体座標位置232bとは、パイロット11を乗せた航空機100の機体の基準位置に対する目印部203の座標位置を示す。機体座標位置232bは、目印部203を機体に設置する際に、計測した後、記憶部232に入力される。なお、機体座標位置232bは、特許請求の範囲の「目印部の位置」の一例である。また、航空機100は、特許請求の範囲の「移動体」の一例である。 The storage unit 232 is a storage medium including RAM and ROM. The storage unit 232 stores an identification number 232a of the landmark unit 203 and a body coordinate position 232b. The body coordinate position 232b indicates the coordinate position of the landmark portion 203 with respect to the reference position of the body of the aircraft 100 carrying the pilot 11. The body coordinate position 232b is input into the storage unit 232 after being measured when the landmark unit 203 is installed on the body. Note that the body coordinate position 232b is an example of the "position of a landmark" in the claims. Further, the aircraft 100 is an example of a "mobile object" in the claims.

センサ部233は、加速度センサ233a、ジャイロセンサ233b、傾斜センサ233cおよび方位センサ233dを有している。加速度センサ233aは、機体の加速度を計測する。ジャイロセンサ233bは、機体の角速度を計測する。傾斜センサ233cは、機体の傾きを計測する。方位センサ233dは、機体の方位を計測する。なお、ジャイロセンサ233bは、特許請求の範囲の「目印部側ジャイロセンサ」の一例である。 The sensor section 233 includes an acceleration sensor 233a, a gyro sensor 233b, a tilt sensor 233c, and a direction sensor 233d. The acceleration sensor 233a measures the acceleration of the aircraft. The gyro sensor 233b measures the angular velocity of the aircraft. The tilt sensor 233c measures the tilt of the aircraft body. The orientation sensor 233d measures the orientation of the aircraft. Note that the gyro sensor 233b is an example of a "mark side gyro sensor" in the claims.

目印部側通信部234は、後述する制御部側通信部204f(図13参照)と通信可能に構成されている。目印部側通信部234は、光および電波による無線通信機能を有している。目印部側通信部234は、制御部204の記憶部204bの機体座標位置232bの調整・設定の際、制御部側通信部204fと電波による無線通信を行う。また、目印部側通信部234は、調整・設定以外の通常使用の際、制御部側通信部204fと光による無線通信を行う。目印部側通信部234は、目印部203の識別番号232aの情報、目印部203の機体座標位置232bの情報、センサ部233の計測値情報を光により、制御部側通信部204fに送信するように構成されている。 The mark unit side communication unit 234 is configured to be able to communicate with a control unit side communication unit 204f (see FIG. 13), which will be described later. The mark side communication unit 234 has a wireless communication function using light and radio waves. The landmark side communication unit 234 performs wireless communication using radio waves with the control unit side communication unit 204f when adjusting and setting the body coordinate position 232b of the storage unit 204b of the control unit 204. Further, the mark unit side communication unit 234 performs optical wireless communication with the control unit side communication unit 204f during normal use other than adjustment and setting. The marker unit side communication unit 234 transmits information on the identification number 232a of the marker unit 203, information on the body coordinate position 232b of the marker unit 203, and measurement value information of the sensor unit 233 to the control unit side communication unit 204f by light. It is composed of

ここで、目印部側通信部234は、発光部203aを発光させる制御を行うように構成されている。すなわち、目印部側通信部234は、発光部203aのマーカとしての発光、および、制御部側通信部204fと光による無線通信としての発光部203aの発光を重畳して行うことが可能である。目印部側通信部234は、制御部204側の発光部204cの発光を受光部203bにより受光する。 Here, the mark side communication section 234 is configured to control the light emitting section 203a to emit light. That is, the marker side communication unit 234 can superimpose the light emission of the light emitting unit 203a as a marker and the light emission of the light emitting unit 203a as wireless communication using light with the control unit side communication unit 204f. The marker side communication unit 234 receives the light emitted from the light emitting unit 204c on the control unit 204 side using the light receiving unit 203b.

図13および図14に示すように、制御部204は、各種の制御および演算処理を行うコンピュータにより構成されている。制御部204は、画像処理部41と、CPU部204aと、記憶部204bと、発光部204cと、受光部204dと、センサ部204eと、制御部側通信部204fとを含んでいる。 As shown in FIGS. 13 and 14, the control unit 204 includes a computer that performs various types of control and calculation processing. The control section 204 includes an image processing section 41, a CPU section 204a, a storage section 204b, a light emitting section 204c, a light receiving section 204d, a sensor section 204e, and a control section side communication section 204f.

CPU部204aは、比較処理42aと、位置角度検出処理42bと、センサデータ処理240とに所定の処理実行させる機能を有している。センサデータ処理240は、センサ部204eからの計測値を、制御部204において認識可能な計測値情報に変換する処理を行う。センサデータ処理240は、目印部203から送信された情報を受け渡す処理も行う。センサデータ処理240は、制御部204から送信するデータを、制御部203cに送信可能なデータに変換する処理を行う。 The CPU section 204a has a function of causing the comparison processing 42a, the position angle detection processing 42b, and the sensor data processing 240 to execute predetermined processing. The sensor data processing 240 performs a process of converting the measured value from the sensor unit 204e into measured value information that can be recognized by the control unit 204. The sensor data processing 240 also performs processing for passing information transmitted from the landmark section 203. The sensor data processing 240 performs processing to convert data transmitted from the control unit 204 into data that can be transmitted to the control unit 203c.

記憶部204bは、RAMおよびROMを有する記憶媒体である。記憶部204bには、前フレーム地図53と、ベース地図51と、機体座標位置232bとが記憶されている。 The storage unit 204b is a storage medium including RAM and ROM. The storage unit 204b stores a previous frame map 53, a base map 51, and a body coordinate position 232b.

発光部204cは、紫外光または近赤外光を照射可能なLEDおよびVCSELなどにより構成されている。発光部204cの光軸は、カメラ21の光軸と同じ方向に配置されている。発光部204cは、広角に光を照射可能とするためのレンズが取り付けられている。発光部204cは、制御部側通信部204fにより、発光部204cの照明光としての発光、および、目印部側通信部234と光による無線通信としての発光部204cの発光の両方を行うことが可能である。 The light emitting unit 204c is composed of an LED, a VCSEL, etc. that can emit ultraviolet light or near-infrared light. The optical axis of the light emitting unit 204c is arranged in the same direction as the optical axis of the camera 21. A lens is attached to the light emitting unit 204c to enable wide-angle irradiation of light. The light emitting unit 204c can both emit light as illumination light and emit light as wireless communication by light with the marker side communication unit 234 by the control unit side communication unit 204f. It is.

受光部204dは、紫外光または近赤外光を受光可能なフォトダイオードなどの受光素子により構成されている。受光部204dは、広角に光を受光可能とするためのレンズが取り付けられている。 The light receiving section 204d is composed of a light receiving element such as a photodiode capable of receiving ultraviolet light or near infrared light. A lens is attached to the light receiving section 204d so as to be able to receive light at a wide angle.

センサ部204eは、加速度センサ241、ジャイロセンサ242、傾斜センサ243および方位センサ244を有している。加速度センサ241は、パイロット11の頭部の加速度を計測する。ジャイロセンサ242は、パイロット11の頭部の角速度を計測する。傾斜センサ243は、パイロット11の頭部の傾きを計測する。方位センサ244は、パイロット11の頭部の方位を計測する。なお、ジャイロセンサ242は、特許請求の範囲の「装置側ジャイロセンサ」の一例である。 The sensor section 204e includes an acceleration sensor 241, a gyro sensor 242, a tilt sensor 243, and an orientation sensor 244. The acceleration sensor 241 measures the acceleration of the pilot's 11 head. The gyro sensor 242 measures the angular velocity of the pilot's 11 head. The tilt sensor 243 measures the tilt of the pilot's 11 head. The orientation sensor 244 measures the orientation of the pilot's 11 head. Note that the gyro sensor 242 is an example of a "device-side gyro sensor" in the claims.

制御部側通信部204fは、目印部側通信部234と通信可能に構成されている。制御部側通信部204fは、光および電波による無線通信機能を有している。制御部側通信部204fは、制御部204の記憶部204bの機体座標位置232bの調整・設定の際、目印部側通信部234と電波による無線通信を行う。また、制御部側通信部204fは、調整・設定以外の通常使用の際、目印部側通信部234と光による無線通信を行う。制御側通信部は、目印部203の識別番号232aの情報、目印部203の機体座標位置232bの情報、センサ部233の計測値情報を光により、目印部側通信部234から受信するように構成されている。制御部側通信部204fは、発光部204cを照明光として発光させるように構成されている。 The control unit side communication unit 204f is configured to be able to communicate with the mark unit side communication unit 234. The control unit side communication unit 204f has a wireless communication function using light and radio waves. The control unit side communication unit 204f performs wireless communication using radio waves with the landmark unit side communication unit 234 when adjusting and setting the body coordinate position 232b of the storage unit 204b of the control unit 204. Furthermore, the control unit side communication unit 204f performs optical wireless communication with the mark unit side communication unit 234 during normal use other than adjustment and setting. The control side communication unit is configured to receive information on the identification number 232a of the landmark unit 203, information on the body coordinate position 232b of the landmark unit 203, and measurement value information of the sensor unit 233 from the landmark unit side communication unit 234 using light. has been done. The control unit side communication unit 204f is configured to cause the light emitting unit 204c to emit light as illumination light.

(位置角度検出処理)
図13および図14に示すように。第2実施形態の制御部204は、画像取得部2により取得された画像に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成されている。なお、パイロット11の頭部の位置および角度は、2つのカメラ21の中点の位置および角度として示される。
(Position angle detection processing)
As shown in FIGS. 13 and 14. The control unit 204 of the second embodiment is configured to perform control to acquire the position and angle of the head of the pilot 11 based on the image acquired by the image acquisition unit 2. Note that the position and angle of the pilot's 11 head are shown as the position and angle of the midpoint between the two cameras 21.

制御部204は、画像取得部2により取得された移動後画像63から十分な数の特徴点12を抽出できなかった場合、センサ部233の計測値情報と、センサ部204eの計測値情報とに基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成されている。また、制御部204は、前フレーム地図53および現フレーム地図52に基づいて、観察者の頭部の角度が所定時間内に取得できない場合も同様の制御を行うように構成されている。この際、制御部204は、発光部204cの光により、画像取得部2により取得された目印部203にセンサ部204eの計測値情報を要求する信号を送信する制御を行うように構成されている。 If a sufficient number of feature points 12 cannot be extracted from the moved image 63 acquired by the image acquisition unit 2, the control unit 204 uses the measurement value information of the sensor unit 233 and the measurement value information of the sensor unit 204e. Based on this information, control is performed to obtain the position and angle of the pilot's 11 head. Further, the control unit 204 is configured to perform similar control based on the previous frame map 53 and the current frame map 52 even when the angle of the observer's head cannot be obtained within a predetermined time. At this time, the control unit 204 is configured to perform control to transmit a signal requesting measurement value information of the sensor unit 204e to the mark unit 203 acquired by the image acquisition unit 2 using the light from the light emitting unit 204c. .

詳細には、制御部204は、前フレーム地図53および現フレーム地図52に基づいてパイロット11の頭部の角度が所定時間内に取得できない場合、ジャイロセンサ242により計測されたパイロット11の頭部の角速度と、ジャイロセンサ233bにより計測された航空機100の角速度との差に基づいて、パイロット11の頭部の角度を取得する制御を行うように構成されている。すなわち、ジャイロセンサ233bにより計測された航空機100の角速度の情報は、ジャイロセンサ242により計測された頭部の角速度に含まれる航空機100の角速度の情報を相殺するために用いられる。これにより、制御部204が光通信により航空機100の角速度の情報を取得可能であるので、制御部204が航空機100の角速度の情報を取得するために専用のケーブルを用いなくてもよい。 Specifically, if the angle of the pilot's 11 head cannot be obtained within a predetermined time based on the previous frame map 53 and the current frame map 52, the control unit 204 controls the angle of the pilot's 11's head measured by the gyro sensor 242. It is configured to perform control to obtain the angle of the pilot's 11 head based on the difference between the angular velocity and the angular velocity of the aircraft 100 measured by the gyro sensor 233b. That is, the information on the angular velocity of the aircraft 100 measured by the gyro sensor 233b is used to offset the information on the angular velocity of the aircraft 100 included in the angular velocity of the head measured by the gyro sensor 242. Thereby, since the control unit 204 can acquire information on the angular velocity of the aircraft 100 through optical communication, there is no need for the control unit 204 to use a dedicated cable to acquire the information on the angular velocity of the aircraft 100.

また、詳細には、制御部204は、前フレーム地図53および現フレーム地図52に基づいてパイロット11の頭部の角度が所定時間内に取得できない場合、加速度センサ241により計測されたパイロット11の頭部の加速度と、加速度センサ233aにより計測された航空機100の加速度との差に基づいて、パイロット11の頭部の位置を取得する制御を行うように構成されている。すなわち、加速度センサ233aにより計測された航空機100の加速度の情報は、加速度センサ241により計測された頭部の加速度に含まれる航空機100の加速度の情報を相殺するために用いられる。これにより、制御部204が光通信により航空機100の加速度の情報を取得可能であるので、制御部204が航空機100の加速度の情報を取得するために専用のケーブルを用いなくてもよい。 In addition, in detail, if the angle of the head of the pilot 11 cannot be obtained within a predetermined time based on the previous frame map 53 and the current frame map 52, the control unit 204 controls the angle of the head of the pilot 11 measured by the acceleration sensor 241. It is configured to perform control to obtain the position of the pilot's 11 head based on the difference between the acceleration of the aircraft 100 and the acceleration of the aircraft 100 measured by the acceleration sensor 233a. That is, information on the acceleration of the aircraft 100 measured by the acceleration sensor 233a is used to offset information on the acceleration of the aircraft 100 included in the head acceleration measured by the acceleration sensor 241. Thereby, since the control unit 204 can acquire information on the acceleration of the aircraft 100 through optical communication, there is no need for the control unit 204 to use a dedicated cable to acquire the information on the acceleration of the aircraft 100.

なお、光による通信だけではなく、必要に応じて、パイロット11により、航空機100の機体の姿勢、方位角などが入力されてもよい。 In addition to optical communication, the pilot 11 may input the attitude, azimuth, etc. of the aircraft 100 as needed.

制御部204は、ジャイロセンサ233bおよびジャイロセンサ242により取得されたパイロット11の頭部の角度と、前フレーム地図53および現フレーム地図52に基づいて推定されたパイロット11の頭部の角度とを比較する制御を行うように構成されている。さらに、制御部204は、加速度センサ233aおよび加速度センサ241により取得されたパイロット11の頭部の位置と、前フレーム地図53および現フレーム地図52に基づいて推定されたパイロット11の頭部の位置とを比較する制御を行うように構成されている。制御部204は、上記した2つの比較結果の両方において、パイロット11の頭部の角度および位置が一致する場合、前フレーム地図53と、ベース地図51とを合成するか、または、ベース地図51を前フレーム地図53に更新する制御を行うように構成されている。 The control unit 204 compares the angle of the head of the pilot 11 acquired by the gyro sensor 233b and the gyro sensor 242 with the angle of the head of the pilot 11 estimated based on the previous frame map 53 and the current frame map 52. The system is configured to perform control such as: Furthermore, the control unit 204 determines the position of the head of the pilot 11 acquired by the acceleration sensor 233a and the acceleration sensor 241, and the position of the head of the pilot 11 estimated based on the previous frame map 53 and the current frame map 52. It is configured to perform control to compare the If the angle and position of the pilot 11's head match in both of the above two comparison results, the control unit 204 combines the previous frame map 53 and the base map 51, or combines the base map 51 with the previous frame map 53 and the base map 51. It is configured to control updating to the previous frame map 53.

制御部204は、前フレーム地図53と現フレーム地図52とが似通っていること、および、外乱などに起因するパイロット11の頭部の位置および角度の精度の低下を防止するため、移動後環境地図54上の特徴点12の座標位置ではなく、目印部203の機体座標位置232bによるパイロット11の頭部の位置および角度の推定を行うように構成されている。詳細には、制御部204は、画像取得部2により目印部203を取得した場合、目印部側通信部234を介して記憶部232から取得した目印部203の機体座標位置232bに基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成されている。これにより、画像取得部2により目印部203を取得するたびに、パイロット11の頭部の位置および角度を再設定(リセット)することが可能である。ここで、制御部204は、パイロット11の頭部の位置および角度を再設定した場合、目印部203の機体座標位置232bに基づいて、前フレーム地図53の座標位置を補正する制御を行うことが好ましい。なお、機体座標位置232bは、特許請求の範囲の「目印部の位置」の一例である。 The control unit 204 uses a post-movement environment map to prevent the accuracy of the position and angle of the pilot 11 from decreasing due to the similarity between the previous frame map 53 and the current frame map 52 and disturbances. The position and angle of the head of the pilot 11 are estimated based on the body coordinate position 232b of the landmark section 203 rather than the coordinate position of the feature point 12 on the 54. Specifically, when the image acquisition unit 2 acquires the landmark 203, the control unit 204 determines whether the pilot The device is configured to perform control to obtain the position and angle of the head of No. 11. This makes it possible to reset (reset) the position and angle of the pilot 11's head each time the image acquisition unit 2 acquires the landmark section 203. Here, when the position and angle of the pilot 11's head are reset, the control unit 204 can perform control to correct the coordinate position of the previous frame map 53 based on the body coordinate position 232b of the landmark unit 203. preferable. Note that the body coordinate position 232b is an example of the "position of a landmark" in the claims.

図15に示すように、制御部204は、現フレームよりも前のフレームのパイロット11の頭部の位置および角度に基づいて、互いに頭部の位置および角度が異なる複数のパイロット11の頭部の位置および角度を作成する際、作成する複数のパイロット11の頭部の位置および角度を制限する制御を行うように構成されている。すなわち、制御部204は、傾斜センサ243および方位センサ244の計測値情報に基づいて、作成する複数のパイロット11の頭部の位置および角度を制限する制御を行うように構成されている。これにより、参照して比較する複数のパイロット11の頭部の位置および角度が減少するので、制御部204の処理を軽減することが可能である。なお、第2実施形態のその他の構成は、第1実施形態の構成と同様である。 As shown in FIG. 15, the control unit 204 controls the head positions of a plurality of pilots 11 having different head positions and angles based on the head positions and angles of the pilots 11 in frames before the current frame. When creating the positions and angles, control is performed to limit the positions and angles of the heads of the plurality of pilots 11 to be created. That is, the control unit 204 is configured to perform control to limit the positions and angles of the heads of the plurality of pilots 11 to be created based on the measurement value information of the tilt sensor 243 and the direction sensor 244. As a result, the positions and angles of the heads of the plurality of pilots 11 to be referenced and compared are reduced, so that the processing of the control unit 204 can be reduced. Note that the other configurations of the second embodiment are similar to those of the first embodiment.

(第2実施形態の効果)
第2実施形態では、以下のような効果を得ることができる。
(Effects of the second embodiment)
In the second embodiment, the following effects can be obtained.

第2実施形態では、上記のように、ヘッドモーショントラッカ装置210に、頭部装着部1に取り付けられた画像取得部2を設ける。また、ヘッドモーショントラッカ装置210に、画像取得部2により取得された画像に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成された制御部204を設ける。これにより、ヘッドモーショントラッカ装置210を既存の航空機100であっても容易に適用することができる。 In the second embodiment, as described above, the head motion tracker device 210 is provided with the image acquisition section 2 attached to the head mounted section 1. Further, the head motion tracker device 210 is provided with a control unit 204 configured to perform control to acquire the position and angle of the head of the pilot 11 based on the image acquired by the image acquisition unit 2. Thereby, the head motion tracker device 210 can be easily applied even to the existing aircraft 100.

また、第2実施形態では、上記のように、制御部204に、制御部側通信部204fを設ける。目印部203に、制御部側通信部304fと通信可能な目印部側通信部234と、パイロット11を乗せた航空機100の基準位置に対する目印部203の位置を記憶する記憶部232とを設ける。制御部204を、画像取得部2により目印部203を取得した場合、目印部側通信部234を介して記憶部232から取得した目印部203の位置に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成する。これにより、画像取得部2により取得される画像により目印部203の位置を取得する場合と比較して、目印部203の位置の精度を高くすることができるので、三次元の周囲環境地図5中の目印部203の位置の精度を向上させることができる。この結果、制御部204により、より正確なパイロット11の頭部の位置および角度を取得することができる。 Further, in the second embodiment, as described above, the control unit 204 is provided with the control unit side communication unit 204f. The landmark section 203 is provided with a landmark section side communication section 234 that can communicate with the control section side communication section 304f, and a storage section 232 that stores the position of the landmark section 203 with respect to the reference position of the aircraft 100 carrying the pilot 11. When the image acquisition unit 2 acquires the landmark 203, the control unit 204 determines the position of the pilot 11's head and Configure to perform control to obtain angle. As a result, the accuracy of the position of the landmark part 203 can be increased compared to the case where the position of the landmark part 203 is acquired from the image acquired by the image acquisition part 2. The accuracy of the position of the mark portion 203 can be improved. As a result, the control unit 204 can obtain a more accurate position and angle of the pilot's 11 head.

また、第2実施形態では、上記のように、ヘッドモーショントラッカ装置210に、パイロット11の頭部の角速度を計測するジャイロセンサ242を設ける。目印部203に、パイロットを乗せた航空機100の角速度を計測するジャイロセンサ233bを設ける。制御部204を、周囲環境地図5に基づいてパイロット11の頭部の角度が所定時間内に取得できない場合、ジャイロセンサ242により計測されたパイロット11の頭部の角速度と、ジャイロセンサ233bにより計測された航空機100の角速度との差に基づいて、パイロット11の頭部の角度を取得する制御を行うように構成する。これにより、周囲環境地図5に基づいてパイロット11の頭部の角度を取得できない場合に、ジャイロセンサ242およびジャイロセンサ233bによりパイロット11の頭部の角度を補完することができるので、パイロット11の頭部の角度を確実に取得することができる。なお、第2実施形態のその他の効果は、第1実施形態の効果と同様である。 Furthermore, in the second embodiment, as described above, the head motion tracker device 210 is provided with the gyro sensor 242 that measures the angular velocity of the pilot's 11 head. A gyro sensor 233b that measures the angular velocity of the aircraft 100 carrying a pilot is provided in the marker section 203. If the angle of the head of the pilot 11 cannot be obtained within a predetermined time based on the surrounding environment map 5, the control unit 204 controls the angular velocity of the head of the pilot 11 measured by the gyro sensor 242 and the angular velocity of the head of the pilot 11 measured by the gyro sensor 233b. The control is configured to perform control to obtain the angle of the pilot's 11 head based on the difference between the angular velocity of the aircraft 100 and the angle of the pilot's 11's head. As a result, when the angle of the pilot's 11 head cannot be obtained based on the surrounding environment map 5, the angle of the pilot's 11's head can be supplemented by the gyro sensor 242 and the gyro sensor 233b. The angle of the part can be reliably obtained. Note that other effects of the second embodiment are similar to those of the first embodiment.

[第3実施形態]
次に、図16および図17を参照して、第3実施形態のヘッドモーショントラッカ装置310について説明する。詳細には、発光部203aを有する目印部203を備える第2実施形態のヘッドモーショントラッカ装置210とは異なり、第3実施形態のヘッドモーショントラッカ装置310では、目印部304が反射して発光する。なお、第3実施形態において、上記第2実施形態と同様の構成に関しては、同じ符号を付して説明を省略する。
[Third embodiment]
Next, a head motion tracker device 310 according to a third embodiment will be described with reference to FIGS. 16 and 17. Specifically, unlike the head motion tracker device 210 of the second embodiment that includes a mark section 203 having a light emitting section 203a, in the head motion tracker device 310 of the third embodiment, the mark section 304 emits light by reflection. Note that, in the third embodiment, the same components as in the second embodiment are given the same reference numerals, and the description thereof will be omitted.

具体的には、図16および図17に示すように、ヘッドモーショントラッカ装置310は、頭部装着部1と、画像取得部302と、発光部303と、目印部304と、制御部305とを備えている。 Specifically, as shown in FIGS. 16 and 17, the head motion tracker device 310 includes a head mounted section 1, an image acquisition section 302, a light emitting section 303, a marker section 304, and a control section 305. We are prepared.

画像取得部302は、1つのカメラ21と、受光光学系(図示せず)とを含んでいる。詳細には、カメラ21は、エリアセンサカメラである。カメラ21は、紫外光および近赤外光に感度を有している。カメラ21には、発光部303から発光し、機体の内表面において反射した反射光が受光光学系を介して入射する。受光光学系は、カメラ21に特定の波長領域以外の光を受光させないようにするため、特定波長領域の光のみを通過させるフィルタおよびレンズなどを有している。 The image acquisition unit 302 includes one camera 21 and a light receiving optical system (not shown). In detail, camera 21 is an area sensor camera. The camera 21 is sensitive to ultraviolet light and near-infrared light. Reflected light emitted from the light emitting unit 303 and reflected on the inner surface of the aircraft body enters the camera 21 via the light receiving optical system. The light receiving optical system includes a filter, a lens, etc. that allows only light in a specific wavelength range to pass through, in order to prevent the camera 21 from receiving light in a specific wavelength range.

画像取得部302は、距離を算出する機能を有する。詳細には、画像取得部302は、発光部303の発光時の波長と、発光部303の上記反射光の波長との差に基づいて、距離を取得可能なように構成されている。 The image acquisition unit 302 has a function of calculating distance. Specifically, the image acquisition section 302 is configured to be able to acquire the distance based on the difference between the wavelength of the light emitted by the light emitting section 303 and the wavelength of the reflected light from the light emitting section 303 .

発光部303は、紫外光または近赤外光を照射可能なLEDおよびVCSELなどにより構成されている。発光部303の光軸は、カメラ21の光軸と同じ方向に配置されている。ここで、発光部303は、周囲の光の影響を受けにくい波長の光であることが好ましい。発光部303は、広角に光を照射可能とするためのレンズが取り付けられている。 The light emitting unit 303 includes an LED, a VCSEL, and the like that can emit ultraviolet light or near-infrared light. The optical axis of the light emitting unit 303 is arranged in the same direction as the optical axis of the camera 21. Here, it is preferable that the light emitting unit 303 emits light of a wavelength that is not easily affected by surrounding light. A lens is attached to the light emitting unit 303 to enable wide-angle irradiation of light.

ここで、画像取得部302には、距離を算出する機能を向上させるために、カメラ21の光軸方向角度および発光部303の光軸方向角度を変更可能な機構(モータなど)が設けられていることが好ましい。 Here, in order to improve the distance calculation function, the image acquisition unit 302 is provided with a mechanism (such as a motor) that can change the optical axis direction angle of the camera 21 and the optical axis direction angle of the light emitting unit 303. Preferably.

目印部304は、パイロット11の周囲に配置され、画像取得部302により画像として取得される。目印部304は、マーカとしての機能を有している。目印部304は、特徴点抽出処理を容易にするため、再帰性反射体または特定波長領域に反射特性を有する反射体で構成されている。目印部304は、移動体に複数(3つ)配置されている。なお、目印部304は、1、2または4つ以上配置されてもよい。 The landmark section 304 is arranged around the pilot 11, and is acquired as an image by the image acquisition section 302. The mark section 304 has a function as a marker. The mark section 304 is made of a retroreflector or a reflector having reflection characteristics in a specific wavelength region in order to facilitate feature point extraction processing. A plurality (three) of mark sections 304 are arranged on the moving object. Note that one, two, or four or more mark portions 304 may be arranged.

複数の目印部304は、パイロット11の頭部の位置および角度の推定精度が特に必要な領域、および、特徴点12を抽出しにくい領域などに配置されている。 The plurality of landmarks 304 are arranged in areas where estimation precision of the position and angle of the pilot's 11 head is particularly required, areas where it is difficult to extract the feature points 12, and the like.

制御部305は、各種の制御および演算処理を行うコンピュータにより構成されている。制御部305は、画像処理部41と、CPU部305aと、記憶部305bと、センサ部305cとを含んでいる。 The control unit 305 is composed of a computer that performs various types of control and calculation processing. The control section 305 includes an image processing section 41, a CPU section 305a, a storage section 305b, and a sensor section 305c.

CPU部305aは、比較処理42aと、位置角度検出処理42bと、センサデータ処理350とを実行する機能を有している。センサデータ処理350は、センサ部305cからの計測値を、制御部305において認識可能な計測値情報に変換する処理を行う。 The CPU unit 305a has a function of executing comparison processing 42a, position angle detection processing 42b, and sensor data processing 350. The sensor data processing 350 performs a process of converting the measured value from the sensor unit 305c into measured value information that can be recognized by the control unit 305.

記憶部305bは、RAMおよびROMを有する記憶媒体である。記憶部305bには、前フレーム地図53と、ベース地図51と、機体座標位置306とが記憶されている。 The storage unit 305b is a storage medium including RAM and ROM. The previous frame map 53, the base map 51, and the body coordinate position 306 are stored in the storage unit 305b.

センサ部305cは、加速度センサ351、ジャイロセンサ352、傾斜センサ353および方位センサ354を有している。なお、ジャイロセンサ352は、特許請求の範囲の「装置側ジャイロセンサ」の一例である。 The sensor section 305c includes an acceleration sensor 351, a gyro sensor 352, a tilt sensor 353, and a direction sensor 354. Note that the gyro sensor 352 is an example of a "device-side gyro sensor" in the claims.

(位置角度検出処理)
図16および図17に示すように。第3実施形態の制御部305は、画像取得部302により取得された画像に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成されている。なお、パイロット11の頭部の位置および角度は、1つのカメラ21の先端の中点の位置および角度として示される。
(Position angle detection processing)
As shown in FIGS. 16 and 17. The control unit 305 of the third embodiment is configured to perform control to acquire the position and angle of the head of the pilot 11 based on the image acquired by the image acquisition unit 302. Note that the position and angle of the pilot's 11 head are shown as the position and angle of the midpoint of the tip of one camera 21.

ここで、1つのカメラ21がエリアセンサカメラであるので、画像処理部41は、三次元地図におけるXZ平面の情報を取得可能である。また、画像取得部302は、距離測定機能により、三次元地図におけるY軸方向の情報を取得可能である。 Here, since one camera 21 is an area sensor camera, the image processing unit 41 can acquire information on the XZ plane in the three-dimensional map. Furthermore, the image acquisition unit 302 can acquire information in the Y-axis direction on the three-dimensional map using a distance measurement function.

詳細には、制御部305は、画像取得部302により取得される画像のうち、航空機100内の部分に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成されている。すなわち、制御部305は、画像取得部302により取得された画像中において、航空機100内の躯体の形状、航空機100内に配置されたスイッチおよびディスプレイなどの特徴点12に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成されている。また、画像の特徴点12としては、目印部304も特徴点12である。 Specifically, the control unit 305 is configured to perform control to acquire the position and angle of the pilot's 11 head based on the portion inside the aircraft 100 of the image acquired by the image acquisition unit 302. There is. That is, the control unit 305 determines the head of the pilot 11 in the image acquired by the image acquisition unit 302 based on the feature points 12 such as the shape of the frame inside the aircraft 100 and the switches and displays arranged inside the aircraft 100. The controller is configured to perform control to obtain the position and angle of the part. Furthermore, the landmark portion 304 is also a feature point 12 of the image.

制御部305は、発光部303から発光した光に対する、スイッチ、ディスプレイおよび目印部304などからの反射光を利用して、複数の特徴点12を取得する制御を行うように構成されている。ここで、制御部305は、機体内表面に対する発光部303からの光の角度および反射率、発光部303からの光が届かない領域、および、画像中のコントラストに起因して画像中の情報の欠損の発生を抑制するために、画像取得部302により算出される距離により画像中の情報を補完する制御を行うように構成されている。なお、第3実施形態のその他の構成は、第2実施形態の構成と同様である。 The control unit 305 is configured to perform control to acquire a plurality of feature points 12 using reflected light from the switch, display, mark unit 304, etc. with respect to the light emitted from the light emitting unit 303. Here, the control unit 305 determines information in the image due to the angle and reflectance of the light from the light emitting unit 303 with respect to the surface of the interior of the aircraft, the area where the light from the light emitting unit 303 does not reach, and the contrast in the image. In order to suppress the occurrence of defects, control is performed to complement information in the image using the distance calculated by the image acquisition unit 302. Note that the other configurations of the third embodiment are similar to those of the second embodiment.

(第3実施形態の効果)
第3実施形態では、以下のような効果を得ることができる。
(Effects of the third embodiment)
In the third embodiment, the following effects can be obtained.

第3実施形態では、上記のように、ヘッドモーショントラッカ装置310に、頭部装着部1に取り付けられた画像取得部302を設ける。また、ヘッドモーショントラッカ装置310に、画像取得部302により取得された画像に基づいて、パイロット11の頭部の位置および角度を取得する制御を行うように構成された制御部305を設ける。これにより、ヘッドモーショントラッカ装置310を既存の航空機100であっても容易に適用することができる。なお、第3実施形態のその他の効果は、第2実施形態の効果と同様である。 In the third embodiment, as described above, the head motion tracker device 310 is provided with the image acquisition section 302 attached to the head mounted section 1. Further, the head motion tracker device 310 is provided with a control unit 305 configured to perform control to acquire the position and angle of the head of the pilot 11 based on the image acquired by the image acquisition unit 302. Thereby, the head motion tracker device 310 can be easily applied even to the existing aircraft 100. Note that other effects of the third embodiment are similar to those of the second embodiment.

[変形例]
なお、今回開示された実施形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施形態の説明ではなく特許請求の範囲によって示され、さらに特許請求の範囲と均等の意味および範囲内でのすべての変更(変形例)が含まれる。
[Modified example]
Note that the embodiments disclosed this time should be considered to be illustrative in all respects and not restrictive. The scope of the present invention is indicated by the claims rather than the description of the embodiments described above, and further includes all changes (modifications) within the meaning and range equivalent to the claims.

たとえば、上記第1~第3実施形態では、航空機100は、特許請求の範囲の「移動体」の一例である例を示したが、本発明はこれに限られない。本発明では、移動体は、車輌であってもよい。 For example, in the first to third embodiments described above, the aircraft 100 is an example of a "mobile body" in the claims, but the present invention is not limited to this. In the present invention, the moving object may be a vehicle.

また、上記第1~第3実施形態では、パーティクルフィルタによる位置角度検出処理42bを一例として説明したが、本発明はこれに限られない。本発明では、位置角度検出処理は、拡張カルマンフィルタなどにより行われてもよい。 Furthermore, in the first to third embodiments described above, the position and angle detection processing 42b using a particle filter has been described as an example, but the present invention is not limited to this. In the present invention, the position angle detection process may be performed using an extended Kalman filter or the like.

また、上記第1~第3実施形態では、制御部4(204,305)は、特徴点12および目印部3の両方で位置角度検出処理42bを行う例を示したが、本発明はこれに限られない。本発明では、制御部は、特徴点または目印部のいずれかで位置角度検出処理を行ってもよい。たとえば、図18に示す第1変形例のように、目印部3が配置されていない領域では、制御部は、航空機100の機体のフレームなどに基づく特徴点12のみにより位置角度検出処理42bを行うように構成されていてもよい。 Further, in the first to third embodiments described above, an example was shown in which the control unit 4 (204, 305) performs the position angle detection process 42b on both the feature point 12 and the landmark unit 3, but the present invention is not limited to this. Not limited. In the present invention, the control unit may perform position and angle detection processing using either the feature point or the landmark. For example, as in the first modification shown in FIG. 18, in a region where the landmark section 3 is not arranged, the control section performs the position angle detection process 42b only using the feature points 12 based on the frame of the aircraft 100, etc. It may be configured as follows.

また、上記第1~第3実施形態では、制御部4(204、305)は、前フレーム地図53(第2周囲環境地図)と、現フレーム地図52(第3周囲環境地図)との比較に基づいて、位置角度検出処理42bを行うように構成されている例を示したが、本発明はこれに限られない。本発明では、制御部は、ベース地図と、第3周囲環境地図との比較に基づいて、位置角度検出処理を行うように構成されていてもよい。また、制御部は、ベース地図と、第2周囲環境地図と、第3周囲環境地図との比較に基づいて、位置角度検出処理を行うように構成されていてもよい。 Further, in the first to third embodiments described above, the control unit 4 (204, 305) compares the previous frame map 53 (second surrounding environment map) and the current frame map 52 (third surrounding environment map). Although an example is shown in which the position and angle detection processing 42b is performed based on the above, the present invention is not limited to this. In the present invention, the control unit may be configured to perform the position angle detection process based on a comparison between the base map and the third surrounding environment map. Further, the control unit may be configured to perform the position angle detection process based on a comparison between the base map, the second surrounding environment map, and the third surrounding environment map.

また、上記第1~第3実施形態では、ヘッドモーショントラッカ装置10(210、310)は、目印部3(203、304)を備えている例を示したが、本発明はこれに限られない。本発明では、ヘッドモーショントラッカ装置は、目印部を備えていなくてもよい。 Furthermore, in the first to third embodiments described above, the head motion tracker device 10 (210, 310) is provided with the mark section 3 (203, 304), but the present invention is not limited to this. . In the present invention, the head motion tracker device does not need to include a mark section.

また、上記第1~第3実施形態では、移動前画像62(第2画像)は、1枚である例を示したが、本発明はこれに限られない。本発明では、第2画像は、複数枚あってもよい。 Further, in the first to third embodiments described above, an example was shown in which there is one pre-movement image 62 (second image), but the present invention is not limited to this. In the present invention, there may be a plurality of second images.

また、上記第1および第2実施形態では、目印部3は、発光するように構成された例を示したが、本発明はこれに限られない。本発明では、目印部は、画像取得部から観測する角度によって、取付部の形状が変化するような構成を有していてもよいし、発光部の光の形状が変化するような構成を有していてもよい。 Furthermore, in the first and second embodiments described above, an example was shown in which the mark section 3 was configured to emit light, but the present invention is not limited to this. In the present invention, the mark section may have a configuration in which the shape of the attachment section changes depending on the angle observed from the image acquisition section, or a configuration in which the shape of the light from the light emitting section changes. You may do so.

また、上記第2実施形態では、制御部204は、目印部203からの光通信により、目印部3の識別番号232aおよび機体座標位置232bを取得する例を示したが、本発明はこれに限られない。本発明では、制御部は、目印部にAR(Augumented Reality)タグ(QR(Quick Response)コード、AprilTAGなど)を設けることにより、画像取得部により目印部の位置、識別番号を取得させてもよい。 Further, in the second embodiment, the control unit 204 acquires the identification number 232a and the body coordinate position 232b of the landmark unit 3 through optical communication from the landmark unit 203, but the present invention is not limited to this. I can't. In the present invention, the control unit may cause the image acquisition unit to acquire the position and identification number of the landmark by providing an AR (Augmented Reality) tag (QR (Quick Response) code, AprilTAG, etc.) on the landmark. .

また、上記第3実施形態では、ヘッドモーショントラッカ装置310は、1つの画像取得部302を備えている例を示したが、本発明はこれに限られない。本発明では、図19に示す第2変形例のように、ヘッドモーショントラッカ装置410は、2つの画像取得部402を備えていてもよい。この場合、ヘッドモーショントラッカ装置410は、2つの画像取得部402を同期させて撮影させることにより、2つの画像取得部402の視差に基づいて距離を取得するステレオ画像処理部403を備えていてもよい。 Further, in the third embodiment described above, the head motion tracker device 310 has shown an example including one image acquisition unit 302, but the present invention is not limited to this. In the present invention, the head motion tracker device 410 may include two image acquisition units 402, as in a second modification shown in FIG. In this case, the head motion tracker device 410 may include a stereo image processing unit 403 that acquires the distance based on the parallax between the two image acquisition units 402 by synchronizing the two image acquisition units 402 to capture images. good.

また、上記第1~第3実施形態では、制御部4(204、305)は、機械学習により、パイロット11(観察者)の周囲の三次元の周囲環境地図5を作成する制御を行うように構成されている例を示したが、本発明はこれに限られない。本発明では、制御部は、機械学習以外の方法により、三次元の周囲環境地図を作成してもよい。 Further, in the first to third embodiments described above, the control unit 4 (204, 305) performs control to create a three-dimensional environmental map 5 around the pilot 11 (observer) using machine learning. Although an example of the configuration has been shown, the present invention is not limited to this. In the present invention, the control unit may create a three-dimensional surrounding environment map using a method other than machine learning.

また、上記第1~第3実施形態では、航空機100(移動体)内にパイロット11(観測者)だけが搭乗している例を示したが、本発明はこれに限られない。本発明では、移動体内に複数の観測者が乗っていてもよい。そして、複数の観測者は各々は、ヘッドモーショントラッカ装置を装着していてもよい。この場合、複数のヘッドモーショントラッカ装置は、それぞれ、異なる光(紫外光および近赤外光)を受光可能な画像取得部を備えていてもよい。これにより、複数のヘッドモーショントラッカ装置が、同時に運用可能となる。 Further, in the first to third embodiments described above, an example was shown in which only the pilot 11 (observer) was on board the aircraft 100 (mobile body), but the present invention is not limited to this. In the present invention, a plurality of observers may be inside the moving object. Each of the plurality of observers may be equipped with a head motion tracker device. In this case, the plurality of head motion tracker devices may each include an image acquisition unit capable of receiving different lights (ultraviolet light and near-infrared light). This allows multiple head motion tracker devices to be operated simultaneously.

1 頭部装着部
2、302、402 画像取得部
3、203、304 目印部
4、204、305 制御部
5 周囲環境地図
10、210、310、410 航空機用ヘッドモーショントラッカ装置(ヘッドモーショントラッカ装置)
11 パイロット(観察者)
12 特徴点
21 カメラ
52 現フレーム地図(第3周囲環境地図)
53 前フレーム地図(第2周囲環境地図)
54 移動後環境地図(第1周囲環境地図)
62 移動前画像(第2画像)
63 移動後画像(第1画像)
100 航空機
204f 制御部側通信部
232 記憶部
233b ジャイロセンサ(目印部側ジャイロセンサ)
234 目印部側通信部
242 ジャイロセンサ(装置側ジャイロセンサ)
1 Head Mounted Part 2, 302, 402 Image Acquisition Part 3, 203, 304 Marker Part 4, 204, 305 Control Part 5 Surrounding Environment Map 10, 210, 310, 410 Aircraft Head Motion Tracker Device (Head Motion Tracker Device)
11 Pilot (observer)
12 Feature points 21 Camera 52 Current frame map (third surrounding environment map)
53 Previous frame map (second surrounding environment map)
54 Environmental map after movement (first surrounding environment map)
62 Image before movement (second image)
63 Image after movement (first image)
100 Aircraft 204f Control unit side communication unit 232 Storage unit 233b Gyro sensor (marker side gyro sensor)
234 Marker side communication unit 242 Gyro sensor (device side gyro sensor)

Claims (12)

観察者の頭部に装着される頭部装着部と、
前記頭部装着部に取り付けられ、前記観察者の頭部の向きに沿った方向の画像を取得する画像取得部と、
前記画像取得部により取得された前記画像に基づいて、前記観察者の頭部の位置および角度を取得する制御を行うように構成された制御部とを備え
前記制御部は、前記画像取得部により取得された前記画像に基づいて、前記観察者の周囲の三次元の周囲環境地図を作成する制御を行うように構成されており、
前記周囲環境地図は、
現時点において前記画像取得部により取得された第1画像により構成される第1周囲環境地図と、
前記第1画像よりも前の第2画像により構成される第2周囲環境地図と、
前記第2画像に前記第1画像を合成した画像に基づく第3周囲環境地図とを含み、
前記制御部は、前記第2周囲環境地図と、前記第3周囲環境地図とに基づいて、前記第1周囲環境地図を取得するとともに、前記観察者の頭部の位置および角度を推定する制御を行うように構成されている、ヘッドモーショントラッカ装置。
a head-mounted part that is mounted on the observer's head;
an image acquisition unit that is attached to the head-mounted unit and acquires an image in a direction along the direction of the observer's head;
a control unit configured to perform control to acquire the position and angle of the observer's head based on the image acquired by the image acquisition unit ;
The control unit is configured to perform control to create a three-dimensional environmental map around the observer based on the image acquired by the image acquisition unit,
The surrounding environment map is
a first surrounding environment map constituted by a first image acquired by the image acquisition unit at the current time;
a second surrounding environment map configured by a second image before the first image;
a third surrounding environment map based on an image obtained by combining the first image with the second image,
The control unit acquires the first surrounding environment map based on the second surrounding environment map and the third surrounding environment map, and controls estimating the position and angle of the observer's head. A head motion tracker device configured to perform .
記制御部は、前記第1周囲環境地図に含まれる複数の特徴点に基づいて、前記観察者の頭部の位置および角度を推定する制御を行うように構成されている、請求項に記載のヘッドモーショントラッカ装置。 2. The control unit according to claim 1 , wherein the control unit is configured to perform control to estimate the position and angle of the observer's head based on a plurality of feature points included in the first surrounding environment map. The head motion tracker device described. 記制御部は、少なくとも前記第1周囲環境地図に含まれる前記複数の特徴点および前記第2周囲環境地図に基づいて、前記観察者の頭部の位置および角度を推定する制御を行うように構成されている、請求項に記載のヘッドモーショントラッカ装置。 The control unit controls estimating the position and angle of the observer's head based on at least the plurality of feature points included in the first surrounding environment map and the second surrounding environment map. The head motion tracker device according to claim 2 , wherein the head motion tracker device is configured. 記制御部は、前記第2周囲環境地図と、前記第3周囲環境地図との比較に基づいて、前記第1周囲環境地図を取得するとともに、前記観察者の頭部の位置および角度を推定する制御を行うように構成されている、請求項に記載のヘッドモーショントラッカ装置。 The control unit obtains the first surrounding environment map and estimates the position and angle of the observer's head based on a comparison between the second surrounding environment map and the third surrounding environment map. The head motion tracker device according to claim 3 , wherein the head motion tracker device is configured to perform control to perform the following. 前記観察者の周囲に配置され、前記画像取得部により前記画像として取得される複数の目印部をさらに備え、
前記制御部は、前記第1周囲環境地図に含まれる前記複数の目印部を前記複数の特徴点を全て取得可能な前記観察者の頭部の位置および角度を、現時点の前記観察者の頭部の位置および角度として推定する制御を行うように構成されている、請求項のいずれか1項に記載のヘッドモーショントラッカ装置。
further comprising a plurality of landmarks arranged around the observer and acquired as the image by the image acquisition unit,
The control unit determines the position and angle of the observer's head from which all of the plurality of feature points can be obtained from the plurality of landmarks included in the first surrounding environment map, based on the position and angle of the observer's head at the current moment. The head motion tracker device according to any one of claims 2 to 4 , wherein the head motion tracker device is configured to perform control to estimate the position and angle of.
前記制御部は、現時点よりも前の時点の前記観察者の頭部の位置および角度に基づいて、互いに頭部の位置および角度が異なる複数の前記観察者の頭部の位置および角度を作成するとともに、作成した前記複数の前記観察者の頭部の位置および角度を変化させた後、前記第1周囲環境地図に含まれる前記複数の特徴点を全て取得可能な前記観察者の頭部の位置および角度を選択する制御を行うように構成されている、請求項に記載のヘッドモーショントラッカ装置。 The control unit creates a plurality of head positions and angles of the observer whose head positions and angles are different from each other based on the position and angle of the observer's head at a time point before the current time. and, after changing the positions and angles of the heads of the plurality of observers that have been created, the position of the head of the observer at which all of the plurality of feature points included in the first surrounding environment map can be obtained. The head motion tracker device according to claim 5 , wherein the head motion tracker device is configured to perform control to select a direction and an angle. 前記制御部は、前記第1画像中のコントラストの差に基づいて、前記複数の特徴点を取得する制御を行うように構成されている、請求項のいずれか1項に記載のヘッドモーショントラッカ装置。 The head according to any one of claims 2 to 6 , wherein the control unit is configured to perform control to acquire the plurality of feature points based on a contrast difference in the first image. Motion tracker device. 前記観察者の周囲に配置され、前記画像取得部により前記画像として取得される目印部をさらに備え、
前記制御部は、前記目印部が取得された前記画像に基づく三次元の前記周囲環境地図中の前記目印部に基づいて、前記観察者の頭部の位置および角度を取得する制御を行うように構成されている、請求項のいずれか1項に記載のヘッドモーショントラッカ装置。
further comprising a landmark section arranged around the observer and acquired as the image by the image acquisition section,
The control unit is configured to perform control to acquire the position and angle of the observer's head based on the landmark portion in the three-dimensional surrounding environment map based on the image in which the landmark portion is acquired. A head motion tracker device according to any one of claims 1 to 7 , comprising:
前記制御部は、制御部側通信部を含み、
前記目印部は、
前記制御部側通信部と通信可能な目印部側通信部と、
前記観察者を乗せた移動体の基準位置に対する前記目印部の位置を記憶する記憶部とを含み、
前記制御部は、前記画像取得部により前記目印部を取得した場合、前記目印部側通信部を介して前記記憶部から取得した前記目印部の位置に基づいて、前記観察者の頭部の位置および角度を取得する制御を行うように構成されている、請求項に記載のヘッドモーショントラッカ装置。
The control unit includes a control unit side communication unit,
The landmark portion is
a marker side communication unit capable of communicating with the control unit side communication unit;
a storage unit that stores the position of the landmark with respect to a reference position of the moving object carrying the observer;
When the image acquisition unit acquires the landmark, the control unit determines the position of the observer's head based on the position of the landmark acquired from the storage unit via the landmark side communication unit. The head motion tracker device according to claim 8 , wherein the head motion tracker device is configured to perform control to obtain the angle and angle.
前記観察者の頭部の角速度を計測する装置側ジャイロセンサをさらに備え、
前記目印部は、前記観察者を乗せた移動体の角速度を計測する目印部側ジャイロセンサを含み、
前記制御部は、前記周囲環境地図に基づいて前記観察者の頭部の角度が所定時間内に取得できない場合、前記装置側ジャイロセンサにより計測された前記観察者の頭部の角速度と、前記目印部側ジャイロセンサにより計測された前記移動体の角速度との差に基づいて、前記観察者の頭部の角度を取得する制御を行うように構成されている、請求項またはに記載のヘッドモーショントラッカ装置。
further comprising a device-side gyro sensor that measures the angular velocity of the observer's head;
The landmark section includes a landmark section-side gyro sensor that measures the angular velocity of the moving object carrying the observer,
If the angle of the observer's head cannot be obtained within a predetermined time based on the surrounding environment map, the control unit may obtain the angular velocity of the observer's head measured by the device-side gyro sensor and the landmark. The head according to claim 8 or 9 , wherein the head is configured to perform control to obtain the angle of the observer's head based on a difference between the angular velocity of the moving body and the angular velocity measured by the side gyro sensor. Motion tracker device.
前記画像取得部は、並んで配置された2つのカメラを有し、
前記制御部は、2つの前記カメラの視差に基づいて、前記観察者の頭部の向きに沿った方向の距離を取得するとともに、2つの前記カメラにより取得した距離に基づいて、三次元の前記周囲環境地図を作成する制御を行うように構成されている、請求項10のいずれか1項に記載のヘッドモーショントラッカ装置。
The image acquisition unit includes two cameras arranged side by side,
The control unit acquires a distance in a direction along the direction of the observer's head based on the parallax between the two cameras, and also acquires the three-dimensional distance based on the distance acquired by the two cameras. The head motion tracker device according to any one of claims 1 to 10 , wherein the head motion tracker device is configured to perform control to create a surrounding environment map.
航空機の機体内の観察者としてのパイロットに装着されるヘッドモーショントラッカ装置を備え、
前記ヘッドモーショントラッカ装置は、
前記パイロットの頭部に取り付けられる頭部装着部と、
前記頭部装着部に取り付けられ、前記パイロットの頭部の向きに沿った方向の画像を取得する画像取得部と、
前記画像取得部により取得された前記画像に基づいて、前記パイロットの頭部の位置および角度を取得する制御を行うように構成された制御部とを含み、
前記制御部は、前記画像取得部により取得された前記画像に基づいて、前記観察者の周囲の三次元の周囲環境地図を作成する制御を行うように構成されており、
前記周囲環境地図は、
現時点において前記画像取得部により取得された第1画像により構成される第1周囲環境地図と、
前記第1画像よりも前の第2画像により構成される第2周囲環境地図と、
前記第2画像に前記第1画像を合成した画像に基づく第3周囲環境地図とを含み、
前記制御部は、前記第2周囲環境地図と、前記第3周囲環境地図とに基づいて、前記第1周囲環境地図を取得するとともに、前記観察者の頭部の位置および角度を推定する制御を行うように構成されている、航空機用ヘッドモーショントラッカ装置。
Equipped with a head motion tracker device attached to the pilot as an observer inside the aircraft body,
The head motion tracker device includes:
a head mounting section attached to the pilot's head;
an image acquisition unit that is attached to the head mounted unit and acquires an image in a direction along the direction of the pilot's head;
a control unit configured to perform control to acquire the position and angle of the pilot's head based on the image acquired by the image acquisition unit ,
The control unit is configured to perform control to create a three-dimensional environmental map around the observer based on the image acquired by the image acquisition unit,
The surrounding environment map is
a first surrounding environment map constituted by a first image acquired by the image acquisition unit at the current time;
a second surrounding environment map configured by a second image before the first image;
a third surrounding environment map based on an image obtained by combining the first image with the second image,
The control unit acquires the first surrounding environment map based on the second surrounding environment map and the third surrounding environment map, and controls estimating the position and angle of the observer's head. An aircraft head motion tracker device configured to perform .
JP2020120728A 2020-07-14 2020-07-14 Head motion tracker device and head motion tracker device for aircraft Active JP7435330B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020120728A JP7435330B2 (en) 2020-07-14 2020-07-14 Head motion tracker device and head motion tracker device for aircraft

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020120728A JP7435330B2 (en) 2020-07-14 2020-07-14 Head motion tracker device and head motion tracker device for aircraft

Publications (2)

Publication Number Publication Date
JP2022017894A JP2022017894A (en) 2022-01-26
JP7435330B2 true JP7435330B2 (en) 2024-02-21

Family

ID=80186093

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020120728A Active JP7435330B2 (en) 2020-07-14 2020-07-14 Head motion tracker device and head motion tracker device for aircraft

Country Status (1)

Country Link
JP (1) JP7435330B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009036517A (en) 2007-07-31 2009-02-19 Shimadzu Corp Head motion tracker device
JP2011015831A (en) 2009-07-09 2011-01-27 Shimadzu Corp Head motion tracker
JP2014215748A (en) 2013-04-24 2014-11-17 川崎重工業株式会社 Component mounting work supporting system, and component mounting method
JP2016541035A (en) 2013-09-30 2016-12-28 株式会社ソニー・インタラクティブエンタテインメント Camera-based safety mechanism for head-mounted display users
JP2017530438A (en) 2014-07-25 2017-10-12 マイクロソフト テクノロジー ライセンシング,エルエルシー Object placement based on gaze in a virtual reality environment
WO2018189880A1 (en) 2017-04-14 2018-10-18 株式会社ソニー・インタラクティブエンタテインメント Information processing device, information processing system, and image processing method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009036517A (en) 2007-07-31 2009-02-19 Shimadzu Corp Head motion tracker device
JP2011015831A (en) 2009-07-09 2011-01-27 Shimadzu Corp Head motion tracker
JP2014215748A (en) 2013-04-24 2014-11-17 川崎重工業株式会社 Component mounting work supporting system, and component mounting method
JP2016541035A (en) 2013-09-30 2016-12-28 株式会社ソニー・インタラクティブエンタテインメント Camera-based safety mechanism for head-mounted display users
JP2017530438A (en) 2014-07-25 2017-10-12 マイクロソフト テクノロジー ライセンシング,エルエルシー Object placement based on gaze in a virtual reality environment
WO2018189880A1 (en) 2017-04-14 2018-10-18 株式会社ソニー・インタラクティブエンタテインメント Information processing device, information processing system, and image processing method

Also Published As

Publication number Publication date
JP2022017894A (en) 2022-01-26

Similar Documents

Publication Publication Date Title
CN110458961B (en) Augmented reality based system
JP4961904B2 (en) Head motion tracker device
US20180356492A1 (en) Vision based location estimation system
JP5055516B2 (en) System and method for displaying device maintenance and operation instructions using augmented reality
JP5594944B2 (en) Motion tracker device
CN106681510B (en) Pose recognition device, virtual reality display device and virtual reality system
CN107014378A (en) A kind of eye tracking aims at control system and method
JP7319303B2 (en) Radar head pose localization
TW201447372A (en) System, method and computer program product for real-time alignment of an augmented reality device
JP4924342B2 (en) Motion tracker device
US10719944B2 (en) Dynamic object tracking
JP5292725B2 (en) Motion tracker device
JP2016151566A (en) Motion tracker device
JP7435330B2 (en) Head motion tracker device and head motion tracker device for aircraft
US11360552B1 (en) High assurance headtracking via structured light projection for head worn display (HWD)
JP2020525956A (en) Display device for computer-mediated reality
JP2012226666A (en) Motion tracker device
JP2008026265A (en) Head motion tracker system
JP4905311B2 (en) Head motion tracker system and calibration device used therefor
US12014515B2 (en) Estimating a pose of a spatially movable platform
JP4905321B2 (en) Head motion tracker device
JP5029531B2 (en) Motion tracker system and coordinate system setting method thereof
JP6890759B2 (en) Flight route guidance system, flight route guidance device and flight route guidance method
JP4656016B2 (en) Motion tracker device
JP2009036517A (en) Head motion tracker device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240122

R151 Written notification of patent or utility model registration

Ref document number: 7435330

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151