JP6015218B2 - Orientation detection device - Google Patents

Orientation detection device Download PDF

Info

Publication number
JP6015218B2
JP6015218B2 JP2012174110A JP2012174110A JP6015218B2 JP 6015218 B2 JP6015218 B2 JP 6015218B2 JP 2012174110 A JP2012174110 A JP 2012174110A JP 2012174110 A JP2012174110 A JP 2012174110A JP 6015218 B2 JP6015218 B2 JP 6015218B2
Authority
JP
Japan
Prior art keywords
light
unit
person
azimuth
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012174110A
Other languages
Japanese (ja)
Other versions
JP2014032608A (en
Inventor
境 克司
克司 境
村瀬 有一
有一 村瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012174110A priority Critical patent/JP6015218B2/en
Publication of JP2014032608A publication Critical patent/JP2014032608A/en
Application granted granted Critical
Publication of JP6015218B2 publication Critical patent/JP6015218B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本件開示は、人物を含む移動体の頭部方向を示す方位を検出可能な方位検出装置に関する。   The present disclosure relates to an azimuth detecting device capable of detecting an azimuth indicating a head direction of a moving body including a person.

加速度センサや角速度センサを含む内界センサを用いた慣性航法によって、移動体の向きを含む位置情報を高い精度で取得するために、加速度センサや角速度センサで得られる計測値に含まれるドリフトを補正する技術が研究されている(非特許文献1参照)。例えば、非特許文献1の技法は、慣性航法技術で得られる位置情報と、GPS(Global Positioning System)などで得られる絶対位置情報や地磁気センサで得られる絶対角度情報を組み合わせることで、位置情報の検出精度の向上を図っている。   In order to obtain position information including the direction of the moving object with high accuracy by inertial navigation using an internal sensor including an acceleration sensor and an angular velocity sensor, drift included in the measurement values obtained by the acceleration sensor and angular velocity sensor is corrected. The technique to do is researched (refer nonpatent literature 1). For example, the technique of Non-Patent Document 1 combines position information obtained by inertial navigation technology with absolute position information obtained by GPS (Global Positioning System) or absolute angle information obtained by a geomagnetic sensor. The detection accuracy is improved.

一方、所定の端末装置を人物に所持させ、当該端末装置を検出することにより、当該人物の位置を示す情報を精密に検出する技術も提案されている(非特許文献2参照)。   On the other hand, there is also proposed a technique for precisely detecting information indicating the position of a person by causing the person to carry a predetermined terminal device and detecting the terminal device (see Non-Patent Document 2).

エプソントヨコム_センシング_システム設計サミット2010_発表資料、今井信行Epson Toyocom_Sensing_System Design Summit 2010_Presentation Material, Nobuyuki Imai 「赤外線音声情報案内システムトーキングサイン」三菱プレシジョン株式会社[online],[平成24年5月28日検索]、インターネット<URL:http://www.techno-aids.or.jp/kaihatsu/j_42.shtml>"Infrared voice information guidance system talking sign" Mitsubishi Precision Corporation [online], [searched on May 28, 2012], Internet <URL: http://www.techno-aids.or.jp/kaihatsu/j_42. shtml>

ところで、GPSによる絶対位置情報は、屋内に滞在する人物の位置情報の検出に用いることができないため、GPSと慣性航法を組み合わせた技術によっては、屋内を移動する人物について高精度の位置情報を取得することは困難である。同様に、屋内の展示場のような施設では、多種多様な機器によって局所的な電磁場が形成されているために、地磁気センサによって地球の磁場を基準とする絶対的な角度を与えることも困難である。このため、ジャイロセンサなどの角速度センサによる計測値から、人物の移動方向を精密に検出することは困難である。   By the way, since absolute position information by GPS cannot be used for detecting position information of a person staying indoors, depending on the technology combining GPS and inertial navigation, highly accurate position information can be obtained for a person moving indoors. It is difficult to do. Similarly, in facilities such as indoor exhibition halls, it is difficult to provide an absolute angle with respect to the earth's magnetic field using geomagnetic sensors because a local electromagnetic field is formed by a wide variety of equipment. is there. For this reason, it is difficult to accurately detect the moving direction of a person from the measurement value obtained by an angular velocity sensor such as a gyro sensor.

一方、人物に所持させた所定の端末装置の位置を検出することで人物の位置を特定する技術によれば、人物の位置を精密に特定することは可能であるが、人物の体の向きや人物の頭部が向いている方向を示す情報を取得することはできない。   On the other hand, according to the technique for specifying the position of a person by detecting the position of a predetermined terminal device possessed by the person, it is possible to specify the position of the person precisely, Information indicating the direction in which the person's head is facing cannot be acquired.

本件開示の装置は、人物を含む移動体の頭部方向を高い精度で検出可能な方位検出装置を提供することを目的とする。   An object of the present disclosure is to provide an azimuth detecting device that can detect the head direction of a moving body including a person with high accuracy.

一つの観点による方位検出装置は、人物の頭部に装着され、前記頭部の回転運動を観測する角速度センサで得られる角速度に基づいて、前記人物の頭部方向を示す方位を追跡する追跡部と、指向性を有する光を所定の方位に向けて射出する、室内に設置された投光部と、前記人物の頭部に装着され、前記人物の頭部方向からの入射光に対して指向性を有し、前記入射光を電気信号に変換する受光部と、前記受光部で得られる電気信号に基づいて、前記人物の頭部方向と前記投光部によって光が射出される方向である射出方向との正対を検出する検出部と、前記投光部による光の射出方向と前記人物の頭部方向との正対が検出された場合に、前記投光部による光の射出方向に対応する第1方位を、前記追跡部による追跡で得られる前記人物の現在の頭部方向を示す方位として設定する設定部とを備え、前記投光部は、互いに異なる所定の方位にそれぞれ光を射出する複数の第1発光素子と、前記複数の第1発光素子それぞれを互いに異なるパターンで点滅させる制御部とを有し、前記検出部は、前記受光部で得られる電気信号の時間的な変化に基づいて、前記複数の第1発光素子の中から、前記人物の頭部方向に正対する方向に存在する第1発光素子を特定する特定部を有し、前記設定部は、前記特定部で特定された前記第1発光素子による光の射出方向を前記第1方位として、前記人物の現在の頭部方向を示す方位の設定を行うAn azimuth detecting device according to one aspect is a tracking unit that is mounted on a person's head and tracks an azimuth indicating the head direction of the person based on an angular velocity obtained by an angular velocity sensor that observes the rotational motion of the head. And a light projecting unit installed indoors that emits directional light in a predetermined direction, and is attached to the head of the person and is directed to incident light from the head direction of the person A light receiving unit that converts the incident light into an electrical signal and a direction in which light is emitted by the head direction of the person and the light projecting unit based on the electrical signal obtained by the light receiving unit. A detecting unit that detects a direct pairing with the light emitting direction; and a light emitting direction by the light projecting unit is detected when a direct pairing between the light emitting direction by the light projecting unit and the head direction of the person is detected. The corresponding first orientation is obtained by tracking the person's current And a setting unit that sets as a direction showing a head direction, the light projecting unit, a plurality of first light emitting element that emits light to different predetermined orientation to each other, said plurality of first light emitting element And a control unit that blinks in a pattern different from each other, and the detection unit is configured to select a head of the person from the plurality of first light emitting elements based on a temporal change in an electrical signal obtained by the light receiving unit. A specifying unit that specifies a first light emitting element that exists in a direction directly opposite to the partial direction, and the setting unit sets the light emission direction of the first light emitting element specified by the specifying unit as the first orientation. , Setting the direction indicating the current head direction of the person .

本件開示の方位検出装置によれば、人物を含む移動体の頭部方向を高い精度で検出可能である。   According to the azimuth detecting device of the present disclosure, it is possible to detect the head direction of a moving body including a person with high accuracy.

方位検出装置の一実施形態を示す図である。It is a figure which shows one Embodiment of an azimuth | direction detection apparatus. 投光部の配置例を示す図である。It is a figure which shows the example of arrangement | positioning of a light projection part. 方位検出結果の例を示す図である。It is a figure which shows the example of a direction detection result. 投光部の別実施形態を示す図である。It is a figure which shows another embodiment of a light projection part. 投光部の配置の別例を示す図である。It is a figure which shows another example of arrangement | positioning of a light projection part. 受光部の一実施形態を示す図である。It is a figure which shows one Embodiment of a light-receiving part. 受光部の指向性を説明する図である。It is a figure explaining the directivity of a light-receiving part. 方位検出装置の別実施形態を示す図である。It is a figure which shows another embodiment of an azimuth | direction detection apparatus. 方位コードの送受信を説明する図である。It is a figure explaining transmission / reception of a direction code. 投光部の別実施形態を示す図である。It is a figure which shows another embodiment of a light projection part. 方位検出装置の別実施形態を示す図である。It is a figure which shows another embodiment of an azimuth | direction detection apparatus. 方位コードの送受信を説明する図である。It is a figure explaining transmission / reception of a direction code. 投光部の別実施形態を示す図である。It is a figure which shows another embodiment of a light projection part. 方位コードの送受信を説明する図である。It is a figure explaining transmission / reception of a direction code. 方位検出装置の適用例を示す図である。It is a figure which shows the example of application of an azimuth | direction detection apparatus. 方位検出装置の別の適用例を示す図である。It is a figure which shows another example of application of an azimuth | direction detection apparatus. 情報提供システムの実施形態を示す図である。It is a figure which shows embodiment of an information provision system. 方位検出装置を含む情報提供システムのハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of the information provision system containing an azimuth | direction detection apparatus. 携帯端末装置及びヘッドセットのハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of a portable terminal device and a headset. 情報提供処理のフローチャートの例を示す図である。It is a figure which shows the example of the flowchart of an information provision process. 頭部方向を示す方位を検出する処理のフローチャートの例を示す図である。It is a figure which shows the example of the flowchart of the process which detects the azimuth | direction which shows a head direction. 正対する投光部を検出する処理のフローチャートの例を示す図である。It is a figure which shows the example of the flowchart of the process which detects the light projection part which faces directly.

以下、図面に基づいて、本発明の実施形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1に、方位検出装置の一実施形態を示す。図1に示した方位検出装置10は、人物Pの頭部に装着された受光部13および角速度センサSaと、屋内に設置された投光部12とを含んでいる。   FIG. 1 shows an embodiment of an orientation detection device. The azimuth detecting device 10 shown in FIG. 1 includes a light receiving unit 13 and an angular velocity sensor Sa mounted on the head of a person P, and a light projecting unit 12 installed indoors.

角速度センサSaは、例えば、ジャイロセンサを含んでおり、人物Pの頭部が回転運動する際の角速度を計測する。受光部13は、入射する光の強度を反映する電気信号を生成する光電変換素子(図示せず)を含んでいる。受光部13は、受光部13の光電変換素子に光を導く光学系の光軸と、人物Pの頭部方向とが一致するように人物Pに装着されていることが望ましい。受光部13が人物Pの頭部に好ましい状態で装着されている場合に、受光部13の受光感度は、光軸方向に一致する方向である人物の頭部方向からの入射光に対して指向性を有する。また、投光部12は、部屋の隅の天井付近などに設置されており、指向性を有する光を所定の方位に向けて射出する。なお、受光部13の受光感度に指向性を持たせる手法及び投光部12による光の射出方向に指向性を持たせる手法については後述する。   The angular velocity sensor Sa includes, for example, a gyro sensor, and measures an angular velocity when the head of the person P rotates. The light receiving unit 13 includes a photoelectric conversion element (not shown) that generates an electrical signal that reflects the intensity of incident light. The light receiving unit 13 is preferably attached to the person P so that the optical axis of the optical system that guides light to the photoelectric conversion element of the light receiving unit 13 matches the head direction of the person P. When the light receiving unit 13 is attached to the head of the person P in a preferable state, the light receiving sensitivity of the light receiving unit 13 is directed to incident light from the head direction of the person, which is a direction that matches the optical axis direction. Have sex. The light projecting unit 12 is installed near the ceiling at the corner of the room and emits light having directivity toward a predetermined direction. Note that a method for imparting directivity to the light receiving sensitivity of the light receiving unit 13 and a method for imparting directivity to the light emission direction by the light projecting unit 12 will be described later.

また、方位検出装置10は、更に、追跡部11と、検出部14と、設定部15とを含んでいる。追跡部11は、角速度センサSaで得られる角速度に基づいて、人物Pの頭部方向を示す方位を追跡する。検出部14は、受光部13で得られる電気信号に基づいて、人物Pの頭部方向と投光部12によって光が射出される方向である射出方向との正対を検出する。   In addition, the azimuth detection device 10 further includes a tracking unit 11, a detection unit 14, and a setting unit 15. The tracking unit 11 tracks the azimuth indicating the head direction of the person P based on the angular velocity obtained by the angular velocity sensor Sa. Based on the electrical signal obtained by the light receiving unit 13, the detection unit 14 detects the direct facing between the head direction of the person P and the emission direction in which light is emitted by the light projecting unit 12.

上述したように、投光部12によって射出される光と受光部13の受光感度とはそれぞれ指向性を有している。したがって、投光部12による光の射出方向と、受光部13の光軸とが互いに正対している場合にのみ、受光部13の光電変換素子に投光部12から射出された光が到達する。つまり、検出部14は、受光部13で得られる電気信号によって、投光部12からの光が受光部13の光電変換素子に到達したことが示されたときに、人物Pの頭部方向と投光部12による光の射出方向との正対を検出する。なお、図1は、投光部12による光の射出方向と、受光部13の光軸とが互いに正対している状態を示している。このとき、人物Pの頭部方向は、投光部12による光の射出方向と一致している。また、投光部12による光の射出方向は、例えば、部屋の壁など基準とする絶対的な角度として予め求めておくことができる。   As described above, the light emitted by the light projecting unit 12 and the light receiving sensitivity of the light receiving unit 13 each have directivity. Therefore, the light emitted from the light projecting unit 12 reaches the photoelectric conversion element of the light receiving unit 13 only when the light emitting direction of the light projecting unit 12 and the optical axis of the light receiving unit 13 are opposed to each other. . That is, the detection unit 14 indicates that the light from the light projecting unit 12 has reached the photoelectric conversion element of the light receiving unit 13 according to the electrical signal obtained by the light receiving unit 13 and the head direction of the person P. The direct alignment with the light emission direction by the light projecting unit 12 is detected. FIG. 1 shows a state in which the light emission direction by the light projecting unit 12 and the optical axis of the light receiving unit 13 face each other. At this time, the head direction of the person P coincides with the light emission direction by the light projecting unit 12. Moreover, the light emission direction by the light projecting unit 12 can be obtained in advance as an absolute angle as a reference such as a wall of a room, for example.

つまり、検出部14によって、投光部12による光の射出方向との正対が検出されたときの人物Pの頭部方向は、投光部12による光の射出方向に対応する絶対的な角度で示すことができる。   In other words, the head direction of the person P when the detection unit 14 detects a direct alignment with the light emission direction by the light projecting unit 12 is an absolute angle corresponding to the light emission direction by the light projection unit 12. Can be shown.

設定部15は、検出部14により、投光部12による光の射出方向と人物Pの頭部方向との正対が検出された場合に、投光部12による光の射出方向に対応する第1方位を、追跡部11による方位の追跡の基準として設定する。設定部15は、例えば、投光部12による光の射出方向を示す第1方位を予め求めておき、検出部14による検出結果に応じて、追跡部11による追跡処理で得られた方位を第1方位に置き換えてもよい。   The setting unit 15 corresponds to the light emitting direction by the light projecting unit 12 when the detecting unit 14 detects the direct alignment between the light emitting direction by the light projecting unit 12 and the head direction of the person P. One direction is set as a reference for tracking the direction by the tracking unit 11. For example, the setting unit 15 obtains in advance a first azimuth indicating the light emission direction by the light projecting unit 12, and sets the azimuth obtained by the tracking processing by the tracking unit 11 according to the detection result by the detection unit 14. It may be replaced with one direction.

図2は、投光部12の配置例を示している。なお、図2に示した要素のうち、図1に示した要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 2 shows an arrangement example of the light projecting unit 12. 2 that are the same as those shown in FIG. 1 are denoted by the same reference numerals and description thereof is omitted.

図2の例では、投光部12は、部屋Cの1つの隅Rに設置されており、部屋Cの壁Wから時計回りに角度φ0だけ部屋Cの中央に向かう方向に光を射出するように設置されている。   In the example of FIG. 2, the light projecting unit 12 is installed at one corner R of the room C, and emits light in a direction from the wall W of the room C in the clockwise direction toward the center of the room C by an angle φ0. Is installed.

また、図2は、部屋C内を移動中の人物Pが、投光部12が設置された部屋Cの隅Rに頭部を向けた状態を示している。このとき、受光部13に投光部12からの光が入射し、受光部13で得られた電気信号に応じて、図1に示した検出部14は、人物Pの頭部方向と投光部12による光の射出方向との正対を検出する。   FIG. 2 shows a state where a person P moving in the room C has his head directed to a corner R of the room C where the light projecting unit 12 is installed. At this time, the light from the light projecting unit 12 is incident on the light receiving unit 13, and the detection unit 14 illustrated in FIG. 1 projects the light from the head direction of the person P according to the electrical signal obtained by the light receiving unit 13. The direct facing of the light emission direction by the unit 12 is detected.

図2に示したように、人物Pが部屋Cの隅Rに頭部を向けているとき、人物Pの頭部方向を示す方位は、投光部12による光の射出方向と壁Wとがなす角φ0に基づいて、絶対的に特定することが可能である。   As shown in FIG. 2, when the person P points his head to the corner R of the room C, the direction indicating the head direction of the person P is determined by the light emission direction of the light projecting unit 12 and the wall W. It is possible to specify absolutely based on the formed angle φ0.

例えば、壁Wが設置されている方角を基準として人物Pの頭部方向を表す場合に、図1に示した設定部15は、例えば、上述した角度φ0をそのまま第1方位として用いてもよい。また、検出部14により、投光部12による光の射出方向との正対が検出されたときに、設定部15は、図1に示した追跡部11が慣性航法技術による追跡処理で取得した方位を、上述した角度φ0にリセットする。これにより、それまでの追跡処理の過程において、人物Pの頭部方向の推定結果に蓄積していたドリフトによる誤差を解消することができる。また、追跡部11は、設定部15によって設定された角度φ0を基準として、図1に示した角速度センサSaで以降に得られる角速度データに基づく方位の追跡処理を継続する。   For example, when the head direction of the person P is expressed with reference to the direction in which the wall W is installed, the setting unit 15 illustrated in FIG. 1 may use, for example, the above-described angle φ0 as the first orientation as it is. . Further, when the detection unit 14 detects the direct facing of the light emission direction by the light projecting unit 12, the setting unit 15 acquires the tracking unit 11 illustrated in FIG. 1 through tracking processing using inertial navigation technology. The azimuth is reset to the angle φ0 described above. Thereby, the error due to drift accumulated in the estimation result of the head direction of the person P can be eliminated in the course of the tracking process so far. Further, the tracking unit 11 continues the azimuth tracking process based on the angular velocity data obtained thereafter by the angular velocity sensor Sa shown in FIG. 1 with the angle φ0 set by the setting unit 15 as a reference.

つまり、図1に示した方位検出装置10によれば、人物P1が投光器12に頭部を向けるごとに、追跡部11で得られる人物P1の頭部方向を示す方位についての追跡結果を、上述した第1方位にリセットする。これにより、人物P1が投光器12に頭部を向けるごとに、慣性航法技術によって得られる方位に蓄積される誤差を解消することができるので、追跡部11によって得られる人物Pの頭部方向を示す方位の精度を向上させることができる。   That is, according to the azimuth detecting device 10 shown in FIG. 1, every time the person P1 turns his head toward the projector 12, the tracking result about the azimuth indicating the head direction of the person P1 obtained by the tracking unit 11 is described above. Reset to the first orientation. Thus, every time the person P1 points the head to the projector 12, the error accumulated in the direction obtained by the inertial navigation technique can be eliminated, so that the head direction of the person P obtained by the tracking unit 11 is shown. The direction accuracy can be improved.

図3は、方位検出装置10によって得られる方位検出結果の例を示している。図3において、横軸tは、時間の経過を示し、縦軸θは、図2に示した壁Wを基準とする角度を示している。   FIG. 3 shows an example of the direction detection result obtained by the direction detection device 10. In FIG. 3, the horizontal axis t indicates the passage of time, and the vertical axis θ indicates the angle with reference to the wall W shown in FIG.

図3に示した符号G0は、図2に示した人物Pの実際の頭部方向を示す方位θの時間tによる変化を表すグラフの例である。また、符号Gdは、図1に示した角速度センサSaで得られる角速度に基づいて、上述した追跡部11が慣性航法技術を用いて取得した方位θの時間tによる変化を表すグラフの例である。   A symbol G0 illustrated in FIG. 3 is an example of a graph representing a change with time t of the azimuth θ indicating the actual head direction of the person P illustrated in FIG. Further, reference symbol Gd is an example of a graph representing a change with time t of the azimuth θ obtained by the tracking unit 11 using the inertial navigation technique based on the angular velocity obtained by the angular velocity sensor Sa shown in FIG. .

グラフG0とグラフGdとを比べると、追跡部11によって得られた方位θと、人物Pの頭部方向を示す方位θとの間の乖離は、時間の経過とともに大きくなっていくことが分かる。   Comparing the graph G0 and the graph Gd, it can be seen that the divergence between the azimuth θ obtained by the tracking unit 11 and the azimuth θ indicating the head direction of the person P increases with time.

一方、図3に示した符号G1は、本件開示の方位検出装置10によって得られる人物Pの頭部方向を示す方位θの時間tによる変化を表すグラフの例である。図3に示したグラフG1の例は、時刻T1と時刻T2において、図1に示した設定部15が上述した第1方位φ0を用いて追跡部11によって得られた方位θをリセットした場合を示している。なお、時刻T1,T2は、人物Pが図2に示した部屋Cに設置された投光部12の方へ頭部を向けた時刻に相当している。   On the other hand, the symbol G1 illustrated in FIG. 3 is an example of a graph representing a change with time t of the azimuth θ indicating the head direction of the person P obtained by the azimuth detection device 10 of the present disclosure. The example of the graph G1 shown in FIG. 3 shows a case where the setting unit 15 shown in FIG. 1 resets the azimuth θ obtained by the tracking unit 11 using the first azimuth φ0 described above at time T1 and time T2. Show. Times T1 and T2 correspond to times when the person P turns his head toward the light projecting unit 12 installed in the room C shown in FIG.

図3に示すように、グラフG0で表される方位θとグラフG1で表される方位θとの乖離は、上述した第1方位φ0によって追跡部11の追跡結果がリセットされるごとに解消されている。つまり、人物P1が投光部12に頭部を向けていない期間において、角速度センサSaで得られる角速度データに含まれるドリフト成分が蓄積することで増大した誤差を、人物P1が投光部12に頭部を向けるごとに、クリアすることができる。   As shown in FIG. 3, the divergence between the azimuth θ represented by the graph G0 and the azimuth θ represented by the graph G1 is eliminated every time the tracking result of the tracking unit 11 is reset by the first azimuth φ0. ing. That is, during the period in which the person P1 does not turn his head toward the light projecting unit 12, the error that has increased due to accumulation of drift components included in the angular velocity data obtained by the angular velocity sensor Sa is displayed on the light projecting unit 12. Each time you turn your head, you can clear it.

ここで、人物Pが図2に示した部屋Cの中を自由に移動する過程では、人物Pが周囲を見渡す動作をした場合などに、人物Pの頭部が投光部12の方向に向けられる可能性がある。そして、人物Pが投光部12の方向に頭部を向ける機会ごとに、それまでに蓄積した誤差をクリアすることにより、方位検出装置10による検出結果に含まれる誤差を抑制することができる。   Here, in the process in which the person P moves freely in the room C shown in FIG. 2, the head of the person P is directed toward the light projecting unit 12 when the person P looks around. There is a possibility that. And the error contained in the detection result by the azimuth | direction detection apparatus 10 can be suppressed by clearing the error accumulate | stored so far every time the person P turns the head in the direction of the light projection part 12. FIG.

このように、本件開示の方位検出装置10によれば、従来の慣性航法技術を用いて人物Pの頭部方向を追跡する場合に比べて、高い精度で頭部方向を示す方位を取得することができる。   Thus, according to the azimuth detecting device 10 disclosed herein, the azimuth indicating the head direction can be obtained with higher accuracy than in the case where the head direction of the person P is tracked using the conventional inertial navigation technique. Can do.

更に、慣性航法技術を用いて追跡処理で得られる方位をリセットする機会を増やすことにより、本件開示の方位検出装置10による人物Pの頭部方向を示す方位の検出精度をより一層向上することができる。以下に、方位検出装置10の検出精度を向上するための手法の一例について説明する。   Furthermore, by increasing the chance of resetting the direction obtained by the tracking process using the inertial navigation technology, the detection accuracy of the direction indicating the head direction of the person P by the direction detection device 10 of the present disclosure can be further improved. it can. Below, an example of the method for improving the detection accuracy of the azimuth | direction detection apparatus 10 is demonstrated.

図4は、投光部12の別実施形態を示している。なお、図4に示した構成要素のうち、図1に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 4 shows another embodiment of the light projecting unit 12. 4 that are the same as those shown in FIG. 1 are given the same reference numerals, and descriptions thereof are omitted.

図4に示した投光部12は、それぞれ独立して点灯及び消灯が可能な5つのLED(Light Emitting Diode)1、LED2,LED3,LED4,LED5を含んでいる。これらのLED1〜LED5は、投光部12に含まれる複数の第1発光素子の一例である。また、各LED1〜LED5は、投光部12の内部において、それぞれ異なる方向に光を射出するように配置されている。なお、図4において、符号Ze1は、LED1による光の射出方向を示しており、符号α1は、LED1から射出された光が分散する範囲を示している。また、符号Ze2は、LED2による光の射出方向を示しており、符号α2は、LED2から射出された光が分散する範囲を示している。同様に、符号Ze3は、LED3による光の射出方向を示しており、符号α3は、LED3から射出された光が分散する範囲を示している。同じく、符号Ze4は、LED4による光の射出方向を示しており、符号α4は、LED4から射出された光が分散する範囲を示している。また、符号Ze5は、LED5による光の射出方向を示しており、符号α5は、LED5から射出された光が分散する範囲を示している。   The light projecting unit 12 shown in FIG. 4 includes five LEDs (Light Emitting Diodes) 1, LED 2, LED 3, LED 4, and LED 5 that can be turned on and off independently. These LEDs 1 to 5 are an example of a plurality of first light emitting elements included in the light projecting unit 12. Moreover, each LED1-LED5 is arrange | positioned so that light may be inject | emitted in a different direction inside the light projection part 12, respectively. In FIG. 4, the symbol Ze <b> 1 indicates the light emission direction of the LED 1, and the symbol α <b> 1 indicates the range in which the light emitted from the LED 1 is dispersed. Symbol Ze2 indicates the light emission direction of the LED 2, and symbol α2 indicates the range in which the light emitted from the LED 2 is dispersed. Similarly, the symbol Ze3 indicates the light emission direction of the LED 3, and the symbol α3 indicates the range in which the light emitted from the LED 3 is dispersed. Similarly, the symbol Ze4 indicates the light emission direction of the LED 4, and the symbol α4 indicates a range in which the light emitted from the LED 4 is dispersed. The symbol Ze5 indicates the direction of light emission from the LED 5, and the symbol α5 indicates the range in which the light emitted from the LED 5 is dispersed.

また、図4に示した符号θ1,θ2,θ3,θ4,θ5は、部屋Cの壁Wを基準とする各LED1〜LED5による光の射出方向の方位を示している。つまり、図4に示した方位θ1〜θ5は、それぞれ投光部12に含まれる各LED1〜LED5による光の射出方向を示す第1方位の一例である。また、投光部12の内部において、図4に示した各LED1〜LED5は、それぞれの射出方向Ze1〜Ze5が互いに数度程度ずつ異なる角度となるように位置決めされていることが望ましい。例えば、5つのLED1からLED5を互いに6度ずつ異なる射出方向に向けて配置した場合に、図4の投光部12により、それぞれ指向性を持つ光束を、30度の範囲に分散させて射出することができる。   Further, reference signs θ1, θ2, θ3, θ4, and θ5 illustrated in FIG. 4 indicate the azimuths of the light emission directions of the LEDs 1 to 5 with respect to the wall W of the room C. That is, the azimuths θ1 to θ5 illustrated in FIG. 4 are examples of the first azimuth indicating the light emission directions of the LEDs 1 to LED5 included in the light projecting unit 12, respectively. In addition, it is desirable that the LEDs 1 to 5 shown in FIG. 4 are positioned inside the light projecting unit 12 so that the emission directions Ze1 to Ze5 are different from each other by several degrees. For example, when five LEDs 1 to 5 are arranged in different emission directions by 6 degrees from each other, the light projecting section 12 in FIG. 4 emits light beams each having a directivity in a range of 30 degrees. be able to.

また、図4に示した各LED1〜LED5に対応する光の射出方向を示す方位θ1〜θ5は、各LED1〜LED5をそれぞれ異なるパターンで点滅させることによって表すことができる。例えば、各LED1〜LED5を、それぞれの射出方向Ze1〜Ze5に対応する方位を示す方位コードを表すパターンで点滅させればよい。この場合に、図4に示した受光部13に入射した光の点滅のパターンは、受光部13の光軸方向と正対している射出方向Ze3に対応する方位θ3を表す方位コードを示している。つまり、受光部13で得られる電気信号に反映された入射光の点滅パターンに基づいて、受光部13に入射した光の入射方向を示す方位を特定することが可能である。   Moreover, the azimuth | direction (theta) 1- (theta) 5 which shows the emission direction of the light corresponding to each LED1-LED5 shown in FIG. 4 can be represented by blinking each LED1-LED5 with a respectively different pattern. For example, each LED1 to LED5 may be blinked in a pattern representing an orientation code indicating an orientation corresponding to each emission direction Ze1 to Ze5. In this case, the blinking pattern of the light incident on the light receiving unit 13 shown in FIG. 4 indicates an azimuth code representing the azimuth θ3 corresponding to the emission direction Ze3 facing the optical axis direction of the light receiving unit 13. . That is, it is possible to specify the direction indicating the incident direction of the light incident on the light receiving unit 13 based on the blinking pattern of the incident light reflected in the electrical signal obtained by the light receiving unit 13.

図4に示したような投光部12を有する方位検出装置10によれば、人物Pの頭部方向Qが上述した範囲α1〜α5のいずれかに含まれていれば、個々の範囲α1〜α5に対応する第1方位を用いて追跡結果のリセットを行うことができる。例えば、図4の例では、受光部13に方位θ3を表すパターンで点滅する光が入射しているので、方位検出装置10は、方位θ3を第1方位として用いた追跡結果のリセットを行う。   According to the azimuth detecting apparatus 10 having the light projecting unit 12 as shown in FIG. 4, if the head direction Q of the person P is included in any of the above-described ranges α1 to α5, the individual ranges α1 to α1. The tracking result can be reset using the first direction corresponding to α5. For example, in the example of FIG. 4, since the blinking light is incident on the light receiving unit 13 in a pattern representing the azimuth θ3, the azimuth detecting device 10 resets the tracking result using the azimuth θ3 as the first azimuth.

更に、図4に示した投光部12を複数まとめて設置してもよい。以下の説明では、上述した複数のLEDを含む投光部12を複数個含む構成要素を、アンカーユニットAUと称する。   Further, a plurality of light projecting units 12 shown in FIG. 4 may be installed together. In the following description, a component including a plurality of light projecting units 12 including a plurality of LEDs described above is referred to as an anchor unit AU.

図5は、投光部12の配置の別例を示している。なお、図5に示した構成要素のうち、図1又は図2に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。また、図5に示した符号P1,P2は、受光部13を装着した人物Pが部屋Cの内部において滞在する可能性のある位置の例を示している。   FIG. 5 shows another example of the arrangement of the light projecting unit 12. 5 that are the same as those shown in FIG. 1 or FIG. 2 are given the same reference numerals, and descriptions thereof are omitted. 5 indicate examples of positions where the person P wearing the light receiving unit 13 may stay inside the room C.

図5に示したアンカーユニットAUは、3つの投光部12−1,12−2,12−3を含んでいる。3つの投光部12−1,12−2,12−3は、アンカーユニットAUの内部において、それぞれが含んでいるLEDによる光が射出される範囲が互いに重ならないように、位置決めされている。なお、各投光部12−1,12−2,12−3は、いずれも、図4に示した投光部12と同様の構成を持っている。   The anchor unit AU illustrated in FIG. 5 includes three light projecting units 12-1, 12-2, and 12-3. The three light projecting units 12-1, 12-2, and 12-3 are positioned in the anchor unit AU so that the ranges where the light from the LEDs included in the respective light projecting units do not overlap each other. Each of the light projecting units 12-1, 12-2, and 12-3 has the same configuration as the light projecting unit 12 shown in FIG.

図5の例は、各投光部12−1,12−2,12−3にそれぞれ含まれるLEDそれぞれによる光が射出される範囲α1〜α5(図4参照)が水平方向に6度程度の広がりを持っている場合を示している。この場合に、図4に示した投光部12に対応する角度の範囲は30度となり、3つの投光部12−1,12−2,12−3を含むアンカーユニットAUに対応する角度の範囲は90度となる。また、アンカーユニットAU1,AU2に含まれる各LEDは、それぞれの光の射出方向を示す方位コードを表すパターンで点滅させることにより、受光部13側から互いに識別可能とすることができる。なお、受光部13に入射した光の射出元のLEDを特定する手法については、図8、図9を用いて後述する。   In the example of FIG. 5, the ranges α <b> 1 to α <b> 5 (see FIG. 4) in which light emitted from the respective LEDs included in each of the light projecting units 12-1, 12-2, and 12-3 are about 6 degrees in the horizontal direction. The case where it has a spread is shown. In this case, the angle range corresponding to the light projecting unit 12 illustrated in FIG. 4 is 30 degrees, and the angle range corresponding to the anchor unit AU including the three light projecting units 12-1, 12-2, and 12-3 is set. The range is 90 degrees. Further, the LEDs included in the anchor units AU1 and AU2 can be distinguished from each other from the light receiving unit 13 side by blinking in a pattern representing a direction code indicating the emission direction of each light. Note that a method for specifying the LED from which light is incident on the light receiving unit 13 will be described later with reference to FIGS. 8 and 9.

図5に例示したようなアンカーユニットAUを部屋Cの一つの隅Rに設置することで、部屋Cの内部における人物Pの位置にかかわらず、人物Pが部屋Cの隅Rに頭部を向けたときに、上述した方位検出結果のリセットを行うことができる。   By installing the anchor unit AU illustrated in FIG. 5 at one corner R of the room C, the person P points his head to the corner R of the room C regardless of the position of the person P inside the room C. The orientation detection result described above can be reset.

例えば、図5の例では、人物Pが符号P1で示した位置から部屋Cの隅Rに頭部を向けたときに、人物Pの頭部方向と投光部12−2に含まれるLEDのいずれかによる光の射出方向とが正対している。この場合に、人物Pの頭部方向についての追跡結果は、投光部12−1に含まれるLEDのうち、受光部13に光を入射させているLEDによる光の射出方向に対応するθaを用いてリセットされる。   For example, in the example of FIG. 5, when the person P turns his head toward the corner R of the room C from the position indicated by the reference sign P <b> 1, the head direction of the person P and the LEDs included in the light projecting unit 12-2 The light emission direction by either is directly facing. In this case, the tracking result of the head direction of the person P is θa corresponding to the light emission direction of the LED that is incident on the light receiving unit 13 among the LEDs included in the light projecting unit 12-1. To reset.

また、図5の例では、符号P2で示した位置にいる人物Pが部屋Cの隅Rに頭部を向けたときに、人物Pの頭部方向と投光部12−1に含まれるLEDのいずれかによる光の射出方向とが正対している。この場合に、人物Pの頭部方向についての追跡結果は、投光部12−1に含まれるLEDのうち、受光部13に光を入射させているLEDによる光の射出方向に対応する第1方位θbを用いてリセットされる。   Further, in the example of FIG. 5, when the person P at the position indicated by the reference sign P2 points his head to the corner R of the room C, the head direction of the person P and the LEDs included in the light projecting unit 12-1. The light emission direction by any of the above is directly opposed. In this case, the tracking result of the head direction of the person P is the first corresponding to the light emission direction of the LED that is incident on the light receiving unit 13 among the LEDs included in the light projecting unit 12-1. It is reset using the azimuth θb.

また、部屋Cに複数のアンカーユニットAUを設置してもよい。例えば、図5に示したアンカーユニットAUを、部屋Cの四隅にそれぞれ配置することにより、部屋C内に滞在する人物P1,P2の視界にアンカーユニットAUが捉えられる確率を高め、上述した方位検出結果のリセットを行う機会を更に増やすことができる。上述したように、方位検出結果のリセットを行うごとに、本件開示の方位検出装置10による検出結果として得られる方位に含まれる誤差はクリアされる。したがって、方位検出結果のリセットを行う機会を増やせば増やすほど、本件開示の方位検出装置10によって得られる方位に含まれる誤差を低減させることができる。   A plurality of anchor units AU may be installed in the room C. For example, by arranging the anchor units AU shown in FIG. 5 at the four corners of the room C, the probability that the anchor units AU are captured in the field of view of the persons P1 and P2 staying in the room C is increased, and the above-described orientation detection is performed. Opportunities for resetting the results can be further increased. As described above, every time the azimuth detection result is reset, the error included in the azimuth obtained as a detection result by the azimuth detection device 10 disclosed herein is cleared. Therefore, the error included in the azimuth | direction obtained by the azimuth | direction detection apparatus 10 of this indication can be reduced, so that the opportunity which resets a azimuth | direction detection result increases.

次に、人物Pの頭部に装着された受光部13において所望の指向性を実現する手法について、図6及び図7を用いて説明する。   Next, a method for realizing desired directivity in the light receiving unit 13 attached to the head of the person P will be described with reference to FIGS. 6 and 7.

図6は、受光部13の一実施形態を示している。図6において、符号Ziは、受光部13に含まれる光学系の光軸を示している。図6の例では、光軸Ziと、人物Pの頭部方向Qとが一致している場合を示している。また、図6に示したX軸は、重力加速度の方向に直交する水平方向を示しており、Y軸は、重力加速度の方向に一致する鉛直方向を示している。   FIG. 6 shows an embodiment of the light receiving unit 13. In FIG. 6, symbol Zi indicates the optical axis of the optical system included in the light receiving unit 13. In the example of FIG. 6, the optical axis Zi and the head direction Q of the person P coincide with each other. Further, the X axis shown in FIG. 6 indicates the horizontal direction orthogonal to the direction of gravity acceleration, and the Y axis indicates the vertical direction that matches the direction of gravity acceleration.

図6に示した受光部13は、光電変換素子131と、マスク132と、リニアフレネルレンズ133と、スリット板134とを含んでいる。光電変換素子131は、入射光の強度変化を反映した電気信号を生成し、図1に示した検出部14に渡す。マスク132は、光電変換素子131の光の入射側に配置され、鉛直方向の長さに比べて水平方向の幅が小さい開口部を有している。リニアフレネルレンズ133は、水平方向についてのみ屈折力を有している。スリット板134は、上述したマスク132の開口部と同様に、鉛直方向を長手方向とするスリットを有している。また、リニアフレネルレンズ133と、スリット板134とを含む光学系の光軸は、光電変換素子131の受光面に垂直になるように位置決めされていることが望ましい。   The light receiving unit 13 illustrated in FIG. 6 includes a photoelectric conversion element 131, a mask 132, a linear Fresnel lens 133, and a slit plate 134. The photoelectric conversion element 131 generates an electrical signal reflecting the intensity change of incident light and passes it to the detection unit 14 shown in FIG. The mask 132 is disposed on the light incident side of the photoelectric conversion element 131 and has an opening having a smaller width in the horizontal direction than the length in the vertical direction. The linear Fresnel lens 133 has refractive power only in the horizontal direction. The slit plate 134 has a slit whose longitudinal direction is the longitudinal direction, like the opening of the mask 132 described above. Further, it is desirable that the optical axis of the optical system including the linear Fresnel lens 133 and the slit plate 134 is positioned so as to be perpendicular to the light receiving surface of the photoelectric conversion element 131.

このリニアフレネルレンズ133は、スリット板134に設けられたスリットを通過した光束を水平方向に収束させることにより、上述したマスク132の開口部にY軸方向に伸びる線状の像を結像させる。   The linear Fresnel lens 133 focuses a light beam that has passed through a slit provided in the slit plate 134 in the horizontal direction, thereby forming a linear image extending in the Y-axis direction at the opening of the mask 132 described above.

ここで、リニアフレネルレンズ133によって形成される線状の像のX軸方向の位置は、図7に示すように、受光部13に入射する光束と光軸Ziとのなす角に依存する。   Here, the position of the linear image formed by the linear Fresnel lens 133 in the X-axis direction depends on the angle formed between the light beam incident on the light receiving unit 13 and the optical axis Zi, as shown in FIG.

図7は、受光部13の指向性を説明する図である。なお、図7に示した要素のうち、図6に示した要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 7 is a diagram illustrating the directivity of the light receiving unit 13. Note that among the elements shown in FIG. 7, elements equivalent to those shown in FIG. 6 are denoted by the same reference numerals and description thereof is omitted.

図7において、実線で示した符号Ray1は、光軸Ziに平行な方向からスリット134を介してリニアフレネルレンズ133に入射する光束を示している。一方、図7において、点線で示した符号Ray2は、光軸Ziに交差する方向からスリット板134を介してリニアフレネルレンズ133に斜めに入射する光束を示している。なお、図7に示した符号βは、光軸Ziと光束Ray2とがなす角を示している。また、図7において、符号dは、マスク132にも受けられた開口部の幅を示し、符号fは、リニアフレネルレンズ133の焦点距離を示している。   In FIG. 7, reference sign Ray <b> 1 indicated by a solid line indicates a light beam incident on the linear Fresnel lens 133 from the direction parallel to the optical axis Zi through the slit 134. On the other hand, in FIG. 7, reference numeral Ray <b> 2 indicated by a dotted line indicates a light beam obliquely incident on the linear Fresnel lens 133 through the slit plate 134 from the direction intersecting the optical axis Zi. In addition, the code | symbol (beta) shown in FIG. 7 has shown the angle which the optical axis Zi and the light beam Ray2 make. In FIG. 7, the symbol d indicates the width of the opening received by the mask 132, and the symbol f indicates the focal length of the linear Fresnel lens 133.

図7の例において、光束Ray1は、リニアフレネルレンズ133により、マスク132の開口部の内部に結像される。したがって、光束Ray1は、光電変換素子133に入射するので、光電変換素子133により、光束Ray1の強度に対応する電気信号が生成される。   In the example of FIG. 7, the light beam Ray <b> 1 is imaged inside the opening of the mask 132 by the linear Fresnel lens 133. Therefore, since the light beam Ray1 is incident on the photoelectric conversion element 133, an electric signal corresponding to the intensity of the light beam Ray1 is generated by the photoelectric conversion element 133.

一方、図7の例において、光束Ray2は、リニアフレネルレンズ133により、マスク132の開口部の外側に結像される。このため、光束Ray2は、光電変換素子133に入射せず、したがって、光電変換素子133によって、光束Ray2の強度に対応する電気信号が生成されることはない。   On the other hand, in the example of FIG. 7, the light beam Ray <b> 2 is imaged outside the opening of the mask 132 by the linear Fresnel lens 133. For this reason, the light beam Ray2 does not enter the photoelectric conversion element 133. Therefore, the photoelectric conversion element 133 does not generate an electric signal corresponding to the intensity of the light beam Ray2.

したがって、図6、図7に示した受光部13によれば、上述した角βよりも浅い角度で光軸Ziに交差する方向から光が入射した場合に限って、マスク132の開口部を介して光電変換素子131に入射した光に対応する電気信号が得られる。   Therefore, according to the light receiving unit 13 shown in FIGS. 6 and 7, only when light is incident from a direction intersecting the optical axis Zi at an angle shallower than the angle β described above, the light passes through the opening of the mask 132. Thus, an electrical signal corresponding to the light incident on the photoelectric conversion element 131 is obtained.

つまり、図6及び図7に示すようなリニアフレネルレンズ133とマスク132とを含む光学系によれば、受光部13が感度を持つ方向を、光軸Ziを中央とし、上述した角βによって水平面内での回転角の上限及び下限が示される範囲γに限定することができる。すなわち、上述した光学系を設けることにより、光軸Ziの方向に対する高い指向性を持つ受光部13を実現することができる。また、受光部13の指向性の高さは、リニアフレネルレンズ133の焦点距離fとマスク132の開口部の幅dとの関係によって、調整することが可能である。例えば、図4に示した投光部12に含まれる各LEDよる光の射出方向の分散範囲に対応する角度と、図7に示した範囲γに対応する角度とを一致させるように調整することができる。例えば、焦点距離6ミリメートルのリニアフレネルレンズ133を用いる場合に、マスク132の開口部の幅dを0.5ミリメートルとすれば、上述した範囲γに対応する角度を5度程度に設定することが可能である。   That is, according to the optical system including the linear Fresnel lens 133 and the mask 132 as shown in FIGS. 6 and 7, the direction in which the light receiving unit 13 has sensitivity is centered on the optical axis Zi, and the horizontal plane by the angle β described above. The range can be limited to a range γ in which the upper and lower limits of the rotation angle are indicated. That is, by providing the above-described optical system, the light receiving unit 13 having high directivity with respect to the direction of the optical axis Zi can be realized. Further, the high directivity of the light receiving unit 13 can be adjusted by the relationship between the focal length f of the linear Fresnel lens 133 and the width d of the opening of the mask 132. For example, the angle corresponding to the dispersion range of the light emission direction by each LED included in the light projecting unit 12 shown in FIG. 4 is adjusted to match the angle corresponding to the range γ shown in FIG. Can do. For example, when a linear Fresnel lens 133 having a focal length of 6 millimeters is used, if the width d of the opening of the mask 132 is 0.5 millimeters, the angle corresponding to the above range γ can be set to about 5 degrees. Is possible.

図6及び図7に示すようなリニアフレネルレンズ133は、光軸Ziを中心とする所定の範囲の角度で入射する光束をマスク132の開口部に結像させ、所定の範囲を超える角度で入射する光束をマスク132の開口部の外側に結像させるる結像光学系の一例である。上述したように、リニアフレネルレンズ133によって、マスク132の開口部に線状の像が結像される範囲γは、図4に示した投光部12に含まれる各LEDよる光の射出方向に関する分散範囲α1〜α5のそれぞれと同等に調整することが望ましい。なお、受光部13に設ける結像光学系に用いる光学素子は、上述したリニアフレネルレンズ133に限られない。例えば、シリンドリカルレンズなど、光軸に直交する座標軸の一方の方向について他方よりも大きい屈折力を持つような光学素子を、受光部13の結像光学系として用いてもよい。   The linear Fresnel lens 133 as shown in FIGS. 6 and 7 forms an image of a light beam incident at a predetermined range around the optical axis Zi on the opening of the mask 132 and is incident at an angle exceeding the predetermined range. 2 is an example of an imaging optical system that forms an image of the luminous flux to be formed outside the opening of the mask 132. FIG. As described above, the range γ in which a linear image is formed on the opening of the mask 132 by the linear Fresnel lens 133 is related to the light emission direction of each LED included in the light projecting unit 12 shown in FIG. It is desirable to adjust to be equal to each of the dispersion ranges α1 to α5. The optical element used in the imaging optical system provided in the light receiving unit 13 is not limited to the linear Fresnel lens 133 described above. For example, an optical element having a refractive power larger than the other in one direction of the coordinate axis orthogonal to the optical axis, such as a cylindrical lens, may be used as the imaging optical system of the light receiving unit 13.

なお、図6及び図7に示した受光部13は、入射方向の水平方向成分については、高い指向性を持つ一方、鉛直方向成分については広い範囲について感度を持っている。このため、図6及び図7に示した受光部13を含む方位検出装置10は、人物Pの頭部の鉛直軸を中心とする回転に伴う頭部方向の変化については高い分解能を持つ一方、頭部方向の仰角成分あるいは俯角成分については分解能を持たない。   The light receiving unit 13 shown in FIGS. 6 and 7 has high directivity with respect to the horizontal component in the incident direction, and has sensitivity over a wide range with respect to the vertical component. For this reason, the azimuth detecting device 10 including the light receiving unit 13 illustrated in FIGS. 6 and 7 has high resolution with respect to changes in the head direction accompanying rotation about the vertical axis of the head of the person P, There is no resolution for the elevation angle component or depression component in the head direction.

図6及び図7に示した受光部13が持っている上述した特性は、例えば、方位検出装置10によって得られる人物Pの頭部方向に基づいて、水平面における位置で特定される物体に関する情報を提供する用途などに向いている。なぜなら、水平面における位置で情報提供の対象となる物体が特定可能であれば、頭部方向の仰角成分あるいは俯角成分にかかわらず、頭部方向の水平面内での回転成分のみに基づいて対象を特定可能だからである。   The above-described characteristics of the light receiving unit 13 illustrated in FIGS. 6 and 7 include, for example, information on an object specified by a position on a horizontal plane based on the head direction of the person P obtained by the direction detection device 10. Suitable for applications to be provided. Because if the object to be provided information can be specified at the position on the horizontal plane, the target is specified based only on the rotation component in the horizontal plane in the head direction, regardless of the elevation angle component or depression angle component in the head direction. Because it is possible.

また、頭部方向の仰角成分及び俯角成分の違いを区別せずに同一視することにより、頭部方向と投光部12に含まれるLEDのいずれかとの正対が検出される機会を増大させることができる。更に、図6及び図7に示した受光部13の光学系は、例えば、ボタン電池程度の小さい光学素子を用いて実現可能である点も、当該受光部13を人物Pに装着させる上で、非常に有用である。   Further, by identifying the difference between the elevation angle component and the depression angle component in the head direction without distinguishing between them, the opportunity to detect the right-to-face detection between the head direction and any of the LEDs included in the light projecting unit 12 is increased. be able to. Further, the optical system of the light receiving unit 13 shown in FIGS. 6 and 7 can be realized using, for example, an optical element as small as a button battery. Very useful.

なお、水平面における位置で特定可能な物体の一例としては、例えば、展示会場に配置された個々のブースの位置などがある。本件開示の方位検出装置10を用いて、展示会場などにおいて、各ブースに関する情報を提供するためのシステムを実現する方法については、図17〜図22などを用いて後述する。   An example of the object that can be specified by the position on the horizontal plane is, for example, the position of each booth arranged in the exhibition hall. A method for realizing a system for providing information related to each booth in an exhibition hall or the like using the azimuth detecting device 10 of the present disclosure will be described later with reference to FIGS.

次に、図4に示したような投光部12および複数の投光部12を集積したアンカーユニットAUを室内の複数箇所に設置する場合に好適な方位検出装置10の実施形態について説明する。   Next, an embodiment of the azimuth detecting device 10 that is suitable when the anchor unit AU in which the light projecting unit 12 and the plurality of light projecting units 12 are integrated as shown in FIG. 4 is installed at a plurality of locations in the room will be described.

図8は、方位検出装置10の別実施形態を示している。なお、図8に示した構成要素のうち、図1又は図4に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 8 shows another embodiment of the direction detection device 10. 8 that are the same as those shown in FIG. 1 or FIG. 4 are denoted by the same reference numerals, and the description thereof is omitted.

図8に示した方位検出装置10は、n個の投光部12−1,…,12−nと、これらの投光部12−1,…,12−nから参照可能な方位テーブル122とを含んでいる。投光部12−1は、5つのLED1,LED2,LED3,LED4,LED5と、これらのLED1〜LED5の点灯及び消灯を制御する制御部121とを含んでいる。なお、図8においては図示を省略しているが、n個の投光部12−1,…,12−nは、上述した投光部12−1と同様に、5つのLEDと制御部とを含んでいる。以下の説明では、n個の投光部12−1,…,12−nを互いに区別しないときは、単に、投光部12と称する。   The azimuth detecting device 10 shown in FIG. 8 includes n light projecting units 12-1,..., 12-n, and an azimuth table 122 that can be referred to from these light projecting units 12-1,. Is included. The light projecting unit 12-1 includes five LEDs 1, LED2, LED3, LED4, and LED5, and a control unit 121 that controls turning on and off of the LEDs 1 to LED5. In addition, although illustration is abbreviate | omitted in FIG. 8, n light projection part 12-1, ..., 12-n is five LED, a control part, and the same as the light projection part 12-1 mentioned above. Is included. In the following description, when the n light projecting units 12-1,..., 12-n are not distinguished from each other, they are simply referred to as the light projecting unit 12.

方位テーブル122は、例えば、個々のLEDを示す識別番号に対応して、当該LEDによる光の射出方向を示す情報として、予め決定された基準から測った絶対的な角度を示す方位コードを保持している。なお、各LEDによる光の射出方向を示す絶対的な角度として、例えば、図2に示したように、投光部12が設置されている部屋Cの壁Wの方角を基準として測定した値を採用してもよい。また、各投光部12に含まれる制御部121は、当該投光部12に含まれる5つのLEDそれぞれに対応する方位コードを方位テーブル122から受け取り、受け取った方位コードに基づいて、対応するLEDをそれぞれ点滅させる制御を行う。   The azimuth table 122 holds, for example, an azimuth code indicating an absolute angle measured from a predetermined reference as information indicating an emission direction of light from the LED corresponding to an identification number indicating each LED. ing. In addition, as an absolute angle indicating the light emission direction of each LED, for example, as shown in FIG. 2, a value measured with reference to the direction of the wall W of the room C where the light projecting unit 12 is installed is used. It may be adopted. In addition, the control unit 121 included in each light projecting unit 12 receives a direction code corresponding to each of the five LEDs included in the light projecting unit 12 from the direction table 122, and the corresponding LED based on the received direction code. Control to blink each.

例えば、制御部121は、5つのLED1,LED2,LED3,LED4,LED5をそれぞれに対応する方位コードに従って点滅させることにより、LED1〜LED5に対応する方位コードを時分割で送信してもよい。   For example, the control unit 121 may transmit the direction codes corresponding to the LEDs 1 to LED5 in a time-sharing manner by blinking five LEDs 1, LED2, LED3, LED4, and LED5 in accordance with the corresponding direction codes.

図9は、方位コードの送受信を説明する図を示している。図9において、符号Cord1,Cord2,Cord3,Cord4,Cord5のそれぞれは、図8に示したLED1、LED2,LED3,LED4,LED5に対応する方位コードを示している。   FIG. 9 shows a diagram for explaining transmission / reception of a direction code. In FIG. 9, each of the codes Cord1, Cord2, Cord3, Cord4, Cord5 indicates an orientation code corresponding to LED1, LED2, LED3, LED4, LED5 shown in FIG.

図9(A)は、図8に示した制御部121による制御に従って各LED1〜LED5が時分割で点滅することにより、それぞれに対応する方位コードCord1,Cord2,Cord3,Cord4,Cord5を送信する様子を示している。   FIG. 9A shows a state in which each LED1 to LED5 blinks in a time-sharing manner according to the control by the control unit 121 shown in FIG. 8 to transmit the corresponding direction code Cord1, Cord2, Cord3, Cord4, Cord5. Is shown.

図9(B)、(C)は、図8に示した受光部13に、上述したLED1〜LED5の少なくとも一つによって射出された光が入射した場合に、受光部13によって生成される電気信号の例を示している。   FIGS. 9B and 9C show electric signals generated by the light receiving unit 13 when light emitted from at least one of the LEDs 1 to 5 described above is incident on the light receiving unit 13 shown in FIG. An example is shown.

図9(B)の例は、LED3によって射出された光が受光部13に入射することにより、LED3に対応する方位コードCord3を示す電気信号が取得されることを示している。つまり、図9(B)の例は、LED3に対応して図4に示した範囲α3と、図7において受光部13について示した範囲γとが正対している場合に、受光部13によって生成される電気信号の例である。   The example in FIG. 9B indicates that an electric signal indicating the orientation code Cord3 corresponding to the LED 3 is acquired when the light emitted by the LED 3 enters the light receiving unit 13. That is, the example of FIG. 9B is generated by the light receiving unit 13 when the range α3 shown in FIG. 4 corresponding to the LED 3 and the range γ shown in FIG. It is an example of the electric signal to be performed.

また、図9(C)の例は、LED3及びLED4によって射出された光が受光部13に入射することにより、LED3に対応する方位コードCord3とLED4に対応する方位コードCord4との両方を示す電気信号が順次に取得されることを示している。図9(C)の例は、LED3、LED4に対応して図4に示した範囲α3、α4の一部が、図7において受光部13について示した範囲γに含まれている場合に、受光部13によって生成される電気信号の例である。   In the example of FIG. 9C, the light emitted from the LED 3 and the LED 4 is incident on the light receiving unit 13, thereby indicating both the direction code Cord 3 corresponding to the LED 3 and the direction code Cord 4 corresponding to the LED 4. It shows that the signals are acquired sequentially. In the example of FIG. 9C, when a part of the ranges α3 and α4 shown in FIG. 4 corresponding to the LEDs 3 and 4 is included in the range γ shown in FIG. 4 is an example of an electrical signal generated by a unit 13.

図8に示した検出部14に含まれる信号処理部141は、受光部13によって生成された電気信号を受け取り、受け取った電気信号をデジタル信号に変換する。図8に示した検出部14は、更に、照合部143とコードテーブル144とを有する特定部142を含んでいる。   The signal processing unit 141 included in the detection unit 14 illustrated in FIG. 8 receives the electrical signal generated by the light receiving unit 13 and converts the received electrical signal into a digital signal. The detection unit 14 illustrated in FIG. 8 further includes a specifying unit 142 having a matching unit 143 and a code table 144.

コードテーブル144は、例えば、投光部12−1〜12−nに含まれる各LEDの点滅によって送出される可能性のある全ての方位コードを示すビットパターンを保持している。照合部143は、信号処理部141で得られたデジタル信号と、コードテーブル144に保持された各ビットパターンとを照合することで、受光部13に入射した光束の強度変化によって示された方位コードを特定する。   The code table 144 holds, for example, a bit pattern indicating all azimuth codes that may be transmitted by blinking of the LEDs included in the light projecting units 12-1 to 12-n. The collation unit 143 collates the digital signal obtained by the signal processing unit 141 with each bit pattern held in the code table 144, so that the direction code indicated by the intensity change of the light beam incident on the light receiving unit 13 is obtained. Is identified.

ここで、方位コードと投光部12に含まれるLEDは1対1で対応するので、方位コードの特定はLEDの特定と同等である。また、照合部143によって特定された方位コードは、受光部13への光の入射方向を示す絶対的な角度を示している。したがって、照合部143によって、唯一つの方位コードが特定された場合に、設定部15は、この方位コードをそのまま用いて、追跡部11で得られた追跡結果を置き換えることにより、上述した方位検出結果のリセットを行ってもよい。   Here, since the direction code and the LED included in the light projecting unit 12 correspond one-to-one, the specification of the direction code is equivalent to the specification of the LED. The orientation code specified by the collation unit 143 indicates an absolute angle indicating the incident direction of light to the light receiving unit 13. Therefore, when only one azimuth code is specified by the collation unit 143, the setting unit 15 uses the azimuth code as it is and replaces the tracking result obtained by the tracking unit 11 to thereby obtain the above azimuth detection result. May be reset.

一方、図9(C)に示した例のように、受光部13により、2つの方位コードに対応する電気信号が生成される場合がある。このような場合に、照合部143によって特定される2つの方位コードに基づいて、方位検出結果のリセットを行うために、図8に示した設定部15は、判定部151と算出部152とを含んでいる。   On the other hand, as in the example shown in FIG. 9C, the light receiving unit 13 may generate electrical signals corresponding to two azimuth codes. In such a case, in order to reset the azimuth detection result based on the two azimuth codes specified by the collation unit 143, the setting unit 15 illustrated in FIG. 8 includes the determination unit 151 and the calculation unit 152. Contains.

判定部151は、照合部143によって特定された方位コードが1つであるか2つであるかを判定し、一つである場合に、特定された方位コードをそのまま用いて、追跡部11で得られた追跡結果を置き換える処理を実行する。算出部152は、判定部151により、照合部で特定された方位コードが2つであるとされた場合に、判定部151を介して2つの方位コードを受け取る。また、算出部152は、受け取った2つの方位コードに基づいて、受光部13の光軸方向、すなわち、人物Pの頭部方向を示す方位を算出する。例えば、算出部152は、2つの方位コードで示される絶対的な角度の平均値を算出し、算出した平均値を用いて、追跡部11で得られた追跡結果を置き換える処理を実行してもよい。   The determination unit 151 determines whether there is one or two azimuth codes specified by the collation unit 143. If there is one, the tracking unit 11 uses the specified azimuth code as it is. A process for replacing the obtained tracking result is executed. When the determination unit 151 determines that there are two azimuth codes specified by the collation unit, the calculation unit 152 receives two azimuth codes via the determination unit 151. Further, the calculation unit 152 calculates an azimuth indicating the optical axis direction of the light receiving unit 13, that is, the head direction of the person P, based on the received two azimuth codes. For example, the calculation unit 152 may calculate an average value of absolute angles indicated by two azimuth codes, and execute a process of replacing the tracking result obtained by the tracking unit 11 using the calculated average value. Good.

図8に示した算出部152を有する設定部15によれば、投光部12に含まれる各LEDによる光の射出方向の分散範囲で決定される分解能よりも高い分解能で、追跡部11による追跡結果をリセットするための絶対的な角度を決定することができる。これにより、設定部15によってリセットされた追跡結果と、人物Pの頭部方向とのズレを更に縮小することができる。したがって、図8に示した設定部15を有する方位検出装置10によれば、より高い精度で人物Pの頭部方向を検出することが可能である。   According to the setting unit 15 having the calculation unit 152 illustrated in FIG. 8, the tracking unit 11 tracks with a resolution higher than the resolution determined by the dispersion range in the light emission direction of each LED included in the light projecting unit 12. The absolute angle for resetting the result can be determined. Thereby, the gap between the tracking result reset by the setting unit 15 and the head direction of the person P can be further reduced. Therefore, according to the azimuth detecting device 10 having the setting unit 15 shown in FIG. 8, it is possible to detect the head direction of the person P with higher accuracy.

ところで、投光部12に含まれる各LEDによる光の射出方向を示す方位コードを受光部13に伝達する手法は、方位コード自体を各LEDの点滅によって表す手法に限られない。例えば、次に説明するように、個々の投光部12に付与された識別情報と、当該投光部12に含まれる各LEDを識別する情報との組み合わせによって、各LEDによる光の射出方向を示す情報を、受光部13に伝達してもよい。   By the way, the method of transmitting the direction code indicating the light emission direction of each LED included in the light projecting unit 12 to the light receiving unit 13 is not limited to the method of expressing the direction code itself by blinking of each LED. For example, as will be described below, the light emission direction of each LED is determined by a combination of identification information given to each light projecting unit 12 and information identifying each LED included in the light projecting unit 12. The information shown may be transmitted to the light receiving unit 13.

図10は、投光部12の別実施形態を示している。なお、図10に示した構成要素のうち、図4に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 10 shows another embodiment of the light projecting unit 12. Note that, among the components shown in FIG. 10, components equivalent to those shown in FIG. 4 are denoted by the same reference numerals and description thereof is omitted.

図10に示した投光部12は、第1発光素子の一例である高い指向性が付与されたLED1〜LED5とは別に、LED1〜LED5による光の射出方向の分散範囲α1〜α5を含む範囲α0に光を照射する第2発光素子としてLED0を含んでいる。   The light projecting unit 12 illustrated in FIG. 10 includes a dispersion range α1 to α5 in the light emission direction of the LEDs 1 to LED5 separately from the LEDs 1 to LED5 to which high directivity is provided as an example of the first light emitting element. LED0 is included as a 2nd light emitting element which irradiates light to (alpha) 0.

個々の投光部12に付与された識別情報は、図10に示したLED0を、当該識別情報に従って点滅させることで示すことができる。また、図10に含まれる5つのLED1〜LED5を識別するための情報は、例えば、LED1〜LED5のそれぞれを発光させる順序によって示してもよい。   The identification information given to each light projecting unit 12 can be indicated by blinking the LED 0 shown in FIG. 10 according to the identification information. Further, the information for identifying the five LEDs 1 to 5 included in FIG. 10 may be indicated by the order in which each of the LEDs 1 to 5 is emitted.

図11は、図10に示した投光部12を採用する場合に好適な方位検出装置10の別実施形態を示している。なお、図11に示した構成要素のうち、図8及び図10に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 11 shows another embodiment of the azimuth detecting device 10 suitable for the case where the light projecting unit 12 shown in FIG. 10 is employed. Note that among the components shown in FIG. 11, components equivalent to those shown in FIGS. 8 and 10 are denoted by the same reference numerals, and description thereof is omitted.

図11に示した投光部12−1は、図10に示したLED0〜LED5と、これらのLED0〜LED5の点灯および消灯を制御する制御部121とともに、当該投光部12−1に付与された識別情報を保持するID(IDentifier)保持部123を含んでいる。なお、図11に示した方位検出装置10に含まれるn個の投光部12−1〜12−nは、いずれも、上述した投光部12−1と同様に、LED0〜LED5と、制御部121と、ID保持部123とを含んでいる。また、各投光部12−1〜12−nを総称する際には、単に、投光部12と称する。同様に、LED0〜LED5を総称する際には、単にLEDと称する。   The light projecting unit 12-1 illustrated in FIG. 11 is provided to the light projecting unit 12-1 together with the LEDs 0 to LED5 illustrated in FIG. 10 and the control unit 121 that controls turning on and off of the LEDs 0 to LED5. ID (IDentifier) holding unit 123 that holds the identification information. Note that each of the n light projecting units 12-1 to 12-n included in the azimuth detecting device 10 illustrated in FIG. 11 is controlled with LED0 to LED5 in the same manner as the light projecting unit 12-1. Part 121 and an ID holding part 123 are included. Moreover, when naming each light projection part 12-1 to 12-n generically, it will only be called the light projection part 12. Similarly, when LED0 to LED5 are collectively referred to, they are simply referred to as LEDs.

制御部121は、例えば、ID保持部123に保持された識別情報に従ってLED0を点滅させる制御と、指向性を有する光を射出するLED1〜LED5を順次に発光させる制御とを時分割で実行する。上述した制御を行う制御部121を有する投光部12によれば、個々の投光部12を示す識別情報と、当該投光部12に含まれる各LED1〜LED5を識別する情報とを時分割で送信することができる。   The control unit 121 performs, for example, time-sharing control for causing the LED 0 to blink according to the identification information held in the ID holding unit 123 and control for sequentially emitting the LEDs 1 to 5 that emit light having directivity. According to the light projecting unit 12 including the control unit 121 that performs the above-described control, the identification information indicating the individual light projecting units 12 and the information identifying each of the LEDs 1 to 5 included in the light projecting unit 12 are time-shared. Can be sent.

図12は、方位コードの送受信を説明する図である。図12において、符号Cord0は、LED0の点滅パターンによって示される投光部12に付与された識別情報を示している。また、図12において、符号L1,L2,L3,L4,L5は、それぞれLED1,LED2,LED3,LED4,LED5が点灯している期間を示している。   FIG. 12 is a diagram for explaining transmission / reception of a direction code. In FIG. 12, the code Cord0 indicates identification information given to the light projecting unit 12 indicated by the blinking pattern of the LED0. In FIG. 12, reference numerals L1, L2, L3, L4, and L5 indicate periods in which LED1, LED2, LED3, LED4, and LED5 are lit, respectively.

図12(A)は、図11に示した制御部121により、LED0とLED1〜LED5との発光を制御することで、個々の投光部12を示す識別情報と、当該投光部12に含まれる各LED1〜LED5を識別する情報とを時分割で送信する様子を示している。   FIG. 12A includes the identification information indicating each light projecting unit 12 and the light projecting unit 12 by controlling the light emission of the LED 0 and the LEDs 1 to 5 by the control unit 121 illustrated in FIG. The information which identifies each LED1-LED5 to be transmitted by the time division is shown.

図12(A)の例では、LED0が、識別情報Cord0に従って点滅する期間と、LED1〜LED5が、所定の時間τずつ異なるタイミングで、上述した所定の時間τ以下の時間だけ発光する期間とが交互に現れている。なお、図12(A)の例において、LED1〜LED5は、投光部12に含まれる各LED1〜LED5を識別する情報を送信する期間において、順次に、時間τずつ発光している。   In the example of FIG. 12A, there are a period in which LED0 blinks in accordance with the identification information Cord0 and a period in which LEDs 1 to LED5 emit light for a period of time equal to or less than the predetermined time τ described above at different timings τ. It appears alternately. In the example of FIG. 12A, the LEDs 1 to 5 emit light sequentially by time τ during a period in which information for identifying each of the LEDs 1 to 5 included in the light projecting unit 12 is transmitted.

また、図12(B),(C)は、図11に示した受光部13に、上述したLED1〜LED5の少なくとも一つによって射出された光が入射する場合に、受光部13によって生成される電気信号の例を示している。なお、図12(B),(C)において、符号Cord0は、識別情報Cord0を示す電気信号を示している。また、符号tsは、識別情報Cord0を示す電気信号の先頭から、指向性を持つLED1〜LED5の少なくとも一つからの光の入射に対応するパルス信号の立ち上がりまでの時間を示している。また、符号teは、識別情報Cord0を示す電気信号の先頭から、上述したパルス信号の立ち下がりまでの時間を示している
図12(B)の例は、LED2によって射出された光が受光部13に入射する場合に、上述した識別情報Cord0を示す電気信号ととともに、LED2に対応するタイミングでパルス信号L2が受光部13によって生成されることを示している。つまり、図12(B)の例は、LED2に対応して図10に示した範囲α2と、図7において受光部13について示した範囲γとが正対している場合に、受光部13によって生成される電気信号の例である。
12B and 12C are generated by the light receiving unit 13 when light emitted from at least one of the above-described LEDs 1 to 5 is incident on the light receiving unit 13 illustrated in FIG. An example of an electrical signal is shown. In FIGS. 12B and 12C, code Cord0 indicates an electric signal indicating identification information Cord0. The symbol ts indicates the time from the beginning of the electrical signal indicating the identification information Cord0 to the rise of the pulse signal corresponding to the incidence of light from at least one of the LEDs 1 to 5 having directivity. The symbol te indicates the time from the beginning of the electrical signal indicating the identification information Cord0 to the fall of the pulse signal described above. In the example of FIG. 12B, the light emitted from the LED 2 is received by the light receiving unit 13. In addition to the electric signal indicating the identification information Cord0 described above, the light receiving unit 13 generates the pulse signal L2 at a timing corresponding to the LED2. That is, the example in FIG. 12B is generated by the light receiving unit 13 when the range α2 shown in FIG. 10 corresponding to the LED 2 and the range γ shown in FIG. It is an example of the electric signal to be performed.

図12(B)に示した例において、パルス信号の立ち上がりまでの時間tsは、識別情報Cord0を示す電気信号の持続時間T0と、LED2に先立って発光するLED1の発光時間τとの和(T0+τ)に相当している。また、上述したパルス信号の立ち下がりまでの時間teは、当該パルス信号の立ち上がりまでの時間tsと、LED2の発光時間の和(T0+2τ)に相当している。   In the example shown in FIG. 12B, the time ts until the rise of the pulse signal is the sum (T0 + τ) of the duration T0 of the electrical signal indicating the identification information Cord0 and the emission time τ of the LED 1 that emits light prior to the LED2. ). Further, the time te until the fall of the pulse signal described above corresponds to the sum (T0 + 2τ) of the time ts until the rise of the pulse signal and the light emission time of the LED 2.

また、図12(C)の例は、LED3,4によって射出された光がともに受光部13に入射する場合に、受光部13で得られる電気信号の例を示している。この場合に、受光部13で得られる電気信号は、上述した識別情報Cord0を示す電気信号ととともに、LED3,4に対応するタイミングでパルス信号L3,L4を含んでいる。   The example of FIG. 12C shows an example of an electrical signal obtained by the light receiving unit 13 when both the light emitted from the LEDs 3 and 4 enters the light receiving unit 13. In this case, the electrical signal obtained by the light receiving unit 13 includes pulse signals L3 and L4 at timings corresponding to the LEDs 3 and 4 together with the electrical signal indicating the identification information Cord0.

図12(C)に示した例において、パルス信号の立ち上がりまでの時間tsは、識別情報Cord0を示す電気信号の持続時間T0と、LED3に先立って発光するLED1の発光時間τ及びLED2の発光時間τとの和(T0+2τ)に相当している。また、上述したパルス信号の立ち下がりまでの時間teは、当該パルス信号の立ち上がりまでの時間tsと、LED3の発光時間τおよびLED4の発光時間τの合計(T0+4τ)に相当している。   In the example shown in FIG. 12C, the time ts until the rise of the pulse signal is the duration T0 of the electric signal indicating the identification information Cord0, the light emission time τ of the LED 1 that emits light prior to the LED 3, and the light emission time of the LED 2. This corresponds to the sum (T0 + 2τ) with τ. The above-described time te until the falling edge of the pulse signal corresponds to the sum (T0 + 4τ) of the time ts until the rising edge of the pulse signal, the light emission time τ of the LED 3 and the light emission time τ of the LED 4.

図11に示した検出部14は、図12(B),(C)に示したような電気信号に基づいて、受光部13に入射する光の射出元であるLEDを特定するために、抽出部145と判別部146を有する特定部142を含んでいる。   The detection unit 14 illustrated in FIG. 11 performs extraction in order to identify the LED that is the emission source of the light incident on the light receiving unit 13 based on the electrical signals illustrated in FIGS. A specifying unit 142 including a unit 145 and a determination unit 146 is included.

抽出部145は、信号処理部141から受け取ったデジタル信号から、上述したLED0によって送出された識別情報Cord0を抽出する。また、抽出部145は、抽出した識別情報Cord0を、受光部13に入射した光を射出したLEDを含む投光部12を示す情報として、設定部15に渡す。   The extraction unit 145 extracts the identification information Cord0 transmitted from the LED0 described above from the digital signal received from the signal processing unit 141. In addition, the extraction unit 145 passes the extracted identification information Cord0 to the setting unit 15 as information indicating the light projecting unit 12 including the LED that has emitted the light incident on the light receiving unit 13.

一方、判別部146は、まず、抽出部145によって抽出された識別情報Cord0の先頭からパルス信号の立ち上がりまでの時間tsと立ち下がりまでの時間teとをそれぞれ計測する。また、判別部146は、計測によって得られた時間ts,teに基づいて、受光部13に入射した光を射出したLEDについて、当該LEDを含む投光部12における発光順を特定することで、当該LEDを判別する。   On the other hand, the determination unit 146 first measures the time ts from the beginning of the identification information Cord0 extracted by the extraction unit 145 to the rise of the pulse signal and the time te until the fall. Moreover, the discrimination | determination part 146 specifies the light emission order in the light projection part 12 containing the said LED about the LED which inject | emitted the light which injected into the light-receiving part 13 based on time ts and te obtained by measurement, The LED is determined.

判別部146は、例えば、計測によって得られた時間tsと上述した時間T0との差分と発光時間τとを比べることにより、受光部13に入射した光を射出したLEDのうち、早い発光順が与えられた方のLEDに対応する発光順を特定してもよい。また、判別部146は、計測で得られた時間teと時間tsとの差分が発光時間τである場合に、時間tsに基づいて特定したLEDの発光順を示す情報を、特定部142による特定結果として出力する。一方、判別部146は、計測で得られた時間teと時間tsとの差分が発光時間τの2倍である場合に、判別部146は、2つのLEDによって射出された光が受光部13に到達していると判断する。この場合に、判別部146は、時間tsに基づいて特定したLEDの発光順を示す情報とともに、当該発光順に次に当たる発光順を示す情報を、特定部142による特定結果として出力する。   For example, the determination unit 146 compares the difference between the time ts obtained by the measurement and the above-described time T0 and the light emission time τ, so that the early light emission order of the LEDs emitting the light incident on the light receiving unit 13 is increased. The light emission order corresponding to the given LED may be specified. In addition, when the difference between the time te and the time ts obtained by measurement is the light emission time τ, the determination unit 146 specifies information indicating the light emission order of the LEDs specified based on the time ts by the specification unit 142. Output as a result. On the other hand, when the difference between the time te and the time ts obtained by measurement is twice the light emission time τ, the determination unit 146 determines that the light emitted by the two LEDs is incident on the light receiving unit 13. Judge that it has reached. In this case, the determination unit 146 outputs information indicating the light emission order of the LEDs specified based on the time ts as well as information indicating the next light emission order corresponding to the light emission order as a specification result by the specification unit 142.

例えば、図12(B)に示した例では、パルス信号の立ち上がりまでの時間tsと時間T0との差分が発光時間τに相当することから、受光部13に到達した光の光源は、投光部12において2番目に発光するLED2であることが分かる。この場合に、判別部146は、LED2の発光順「2」を示す情報を、人物Pの頭部方向に正対する方向に存在する第1発光素子を示す情報として、図11に示した設定部15に渡す。   For example, in the example shown in FIG. 12B, since the difference between the time ts until the rise of the pulse signal and the time T0 corresponds to the light emission time τ, the light source of the light reaching the light receiving unit 13 is projected. It can be seen that the LED 2 emits the second light in the portion 12. In this case, the determination unit 146 uses the information indicating the light emission order “2” of the LED 2 as information indicating the first light emitting element present in the direction facing the head direction of the person P, and the setting unit illustrated in FIG. Pass to 15.

一方、図12(C)に示した例では、パルス信号の立ち上がりまでの時間tsと時間T0との差分が発光時間τの2倍に相当することから、受光部13に到達した光の光源の一つは、投光部12において3番目に発光するLED3であることが分かる。また、パルス信号の立ち上がりまでの時間tsと立ち下がりまでの時間teとの差分が発光時間τの2倍に相当することから、上述したLED3に続いて発光するLED4によって射出された光も受光部13に到達していることが分かる。この場合に、判別部146は、LED3の発光順「3」を示す情報とともにLED4の発光順「4」を示す情報を、人物Pの頭部方向に正対する方向に存在する第1発光素子を示す情報として設定部15に渡す。   On the other hand, in the example shown in FIG. 12C, the difference between the time ts until the rise of the pulse signal and the time T0 corresponds to twice the light emission time τ. One shows that the LED 3 emits light third in the light projecting unit 12. Since the difference between the time ts until the rise of the pulse signal ts and the time te until the fall corresponds to twice the light emission time τ, the light emitted by the LED 4 that emits light following the LED 3 is also received by the light receiving unit. It can be seen that 13 has been reached. In this case, the determination unit 146 displays information indicating the light emission order “3” of the LED 3 and information indicating the light emission order “4” of the LED 4 in the direction directly opposite to the head direction of the person P. It passes to the setting part 15 as information to show.

図11に示した設定部15は、方位特定部153と、IDテーブル154とを含んでいる。IDテーブル154は、各投光部12に付与された識別情報に対応して、当該投光部12に含まれるLED1〜LED5のそれぞれによる光の射出方向を示す方位コードを保持している。方位特定部153は、上述した抽出部145で得られた識別情報Cord0と判別部146で得られた発光順とに基づいて、IDテーブル154を参照することにより、受光部13に入射した光の射出元のLEDによる光の射出方向を示す方位コードを取得する。   The setting unit 15 illustrated in FIG. 11 includes an orientation specifying unit 153 and an ID table 154. The ID table 154 holds an orientation code indicating the light emission direction of each of the LEDs 1 to 5 included in the light projecting unit 12 corresponding to the identification information given to each light projecting unit 12. The azimuth specifying unit 153 refers to the ID table 154 based on the identification information Cord0 obtained by the extraction unit 145 and the light emission order obtained by the determination unit 146, so that the light incident on the light receiving unit 13 can be obtained. An azimuth code indicating the direction of light emission from the light emitting LED is acquired.

上述したように、受光部13に入射した光の射出元のLEDによる光の射出方向は、人物Pの頭部方向を示している。したがって、判別部146によって、唯一つのLEDを示す発光順が特定されている場合に、方位特定部153がIDテーブル154を参照することで取得した方位コードは、人物の頭部方向を示している。   As described above, the light emitting direction of the light emitting LED that has entered the light receiving unit 13 indicates the head direction of the person P. Therefore, when the light emitting order indicating only one LED is specified by the determination unit 146, the direction code acquired by the direction specifying unit 153 referring to the ID table 154 indicates the head direction of the person. .

一方、方位特定部153は、判別部146から2つの発光順を示す情報を受け取った場合に、これらの発光順に対応してIDテーブル154から取得した2つの方位コードに基づいて、人物Pの頭部方向を示す方位を算出してもよい。なお、2つの方位コードから人物Pの頭部方向を示す方位を算出する手法は、図8に示した算出部152について説明した手法と同様である。   On the other hand, when the direction specifying unit 153 receives information indicating the two light emission orders from the determination unit 146, the head of the person P is based on the two direction codes acquired from the ID table 154 corresponding to the light emission orders. An azimuth indicating a part direction may be calculated. Note that the method for calculating the azimuth indicating the head direction of the person P from the two azimuth codes is the same as the method described for the calculation unit 152 shown in FIG.

図10に示した投光部12によれば、指向性を有するLED1〜LED5をそれぞれに対応する方位コードに従って点滅させる場合に比べて、各LED1〜LED5を点灯させる時間を削減することができる。これにより、個々の投光部12の省電力化を図るとともに、各LED1〜LED5の消耗を抑制することができる。また、LED0による識別情報の送信とLED1〜LED5を順次に発光させる操作とを、所定の時間おきに実行させることにより、投光部12による消費電力を更に低減してもよい。   According to the light projecting unit 12 illustrated in FIG. 10, it is possible to reduce the time for turning on the LEDs 1 to 5 as compared to the case where the LEDs 1 to 5 having directivity are blinked according to the corresponding direction codes. Thereby, while achieving power saving of each light projection part 12, consumption of each LED1-LED5 can be controlled. Further, the power consumption by the light projecting unit 12 may be further reduced by executing the transmission of the identification information by the LED 0 and the operation of sequentially causing the LEDs 1 to 5 to emit light at predetermined time intervals.

また、図10に示した投光部12によれば、LED1〜LED5をそれぞれに対応する方位コードに従って点滅させる場合に比べて、短い時間で、受光部13に正対している指向性を有するLEDを特定する情報を伝達することが可能である。したがって、人物Pの頭部の回転が速い場合にも、人物Pの頭部方向と投光部12に含まれるLED1〜LED5のいずれかによる光の射出方向とが正対したタイミングで、受光部13に正対しているLEDを特定することができる。これにより、人物Pの動きの速度にかかわらず、図11に示した設定部15により、追跡部11で得られる追跡結果のリセットを高い確度で行うことができるので、方位検出装置10の精度を高く維持することが可能である。   Moreover, according to the light projection part 12 shown in FIG. 10, compared with the case where LED1-LED5 blinks according to the direction code corresponding to each, LED which has the directivity which has faced the light-receiving part 13 in a short time. Can be transmitted. Therefore, even when the rotation of the head of the person P is fast, the light receiving unit at the timing when the head direction of the person P and the light emission direction of any one of the LEDs 1 to 5 included in the light projecting unit 12 face each other. The LED that is directly facing 13 can be identified. Accordingly, the setting unit 15 shown in FIG. 11 can reset the tracking result obtained by the tracking unit 11 with high accuracy regardless of the movement speed of the person P. It can be kept high.

ところで、本件開示の方位検出装置10の用途として、水平面における位置で特定される物体に関する情報を提供するためのシステムを考えると、人物Pの頭部の左右への回転に対応する人物Pの頭部方向の回転成分ついては高い検出精度を有することが望ましい。その一方、上述した用途においては、人物Pの頭部方向の仰角成分あるいは俯角成分は物体の特定に寄与しないので、方位検出装置10は、人物Pの頭部方向の仰角成分あるいは俯角成分について分解能を持たずに、同一視してもよい。   By the way, when considering a system for providing information related to an object specified by a position on a horizontal plane as an application of the azimuth detecting device 10 of the present disclosure, the head of the person P corresponding to the left-right rotation of the head of the person P It is desirable to have high detection accuracy for the rotational component in the partial direction. On the other hand, in the above-described application, since the elevation angle component or depression angle component of the person P in the head direction does not contribute to the identification of the object, the azimuth detecting device 10 has a resolution for the elevation angle component or depression angle component of the person P in the head direction. You may identify without having.

次に、上述した用途に適用される方位検出装置10において好適な投光部12について、図13及び図14を用いて説明する。   Next, a suitable light projecting unit 12 in the azimuth detecting device 10 applied to the above-described application will be described with reference to FIGS. 13 and 14.

図13は、投光部12の別実施形態を示している。なお、図13に示した構成要素のうち、図4に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 13 shows another embodiment of the light projecting unit 12. Note that among the constituent elements shown in FIG. 13, those equivalent to the constituent elements shown in FIG. 4 are denoted by the same reference numerals, and description thereof is omitted.

図13(A)は、投光部12に含まれる各LED1〜LED5と、これらのLED1〜LED5による光の射出方向を制限する遮蔽板S0,S1,S2,S3,S4,S5との水平面上での配置を示している。   FIG. 13A shows a horizontal plane of each of the LEDs 1 to LED 5 included in the light projecting unit 12 and the shielding plates S0, S1, S2, S3, S4, and S5 that limit the light emission direction of the LEDs 1 to LED5. The arrangement at is shown.

図13(B)は、LED3による光の射出方向Ze3から見た投光部12の正面図を示している。図13(B)において、符号α3は、図13(A)に示したLED3によって射出される光が分散する範囲を示している。   FIG. 13B shows a front view of the light projecting unit 12 as seen from the light emitting direction Ze3 of the LED 3. In FIG. 13B, symbol α3 indicates a range in which the light emitted by the LED 3 shown in FIG.

図13(B)から分かるように、LED3によって射出される光は、LED3の両側に配置された遮蔽板S2,S3によって水平方向への広がりが狭い範囲に制限される一方、鉛直方向には広い範囲に拡散する。つまり、各LED1〜LED5を互いに隔てるように遮蔽板S0〜S5を配置することにより、各LED1〜LED5に対して、水平方向について鉛直方向よりも高い指向性を付与することができる。   As can be seen from FIG. 13B, the light emitted by the LED 3 is limited to a narrow range in the horizontal direction by the shielding plates S2 and S3 disposed on both sides of the LED 3, but wide in the vertical direction. Spread to range. That is, by arranging the shielding plates S0 to S5 so as to separate the LEDs 1 to LED5 from each other, higher directivity than the vertical direction can be given to the LEDs 1 to LED5 in the horizontal direction.

したがって、図13に示した投光部12によれば、各LED1〜LED5による光を、水平方向に狭く、鉛直方向に大きく広がる範囲に射出させることができる。これにより、投光部12からの光が、図8に示した受光部13に入射する可能性を高くすることが可能である。更に、図13に示した投光部12からの光を、図6、図7に示した受光部13を用いて検出すれば、人物Pの頭部方向の仰角成分にかかわらず、人物Pの頭部方向の回転成分と投光部12のLEDのいずれかによる光の射出方向の正対を検出することが可能である。   Therefore, according to the light projection part 12 shown in FIG. 13, the light by each LED1-LED5 can be inject | emitted in the range which is narrow in a horizontal direction and spreads in a vertical direction greatly. Thereby, it is possible to increase the possibility that the light from the light projecting unit 12 enters the light receiving unit 13 shown in FIG. Furthermore, if the light from the light projecting unit 12 shown in FIG. 13 is detected by using the light receiving unit 13 shown in FIGS. 6 and 7, the person P's head angle direction regardless of the elevation angle component of the person P. It is possible to detect the direct alignment of the light emission direction by either the rotation component in the head direction or the LED of the light projecting unit 12.

なお、図13に示した投光部12は、図4に示した投光部12との置き換えが可能である。したがって、図13に示した投光部12に含まれる各LED1〜LED5の点滅を、図8に示した制御部121によって制御することで、これらのLED1〜LED5に対応する方位コードを送出してもよい。   Note that the light projecting unit 12 shown in FIG. 13 can be replaced with the light projecting unit 12 shown in FIG. Therefore, by controlling the blinking of each LED1 to LED5 included in the light projecting unit 12 shown in FIG. 13 by the control unit 121 shown in FIG. 8, the direction code corresponding to these LEDs 1 to LED5 is sent out. Also good.

図13に示した投光部12に含まれる各LED1〜LED5に対応する方位コードは、図4に示した投光部12と同様に、各方位コードに従って対応するLEDを順次に点滅させることで送信してもよい。また、図14に示すように、隣接するLEDについて、交互に方位コードに従って点滅させる制御を行ってもよい。   The direction codes corresponding to the respective LEDs 1 to 5 included in the light projecting unit 12 illustrated in FIG. 13 are caused to blink sequentially according to the respective direction codes in the same manner as the light projecting unit 12 illustrated in FIG. You may send it. Moreover, as shown in FIG. 14, you may perform control which blinks alternately according to an azimuth | direction code about adjacent LED.

図14は、方位コードの送受信を説明する図である。図14において、符号Cord1,Cord2,Cord3,Cord4,Cord5のそれぞれは、図13に示したLED1、LED2,LED3,LED4,LED5に対応する方位コードを示している。   FIG. 14 is a diagram illustrating transmission / reception of a direction code. In FIG. 14, each of the codes Cord1, Cord2, Cord3, Cord4, and Cord5 indicates an orientation code corresponding to LED1, LED2, LED3, LED4, and LED5 shown in FIG.

図14(A)〜図14(E)は、図13に示した各LED1〜LED5が時分割で点滅することにより、それぞれに対応する方位コードCord1,Cord2,Cord3,Cord4,Cord5を送信する様子を示している。図14の例は、図8に示した制御部121が、5つのLED1〜LED5を、LED1,LED3,LED5を含むグループ1と、LED2,LED4を含むグループ2とに分けて制御する場合を示している。   14 (A) to 14 (E) show that the LED 1 to LED 5 shown in FIG. 13 blinks in a time-sharing manner to transmit the corresponding direction codes Cord1, Cord2, Cord3, Cord4, Cord5. Is shown. The example of FIG. 14 shows a case where the control unit 121 shown in FIG. 8 controls the five LEDs 1 to 5 by dividing them into a group 1 including LED1, LED3 and LED5 and a group 2 including LED2 and LED4. ing.

また、図14(F),(G)は、受光部13によって得られる電気信号の例を示している。図14(F)の例は、グループ2に属するLED2からの光が図8に示した受光部13に入射したことにより、受光部13により、上述した方位コードCord2を示す電気信号が生成されることを示している。また、図14(G)の例は、グループ1に属するLED3からの光とグループ2に属するLED4からの光の双方が受光部13に入射したことにより、受光部13により、方位コードCord3,Cord4を示す電気信号が生成されることを示している。   14F and 14G show examples of electrical signals obtained by the light receiving unit 13. FIG. In the example of FIG. 14F, when the light from the LEDs 2 belonging to the group 2 is incident on the light receiving unit 13 illustrated in FIG. 8, the light receiving unit 13 generates an electrical signal indicating the above-described direction code Cord2. It is shown that. In the example of FIG. 14G, the light from the LED 3 belonging to the group 1 and the light from the LED 4 belonging to the group 2 are incident on the light receiving unit 13. It is shown that an electrical signal indicating is generated.

また、受光部13で得られた電気信号に基づいて、図8に示した検出部14の照合部143により、コードテーブル144に保持された方位コードとの照合処理を行うことにより、受光部13に入射した光に対応するLEDとその射出方向を特定することができる。   Further, based on the electrical signal obtained by the light receiving unit 13, the collating unit 143 of the detecting unit 14 illustrated in FIG. 8 performs a collation process with the orientation code held in the code table 144, thereby obtaining the light receiving unit 13. The LED corresponding to the light incident on and the emission direction thereof can be specified.

図13に示した投光部12を含む方位検出装置10によれば、図8に示した方位検出装置10と同様に、受光部13に入射した光に対応するLEDによる光の射出方向を示す絶対的な方位を用いて、人物Pの頭部方向の追跡結果をリセットすることができる。   According to the azimuth detecting device 10 including the light projecting unit 12 shown in FIG. 13, similarly to the azimuth detecting device 10 shown in FIG. The tracking result in the head direction of the person P can be reset using the absolute direction.

上述したように、図13に示した投光部12によれば、各LED1〜LED5による光を、水平方向に狭く、鉛直方向に大きく広がる範囲に射出させることにより、投光部12からの光が、図8に示した受光部13に入射する可能性を高くすることが可能である。つまり、人物Pが上向き気味であるかうつむき気味であるかにかかわらず、人物Pの頭部方向の水平面内での回転成分に基づいて、人物Pの頭部方向と投光部12のLEDのいずれかによる光の射出方向との正対を検出することができる。   As described above, according to the light projecting unit 12 shown in FIG. 13, the light from the light projecting unit 12 is emitted by emitting light from the LEDs 1 to 5 to a range narrow in the horizontal direction and wide in the vertical direction. However, it is possible to increase the possibility of entering the light receiving unit 13 shown in FIG. That is, regardless of whether the person P is looking upward or tingling, the head direction of the person P and the LEDs of the light projecting unit 12 are determined based on the rotation component in the horizontal direction of the person P's head direction. Either way, it is possible to detect the direct facing of the light emission direction.

したがって、図13に示した投光部12を含む方位検出装置10によれば、人物Pの頭部方向の回転成分と投光部12のLEDのいずれかによる光の射出方向とが正対する機会を逃さずに、慣性航法技術で得られる追跡結果を絶対的な角度を用いてリセットできる。これにより、方位検出装置10が有する追跡部11によって得られる追跡結果に、頻繁に絶対的な方位が設定されるので、方位検出装置10による検出結果に含まれる誤差をより強力に抑制することができ、方位検出装置10の検出精度の向上に有用である。   Therefore, according to the azimuth detecting device 10 including the light projecting unit 12 illustrated in FIG. 13, the rotation component in the head direction of the person P and the light emission direction by any one of the LEDs of the light projecting unit 12 face each other. The tracking result obtained by the inertial navigation technique can be reset using an absolute angle without missing. Thereby, since an absolute azimuth is frequently set in the tracking result obtained by the tracking unit 11 included in the azimuth detecting device 10, an error included in the detection result by the azimuth detecting device 10 can be more strongly suppressed. This is useful for improving the detection accuracy of the azimuth detecting device 10.

ところで、本件開示の方位検出装置10は、室内を移動する人物Pの絶対的な位置の特定に利用することも可能である。次に、本件開示の方位検出装置10の適用例として、人物Pの位置を特定する手法を、図15、図16を用いて説明する。   By the way, the azimuth | direction detection apparatus 10 of this indication can also be utilized for specification of the absolute position of the person P who moves indoors. Next, as an application example of the azimuth detection device 10 disclosed herein, a method for specifying the position of the person P will be described with reference to FIGS. 15 and 16.

図15は、方位検出装置10の適用例を示している。なお、図15に示した構成要素のうち、図1及び図5に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 15 shows an application example of the direction detection device 10. Note that among the constituent elements shown in FIG. 15, the same constituent elements as those shown in FIG. 1 and FIG.

図15に示した部屋Cには、2つのアンカーユニットAU1,AU2が設置されている。アンカーユニットAU1は、3つの投光部12−1,12−2,12−3を含んでおり、一方、アンカーユニットAU2は、別の3つの投光部12−4,12−5,12−6を含んでいる。なお、アンカーユニットAU1,AU2に含まれている各投光部12−1〜12−6は、図4に示した投光部12に示したと同様の構成を持っていてよいし、図8あるいは図13に示した投光部12と同様の構成を持っていてもよい。また、図15に示した2つのアンカーユニットAU1,AU2の設置箇所の距離は、既知の値Dである。   In the room C shown in FIG. 15, two anchor units AU1 and AU2 are installed. The anchor unit AU1 includes three light projecting units 12-1, 12-2, and 12-3, while the anchor unit AU2 includes another three light projecting units 12-4, 12-5, and 12-. 6 is included. Each of the light projecting units 12-1 to 12-6 included in the anchor units AU1 and AU2 may have the same configuration as that shown in the light projecting unit 12 shown in FIG. You may have the structure similar to the light projection part 12 shown in FIG. Further, the distance between the installation positions of the two anchor units AU1 and AU2 shown in FIG.

図15に示した人物Pが頭部を回転させたことにより、頭部の方向がアンカーユニットAU1の設置箇所に向かう方向Q1である状態から、アンカーユニットAU2の設置箇所に向かう方向Q2に変化する場合を考える。   When the person P shown in FIG. 15 rotates the head, the direction of the head changes from the direction Q1 toward the installation location of the anchor unit AU1 to the direction Q2 toward the installation location of the anchor unit AU2. Think about the case.

この場合に、人物Pの頭部に装着された受光部13を含む方位検出装置10は、検出部14による検出結果として、方向Q1の方位を示す方位コードと、方向Q2の方位を示す方位コードとを取得することができる。図15の例では、方向Q1の方位を示す方位コードとして、部屋Cの壁Wの方位を基準とする絶対的な方位φ1が得られ、また、方向Q2の方位を示す方位コードとして、同じく壁Wの方位を基準とする絶対的な方位φ2が得られる。   In this case, the azimuth detecting device 10 including the light receiving unit 13 attached to the head of the person P, as a detection result by the detecting unit 14, shows an azimuth code indicating the azimuth in the direction Q1 and an azimuth code indicating the azimuth in the direction Q2. And can get. In the example of FIG. 15, the absolute direction φ1 with reference to the direction of the wall W of the room C is obtained as the direction code indicating the direction of the direction Q1, and the wall code is also used as the direction code indicating the direction of the direction Q2. An absolute azimuth φ2 with respect to the azimuth of W is obtained.

上述したようにして得られた絶対的な方位φ1及びφ2と、アンカーユニットAU1,AU2間の距離Dとに基づけば、幾何学的に人物Pの位置を求めることができる。つまり、図15に示した方位検出装置10によれば、人物Pが周囲を見回す動作を行った際などに、当該人物Pの絶対的な位置を特定することができる。   Based on the absolute orientations φ1 and φ2 obtained as described above and the distance D between the anchor units AU1 and AU2, the position of the person P can be obtained geometrically. That is, according to the azimuth detecting device 10 shown in FIG. 15, when the person P performs an operation of looking around, the absolute position of the person P can be specified.

なお、アンカーユニットAU1,AU2の設置場所は、図15の例で示した部屋Cの隅に限られない。例えば、部屋Cの1つの隅を挟む2つの壁に、上述した隅からそれぞれ所定の距離D1,D2だけ離れた位置に、アンカーユニットAU1,AU2を設置してもよい。   The installation locations of the anchor units AU1, AU2 are not limited to the corners of the room C shown in the example of FIG. For example, the anchor units AU1 and AU2 may be installed on two walls sandwiching one corner of the room C at positions separated from the above-mentioned corners by a predetermined distance D1 and D2, respectively.

また、人物Pが周囲を見回す動作を利用する代わりに、人物Pに複数の受光部13を装着させることで、複数のアンカーユニットからの光を同時に検出してもよい。   Further, instead of using the action of the person P looking around, the person P may be equipped with a plurality of light receiving units 13 to simultaneously detect light from the plurality of anchor units.

図16は、方位検出装置10の別の適用例を示している。なお、図16に示した構成要素のうち、図1、図5及び図15に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 16 shows another application example of the direction detection device 10. Note that among the constituent elements shown in FIG. 16, the same constituent elements as those shown in FIGS. 1, 5, and 15 are denoted by the same reference numerals, and description thereof is omitted.

図16に示した壁W1、W2には、それぞれアンカーユニットAU1,AU2が設置されている。アンカーユニットAU1、AU2は、それぞれ図13に示した投光部12に相当する6つの投光部を含んでいる。なお、図16において、アンカーユニットAU1、AU2に含まれる各投光部を示す符号は図示を省略した。また、図16に示した符号D1は、壁W1,W2が交わる箇所からアンカーユニットAU1の設置箇所までの距離を示している。同様に、図16に示した符号D2は、壁W1,W2が交わる箇所からアンカーユニットAU2の設置箇所までの距離を示している。   Anchor units AU1 and AU2 are respectively installed on the walls W1 and W2 shown in FIG. The anchor units AU1 and AU2 each include six light projecting units corresponding to the light projecting unit 12 shown in FIG. In FIG. 16, the reference numerals indicating the light projecting units included in the anchor units AU1 and AU2 are not shown. Moreover, the code | symbol D1 shown in FIG. 16 has shown the distance from the location where wall W1, W2 crosses to the installation location of anchor unit AU1. Similarly, the symbol D2 shown in FIG. 16 indicates the distance from the location where the walls W1, W2 intersect to the location where the anchor unit AU2 is installed.

図16に示した方位検出装置10は、人物Pの頭部の左右両側に装着された2つの受光部13−L,13−Rを含んでいる。図16の例において、受光部13−Lは、人物Pの頭部方向に対して反時計回りに角θLだけ傾けて装着されており、受光部13−Rは、人物Pの頭部方向に対して時計回りに角θRだけ傾けて装着されている。   The azimuth detecting device 10 shown in FIG. 16 includes two light receiving units 13-L and 13-R mounted on the left and right sides of the head of the person P. In the example of FIG. 16, the light receiving unit 13 -L is mounted by being inclined by an angle θL counterclockwise with respect to the head direction of the person P, and the light receiving unit 13 -R is mounted in the head direction of the person P. On the other hand, it is mounted inclined at an angle θR clockwise.

図16に示した人物Pが、上述した壁W1,W2が交わる箇所の付近へ頭部を向けたときに、アンカーユニットAU1からの光とアンカーユニットAU2からの光が、同時に受光部13−Rと受光部13−Lとにそれぞれ到達する。   When the person P shown in FIG. 16 points his head near the place where the walls W1 and W2 intersect, the light from the anchor unit AU1 and the light from the anchor unit AU2 are simultaneously received by the light receiving unit 13-R. And the light receiving unit 13-L.

この場合に、受光部13−Rで得られる電気信号に基づいて、検出部14は、受光部13−Rに入射した光に対応する方位コードを取得する。また、同時に、検出部14は、受光部13−Lで得られる電気信号に基づいて、受光部13−Lに入射した光に対応する方位コードを取得する。図16の例では、検出部14は、受光部13−Rに入射した光に対応する方位コードとして、上述した壁W1の方位を基準とする絶対的な方位φ1を取得する。また、検出部14は、受光部13−Lに入射した光に対応する方位コードとして、壁W1に直交する壁W2の方位を基準とする絶対的な方位φ2を取得する。   In this case, based on the electrical signal obtained by the light receiving unit 13-R, the detection unit 14 acquires an orientation code corresponding to the light incident on the light receiving unit 13-R. At the same time, the detection unit 14 acquires an orientation code corresponding to the light incident on the light receiving unit 13-L based on the electrical signal obtained by the light receiving unit 13-L. In the example of FIG. 16, the detection unit 14 acquires an absolute direction φ1 based on the direction of the wall W1 described above as the direction code corresponding to the light incident on the light receiving unit 13-R. Further, the detection unit 14 acquires an absolute direction φ2 based on the direction of the wall W2 orthogonal to the wall W1 as the direction code corresponding to the light incident on the light receiving unit 13-L.

上述したように、壁W1,W2が交わる箇所からアンカーユニットAU1、AU2の設置箇所までの距離D1,D2と、図16に示した角θR及び角θLは既知である。したがって、検出部14で得られた方位φ1、φ2に基づいて、幾何学的な手法により、人物Pの位置を求めることが可能である。また、図15を用いて説明したように、人物Pが周囲を見回したときなどに、受光部13−R,13−Lの少なくとも一方に入射した光に対応する方位コードに基づいて、人物Pの位置を特定する処理を行うことも可能である。   As described above, the distances D1 and D2 from the location where the walls W1 and W2 intersect to the location where the anchor units AU1 and AU2 are installed and the angles θR and θL shown in FIG. 16 are known. Therefore, the position of the person P can be obtained by a geometric method based on the directions φ1 and φ2 obtained by the detection unit 14. Further, as described with reference to FIG. 15, when the person P looks around, the person P is based on the direction code corresponding to the light incident on at least one of the light receiving units 13 -R and 13 -L. It is also possible to perform a process of specifying the position of.

また、本件開示の方位検出装置10を用いれば、例えば、展示会場などにおいて、出展されている複数の展示ブースのうち、人物の頭部方向に存在する展示ブースに関する情報を当該人物に提供するサービスを実現することが可能である。以下、本件開示の方位検出装置10を含む情報提供システムについて説明する。   In addition, if the direction detection device 10 disclosed herein is used, for example, a service that provides information about an exhibition booth that exists in the head direction of a person among a plurality of exhibition booths that are exhibited at an exhibition hall or the like. Can be realized. Hereinafter, an information providing system including the azimuth detecting device 10 disclosed herein will be described.

図17は、情報提供システムの実施形態を示している。なお、図17に示した構成要素のうち、図15に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 17 shows an embodiment of the information providing system. Note that, among the components shown in FIG. 17, the same components as those shown in FIG. 15 are denoted by the same reference numerals, and description thereof is omitted.

図17に示した符号B1,B2,B3,B4は、展示会場Hの内部に設置された展示ブースをそれぞれ示している。また、符号UEは、人物Pが所持している携帯端末装置を示している。携帯端末装置UEは、無線LAN(Local Area Network)などのネットワークNWを介してコンピュータ装置20に接続されている。   Reference numerals B1, B2, B3, and B4 shown in FIG. 17 indicate exhibition booths installed in the exhibition hall H, respectively. Further, the symbol UE indicates a mobile terminal device possessed by the person P. The mobile terminal device UE is connected to the computer device 20 via a network NW such as a wireless LAN (Local Area Network).

図17に示した方位検出装置10は、例えば、人物Pの頭部に装着されたヘッドセット30と、上述した携帯端末装置UEと、展示会場Hに予め設置されている少なくとも一つのアンカーユニットAUとを含んでいる。なお、図17の例では、展示会場H内に2つのアンカーユニットAU1,AU2が設置されている場合を示した。   17 includes, for example, a headset 30 attached to the head of a person P, the above-described mobile terminal device UE, and at least one anchor unit AU previously installed in the exhibition hall H. Including. In the example of FIG. 17, a case where two anchor units AU1 and AU2 are installed in the exhibition hall H is shown.

図17に示したコンピュータ装置20は、上述した展示ブースB1〜B4に関する情報を内部に蓄積しており、上述したネットワークNWを介して、人物Pの携帯端末装置UEに各展示ブースB1〜B4に関する情報を提供する機能を持っている。   The computer device 20 shown in FIG. 17 stores therein information related to the above-described exhibition booths B1 to B4, and relates to the exhibition booths B1 to B4 to the portable terminal device UE of the person P via the network NW described above. Has a function to provide information.

図18は、方位検出装置10を含む情報提供システムのハードウェア構成例を示している。なお、図18に示した構成要素のうち、図17に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 18 illustrates a hardware configuration example of an information providing system including the direction detection device 10. Note that, among the components shown in FIG. 18, components equivalent to those shown in FIG. 17 are denoted by the same reference numerals, and description thereof is omitted.

図18の例では、方位検出装置10に含まれるヘッドセット30を、人物Pの眼鏡のつる部分に装着することにより、ヘッドセット30に含まれる受光部13の光軸方向を、人物Pの頭部方向に一致させる調整を容易にしている。上述したように、図6、図7に示した受光部13は、眼鏡のつる部分に装着できる程度に小型化することが可能である。なお、ヘッドセット30及び携帯端末装置UEについては、図19を用いて説明する。   In the example of FIG. 18, the headset 30 included in the azimuth detection device 10 is attached to the vine portion of the person's P glasses, so that the optical axis direction of the light receiving unit 13 included in the headset 30 is Adjustment to match the direction of the part is made easy. As described above, the light receiving unit 13 shown in FIGS. 6 and 7 can be downsized to such an extent that it can be attached to the vine portion of the glasses. The headset 30 and the mobile terminal device UE will be described with reference to FIG.

図18に示したコンピュータ装置20は、プロセッサ21と、メモリ22と、ハードディスク装置23と、ネットワークインタフェース24と、光学ドライブ25とを含んでいる。図18に例示したプロセッサ21と、メモリ22と、ハードディスク装置23と、ネットワークインタフェース24と、光学ドライブ装置25とは、バスを介して互いに接続されている。   The computer device 20 shown in FIG. 18 includes a processor 21, a memory 22, a hard disk device 23, a network interface 24, and an optical drive 25. The processor 21, the memory 22, the hard disk device 23, the network interface 24, and the optical drive device 25 illustrated in FIG. 18 are connected to one another via a bus.

上述した光学ドライブ装置25は、光ディスクなどのリムーバブルディスク26を装着可能であり、装着したリムーバブルディスク26に記録された情報の読出および記録を行う。   The optical drive device 25 described above can be loaded with a removable disk 26 such as an optical disk, and reads and records information recorded on the mounted removable disk 26.

また、コンピュータ装置20は、ネットワークインタフェース24およびネットワークNWを介して、人物Pの携帯端末装置UEとの間で情報を授受する機能を有している。また、コンピュータ装置20は、同じく、ネットワークインタフェース24およびネットワークNWを介して、方位検出装置10に含まれるアンカーユニットAU1,AU2に接続されていてもよい。   Further, the computer device 20 has a function of exchanging information with the portable terminal device UE of the person P through the network interface 24 and the network NW. Similarly, the computer device 20 may be connected to the anchor units AU1 and AU2 included in the azimuth detecting device 10 via the network interface 24 and the network NW.

上述したメモリ22は、コンピュータ装置20のオペレーティングシステムとともに、プロセッサ21が、人物Pに図18に示した展示ブースB1〜B4に関して情報提供を行う処理を実行するためのアプリケーションプログラムを格納している。なお、情報提供処理を実行するためのアプリケーションプログラムは、例えば、光ディスクなどのリムーバブルディスク26に記録して頒布することができる。そして、このリムーバブルディスク27を光学ドライブ装置25に装着して読み込み処理を行うことにより、情報提供処理を実行するためのアプリケーションプログラムを、メモリ22およびハードディスク装置23に格納させてもよい。また、ネットワークインタフェース24を介して、情報提供処理を実行するためのアプリケーションプログラムをメモリ22およびハードディスク装置23に読み込ませることもできる。   In addition to the operating system of the computer device 20, the memory 22 stores an application program for the processor 21 to execute processing for providing information to the person P regarding the exhibition booths B1 to B4 shown in FIG. The application program for executing the information providing process can be recorded and distributed on a removable disk 26 such as an optical disk, for example. Then, an application program for executing the information providing process may be stored in the memory 22 and the hard disk device 23 by mounting the removable disk 27 in the optical drive device 25 and performing a reading process. In addition, an application program for executing information providing processing can be read into the memory 22 and the hard disk device 23 via the network interface 24.

また、コンピュータ装置20のメモリ22あるいはハードディスク装置23は、各展示ブースB1〜B4の展示会場Hにおける配置を示す情報と個々の展示ブースB1〜B4の展示内容に関する情報とを保持していることが望ましい。   Further, the memory 22 or the hard disk device 23 of the computer device 20 holds information indicating the arrangement of the exhibition booths B1 to B4 in the exhibition hall H and information related to the exhibition contents of the individual exhibition booths B1 to B4. desirable.

図19は、携帯端末装置UE及びヘッドセット30のハードウェア構成例を示している。なお、図19に示した構成要素のうち、図1及び図17に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 19 illustrates a hardware configuration example of the mobile terminal device UE and the headset 30. Note that, among the components shown in FIG. 19, the same components as those shown in FIGS. 1 and 17 are denoted by the same reference numerals, and the description thereof is omitted.

図19に示したヘッドセット30は、プロセッサ31と、メモリ32と、センサインタフェース33と、無線通信インタフェース34とを含んでいる。プロセッサ31と、メモリ32と、センサインタフェース33および無線通信インタフェース34とは、バスを介して互いに接続されている。また、プロセッサ31は、センサインタフェース33を介して、受光部13及び角速度センサSaによる計測結果を示す情報を受け取ることができる。   The headset 30 shown in FIG. 19 includes a processor 31, a memory 32, a sensor interface 33, and a wireless communication interface 34. The processor 31, the memory 32, the sensor interface 33, and the wireless communication interface 34 are connected to each other via a bus. Further, the processor 31 can receive information indicating a measurement result by the light receiving unit 13 and the angular velocity sensor Sa via the sensor interface 33.

図19に示した角速度センサSaは、例えば、人物Pの頭部の鉛直軸を中心とする回転運動について角速度を検出し、検出した角速度を示す角速度データを、センサインタフェース33を介してプロセッサ31に渡す。また、センサインタフェース33は、受光部13で得られた電気信号からデジタルデータを生成し、生成したデジタルデータをプロセッサ31に渡す機能を有している。   For example, the angular velocity sensor Sa shown in FIG. 19 detects the angular velocity with respect to the rotational motion about the vertical axis of the head of the person P, and sends the angular velocity data indicating the detected angular velocity to the processor 31 via the sensor interface 33. hand over. The sensor interface 33 has a function of generating digital data from the electrical signal obtained by the light receiving unit 13 and passing the generated digital data to the processor 31.

ヘッドセット30に含まれているメモリ32は、センサインタフェース33を介して角速度センサSa及び受光部13で得られた情報を収集する処理のためのプログラムを格納している。計測結果を収集する処理のためのプログラムは、例えば、受光部13で得られた電気信号に応じてセンサインタフェース部33で生成されたデジタルデータから、上述した方位コードを検出する処理のためのプログラムを含んでいてもよい。また、方位コードを検出する処理のためのプログラムとともに、メモリ32に、図8に示したコードテーブル144に相当する情報を格納してもよい。この場合に、メモリ32に格納されたプログラムに従って、プロセッサ31が、方位コードを検出する処理を行うことにより、図8に示した特定部142の機能を実現することができる。また、メモリ32は、更に、収集した情報を無線通信インタフェース34により、携帯端末装置UEに伝送する処理のためのプログラムを格納している。   The memory 32 included in the headset 30 stores a program for processing to collect information obtained by the angular velocity sensor Sa and the light receiving unit 13 via the sensor interface 33. A program for processing for collecting measurement results is, for example, a program for processing for detecting the above-mentioned direction code from digital data generated by the sensor interface unit 33 in accordance with an electrical signal obtained by the light receiving unit 13. May be included. Further, information corresponding to the code table 144 shown in FIG. 8 may be stored in the memory 32 together with a program for processing for detecting the direction code. In this case, the function of the specifying unit 142 shown in FIG. 8 can be realized by the processor 31 performing processing for detecting the direction code in accordance with the program stored in the memory 32. Further, the memory 32 further stores a program for processing to transmit the collected information to the mobile terminal device UE through the wireless communication interface 34.

図19に示した携帯端末装置UEは、プロセッサ41と、メモリ42と、無線通信インタフェース43と、ネットワークインタフェース44と、表示制御部45と、液晶表示部46とを含んでいる。また、携帯端末装置UEは、更に、音声処理部47及びスピーカSPと、加速度センサ48と、センサインタフェース49とを含んでいる。   The mobile terminal device UE illustrated in FIG. 19 includes a processor 41, a memory 42, a wireless communication interface 43, a network interface 44, a display control unit 45, and a liquid crystal display unit 46. The mobile terminal device UE further includes an audio processing unit 47 and a speaker SP, an acceleration sensor 48, and a sensor interface 49.

プロセッサ41と、メモリ42と、無線通信インタフェース43と、ネットワークインタフェース44と、表示制御部45と、音声処理部47と、センサインタフェース49とは、互いにバスを介して接続されている。また、プロセッサ41は、ネットワークインタフェース44を介して、上述したネットワークNWに接続されており、ネットワークNWを介して、例えば、図18に示したコンピュータ装置20と情報の授受を行うことができる。また、プロセッサ41は、無線通信インタフェース43を介して上述したヘッドセット30に接続されており、当該ヘッドセット30からの情報を受信することができる。   The processor 41, the memory 42, the wireless communication interface 43, the network interface 44, the display control unit 45, the sound processing unit 47, and the sensor interface 49 are connected to each other via a bus. The processor 41 is connected to the above-described network NW via the network interface 44, and can exchange information with, for example, the computer apparatus 20 illustrated in FIG. 18 via the network NW. Further, the processor 41 is connected to the headset 30 described above via the wireless communication interface 43 and can receive information from the headset 30.

携帯端末装置UEに含まれているメモリ42は、携帯端末装置UEのオペレーティングシステムに加えて、携帯端末装置UEを本件開示の方位検出装置10の一部として動作させるための第1アプリケーションプログラムを格納している。第1アプリケーションプログラムは、例えば、上述したコンピュータ装置20により、ネットワークインタフェース24及びネットワークNWを介して、携帯端末装置UEのメモリ42に格納させることもできる。   The memory 42 included in the mobile terminal device UE stores, in addition to the operating system of the mobile terminal device UE, a first application program for operating the mobile terminal device UE as a part of the azimuth detection device 10 disclosed herein. doing. The first application program can also be stored in the memory 42 of the mobile terminal device UE via the network interface 24 and the network NW, for example, by the computer device 20 described above.

上述した第1アプリケーションプログラムは、ヘッドセット30から渡される情報に含まれる角速度データに基づいて、人物Pの頭部方向を追跡する処理のためのプログラムを含んでいる。したがって、人物Pの頭部方向を追跡する処理のためのプログラムをプロセッサ41が実行することにより、図8に示した追跡部11の機能を実現することができる。また、上述した第1アプリケーションプログラムは、ヘッドセット30から渡される情報に方位コードが含まれる場合に、当該方位コードを用いて、人物Pの頭部方向についての追跡結果をリセットする処理のためのプログラムを含んでいる。プロセッサ41が、人物Pの頭部方向についての追跡結果をリセットする処理のためのプログラムを実行することにより、図8に示した設定部15の機能を実現することができる。なお、以下の説明では、慣性航法技術を用いた頭部方向の追跡処理と、当該追跡処理で得られた追跡結果をヘッドセット30からの情報に含まれる方位コードに基づいてリセットする処理とを合わせた第1アプリケーションプログラムの処理を、方位検出処理と称する。   The first application program described above includes a program for processing for tracking the head direction of the person P based on the angular velocity data included in the information passed from the headset 30. Therefore, when the processor 41 executes a program for processing to track the head direction of the person P, the function of the tracking unit 11 shown in FIG. 8 can be realized. Further, the first application program described above is used for the process of resetting the tracking result of the head direction of the person P using the direction code when the direction code is included in the information passed from the headset 30. Contains the program. The processor 41 executes the program for the process of resetting the tracking result of the person P in the head direction, so that the function of the setting unit 15 illustrated in FIG. 8 can be realized. In the following description, the head direction tracking process using inertial navigation technology and the process of resetting the tracking result obtained by the tracking process based on the direction code included in the information from the headset 30 are performed. The combined process of the first application program is referred to as a direction detection process.

更に、メモリ42は、図18に示したコンピュータ装置20からネットワークNWを介して受け取った情報を、音声処理部47及び表示制御部45を介して人物Pに提供する処理のための第2アプリケーションプログラムを格納している。   Further, the memory 42 is a second application program for processing for providing the information received from the computer device 20 shown in FIG. 18 via the network NW to the person P via the voice processing unit 47 and the display control unit 45. Is stored.

以下に、図17、図18に示した情報提供システムにより、本件開示の方位検出装置10で得られた人物Pの頭部方向に基づいて、展示ブースB1〜B4に関する情報を提供する手法について説明する。   Hereinafter, a method for providing information related to the exhibition booths B1 to B4 based on the head direction of the person P obtained by the azimuth detecting device 10 of the present disclosure by the information providing system illustrated in FIGS. 17 and 18 will be described. To do.

図20は、情報提供処理のフローチャートの一例を示している。図20に示したステップ301〜ステップ307の各処理は、情報提供処理のためのアプリケーションプログラムに含まれる処理の一例である。図20に示したステップ301〜ステップ307の各処理は、コンピュータ装置20のプロセッサ21によって実行される。   FIG. 20 shows an example of a flowchart of the information providing process. Each process of step 301 to step 307 illustrated in FIG. 20 is an example of a process included in the application program for the information providing process. Each process of step 301 to step 307 illustrated in FIG. 20 is executed by the processor 21 of the computer apparatus 20.

プロセッサ21は、例えば、人物Pが所持している携帯端末装置UEからの無線信号などに基づいて、図17に示した展示会場H内に人物Pが進入したことを検出したときに、情報提供処理を開始してもよい。   For example, the processor 21 provides information when it detects that the person P has entered the exhibition hall H shown in FIG. 17 based on a radio signal from the mobile terminal device UE possessed by the person P. Processing may be started.

まず、プロセッサ21は、図18に示したネットワークインタフェース24を介して、携帯端末装置UEに対して、人物Pの位置及び頭部方向の追跡処理を開始させる(ステップ301)。プロセッサ21は、例えば、携帯端末装置UEに対して、上述した第1アプリケーションプログラムの実行を指示すればよい。また、ステップ301の過程で、プロセッサ21は、人物Pの位置の初期値及び頭部方向の初期値を携帯端末装置UEに送信し、位置及び頭部方向の追跡処理について初期値を設定してもよい。プロセッサ21は、例えば、展示会場Hの入り口を示す位置情報を、第2アプリケーションプログラムによる位置追跡処理の初期値として、携帯端末装置UEに渡してもよい。また、プロセッサ21は、例えば、人物Pの頭部方向の初期値として、上述した入り口から展示会場Hの内部に進入する方向を示す情報を、携帯端末装置UEに渡してもよい。   First, the processor 21 causes the mobile terminal device UE to start tracking processing of the position and head direction of the person P via the network interface 24 illustrated in FIG. 18 (step 301). For example, the processor 21 may instruct the mobile terminal device UE to execute the first application program described above. Further, in the process of step 301, the processor 21 transmits an initial value of the position of the person P and an initial value of the head direction to the mobile terminal device UE, and sets initial values for the tracking processing of the position and head direction. Also good. For example, the processor 21 may pass position information indicating the entrance of the exhibition hall H to the mobile terminal device UE as an initial value of position tracking processing by the second application program. Further, for example, the processor 21 may pass, as an initial value in the head direction of the person P, information indicating the direction of entering the inside of the exhibition hall H from the entrance described above to the mobile terminal device UE.

携帯端末装置UEは、ステップ301の過程でプロセッサ21から受け取った初期値に基づいて、人物Pの位置についての追跡処理及び人物Pの頭部方向を示す方位を検出する処理を開始する。   Based on the initial value received from the processor 21 in the process of step 301, the mobile terminal device UE starts a tracking process for the position of the person P and a process for detecting an orientation indicating the head direction of the person P.

プロセッサ21は、携帯端末装置UEから、人物Pの位置についての追跡処理の実行結果として人物Pの現在位置を示す情報を取得する(ステップ302)。また、プロセッサ21は、携帯端末UEから、人物Pの頭部方向を示す方位を検出する処理の実行結果として人物Pの現在の頭部方向を示す情報を取得する(ステップ303)。なお、プロセッサ21は、ステップ302の処理とステップ303の処理とを逆の順番で実行してもよい。   The processor 21 acquires information indicating the current position of the person P as the execution result of the tracking process for the position of the person P from the mobile terminal device UE (step 302). Further, the processor 21 acquires information indicating the current head direction of the person P as an execution result of the process of detecting the orientation indicating the head direction of the person P from the mobile terminal UE (step 303). Note that the processor 21 may execute the process of step 302 and the process of step 303 in the reverse order.

ここで、人物Pの頭部方向を示す方位を検出する処理について、図21および図22を用いて説明する。   Here, the process for detecting the orientation indicating the head direction of the person P will be described with reference to FIGS. 21 and 22.

図21は、頭部方向を示す方位を検出する処理のフローチャートの一例を示している。図21に示したステップ311〜ステップ317の各処理は、頭部方向を示す方位を検出する処理のためのアプリケーションプログラムに含まれる処理の一例である。図21に示したステップ311の処理は、図19に示したヘッドセット30のプロセッサ31によって実行される。また、ステップ312〜ステップ317の各処理は、携帯端末装置UEのプロセッサ41によって実行される。   FIG. 21 shows an example of a flowchart of processing for detecting an orientation indicating the head direction. Each process of step 311 to step 317 illustrated in FIG. 21 is an example of a process included in an application program for a process of detecting an orientation indicating the head direction. The process of step 311 shown in FIG. 21 is executed by the processor 31 of the headset 30 shown in FIG. In addition, each process of step 312 to step 317 is executed by the processor 41 of the mobile terminal device UE.

また、図21に示したステップ314及びステップ315の処理は、従来と同様の慣性航法技術によって、人物Pの頭部方向を追跡する処理の例である。図21に示したフローチャートは、慣性航法技術による頭部方向の追跡処理に先立って、本件開示の方位検出装置10により、追跡処理の基準を設定する例を示している。   21 is an example of processing for tracking the head direction of the person P using the same inertial navigation technique as that of the prior art. The flowchart illustrated in FIG. 21 illustrates an example in which a reference for tracking processing is set by the azimuth detection device 10 of the present disclosure prior to tracking processing in the head direction by the inertial navigation technique.

まず、ステップ311において、ヘッドセット30のプロセッサ31は、図22に示すようにして、図17に示したアンカーユニットAU1,AU2に含まれる投光部12の中から、人物Pの頭部方向に正対する投光部12を検出する。   First, in step 311, the processor 31 of the headset 30 moves from the light projecting unit 12 included in the anchor units AU1 and AU2 shown in FIG. The light projecting unit 12 that directly faces is detected.

図22は、正対する投光部を検出する処理のフローチャートの一例を示している。図22に示したステップ321〜ステップ328の各処理は、メモリ32に格納されたプログラムに含まれる処理の一例である。図22に示したステップ321〜ステップ328の各処理は、ヘッドセット30のプロセッサ31によって実行される。   FIG. 22 shows an example of a flowchart of processing for detecting a light projecting unit that faces the camera. Each process of step 321 to step 328 illustrated in FIG. 22 is an example of a process included in a program stored in the memory 32. Each process of step 321 to step 328 shown in FIG. 22 is executed by the processor 31 of the headset 30.

まず、プロセッサ31は、図19に示したセンサインタフェース33を介して受光部13によって出力される電気信号をデジタル化することで得られた出力信号を取得する(ステップ321)。   First, the processor 31 acquires an output signal obtained by digitizing an electrical signal output by the light receiving unit 13 via the sensor interface 33 shown in FIG. 19 (step 321).

次いで、プロセッサ31は、ステップ321で取得した出力信号とメモリ32に設けられたコードテーブル144に含まれる各ビットパターンとを照合することで、頭部方向に正対する投光部12を示す方位コードを検出する(ステップ322)。このように、プロセッサ31が、ステップ322の処理を実行することにより、図8に示した特定部142の機能を実現してもよい。   Next, the processor 31 collates the output signal acquired in step 321 with each bit pattern included in the code table 144 provided in the memory 32 to thereby indicate the direction code indicating the light projecting unit 12 facing the head direction. Is detected (step 322). As described above, the function of the specifying unit 142 illustrated in FIG. 8 may be realized by the processor 31 executing the process of step 322.

ステップ322の処理において、出力信号と一致する方位コードが見つかった場合に、プロセッサ31は、方位コードを検出したと判断し、ステップ323の肯定判定ルートに進む。   When the direction code matching the output signal is found in the process of step 322, the processor 31 determines that the direction code has been detected, and proceeds to the affirmative determination route of step 323.

ステップ323の肯定判定ルートにおいて、プロセッサ31は、まず、検出した方位コードが一つであるか否かを判定する(ステップ324)。   In the affirmative determination route of step 323, the processor 31 first determines whether there is one detected direction code (step 324).

ステップ322の処理で検出した方位コードが一つである場合に、プロセッサ31は、ステップ324の肯定判定ルートに従って、ステップ325に進む。ステップ325において、プロセッサ31は、ステップ322の処理で検出した方位コードに基づいて、人物Pの頭部方向に正対している投光部12の方位を示す第1方位を特定する。   When there is one azimuth code detected in step 322, the processor 31 proceeds to step 325 according to the affirmative determination route of step 324. In step 325, the processor 31 specifies the first orientation indicating the orientation of the light projecting unit 12 facing the head direction of the person P based on the orientation code detected in the processing of step 322.

また、ステップ322の処理で検出した方位コードが二つである場合に、プロセッサ31は、ステップ324の否定判定ルートに従って、ステップ326に進む。ステップ326において、プロセッサ31は、ステップ322の処理で検出した2つの方位コードに基づいて第1方位を算出する。プロセッサ31は、例えば、2つの方位コードで示される方位を示す角度の平均値を求め、得られた平均値を第1方位としてもよい。このように、プロセッサ31が、ステップ324の否定判定ルートにおいて、ステップ326の処理を実行することにより、図8に示した判定部151及び算出部152の機能を実現してもよい。   On the other hand, when there are two azimuth codes detected in the process of step 322, the processor 31 proceeds to step 326 according to the negative determination route of step 324. In step 326, the processor 31 calculates the first direction based on the two direction codes detected in the process of step 322. For example, the processor 31 may obtain an average value of angles indicating the azimuths indicated by the two azimuth codes, and may use the obtained average value as the first azimuth. Thus, the processor 31 may implement the functions of the determination unit 151 and the calculation unit 152 illustrated in FIG. 8 by executing the processing of step 326 in the negative determination route of step 324.

ステップ324の肯定判定ルートと否定判定ルートとは、ステップ327において合流する。プロセッサ31は、上述したステップ325あるいはステップ326で得られた第1方位を示す情報を、無線通信インタフェース34を介して携帯端末装置UEに送信する(ステップ327)。   The affirmative determination route and the negative determination route in step 324 merge in step 327. The processor 31 transmits information indicating the first orientation obtained in the above-described step 325 or step 326 to the mobile terminal device UE via the wireless communication interface 34 (step 327).

一方、ステップ322の処理において、出力信号と一致する方位コードが見つからなかった場合に、プロセッサ31は、ステップ323の否定判定ルートに従ってステップ328の処理に進む。ステップ328において、プロセッサ31は、正対する投光部を検出する処理が失敗した旨を、無線通信インタフェース34を介して携帯端末装置UEに送信する。   On the other hand, when the direction code matching the output signal is not found in the process of step 322, the processor 31 proceeds to the process of step 328 according to the negative determination route of step 323. In step 328, the processor 31 transmits to the mobile terminal device UE via the wireless communication interface 34 that the process of detecting the facing light projecting unit has failed.

上述した処理をプロセッサ31が実行することにより、ヘッドセット30を装着した人物Pの頭部方向に正対する投光部12を示す方位コードを特定する情報を、図21のステップ311の処理結果として携帯端末装置UEに渡すことができる。   When the processor 31 executes the above-described processing, information for identifying the direction code indicating the light projecting unit 12 facing the head direction of the person P wearing the headset 30 is obtained as the processing result of step 311 in FIG. It can be passed to the mobile terminal device UE.

ヘッドセット30から受け取った情報に基づいて、携帯端末装置UEのプロセッサ41は、まず、人物Pの頭部方向に正対する投光部12の検出が成功したか否かを判定する(ステップ312)。   Based on the information received from the headset 30, the processor 41 of the mobile terminal device UE first determines whether or not the detection of the light projecting unit 12 facing the person P in the head direction has succeeded (step 312). .

ステップ311の処理結果として、第1方位が得られた場合に、プロセッサ41は、ステップ312の肯定判定ルートに従ってステップ313の処理を実行する。ステップ313において、プロセッサ41は、慣性航法技術によってそれまでに得られた頭部方向の追跡結果にかかわらず、人物Pの頭部方向を示す方位として第1方位を設定する。つまり、プロセッサ41は、角速度データに基づく慣性航法で得られる頭部方向の追跡結果を、第1方位によってリセットし、この第1方位を以降の追跡処理の基準とする。このように、プロセッサ41が、ステップ312の肯定判定に応じて、ステップ313の処理を実行することにより、図1に示した設定部15の機能を実現してもよい。   When the first orientation is obtained as the processing result of step 311, the processor 41 executes the processing of step 313 according to the affirmative determination route of step 312. In step 313, the processor 41 sets the first azimuth as the azimuth indicating the head direction of the person P regardless of the tracking result of the head direction obtained so far by the inertial navigation technique. That is, the processor 41 resets the tracking result in the head direction obtained by inertial navigation based on the angular velocity data with the first orientation, and uses the first orientation as a reference for the subsequent tracking processing. As described above, the function of the setting unit 15 illustrated in FIG. 1 may be realized by the processor 41 performing the process of step 313 in response to the positive determination of step 312.

一方、ステップ311の処理結果として得られた情報に第1方位が含まれていない場合に、プロセッサ41は、ステップ312の否定判定ルートに従って、上述したステップ313をスキップする。   On the other hand, when the first orientation is not included in the information obtained as the processing result of step 311, the processor 41 skips step 313 described above according to the negative determination route of step 312.

ステップ312の肯定判定ルートと否定判定ルートとは、ステップ314において合流し、プロセッサ41は、ステップ314及びステップ315において、慣性航法による頭部方向の追跡処理を実行する。まず、プロセッサ41は、無線通信インタフェース44を介して、ヘッドセット30に含まれている角速度センサSaで得られた角速度データを取得する(ステップ314)。次いで、プロセッサ41は、ステップ314で取得した角速度データに基づいて、直前に得られた追跡結果からの変化分を算出し、算出した変化分を直前の追跡結果に加算することで、現在の人物Pの頭部方向を示す新たな追跡結果を求める(ステップ315)。   The affirmative determination route and the negative determination route in step 312 are merged in step 314, and the processor 41 performs head direction tracking processing by inertial navigation in step 314 and step 315. First, the processor 41 acquires angular velocity data obtained by the angular velocity sensor Sa included in the headset 30 via the wireless communication interface 44 (step 314). Next, the processor 41 calculates a change from the tracking result obtained immediately before based on the angular velocity data acquired in step 314, and adds the calculated change to the previous tracking result to thereby obtain the current person. A new tracking result indicating the head direction of P is obtained (step 315).

プロセッサ41は、ステップ315の処理において、新たな追跡結果として得られた人物Pの頭部方向を示す情報を、ネットワークインタフェース44を介してコンピュータ装置20に送信する(ステップ316)。プロセッサ41は、コンピュータ装置20から人物Pの頭部方向を示す情報の送信を要求された場合に、それまでの追跡処理で得られた最新の追跡処理結果を示す情報を、ネットワークインタフェース44を介してコンピュータ装置20に送信してもよい。   In the process of step 315, the processor 41 transmits information indicating the head direction of the person P obtained as a new tracking result to the computer apparatus 20 via the network interface 44 (step 316). When the processor 41 is requested to transmit information indicating the head direction of the person P from the computer device 20, the processor 41 transmits information indicating the latest tracking processing result obtained through the previous tracking processing via the network interface 44. May be transmitted to the computer device 20.

このようにして、プロセッサ41が、ステップ315の処理を実行することにより、図20に示したステップ303の処理結果として、人物Pの頭部方向を示す情報をコンピュータ装置20に渡すことができる。   In this way, the processor 41 executes the process of step 315, so that information indicating the head direction of the person P can be passed to the computer apparatus 20 as the process result of step 303 shown in FIG.

なお、携帯端末装置UEのプロセッサ41は、上述したステップ311〜ステップ316の処理を、ステップ317の処理において、追跡を終了すると判定されるまで繰り返して実行してもよい。なお、プロセッサ41は、例えば、人物Pによる操作により、携帯端末装置UEの電源がオフにされた場合や、コンピュータ装置20との間の接続が解除された場合などに、人物Pの頭部方向を追跡する処理を終了すればよい。   Note that the processor 41 of the mobile terminal device UE may repeatedly execute the above-described processing of step 311 to step 316 until it is determined in step 317 that tracking is to be ended. Note that the processor 41 detects the head direction of the person P when, for example, the power of the mobile terminal device UE is turned off or the connection with the computer device 20 is released by an operation by the person P. The process of tracking the process may be terminated.

ここで、上述したステップ316において、携帯端末装置UEからコンピュータ装置20に渡される人物Pの頭部方向を示す方位は、従来の慣性航法技術で得られる追跡結果に比べて、高い精度を持っている。なぜなら、人物Pの頭部方向が、図17に示したアンカーユニットAU1,AU2のいずれかに含まれる投光部12と正対するごとに、ステップ311〜ステップ313に示した処理により、慣性航法による追跡結果に蓄積された誤差がクリアされるからである。   Here, in step 316 described above, the orientation indicating the head direction of the person P passed from the mobile terminal device UE to the computer device 20 has higher accuracy than the tracking result obtained by the conventional inertial navigation technique. Yes. Because the head direction of the person P directly faces the light projecting unit 12 included in one of the anchor units AU1 and AU2 shown in FIG. This is because the error accumulated in the tracking result is cleared.

したがって、本件開示の方位検出装置10を有する情報提供システムでは、コンピュータ装置20は、人物Pの頭部方向を示す方位として、非常に信頼性の高い情報を取得することができる。   Therefore, in the information providing system including the azimuth detection device 10 of the present disclosure, the computer device 20 can acquire highly reliable information as the azimuth indicating the head direction of the person P.

コンピュータ装置20のプロセッサ21は、人物Pの現在位置と、人物Pの頭部方向を示す方位とに基づいて、人物Pの頭部方向に存在する展示ブースを特定する(ステップ304)。プロセッサ21は、メモリ22あるいはハードディスク装置23から、図17に示した展示ブースB1〜B4の配置を示す情報を取得し、取得した情報と人物Pの位置及び頭部方向とに基づいて、人物Pの頭部方向に存在する展示ブースを特定してもよい。   The processor 21 of the computer device 20 identifies an exhibition booth that exists in the head direction of the person P based on the current position of the person P and the heading indicating the head direction of the person P (step 304). The processor 21 acquires information indicating the arrangement of the exhibition booths B1 to B4 shown in FIG. 17 from the memory 22 or the hard disk device 23, and based on the acquired information and the position and head direction of the person P, the person P You may specify the exhibition booth which exists in the head direction.

次に、プロセッサ21は、特定された展示ブースに対応する案内情報を作成する(ステップ305)。プロセッサ21は、例えば、メモリ22あるいはハードディスク装置23から、特定された展示ブースに関する情報を取得し、取得した情報に基づいて、人物Pに対して、当該展示ブースを紹介するための案内情報を作成してもよい。   Next, the processor 21 creates guide information corresponding to the specified exhibition booth (step 305). For example, the processor 21 acquires information about the specified exhibition booth from the memory 22 or the hard disk device 23, and creates guidance information for introducing the exhibition booth to the person P based on the acquired information. May be.

次いで、プロセッサ21は、ネットワークインタフェース24を介して、ステップ305の処理で作成した案内情報を人物Pの携帯端末装置UEに送信するとともに、当該案内情報の提供を指示する(ステップ306)。例えば、プロセッサ21は、ステップ306の過程で、携帯端末装置UEに対して、上述した第2アプリケーションプログラムの実行を指示すればよい。この指示に応じて、携帯端末装置UEのプロセッサ41が第2アプリケーションプログラムを実行することにより、受信した案内情報を音声処理部47及び表示制御部45を介して人物Pに提供することができる。   Next, the processor 21 transmits the guidance information created in the process of step 305 to the portable terminal device UE of the person P via the network interface 24 and instructs the provision of the guidance information (step 306). For example, the processor 21 may instruct the mobile terminal device UE to execute the above-described second application program in the process of step 306. In response to this instruction, the processor 41 of the mobile terminal device UE executes the second application program, so that the received guidance information can be provided to the person P via the voice processing unit 47 and the display control unit 45.

その後、プロセッサ21は、ステップ307において、情報提供処理を継続するか否かを判定する。例えば、人物Pが展示会場Hの外部に出たことを検出した場合や、携帯端末装置UEから情報提供の停止を要求された場合などに、プロセッサ21は、情報提供処理の継続は不要と判断する。情報提供処理の継続は不要と判断した場合に、プロセッサ21は、ステップ307の肯定判定ルートに従って、情報提供処理を終了する。その他の場合に、プロセッサ21は、ステップ307の肯定判定ルートに従ってステップ302の処理に戻り、情報提供処理を継続する。   Thereafter, in step 307, the processor 21 determines whether or not to continue the information providing process. For example, when it is detected that the person P has gone outside the exhibition hall H, or when the mobile terminal device UE is requested to stop providing information, the processor 21 determines that it is not necessary to continue the information providing process. To do. When determining that the continuation of the information providing process is unnecessary, the processor 21 ends the information providing process according to the affirmative determination route of step 307. In other cases, the processor 21 returns to the process of step 302 according to the affirmative determination route of step 307 and continues the information providing process.

このように、本件開示の方位検出装置10を用いた情報提供システムによれば、展示会場H内での人物Pの位置及び頭部方向に基づいて、人物Pに頭部方向に存在する展示ブースに関する情報をタイムリーに提供するサービスを実現することが可能である。なお、上述した情報提供システムは、展示会場での案内情報の提供に限らず、アミューズメント施設や公共機関の施設内などにおける案内情報の提供などにも適用が可能である。   As described above, according to the information providing system using the azimuth detecting device 10 disclosed in the present disclosure, the exhibition booth that exists in the head direction of the person P based on the position and the head direction of the person P in the exhibition hall H. It is possible to realize a service that provides information related to timely. The information providing system described above can be applied not only to providing guidance information at an exhibition hall, but also to providing guidance information in an amusement facility or public institution facility.

以上の説明に関して、更に、以下の各項を開示する。
(付記1) 人物の頭部に装着され、前記頭部の回転運動を観測する角速度センサで得られる角速度に基づいて、前記人物の頭部方向を示す方位を追跡する追跡部と、
指向性を有する光を所定の方位に向けて射出する、室内に設置された投光部と、
前記人物の頭部に装着され、前記人物の頭部方向からの入射光に対して指向性を有し、前記入射光を電気信号に変換する受光部と、
前記受光部で得られる電気信号に基づいて、前記人物の頭部方向と前記投光部によって光が射出される方向である射出方向との正対を検出する検出部と、
前記投光部による光の射出方向と前記人物の頭部方向との正対が検出された場合に、前記投光部による光の射出方向に対応する第1方位を、前記追跡部による追跡で得られる前記人物の現在の頭部方向を示す方位として設定する設定部と
を備えたことを特徴とする方位検出装置。
(付記2) 付記1に記載の方位検出装置において、
前記投光部は、
互いに異なる所定の方位にそれぞれ光を射出させる複数の第1発光素子と、
前記複数の第1発光素子それぞれを互いに異なるパターンで点滅させる制御部とを有し、
前記検出部は、
前記受光部で得られる電気信号の時間的な変化に基づいて、前記複数の第1発光素子の中から、前記人物の頭部方向に正対する方向に存在する第1発光素子を特定する特定部を有し、
前記設定部は、前記特定部で特定された前記第1発光素子による光の射出方向を前記第1方位として、前記人物の現在の頭部方向を示す方位の設定を行う
ことを特徴とする方位検出装置。
(付記3) 付記2に記載の方位検出装置において、
前記投光部は、
前記複数の第1発光素子とは別に、前記複数の第1発光素子それぞれによる光の射出方向を含む範囲に光を射出する第2発光素子を備え、
前記制御部は、
前記投光部の識別情報を示すパターンで前記第2発光素子を点滅させる制御と、前記複数の第1発光素子のそれぞれを順に発光させる制御とを交互に実行し、
前記特定部は、
前記第2発光素子による光の点滅に対応して前記受光部で得られる電気信号の時間的な変化から、前記投光部の識別情報を抽出する抽出部と、
前記抽出部による前記識別情報の抽出完了から、前記複数の第1発光素子のいずれかの発光に伴う前記電気信号の変化までの経過時間に基づいて、前記人物の頭部方向に正対する方向に存在する第1発光素子を判別する判別部とを有する
ことを特徴とする方位検出装置。
(付記4) 付記3に記載の方位検出装置において、
前記制御部は、前記複数の第1発光素子それぞれに対して、所定の時間ずつ異なるタイミングで、前記所定の時間以下の時間だけ発光させる制御を行う
ことを特徴とする方位検出装置。
(付記5) 付記2に記載の方位検出装置において、
前記投光部は、更に、水平方向に隣接する前記第1発光素子の間にそれぞれ設けられた遮光板を有し、
前記制御部は、前記第1発光素子を一つおきに交互に発光させる制御を行い、
前記受光部は、
入射光の強度変化を反映した電気信号を生成する光電変換素子と、
前記光電変換素子光電変換素子の光の入射側に配置され、鉛直方向の長さに比べて水平方向の幅が小さい開口部を有するマスクと、
前記光電変換素子の受光面に垂直な光軸を有し、前記光軸を中心とする所定の範囲の角度で入射する光束を前記マスクの前記開口部に結像させ、前記所定の範囲を超える角度で入射する光束を前記マスクの前記開口部の外側に結像させる結像光学系とを有する
ことを特徴とする方位検出装置。
(付記6) 付記5に記載の方位検出装置において、
前記結像光学系は、水平方向に屈折力を持つレンズを有する
ことを特徴とする方位検出装置。
(付記7) 付記2に記載の方位検出装置において、
前記設定部は、前記特定部によって2つの前記第1発光素子が特定された場合に、当該2つの第1発光素子それぞれよる光の射出方向の中間の方向を示す方位を、前記人物の頭部方向と正対する前記第1方位として算出する算出部を有する
ことを特徴とする方位検出装置。
Regarding the above description, the following items are further disclosed.
(Supplementary Note 1) A tracking unit that is mounted on a person's head and tracks an azimuth indicating the head direction of the person based on an angular velocity obtained by an angular velocity sensor that observes the rotational motion of the head;
A light projecting unit installed indoors for emitting light having directivity in a predetermined direction;
A light receiving unit mounted on the head of the person, having directivity with respect to incident light from the head direction of the person, and converting the incident light into an electrical signal;
Based on an electrical signal obtained by the light receiving unit, a detection unit that detects a direct pairing between the head direction of the person and the emission direction in which light is emitted by the light projecting unit;
When a direct alignment between the light emitting direction by the light projecting unit and the head direction of the person is detected, the first direction corresponding to the light emitting direction by the light projecting unit is tracked by the tracking unit. An azimuth detecting apparatus comprising: a setting unit configured to set the azimuth indicating the current head direction of the obtained person.
(Supplementary note 2) In the bearing detection device according to supplementary note 1,
The light projecting unit is
A plurality of first light emitting elements that respectively emit light in different predetermined directions;
A controller that causes each of the plurality of first light emitting elements to blink in a different pattern,
The detector is
A specifying unit that specifies a first light emitting element that exists in a direction directly opposite to the head direction of the person from among the plurality of first light emitting elements based on a temporal change in an electrical signal obtained by the light receiving unit. Have
The setting unit sets an azimuth indicating a current head direction of the person with the light emission direction of the first light emitting element specified by the specifying unit as the first azimuth. Detection device.
(Supplementary Note 3) In the bearing detection device according to Supplementary Note 2,
The light projecting unit is
In addition to the plurality of first light emitting elements, a second light emitting element that emits light in a range including the light emission direction of each of the plurality of first light emitting elements is provided,
The controller is
Alternately executing a control of blinking the second light emitting element in a pattern indicating identification information of the light projecting unit and a control of sequentially emitting each of the plurality of first light emitting elements,
The specific part is:
An extraction unit for extracting identification information of the light projecting unit from a temporal change of an electrical signal obtained by the light receiving unit in response to blinking of light by the second light emitting element;
Based on the elapsed time from the completion of extraction of the identification information by the extraction unit to the change of the electrical signal due to light emission of any of the plurality of first light emitting elements, in a direction facing the head direction of the person An orientation detection apparatus comprising: a discrimination unit that discriminates an existing first light emitting element.
(Supplementary note 4) In the bearing detection device according to supplementary note 3,
The azimuth detecting device according to claim 1, wherein the control unit controls each of the plurality of first light emitting elements to emit light at a timing different from the predetermined time by a time equal to or shorter than the predetermined time.
(Supplementary Note 5) In the bearing detection device according to Supplementary Note 2,
The light projecting unit further includes a light shielding plate provided between the first light emitting elements adjacent in the horizontal direction,
The control unit performs control to alternately emit light every other first light emitting element,
The light receiving unit is
A photoelectric conversion element that generates an electrical signal reflecting the intensity change of incident light;
A mask having an opening which is disposed on the light incident side of the photoelectric conversion element photoelectric conversion element and has a small width in the horizontal direction compared to the length in the vertical direction;
A light beam having an optical axis perpendicular to the light receiving surface of the photoelectric conversion element and incident at an angle within a predetermined range centering on the optical axis is imaged on the opening of the mask and exceeds the predetermined range An azimuth detecting device comprising: an imaging optical system that forms an image of a light beam incident at an angle outside the opening of the mask.
(Supplementary note 6) In the bearing detection device according to supplementary note 5,
The imaging optical system includes a lens having a refractive power in a horizontal direction.
(Supplementary Note 7) In the bearing detection device according to Supplementary Note 2,
When the two first light-emitting elements are specified by the specifying unit, the setting unit has an orientation indicating an intermediate direction of the light emission direction of each of the two first light-emitting elements as the head of the person. An azimuth detection device comprising: a calculation unit configured to calculate the first azimuth facing the direction.

10…方位検出装置;11…追跡部;12…投光部;13…受光部;14…検出部;15…設定部;121…制御部;122…方位テーブル;131…光電変換素子;132…マスク;133…リニアフレネルレンズ;134…スリット板;141…信号処理部;142…特定部;143…照合部;144…コードテーブル;145…抽出部;146…判別部;151…判定部;152…算出部;153…方位特定部;154…ID(IDentifier)テーブル;20…コンピュータ装置;21,31,41…プロセッサ;22,32,42…メモリ;23…ハードディスク装置;24,44…ネットワークインタフェース;25…光学ドライブ;26…リムーバブルディスク;33,49…センサインタフェース;34,43…無線通信インタフェース;45…表示制御部;46…液晶表示部;47…音声処理部;48…加速度センサ;S0,S1,S2,S3,S4,S5…遮蔽板;Sa…角速度センサ;SP…スピーカ;AU…アンカーユニット

DESCRIPTION OF SYMBOLS 10 ... Direction detection apparatus; 11 ... Tracking part; 12 ... Light projection part; 13 ... Light receiving part; 14 ... Detection part; 15 ... Setting part; 121 ... Control part; 133 ... Linear Fresnel lens; 134 ... Slit plate; 141 ... Signal processing unit; 142 ... Identification unit; 143 ... Verification unit; 144 ... Code table; 145 ... Extraction unit; ... Calculation unit; 153 ... Direction specifying unit; 154 ... ID (IDentifier) table; 20 ... Computer device; 21, 31, 41 ... Processor; 22,32,42 ... Memory; 23 ... Hard disk device; 24,44 ... Network interface 25 ... optical drive; 26 ... removable disk; 33, 49 ... sensor interface; 34, 43 ... wireless communication interface; 45 ... Display control unit; 46 ... Liquid crystal display unit; 47 ... Audio processing unit; 48 ... Acceleration sensor; S0, S1, S2, S3, S4, S5 ... Shield plate; Sa ... Angular velocity sensor; SP ... Speaker; Anchor unit

Claims (4)

人物の頭部に装着され、前記頭部の回転運動を観測する角速度センサで得られる角速度に基づいて、前記人物の頭部方向を示す方位を追跡する追跡部と、
指向性を有する光を所定の方位に向けて射出する、室内に設置された投光部と、
前記人物の頭部に装着され、前記人物の頭部方向からの入射光に対して指向性を有し、前記入射光を電気信号に変換する受光部と、
前記受光部で得られる電気信号に基づいて、前記人物の頭部方向と前記投光部によって光が射出される方向である射出方向との正対を検出する検出部と、
前記投光部による光の射出方向と前記人物の頭部方向との正対が検出された場合に、前記投光部による光の射出方向に対応する第1方位を、前記追跡部による追跡で得られる前記人物の現在の頭部方向を示す方位として設定する設定部とを備え、
前記投光部は、
互いに異なる所定の方位にそれぞれ光を射出する複数の第1発光素子と、
前記複数の第1発光素子それぞれを互いに異なるパターンで点滅させる制御部とを有し、
前記検出部は、
前記受光部で得られる電気信号の時間的な変化に基づいて、前記複数の第1発光素子の中から、前記人物の頭部方向に正対する方向に存在する第1発光素子を特定する特定部を有し、
前記設定部は、前記特定部で特定された前記第1発光素子による光の射出方向を前記第1方位として、前記人物の現在の頭部方向を示す方位の設定を行う
ことを特徴とする方位検出装置。
A tracking unit that is attached to the head of a person and tracks an azimuth indicating the head direction of the person based on an angular velocity obtained by an angular velocity sensor that observes the rotational motion of the head;
A light projecting unit installed indoors for emitting light having directivity in a predetermined direction;
A light receiving unit mounted on the head of the person, having directivity with respect to incident light from the head direction of the person, and converting the incident light into an electrical signal;
Based on an electrical signal obtained by the light receiving unit, a detection unit that detects a direct pairing between the head direction of the person and the emission direction in which light is emitted by the light projecting unit;
When a direct alignment between the light emitting direction by the light projecting unit and the head direction of the person is detected, the first direction corresponding to the light emitting direction by the light projecting unit is tracked by the tracking unit. A setting unit that sets the orientation indicating the current head direction of the obtained person ,
The light projecting unit is
A plurality of first light emitting elements that respectively emit light in different predetermined directions;
A controller that causes each of the plurality of first light emitting elements to blink in a different pattern,
The detector is
A specifying unit that specifies a first light emitting element that exists in a direction directly opposite to the head direction of the person from among the plurality of first light emitting elements based on a temporal change in an electrical signal obtained by the light receiving unit. Have
The setting unit sets an azimuth indicating the current head direction of the person with the light emitting direction of the first light emitting element specified by the specifying unit as the first azimuth.
An azimuth detecting device characterized by that.
請求項1に記載の方位検出装置において、
前記投光部は、
前記複数の第1発光素子とは別に、前記複数の第1発光素子それぞれによる光の射出方向を含む範囲に光を射出する第2発光素子を有し
前記制御部は、
前記投光部の識別情報を示すパターンで前記第2発光素子を点滅させる制御と、前記複数の第1発光素子のそれぞれを順に発光させる制御とを交互に実行し、
前記特定部は、
前記第2発光素子の点滅に対応して前記受光部で得られる電気信号の時間的な変化から、前記投光部の識別情報を抽出する抽出部と、
前記抽出部による前記識別情報の抽出完了から、前記複数の第1発光素子のいずれかの発光に伴う前記電気信号の変化までの経過時間に基づいて、前記人物の頭部方向に正対する方向に存在する第1発光素子を判別する判別部とを有する
ことを特徴とする方位検出装置。
In the azimuth detecting device according to claim 1 ,
The light projecting unit is
Apart from the plurality of first light-emitting element, a second light emitting element that emits light in the range including the emission direction of light by each of the plurality of first light emitting element,
The controller is
Alternately executing a control of blinking the second light emitting element in a pattern indicating identification information of the light projecting unit and a control of sequentially emitting each of the plurality of first light emitting elements,
The specific part is:
An extraction unit for extracting identification information of the light projecting unit from a temporal change of an electrical signal obtained by the light receiving unit in response to blinking of the second light emitting element;
Based on the elapsed time from the completion of extraction of the identification information by the extraction unit to the change of the electrical signal due to light emission of any of the plurality of first light emitting elements, in a direction facing the head direction of the person An orientation detection apparatus comprising: a discrimination unit that discriminates an existing first light emitting element.
請求項1に記載の方位検出装置において、
前記投光部は、更に、水平方向に隣接する2つの前記第1発光素子の間にそれぞれ設けられた遮光板を有し、
前記制御部は、前記第1発光素子を1つおきに交互に発光させる制御を行い、
前記受光部は、
入射光の強度変化を反映した電気信号を生成する光電変換素子と、
前記光電変換素子の光の入射側に配置され、鉛直方向の長さに比べて水平方向の幅が小さい開口部を有するマスクと、
前記光電変換素子の受光面に垂直な光軸を有し、前記光軸を中心とする所定の範囲の角度で入射する光束を前記マスクの前記開口部に結像させ、前記所定の範囲を超える角度で入射する光束を前記マスクの前記開口部の外側に結像させる結像光学系とを有する
ことを特徴とする方位検出装置。
In the azimuth detecting device according to claim 1 ,
The light projecting unit further includes a light shielding plate provided between each of the two first light emitting elements adjacent in the horizontal direction,
The control unit performs control to alternately emit light every other first light emitting element,
The light receiving unit is
A photoelectric conversion element that generates an electrical signal reflecting the intensity change of incident light;
A mask disposed on the light incident side of the photoelectric conversion element and having an opening having a small width in the horizontal direction compared to the length in the vertical direction;
A light beam having an optical axis perpendicular to the light receiving surface of the photoelectric conversion element and incident at an angle within a predetermined range centering on the optical axis is imaged on the opening of the mask and exceeds the predetermined range An azimuth detecting device comprising: an imaging optical system that forms an image of a light beam incident at an angle outside the opening of the mask.
請求項1に記載の方位検出装置において、
前記設定部は、前記特定部によって2つの前記第1発光素子が特定された場合に、当該2つの第1発光素子それぞれによる光の射出方向の中間の方向を示す方位を、前記人物の頭部方向と正対する前記第1方位として算出する算出部を有する
ことを特徴とする方位検出装置。
In the azimuth detecting device according to claim 1 ,
When the two first light emitting elements are specified by the specifying unit, the setting unit displays an orientation indicating an intermediate direction of the light emission direction of each of the two first light emitting elements. An azimuth detection device comprising: a calculation unit configured to calculate the first azimuth facing the direction.
JP2012174110A 2012-08-06 2012-08-06 Orientation detection device Expired - Fee Related JP6015218B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012174110A JP6015218B2 (en) 2012-08-06 2012-08-06 Orientation detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012174110A JP6015218B2 (en) 2012-08-06 2012-08-06 Orientation detection device

Publications (2)

Publication Number Publication Date
JP2014032608A JP2014032608A (en) 2014-02-20
JP6015218B2 true JP6015218B2 (en) 2016-10-26

Family

ID=50282371

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012174110A Expired - Fee Related JP6015218B2 (en) 2012-08-06 2012-08-06 Orientation detection device

Country Status (1)

Country Link
JP (1) JP6015218B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110168474A (en) * 2017-02-24 2019-08-23 索尼移动通信株式会社 Information processing equipment, information processing method and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1098798A (en) * 1996-09-20 1998-04-14 Murata Mfg Co Ltd Angle mesuring instrument and head mount display device mounted with the same
EP2012170B1 (en) * 2007-07-06 2017-02-15 Harman Becker Automotive Systems GmbH Head-tracking system and operating method thereof

Also Published As

Publication number Publication date
JP2014032608A (en) 2014-02-20

Similar Documents

Publication Publication Date Title
US20220057226A1 (en) Navigation methods and apparatus for the visually impaired
ES2877049T3 (en) System and procedure for tracking three-dimensional objects using a combination of radar and image data
US7489406B2 (en) Optical lens system and position measurement system using the same
EP2807826B1 (en) 3d zoom imager
CN104903775B (en) Head mounted display and its control method
US11044402B1 (en) Power management for optical position tracking devices
EP2825843B1 (en) Laser system with a laser receiver capable to detect its own movements
US20120026088A1 (en) Handheld device with projected user interface and interactive image
US20150109407A1 (en) Method and handheld distance measurement device for indirect distance measurement by means of image-assisted angle determination function
US9588214B2 (en) Sensing direction and distance
JP2008292397A (en) Positional information providing system using visible light communication
CN105138135A (en) Head-mounted type virtual reality device and virtual reality system
JP2002034055A (en) Wide view angle multi-directional image acquiring apparatus and system for mobile unit
Rituerto et al. Towards a sign-based indoor navigation system for people with visual impairments
US20190195632A1 (en) Information processing device, information processing method, and program
JP7313955B2 (en) Surveying instrument, surveying method and surveying program
US10165172B2 (en) Camera system and control method therefor, and electronic device and control program therefor
JP2016198850A (en) Autonomous mobile device and autonomous mobile device control method
EP3353492B1 (en) Device and method to locate a measurement point with an image capture device
JP6015218B2 (en) Orientation detection device
JP2016167208A (en) Action support device
US10591603B2 (en) Retroreflector acquisition in a coordinate measuring device
US20200262071A1 (en) Mobile robot for recognizing queue and operating method of mobile robot
JP2019168406A (en) Target device and surveying system
JPH08161453A (en) Counter for number of persons

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150406

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160126

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160912

R150 Certificate of patent or registration of utility model

Ref document number: 6015218

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees