JP2014215053A - Azimuth detection device, method, and program - Google Patents

Azimuth detection device, method, and program Download PDF

Info

Publication number
JP2014215053A
JP2014215053A JP2013089684A JP2013089684A JP2014215053A JP 2014215053 A JP2014215053 A JP 2014215053A JP 2013089684 A JP2013089684 A JP 2013089684A JP 2013089684 A JP2013089684 A JP 2013089684A JP 2014215053 A JP2014215053 A JP 2014215053A
Authority
JP
Japan
Prior art keywords
angle
polarized light
light receiving
receiving sensors
output detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013089684A
Other languages
Japanese (ja)
Inventor
山 姜
Sang Jiang
山 姜
村瀬 有一
Yuichi Murase
有一 村瀬
境 克司
Katsushi Sakai
克司 境
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013089684A priority Critical patent/JP2014215053A/en
Publication of JP2014215053A publication Critical patent/JP2014215053A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form

Abstract

PROBLEM TO BE SOLVED: To accurately detect the rotation angle of a detection object centering on each coordinate axis of a three-dimensional orthogonal coordinate system in an azimuth detection device, method, and program.SOLUTION: The azimuth detection device is provided with a processor for estimating a yaw angle, a roll angle, and a pitch angle on the basis of an output detection signal from an optical sensor unit for receiving linearly polarized light from a light source. The sensor unit has one top face, a main body forming a polyhedron having M side faces (M is a natural number equal to or greater than 3), three or more polarized light receiving sensors disposed on the top face so as to differ in polarization direction by a certain angle from each other, and a plurality of non-polarized light receiving sensors disposed on the M side faces at intervals of a certain angle. The processor is configured to estimate the yaw angle on the basis of output detection signals of the three or more polarized light receiving sensors, and estimate the roll angle and pitch angle on the basis of output detection signals of the plurality of non-polarized light receiving sensors.

Description

本発明は、方位検知装置、方法及びプログラムに関する。   The present invention relates to an orientation detection device, method, and program.

方位検知装置は、検知対象の一例である人の頭部の向き、人の方位などを検知するのに使用することができる。例えば人の頭部の方位を知ることで、その人が何を見ているか、何に興味を示しているかなどの情報を収集することができる。また、人の頭部の動きを追跡することで、コンピュータなどとのインタラクション、ユーザインタフェースなどに追跡した頭部の動きに関する情報をフィードバックすることができる。追跡した頭部の動きに関するフィードバック情報を用いることで、人の動き(または、ジェスチャ)による各種装置の制御、人が興味を有すると判断される情報の提供、人の向きを考慮した音場を生成するための音響機器の制御などの各種サービスの提供が可能となる。   The orientation detection device can be used to detect the orientation of a person's head, the orientation of the person, and the like, which are examples of detection objects. For example, by knowing the orientation of a person's head, it is possible to collect information such as what the person is looking at and what he is interested in. In addition, by tracking the movement of a person's head, it is possible to feed back information related to the movement of the head that has been tracked in an interaction with a computer, a user interface, or the like. By using feedback information about the tracked head movement, various devices can be controlled by human movement (or gestures), information that is judged to be of interest to a person, and a sound field that takes into account the direction of the person. It is possible to provide various services such as control of audio equipment for generation.

方位検知装置の第1の例では、人に装着された加速度センサ及び磁気センサを用いて人の方位を検知する。しかし、この第1の例では、磁気センサは環境磁気の乱れなどの影響を受けるため、人の方位を正確に検知することは難しい。   In the first example of the orientation detection device, the orientation of a person is detected using an acceleration sensor and a magnetic sensor attached to the person. However, in this first example, since the magnetic sensor is affected by disturbance of environmental magnetism, it is difficult to accurately detect the direction of the person.

一方、方位検知装置の第2の例では、人に装着された光センサに光源からの光を照射して、光センサの受光強度に基づいて人の方位を光学的に検知する。しかし、この第2の例では、光源は光センサに対して特定の方向に光を照射したり、複数の光源を用いたりしないと、人の方位を正確に検知することは難しい。   On the other hand, in the second example of the azimuth detecting device, light from a light source is irradiated to an optical sensor attached to a person, and the azimuth of the person is optically detected based on the received light intensity of the optical sensor. However, in this second example, it is difficult to accurately detect the direction of a person unless the light source irradiates light in a specific direction with respect to the optical sensor or uses a plurality of light sources.

また、上記の第1の例及び第2の例では、3次元直交座標系の各座標軸を中心とした検知対象の回転角度を正確に検知することは難しい。つまり、上記の第1の例及び第2の例では、例えば人の頭部のヨー(Yaw)角度、ピッチ(Pitch)角度、及びロール(Roll)角度を正確に検知することは難しい。   In the first and second examples described above, it is difficult to accurately detect the rotation angle of the detection target around each coordinate axis of the three-dimensional orthogonal coordinate system. That is, in the first and second examples described above, it is difficult to accurately detect, for example, the yaw (Yaw) angle, pitch (Pitch) angle, and roll (Roll) angle of the human head.

実開平6−40804号公報Japanese Utility Model Publication No. 6-40804 特開平9−319505号公報JP-A-9-319505

従来の方位検知装置では、3次元直交座標系の各座標軸を中心とした検知対象の回転角度を正確に検知することは難しい。   In the conventional azimuth detecting device, it is difficult to accurately detect the rotation angle of the detection target around each coordinate axis of the three-dimensional orthogonal coordinate system.

そこで、本発明は、3次元直交座標系の各座標軸を中心とした検知対象の回転角度を正確に検知可能な方位検知装置、方法及びプログラムを提供することを目的とする。   Therefore, an object of the present invention is to provide an azimuth detecting device, method, and program capable of accurately detecting a rotation angle of a detection target around each coordinate axis of a three-dimensional orthogonal coordinate system.

本発明の一観点によれば、光源からの直線偏光を受光する光センサ部と、前記光センサ部からの出力検知信号に基づいてヨー角度、ロール角度及びピッチ角度を推定するプロセッサを備え、前記ヨー角度は前記XYZ座標系の地面と平行なXY平面と垂直なZ軸を中心とした回転角度、前記ロール角度はX軸を中心とした回転角度、前記ピッチ角度はY軸を中心とした回転角度であり、前記センサ部は、1つの上面と、M個(Mは3以上の自然数)の側面を有する多面体を形成する本体と、前記上面に偏光方向が互いに一定角度異なるように配置された3個以上の偏光受光センサと、前記M個の側面に一定角度間隔で配置された複数の非偏光受光センサを有し、前記プロセッサは、前記3個以上の偏光受光センサの出力検知信号に基づいて前記ヨー角度を推定し、前記複数の非偏光受光センサの出力検知信号に基づいて前記ロール角度及び前記ピッチ角度を推定する方位検知装置が提供される。   According to one aspect of the present invention, an optical sensor unit that receives linearly polarized light from a light source, and a processor that estimates a yaw angle, a roll angle, and a pitch angle based on an output detection signal from the optical sensor unit, The yaw angle is a rotation angle about the Z axis perpendicular to the XY plane parallel to the ground of the XYZ coordinate system, the roll angle is a rotation angle about the X axis, and the pitch angle is a rotation about the Y axis. The sensor unit is arranged such that a main body forming a polyhedron having one upper surface, M (M is a natural number of 3 or more) side surfaces, and polarization directions are different from each other by a certain angle on the upper surface. Three or more polarized light receiving sensors and a plurality of non-polarized light receiving sensors arranged at a predetermined angular interval on the M side surfaces, wherein the processor is based on output detection signals of the three or more polarized light receiving sensors. Before Estimating the yaw angle, the orientation detecting device for estimating the roll angle and the pitch angle based on the plurality of output detection signal of the unpolarized light receiving sensor is provided.

開示の方位検知装置、方法及びプログラムによれば、3次元直交座標系の各座標軸を中心とした検知対象の回転角度を検知することができる。   According to the disclosed azimuth detection apparatus, method, and program, it is possible to detect a rotation angle of a detection target around each coordinate axis of a three-dimensional orthogonal coordinate system.

一実施例における光源と方位検知装置の一例を示す図である。It is a figure which shows an example of the light source and direction detection apparatus in one Example. 方位検知装置の外観の一例を示す図である。It is a figure which shows an example of the external appearance of an azimuth | direction detection apparatus. 一実施例における方位検知装置のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of the direction detection apparatus in one Example. 光センサ部の一例を示す斜視図である。It is a perspective view which shows an example of an optical sensor part. 光センサ部の一例を示す平面図である。It is a top view which shows an example of an optical sensor part. 偏光受光センサの一例を示す図である。It is a figure which shows an example of a polarized light receiving sensor. 非偏光受光センサの一例を示す図である。It is a figure which shows an example of a non-polarization light receiving sensor. 偏光受光センサの配置の一例を説明する図である。It is a figure explaining an example of arrangement | positioning of a polarization light receiving sensor. 光センサ部と3次元直交座標系の各座標軸との関係の一例を説明する図である。It is a figure explaining an example of the relationship between an optical sensor part and each coordinate axis of a three-dimensional orthogonal coordinate system. 偏光受光センサの受光面積を説明する図である。It is a figure explaining the light-receiving area of a polarization light receiving sensor. 偏光受光センサの出力を説明する図である。It is a figure explaining the output of a polarization light receiving sensor. 偏光受光強度分布の一例を示す図である。It is a figure which shows an example of polarized light received light intensity distribution. ヨー角度の一例を示す図である。It is a figure which shows an example of a yaw angle. ロール角度及びピッチ角度を説明する図である。It is a figure explaining a roll angle and a pitch angle. 比率テーブルの一例を示す図である。It is a figure which shows an example of a ratio table. 方位検知処理の一例を説明するフローチャートである。It is a flowchart explaining an example of an azimuth | direction detection process. 光源の配置の他の例を説明する図である。It is a figure explaining the other example of arrangement | positioning of a light source. 図17に示す光源の配置での方位検知処理の一例を説明する図である。It is a figure explaining an example of the direction detection process in arrangement | positioning of the light source shown in FIG. 図17に示す光源の配置でのヨー角度の推定を説明する図である。It is a figure explaining estimation of the yaw angle in arrangement | positioning of the light source shown in FIG. 光センサ部の他の例を示す図である。It is a figure which shows the other example of an optical sensor part. 他の実施例における方位検知装置のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of the orientation detection apparatus in another Example. 複数の検知対象の位置検知の一例を説明する図である。It is a figure explaining an example of the position detection of a some detection target. 他の実施例における光源と方位検知装置の一例を示す図である。It is a figure which shows an example of the light source and orientation detection apparatus in another Example. オフライン処理の一例を説明するフローチャートである。It is a flowchart explaining an example of offline processing. グリッドの一例を説明する図である。It is a figure explaining an example of a grid. オンライン処理の一例を説明するフローチャートである。It is a flowchart explaining an example of online processing.

開示の方位検知装置、方法及びプログラムにおいて、プロセッサは、光源からの直線偏光を受光する光センサ部からの出力検知信号に基づいてヨー角度、ロール角度及びピッチ角度を推定する。センサ部は、1つの上面と、M個(Mは3以上の自然数)の側面を有する多面体を形成する本体と、前記上面に偏光方向が互いに一定角度異なるように配置された3個以上の偏光受光センサと、前記M個の側面に一定角度間隔で配置された複数の非偏光受光センサを有する。プロセッサは、前記3個以上の偏光受光センサの出力検知信号に基づいてヨー角度を推定し、前記複数の非偏光受光センサの出力検知信号に基づいてロール角度及びピッチ角度を推定する。   In the disclosed orientation detection apparatus, method, and program, the processor estimates the yaw angle, roll angle, and pitch angle based on an output detection signal from an optical sensor unit that receives linearly polarized light from a light source. The sensor unit includes a main body forming a polyhedron having one upper surface, M (M is a natural number of 3 or more) side surfaces, and three or more polarizations arranged on the upper surface so that the polarization directions are different from each other by a predetermined angle. A light receiving sensor and a plurality of non-polarized light receiving sensors arranged at a predetermined angular interval on the M side surfaces. The processor estimates a yaw angle based on output detection signals of the three or more polarized light receiving sensors, and estimates a roll angle and a pitch angle based on output detection signals of the plurality of non-polarized light receiving sensors.

以下に、開示の方位検知装置、方法及びプログラムの各実施例を図面と共に説明する。   Embodiments of the disclosed orientation detection apparatus, method, and program will be described below with reference to the drawings.

図1は、一実施例における光源と方位検知装置の一例を示す図である。図1において、光源11は、例えば建物内の天井に設置され、建物内の床に向かって(即ち、後述するXYZ座標系のZ軸方向と平行な方向に沿って)予め決められた偏光方向の光(即ち、直線偏光)を照射する。検知対象の一例である人100は、後述する方位検知装置21を装着しており、方位検知装置21は光源11からの光を検知する。   FIG. 1 is a diagram illustrating an example of a light source and an orientation detection device according to an embodiment. In FIG. 1, a light source 11 is installed on a ceiling in a building, for example, and is directed to a predetermined polarization direction toward a floor in the building (that is, along a direction parallel to a Z-axis direction of an XYZ coordinate system described later). (I.e., linearly polarized light). A person 100 as an example of a detection target is equipped with an orientation detection device 21 described later, and the orientation detection device 21 detects light from the light source 11.

図2は、方位検知装置の外観の一例を示す図である。図2に示す例では、方位検知装置21はヘッドセットの形態を有し、人100の頭100−1に装着されている。方位検知装置21は、後述する光センサ部24を有する。   FIG. 2 is a diagram illustrating an example of the appearance of the orientation detection device. In the example shown in FIG. 2, the azimuth detecting device 21 has the form of a headset and is attached to the head 100-1 of the person 100. The direction detection device 21 has an optical sensor unit 24 described later.

図3は、一実施例における方位検知装置のハードウェア構成の一例を示すブロック図である。この例では、方位検知装置21は、図3に示す如く接続されたCPU(Central Processing Unit)22、メモリ23、光センサ部24、通信部25、及びデータベース(DB:Data-Base)部26を有する。CPU22は、プロセッサまたはコンピュータの一例であり、方位検知装置21全体の制御を司る。メモリ23は、記憶手段の一例であり、CPU22が実行するプログラム、CPU22が実行する演算の中間データなどの各種データを格納する。光源11からの光を検知する光センサ部24の構成については後述する。通信部25は、有線及び/または無線で外部装置(図示せず)と通信する通信手段の一例である。方位検知装置21は、後述する如く推定したヨー(Yaw)角度Ψ、ピッチ(Pitch)角度θ、及びロール(Roll)角度φなどのセンシング情報を、通信部25から外部装置へ送信可能である。外部装置は、例えばブルーツース(Bluetooth、登録商標)を含む近距離無線通信プロトコルなどを用いて通信部と通信しても良く、方位検知装置21からのセンシング情報に基づいてサービスを提供したり、サービスの内容を変更したりしても良い。DB部26は、各種パラメータを格納したデータベースを有しており、メモリ23内に設けられていても良い。   FIG. 3 is a block diagram illustrating an example of a hardware configuration of the azimuth detecting device according to the embodiment. In this example, the azimuth detecting device 21 includes a CPU (Central Processing Unit) 22, a memory 23, an optical sensor unit 24, a communication unit 25, and a database (DB: Data-Base) unit 26 connected as shown in FIG. Have. The CPU 22 is an example of a processor or a computer, and controls the entire direction detection device 21. The memory 23 is an example of a storage unit, and stores various data such as a program executed by the CPU 22 and intermediate data of an operation executed by the CPU 22. The configuration of the optical sensor unit 24 that detects light from the light source 11 will be described later. The communication unit 25 is an example of a communication unit that communicates with an external device (not shown) in a wired and / or wireless manner. The azimuth detecting device 21 can transmit sensing information such as a yaw angle ψ, a pitch angle θ, and a roll angle φ estimated as described later from the communication unit 25 to an external device. The external device may communicate with the communication unit using, for example, a short-range wireless communication protocol including Bluetooth (registered trademark), provide a service based on sensing information from the direction detection device 21, You may change the contents of. The DB unit 26 has a database that stores various parameters, and may be provided in the memory 23.

記憶手段は、コンピュータ読取可能な記憶媒体により形成可能である。コンピュータ読み取り可能な記憶媒体は、半導体記憶装置であっても良い。また、コンピュータ読み取り可能な記憶媒体が磁気記録媒体、光記録媒体、光磁気記録媒体などの場合、記憶手段はロードされた記録媒体に対して情報の読み書きを行うリーダ・ライタで形成可能である。   The storage means can be formed by a computer-readable storage medium. The computer-readable storage medium may be a semiconductor storage device. When the computer-readable storage medium is a magnetic recording medium, an optical recording medium, a magneto-optical recording medium, or the like, the storage means can be formed by a reader / writer that reads / writes information from / to the loaded recording medium.

図4は、光センサ部の一例を示す斜視図である。この例では、図4に示すように、光センサ部24は三角錐台形状の本体241を有する。本体241は、三角形状の上面24−1、三角形状の底面24−2、及び台形状の3つの側面(または、斜面)24−3を有する。   FIG. 4 is a perspective view showing an example of the optical sensor unit. In this example, as shown in FIG. 4, the optical sensor unit 24 includes a main body 241 having a triangular frustum shape. The main body 241 has a triangular upper surface 24-1, a triangular bottom surface 24-2, and three trapezoidal side surfaces (or slopes) 24-3.

図5は、光センサ部の一例を示す平面図である。図5に示すように、本体241の上面24−1には、3個の偏光受光センサ241a1,241b1,241c1が設けられている。偏光受光センサ241a1,241b1,241c1は、上面24−1の対応する辺に沿って配置されている。また、本体241の3つの側面24−3には、非偏光受光センサ241a2,241b2,241c2が設けられている。非偏光受光センサ241a2,241b2,241c2は、底面24−2の対応する辺、或いは、上面24−1の対応する辺に沿って配置されている。   FIG. 5 is a plan view showing an example of the optical sensor unit. As shown in FIG. 5, three polarized light receiving sensors 241a1, 241b1, and 241c1 are provided on the upper surface 24-1 of the main body 241. The polarized light receiving sensors 241a1, 241b1, and 241c1 are disposed along corresponding sides of the upper surface 24-1. In addition, non-polarized light receiving sensors 241a2, 241b2, and 241c2 are provided on the three side surfaces 24-3 of the main body 241. The non-polarized light receiving sensors 241a2, 241b2, and 241c2 are disposed along the corresponding side of the bottom surface 24-2 or the corresponding side of the top surface 24-1.

図6は、偏光受光センサの一例を示す図である。図6に示す偏光受光センサ241−1は、各偏光受光センサ241a1,241b1,241c1として機能し得る。図6中、(a)は偏光受光センサ241−1の平面図を示し、(b)は偏光受光センサ241−1の側面図を示す。偏光受光センサ241−1は、受光シート32の上に偏光フィルム31が設けられた構成を有する。図6(a)中、偏光フィルム31内に示されている平行な実線は、偏光方向を模式的に示す。受光シート32の面と偏光フィルム31の面は、互いに平行であり、取り付けられる上面24−1と平行である。偏光フィルム31の面積は、受光シート32の面積以上であれば良い。偏光受光センサ241−1は、光源11からの光を偏光フィルム31を介して受光シート32で受光するため、光センサ部24の姿勢変化(即ち、頭部100−1の姿勢変化)に伴う受光面積の変化に基づいて受光強度を検知できる。   FIG. 6 is a diagram illustrating an example of a polarized light receiving sensor. The polarized light receiving sensor 241-1 shown in FIG. 6 can function as each polarized light receiving sensor 241a1, 241b1, 241c1. In FIG. 6, (a) shows a plan view of the polarized light receiving sensor 241-1 and (b) shows a side view of the polarized light receiving sensor 241-1. The polarized light receiving sensor 241-1 has a configuration in which a polarizing film 31 is provided on a light receiving sheet 32. In FIG. 6A, the parallel solid line shown in the polarizing film 31 schematically indicates the polarization direction. The surface of the light receiving sheet 32 and the surface of the polarizing film 31 are parallel to each other and parallel to the upper surface 24-1 to be attached. The area of the polarizing film 31 may be equal to or larger than the area of the light receiving sheet 32. Since the polarized light receiving sensor 241-1 receives the light from the light source 11 by the light receiving sheet 32 through the polarizing film 31, the received light accompanying the change in the posture of the optical sensor unit 24 (that is, the change in the posture of the head 100-1). The received light intensity can be detected based on the change in area.

偏向受光センサ241−1は偏光フィルム31を有するため、図5中、平行な実線で模式的に示すように、偏光受光センサ241a1,241b1,241c1の偏光方向は互いに一定角度異なり、図5の例では互いに120°異なる。   Since the deflection light receiving sensor 241-1 has the polarizing film 31, the polarization directions of the polarization light receiving sensors 241a1, 241b1, and 241c1 are different from each other by a certain angle as schematically shown by parallel solid lines in FIG. Then, they are different from each other by 120 °.

図7は、非偏光受光センサの一例を示す図である。図7に示す非偏光受光センサ241−2は、各非偏光受光センサ241a2,241b2,241c2として機能し得る。図7中、(a)は非偏光受光センサ241−2の平面図を示し、(b)は非偏光受光センサ241−2の側面図を示す。非偏光受光センサ241−2は、受光シート33を有し、偏光フィルムは有さない。   FIG. 7 is a diagram illustrating an example of a non-polarized light receiving sensor. The non-polarized light receiving sensor 241-2 shown in FIG. 7 can function as the non-polarized light receiving sensors 241a2, 241b2, and 241c2. 7A is a plan view of the non-polarized light receiving sensor 241-2, and FIG. 7B is a side view of the non-polarized light receiving sensor 241-2. The non-polarized light receiving sensor 241-2 has a light receiving sheet 33 and does not have a polarizing film.

図8は、偏光受光センサの配置の一例を説明する図である。図8中、(a)は例えば水平配置される偏光受光センサ241−1の平面図、(b)は例えば傾斜配置される非偏光受光センサ241−2の側面図を示す。この例では、側面24−3及び非偏光受光センサ241−2の水平面(または、底面24−2)に対する傾斜角度はαであり、非偏光受光センサ241−2の側面24−3に沿った上下方向の長さはlである。   FIG. 8 is a diagram for explaining an example of the arrangement of polarized light receiving sensors. 8A is a plan view of the polarized light receiving sensor 241-1 arranged horizontally, for example. FIG. 8B is a side view of the non-polarized light receiving sensor 241-2 arranged inclined, for example. In this example, the inclination angle of the side surface 24-3 and the non-polarized light receiving sensor 241-2 with respect to the horizontal plane (or the bottom surface 24-2) is α, and the vertical direction along the side surface 24-3 of the non-polarized light receiving sensor 241-2. The length in the direction is l.

図9は、光センサ部と3次元直交座標系の各座標軸との関係の一例を説明する図である。図9は、光センサ部24の上面24−1及び底面24−2が3次元直交座標系の一例であるXYZ座標系のXY平面と平行な状態を示す。光源11は、発行ダイオード(LED:Light Emitting Diode)11A及び直線偏光フィルタ(または、フィルム)11Bを有する。人100の頭部100−1の回転中心をCで示す。また、光センサ部24の中心と頭部100−1の回転中心Cとの間のZ軸に沿った距離をDで示す。例えばXY平面と垂直なZ軸を中心とした回転角度をヨー(Yaw)角度Ψ、Y軸を中心とした回転角度をピッチ(Pitch)角度θ、及び、X軸を中心とした回転角度をロール(Roll)角度φと定義する。   FIG. 9 is a diagram for explaining an example of the relationship between the optical sensor unit and each coordinate axis of the three-dimensional orthogonal coordinate system. FIG. 9 shows a state in which the upper surface 24-1 and the bottom surface 24-2 of the optical sensor unit 24 are parallel to the XY plane of the XYZ coordinate system, which is an example of a three-dimensional orthogonal coordinate system. The light source 11 includes a light emitting diode (LED) 11A and a linear polarization filter (or film) 11B. The center of rotation of the head 100-1 of the person 100 is indicated by C. In addition, a distance along the Z axis between the center of the optical sensor unit 24 and the rotation center C of the head 100-1 is denoted by D. For example, a rotation angle about the Z axis perpendicular to the XY plane is a yaw angle Ψ, a rotation angle about the Y axis is a pitch angle θ, and a rotation angle about the X axis is rolled. (Roll) The angle φ is defined.

図10は、偏光受光センサの受光面積を説明する図である。図10において、a1,b1,c1は、偏光受光センサ241a1,241b1,241c1の受光面積を示し、破線は光源11の偏光方向を示す。偏光フィルム31を有する偏光受光センサ241a1,241b1,241c1の受光強度と、ヨー角度Ψとの間には、定量的な関係があるため、周知の方法を利用することで、偏光受光センサ241a1,241b1,241c1の出力検知信号に基づき合計3相の偏光受光強度の比率からヨー角度Ψを推定することができる。また、偏光受光センサ241a1,241b1,241c1の出力検知信号の位相差に基づき、ピッチ回転区間を特定することができる。   FIG. 10 is a diagram for explaining the light receiving area of the polarized light receiving sensor. In FIG. 10, a 1, b 1, c 1 indicate the light receiving areas of the polarized light receiving sensors 241 a 1, 241 b 1, 241 c 1, and the broken line indicates the polarization direction of the light source 11. Since there is a quantitative relationship between the received light intensity of the polarized light receiving sensors 241a1, 241b1, 241c1 having the polarizing film 31 and the yaw angle Ψ, the polarized light receiving sensors 241a1, 241b1 are used by using a known method. , 241 c 1, the yaw angle ψ can be estimated from the ratio of the total three-phase polarized light reception intensity. Further, the pitch rotation section can be specified based on the phase difference between the output detection signals of the polarized light receiving sensors 241a1, 241b1, and 241c1.

図11は、偏光受光センサの出力を説明する図である。この例では、説明の便宜上、光センサ24内に各偏光受光センサ241a1,241b1,241c1の出力検知信号をアナログ−デジタル変換するADC(Analog-to-Digital Converter)が設けられており、デジタル検知信号をCPU22に出力する。また、光センサ24内に各非偏光受光センサ241a2,241b2,241c2の出力検知信号をアナログ−デジタル変換するADC(Analog-to- Digital Converter)が設けられており、デジタル検知信号をCPU22に出力する。なお、図3において、光センサ部24とCPU22との間にADCを設けても良いことは言うまでもない。   FIG. 11 is a diagram for explaining the output of the polarized light receiving sensor. In this example, for convenience of explanation, an ADC (Analog-to-Digital Converter) for converting the output detection signals of the respective polarization light receiving sensors 241a1, 241b1, and 241c1 from analog to digital is provided in the optical sensor 24. Is output to the CPU 22. Further, an ADC (Analog-to-Digital Converter) for converting the output detection signals of the non-polarized light receiving sensors 241a2, 241b2, 241c2 from analog to digital is provided in the optical sensor 24, and the digital detection signals are output to the CPU 22. . In FIG. 3, it goes without saying that an ADC may be provided between the optical sensor unit 24 and the CPU 22.

図12は、偏光受光強度分布の一例を示す図である。図12は、光センサ部24の上面24−1がXY平面と平行であり、Z軸を中心に180°ずつ、計3回連続して回転した場合の偏光受光強度分布を示す。図12中、縦軸は偏光受光センサ241a1,241b1,241c1の出力検知信号に基づく受光強度a,b,cを任意単位で示し、横軸は時間tを任意単位で示す。   FIG. 12 is a diagram illustrating an example of the polarization received light intensity distribution. FIG. 12 shows a polarization received light intensity distribution when the upper surface 24-1 of the optical sensor unit 24 is parallel to the XY plane and rotated continuously by 180 ° about the Z axis for a total of three times. In FIG. 12, the vertical axis represents received light intensity a, b, c based on the output detection signals of the polarized light receiving sensors 241a1, 241b1, 241c1 in arbitrary units, and the horizontal axis represents time t in arbitrary units.

図13は、ヨー角度の一例を示す図である。図13は、図12の偏光受光強度分布から推定したヨー角度Ψを示す。図13中、縦軸はヨー角度Ψ(°)、横軸は時間tを任意単位で示す。   FIG. 13 is a diagram illustrating an example of the yaw angle. FIG. 13 shows the yaw angle Ψ estimated from the polarization received light intensity distribution of FIG. In FIG. 13, the vertical axis indicates the yaw angle ψ (°), and the horizontal axis indicates time t in arbitrary units.

図14は、ロール角度及びピッチ角度を説明する図である。この例では、人間の生理運動学による観察結果などを考慮して、ロール回転及びピッチ回転は、別々のタイミングで発生すると仮定する。ロール回転及びピッチ回転を特定するため、先ず非偏光受光センサ241a2,241b2,241c2の出力検知信号のデューティー比を計算し、いずれのデューティー比も閾値以下であれば、ロール回転及びピッチ回転は発生していないと判断する。また、例えば非偏光受光センサ241a2,241c2の出力検知信号の増減が同調している場合はピッチ回転が発生していると判断し、同調していない場合はロール回転が発生していると判断する。なお、非偏光受光センサ241a2,241b2,241c2の出力検知信号の位相差に基づき、ピッチ回転区間またはロール回転区間を特定することができる。   FIG. 14 is a diagram illustrating the roll angle and the pitch angle. In this example, it is assumed that roll rotation and pitch rotation occur at different timings in consideration of the observation result by human physiological kinematics. In order to specify the roll rotation and pitch rotation, first, the duty ratios of the output detection signals of the non-polarized light receiving sensors 241a2, 241b2, and 241c2 are calculated. Judge that it is not. Further, for example, when the increase / decrease in the output detection signals of the non-polarized light receiving sensors 241a2 and 241c2 is synchronized, it is determined that the pitch rotation is occurring, and when not synchronized, it is determined that the roll rotation is occurring. . The pitch rotation section or the roll rotation section can be specified based on the phase difference between the output detection signals of the non-polarized light receiving sensors 241a2, 241b2, and 241c2.

なお、予め例えば非偏光受光センサ241b2,241a2(または、241c2)の出力検知信号の比率テーブルを作成してメモリ23又はDB部26に格納しておき、人100の方位検知時に検知した非偏光受光センサ241b2,241a2(または、241c2)の出力検知信号の比率に基づき比率テーブルを検索してピッチ回転を特定するようにしても良い。この場合、非偏光受光センサ241bの出力検知信号の増減方向から、ピッチ回転の回転方向の極性を推定することができる。   Note that, for example, a ratio table of output detection signals of the non-polarized light receiving sensors 241b2 and 241a2 (or 241c2) is created in advance and stored in the memory 23 or the DB unit 26. The pitch rotation may be specified by searching the ratio table based on the ratio of the output detection signals of the sensors 241b2 and 241a2 (or 241c2). In this case, the polarity of the rotation direction of the pitch rotation can be estimated from the increase / decrease direction of the output detection signal of the non-polarized light receiving sensor 241b.

図15は、比率テーブルの一例を示す図である。図15に示す例では、ピッチ角度θ(°)に対し、非偏光受光センサ241b2の出力検知信号の、非偏光受光センサ241a2,241b2,241c2の出力検知信号の合計に対する比率b2/Totalと、非偏光受光センサ241a2の、非偏光受光センサ241a2,241b2,241c2の出力検知信号の合計に対する比率a2/Totalとが格納されている。   FIG. 15 is a diagram illustrating an example of the ratio table. In the example shown in FIG. 15, the ratio b2 / Total of the output detection signal of the non-polarized light receiving sensor 241b2 with respect to the total of the output detection signals of the non-polarized light receiving sensors 241a2, 241b2, and 241c2 with respect to the pitch angle θ (°) Stored is the ratio a2 / Total of the polarized light receiving sensor 241a2 with respect to the total output detection signals of the non-polarized light receiving sensors 241a2, 241b2, and 241c2.

なお、ロール角度φ(°)に対しても、ピッチ角度θ(°)の場合と同様にして比率テーブルを作成することができる。   Note that a ratio table can be created for the roll angle φ (°) as in the case of the pitch angle θ (°).

図16は、方位検知処理の一例を説明するフローチャートである。図16に示す方位検知処理は、図3に示すCPU22が、メモリ23に格納されたプログラムを実行することで実現可能である。図16において、ステップS1では、偏光受光センサ241a1,241b1,241c1の出力検知信号から対応するデジタル検知信号を取得する。ステップS2では、ステップS1で取得したデジタル検知信号に基づいて、上記の如き方法でヨー角度Ψを特定する。   FIG. 16 is a flowchart illustrating an example of the orientation detection process. The azimuth detection process shown in FIG. 16 can be realized by the CPU 22 shown in FIG. 3 executing a program stored in the memory 23. In FIG. 16, in step S1, a corresponding digital detection signal is acquired from the output detection signals of the polarized light receiving sensors 241a1, 241b1, and 241c1. In step S2, the yaw angle Ψ is specified by the method as described above based on the digital detection signal acquired in step S1.

ステップS3では、非偏光受光センサ241a2,241b2,241c2の出力検知信号から対応するデジタル検知信号を取得する。ステップS4では、ステップS3で取得したデジタル検知信号に基づいて、上記の如き方法でロール回転区間及びピッチ回転区間を特定する。ステップS5では、ロール回転またはピッチ回転が有るか否かを判定し、判定結果がNOであると処理はステップS1へ戻る。一方、ステップS5の判定結果がYESであると、ロール回転及びピッチ回転は、別々のタイミングで発生すると仮定しているので、ステップS6では、ロール回転またはピッチ回転を識別する。   In step S3, a corresponding digital detection signal is acquired from the output detection signals of the non-polarized light receiving sensors 241a2, 241b2, and 241c2. In step S4, the roll rotation section and the pitch rotation section are specified by the method as described above based on the digital detection signal acquired in step S3. In step S5, it is determined whether roll rotation or pitch rotation is present. If the determination result is NO, the process returns to step S1. On the other hand, if the determination result in step S5 is YES, it is assumed that roll rotation and pitch rotation occur at different timings, and therefore roll rotation or pitch rotation is identified in step S6.

ステップS7では、ステップS6における識別の結果がピッチ回転であるか否かを判定し、判定結果がNOであると処理はステップS8へ進み、判定結果がYESであると処理はステップS9へ進む。ステップS8では、ロール角度を上記の如き方法で推定し、処理はステップS1へ戻る。また、ステップS9では、ピッチ角度を上記の如き方法で推定し、処理はステップS1へ戻る。   In step S7, it is determined whether or not the identification result in step S6 is pitch rotation. If the determination result is NO, the process proceeds to step S8, and if the determination result is YES, the process proceeds to step S9. In step S8, the roll angle is estimated by the method as described above, and the process returns to step S1. In step S9, the pitch angle is estimated by the method as described above, and the process returns to step S1.

これにより、3次元直交座標系の各座標軸を中心とした検知対象の回転角度、即ち、ロール角度φ、ピッチ角度θ、及びヨー角度Ψを正確に推定することができ、φ,θ,Ψに基づき人100の頭部100−1(即ち、方位検知装置21)の姿勢(または、光源11に対する方位)を検知できる。   Accordingly, the rotation angle of the detection target around each coordinate axis of the three-dimensional orthogonal coordinate system, that is, the roll angle φ, the pitch angle θ, and the yaw angle Ψ can be accurately estimated, and φ, θ, Ψ Based on this, it is possible to detect the posture of the head 100-1 of the person 100 (that is, the orientation relative to the light source 11).

図17は、光源の配置の他の例を説明する図であり、図18は、図17に示す光源の配置での方位検知処理の一例を説明する図である。図18は、図17の状態から破線で示すようにあるヨー角度Ψ(この例では反時計方向に)回転した状態を示す。図17及び図18において、光源11は、例えば建物内の壁に設置され、建物内の対向する壁に向かって光を水平方向(即ち、XY平面と平行な方向に沿って)に照射する。図17及び図18中、図5及び図9と同一部分には同一符号を付し、その説明は省略する。この例では、非偏光受光センサ241a2,241b2,241c2の出力検知信号から受光強度のみを用いて光センサ部24Aのヨー角度Ψを推定するため、光源11側に偏光フィルタを設けなくても良い。   FIG. 17 is a diagram for explaining another example of the arrangement of the light sources, and FIG. 18 is a diagram for explaining an example of the orientation detection process in the arrangement of the light sources shown in FIG. FIG. 18 shows a state in which the yaw angle Ψ (in this example, counterclockwise) is rotated from the state of FIG. 17 as indicated by a broken line. 17 and 18, the light source 11 is installed on a wall in a building, for example, and irradiates light in a horizontal direction (that is, along a direction parallel to the XY plane) toward an opposing wall in the building. 17 and 18, the same parts as those in FIGS. 5 and 9 are denoted by the same reference numerals, and the description thereof is omitted. In this example, since the yaw angle ψ of the optical sensor unit 24A is estimated using only the received light intensity from the output detection signals of the non-polarized light receiving sensors 241a2, 241b2, 241c2, it is not necessary to provide a polarizing filter on the light source 11 side.

図19は、図17に示す光源の配置でのヨー角度の推定を説明する図である。図19中、ハッチングは、例えば非偏光受光センサ241a2の位置を示す。例えば、非偏光受光センサ241a2,241b2の受光強度Sa,Sbは、
Sa=P・l・sin(α)・sin(Ψ) −π/6<Ψ<π−π/6
Sb=0 −π/6<Ψ<π−π/6
で表すことができ、受光強度Sa,Sbは120°の位相差を有する。ここで、P,l,αは常数であるため、非偏光受光センサ241a2,241b2の出力検知信号からヨー角度Ψの絶対値を計算することができる。さらに、図9と共に説明した光センサ部24のXYZ座標系の定義と、非偏光受光センサ241a2,241b2,241c2の出力検知信号の位相差に基づき、ヨー回転の区間を特定することができる。このように、光源11が水平方向に光を照射する場合、図17及び図18に示す如き比較的簡単な構成の光センサ部24Aを用いてヨー角度Ψを推定することができる。
FIG. 19 is a diagram for explaining the estimation of the yaw angle in the arrangement of the light sources shown in FIG. In FIG. 19, hatching indicates the position of the non-polarized light receiving sensor 241a2, for example. For example, the received light intensity Sa, Sb of the non-polarized light receiving sensors 241a2, 241b2 is
Sa = P · l 2 · sin (α) · sin (Ψ) −π / 6 <Ψ <π−π / 6
Sb = 0−π / 6 <Ψ <π−π / 6
The received light intensity Sa and Sb have a phase difference of 120 °. Here, since P, l, and α are constants, the absolute value of the yaw angle ψ can be calculated from the output detection signals of the non-polarized light receiving sensors 241a2 and 241b2. Furthermore, the section of the yaw rotation can be specified based on the definition of the XYZ coordinate system of the optical sensor unit 24 described with reference to FIG. As described above, when the light source 11 emits light in the horizontal direction, the yaw angle Ψ can be estimated by using the optical sensor unit 24A having a relatively simple configuration as shown in FIGS.

なお、図5の光センサ部24に対して図17及び図18の場合のように光源11からの光を水平方向に照射し、方位推定装置21を装着している人100の動きが光センサ部24への光が遮蔽されにくい動きに限定されている場合には、図5の例の場合と同様にヨー角度Ψ、ピッチ角度θ、及びロール角度φを推定できる。また、光源11からの光を水平方向に照射する場合、図5の光センサ部24の上面24−1が水平方向と直交する配置としても良いことは言うまでもない。   5 is irradiated with light from the light source 11 in the horizontal direction as in FIGS. 17 and 18, and the movement of the person 100 wearing the azimuth estimation device 21 is detected by the optical sensor. When the light to the unit 24 is limited to the movement that is not easily shielded, the yaw angle ψ, the pitch angle θ, and the roll angle φ can be estimated as in the example of FIG. Moreover, when irradiating the light from the light source 11 in a horizontal direction, it cannot be overemphasized that the upper surface 24-1 of the optical sensor part 24 of FIG. 5 is good also as an arrangement | positioning orthogonal to a horizontal direction.

上記の例では、光センサ部24,24Aの本体241は三角錐台形状を有するが、本体241は1つの上面と、3つ以上の側面を有する多面体であれば良い。また、側面は、上面に対して垂直であっても、上面に対して傾斜していても良い。さらに、多面体の上面に設ける偏光受光センサの数は、好ましくは3個以上であり、多面体の側面に設ける非偏光受光センサの数は、3個以上であり、側面の数と同じ個数であることが好ましい。   In the above example, the main body 241 of the optical sensor units 24 and 24A has a triangular frustum shape, but the main body 241 may be a polyhedron having one upper surface and three or more side surfaces. Further, the side surface may be perpendicular to the upper surface or may be inclined with respect to the upper surface. Further, the number of polarized light receiving sensors provided on the upper surface of the polyhedron is preferably three or more, and the number of non-polarized light receiving sensors provided on the side surfaces of the polyhedron is three or more, which is the same as the number of side surfaces. Is preferred.

図20は、光センサ部の他の例を示す図である。図20中、(a)は光センサ部24Bの斜視図、(b)は光センサ部24Bの平面図、(c)は光センサ部24Bの側面図を示す。図20中、図4乃至図7と同一部分には同一符号を付し、その説明は省略する。   FIG. 20 is a diagram illustrating another example of the optical sensor unit. 20A is a perspective view of the optical sensor unit 24B, FIG. 20B is a plan view of the optical sensor unit 24B, and FIG. 20C is a side view of the optical sensor unit 24B. 20, the same parts as those in FIGS. 4 to 7 are denoted by the same reference numerals, and the description thereof is omitted.

図20に示す光センサ部24Bの本体241は、平行四面体形状を有する。本体241の上面24−1には3個の偏光受光センサ241−1が図5と同様の位置関係で、偏光方向が互いに一定角度(この例では120°)異なるように配置されている。本体241の4つの側面24−3には、夫々1個の非偏光受光センサ241−2が設けられている。なお、図20では、側面24−3は上面24−1に対して垂直であるが、図20中末広がりとなるように90°以外の角度で傾斜していても良い。また、偏光受光センサ241−1の数がN個(Nは3以上の自然数)の場合には、偏光方向が互いに一定角度(360°/N)異なるように配置される。さらに、非偏光受光センサ241−2は、本体241の各側面24−3に設けられることが好ましいが、一定角度間隔で配置されていれば良く、例えば側面24−3の数が2M(Mは2以上の自然数)の場合、合計M個の非偏光受光センサ241−2を1つおき毎の側面24−3に設けても良い。   The main body 241 of the optical sensor unit 24B shown in FIG. 20 has a parallelepiped shape. Three polarized light receiving sensors 241-1 are arranged on the upper surface 24-1 of the main body 241 so that the polarization directions are different from each other by a certain angle (120 ° in this example) in the same positional relationship as in FIG. One non-polarized light receiving sensor 241-2 is provided on each of the four side surfaces 24-3 of the main body 241. In FIG. 20, the side surface 24-3 is perpendicular to the upper surface 24-1, but may be inclined at an angle other than 90 ° so as to expand toward the end in FIG. Further, when the number of polarized light receiving sensors 241-1 is N (N is a natural number of 3 or more), the polarization directions are arranged so as to be different from each other by a certain angle (360 ° / N). Further, the non-polarized light receiving sensor 241-2 is preferably provided on each side surface 24-3 of the main body 241, but it is sufficient that the non-polarized light receiving sensor 241-2 is arranged at a constant angular interval. For example, the number of side surfaces 24-3 is 2M (M is In the case of a natural number of 2 or more, a total of M non-polarized light receiving sensors 241-2 may be provided on every other side surface 24-3.

図21は、他の実施例における方位検知装置のハードウェア構成の一例を示すブロック図である。図21中、図3と同一部分には同一符号を付し、その説明は省略する。図21に示す方位検知装置21Aは、加速度センサ27を有する。加速度センサ27は、立ち位置検知用の慣性センサの一例であり、周知の方法で3軸(例えば、XYZ座標軸)に沿った加速度を検知して3軸加速度情報を出力する。CPU22は、この3軸加速度情報に基づいて、周知の方法でピッチ角度θ及びロール角度φを推定する。この場合、ロール回転及びピッチ回転は、同じタイミングで発生していても良い。この例では、説明の便宜上、図5に示す如き構成を有する光センサ部24を使用するが、例えば図20に示す如き構成を有する光センサ部24Bを使用しても良く、光センサ部24の本体241の形状は三角錐台形状に限定されない。   FIG. 21 is a block diagram illustrating an example of a hardware configuration of an orientation detection device according to another embodiment. In FIG. 21, the same parts as those in FIG. The azimuth detecting device 21A shown in FIG. The acceleration sensor 27 is an example of an inertial sensor for detecting a standing position. The acceleration sensor 27 detects acceleration along three axes (for example, XYZ coordinate axes) by a known method and outputs three-axis acceleration information. The CPU 22 estimates the pitch angle θ and the roll angle φ by a known method based on the triaxial acceleration information. In this case, roll rotation and pitch rotation may occur at the same timing. In this example, for convenience of explanation, the optical sensor unit 24 having the configuration shown in FIG. 5 is used. However, for example, the optical sensor unit 24B having the configuration shown in FIG. The shape of the main body 241 is not limited to the triangular frustum shape.

図22は、複数の検知対象の位置検知の一例を説明する図であり、図23は、他の実施例における光源と方位検知装置の一例を示す図である。図22及び図23において、人100A,100Bは、同じ構成の方位検知装置21を装着しており、光源11からの光が照射される円形エリア(または、受光ゾーン)内で立っている。図22は、説明の便宜上、方位検知装置21の光センサ部24を示すことで、人100A,100Bの頭部100−1の姿勢を模式的に示している。図23中、(a)は光源11からの光の照射を示す側面図、(b)は光源11からの光が照射される床上の円形エリアを示す平面図である。図23中、(b)においてPA,PBは夫々人100A,100Bの立ち位置を示し、CPは円形エリアの中心を示す。また、図23中、(a)においてHは人100Aの身長(光センサ部24の高さ位置)を示す。   FIG. 22 is a diagram illustrating an example of position detection of a plurality of detection targets, and FIG. 23 is a diagram illustrating an example of a light source and an orientation detection device in another embodiment. 22 and 23, people 100A and 100B are equipped with the azimuth detecting device 21 having the same configuration, and stand in a circular area (or a light receiving zone) to which light from the light source 11 is irradiated. FIG. 22 schematically shows the postures of the heads 100-1 of the persons 100A and 100B by showing the optical sensor unit 24 of the azimuth detecting device 21 for convenience of explanation. In FIG. 23, (a) is a side view showing irradiation of light from the light source 11, and (b) is a plan view showing a circular area on the floor irradiated with light from the light source 11. In FIG. 23, PA and PB indicate the standing positions of the persons 100A and 100B, respectively, and CP indicates the center of the circular area. In FIG. 23, H in FIG. 23 indicates the height of the person 100A (the height position of the optical sensor unit 24).

CPU22は、加速度センサ27からの3軸加速度情報に基づいてピッチ角度θ及びロール角度φを推定し、光センサ部24からの出力検知信号に基づいて受光強度分布を求めて光源11との方位関係を推定できる。さらに、CPU22は、光センサ部24からの出力検知信号に基づいて求めた受光強度から、人100の高さHを推定できる。従って、各人100A,100Bが装着している方位検知装置21では、各人100A,100Bの円形エリア内の立ち位置と姿勢を推定できる。このように、各人100A,100Bが円形エリア内にいるか否かに加え、立ち位置と姿勢を推定することで、例えば提供するサービスを各人100A,100Bの立ち位置及び姿勢に応じて変更するなどして、サービスの質を向上することが可能となる。   The CPU 22 estimates the pitch angle θ and the roll angle φ based on the triaxial acceleration information from the acceleration sensor 27, obtains the received light intensity distribution based on the output detection signal from the optical sensor unit 24, and the azimuth relationship with the light source 11. Can be estimated. Further, the CPU 22 can estimate the height H of the person 100 from the received light intensity obtained based on the output detection signal from the optical sensor unit 24. Therefore, the orientation detection device 21 worn by each person 100A, 100B can estimate the standing position and posture of each person 100A, 100B in the circular area. In this way, in addition to whether or not each person 100A, 100B is in the circular area, by estimating the standing position and posture, for example, the service to be provided is changed according to the standing position and posture of each person 100A, 100B. Thus, the quality of service can be improved.

上記の如く人100の立ち位置と姿勢(頭部100−1の姿勢)をCPU22において推定する場合、CPU22は光センサ部24からの出力検知信号に基づいて受光強度分布を次のように求めることができる。ここで、xi, yi, ziは人100(即ち、方位検知装置21)のXYZ座標位置を示し、r, p, yはヨー角度Ψ、ピッチ角度θ、及びロール角度φを示し、pa1, pb1, pc1は偏光光センサ241a1,241b1,241c1の出力検知信号を示し、pa2, pb2, pc2は非偏光光センサ241a2,241b2,241c2の出力検知信号を示す。   When the CPU 22 estimates the standing position and posture (the posture of the head 100-1) of the person 100 as described above, the CPU 22 obtains the received light intensity distribution based on the output detection signal from the optical sensor unit 24 as follows. Can do. Here, xi, yi, zi indicate the XYZ coordinate position of the person 100 (that is, the azimuth detecting device 21), r, p, y indicate the yaw angle Ψ, the pitch angle θ, and the roll angle φ, and pa1, pb1 , pc1 indicate output detection signals of the polarized light sensors 241a1, 241b1, and 241c1, and pa2, pb2, and pc2 indicate output detection signals of the non-polarized light sensors 241a2, 241b2, and 241c2.

{xi, yi, zi}+{r, p, y} → {pa1, pb1, pc1, pa2, pb2, pc2}
そこで、このような受光強度分布に基づいて、次のように人100の立ち位置を特定できることがわかる。
{xi, yi, zi} + {r, p, y} → {pa1, pb1, pc1, pa2, pb2, pc2}
Therefore, it can be seen that the standing position of the person 100 can be specified as follows based on such a received light intensity distribution.

{pa1, pb1, pc1, pa2, pb2, pc2}+{r, p, y} → {xi, yi, zi}
人100の立ち位置を検知する位置検知処理は、例えば以下に説明するオフライン処理を予め実行しておき、その後にオンライン処理を実行することで実現できる。
{pa1, pb1, pc1, pa2, pb2, pc2} + {r, p, y} → {xi, yi, zi}
The position detection process for detecting the standing position of the person 100 can be realized, for example, by executing offline processing described below in advance and then executing online processing.

図24は、オフライン処理の一例を説明するフローチャートである。図24に示すオフライン処理は、図21に示すCPU22が、メモリ23に格納されたプログラムを実行することで実現可能である。図24において、ステップS21では、オフライン処理が開始され、ステップS22では、図23に示す光源11からの光の照射領域を、一定の高さHiの受光面(または、エリア)に相当するデータベースDBiを選択する。ステップS23では、エリアをサイズLで分割し、ステップS24では、グリッドGiの中心位置(Xi,Yi)を特定する。図25は、グリッドの一例を説明する図である。   FIG. 24 is a flowchart illustrating an example of offline processing. The offline processing shown in FIG. 24 can be realized by the CPU 22 shown in FIG. 21 executing a program stored in the memory 23. In FIG. 24, in step S21, offline processing is started, and in step S22, the irradiation area of light from the light source 11 shown in FIG. 23 is a database DBi corresponding to a light receiving surface (or area) having a certain height Hi. Select. In step S23, the area is divided by size L, and in step S24, the center position (Xi, Yi) of the grid Gi is specified. FIG. 25 is a diagram illustrating an example of a grid.

ステップS25では、中心位置(Xi,Yi)で姿勢角度(ロール、ピッチ、ヨー)をΘ=dαで分割する。ステップS26では、各姿勢における受光強度分布を計算するか、或いは、光センサ部24の出力検知信号(即ち、実測値)に基づき求める。ステップS27では、ステップS26で求めた受光強度分布と位置をDB部26に登録(即ち、格納)する。例えば、ステップS27では、受光強度分布、姿勢及び位置座標をベクトルに変換し、検索のためのkd木(kd−tree)に登録する。ステップS28では、全てのグリッドの処理を完了したか否かを判定し、判定結果がNOであると処理はステップS29へ進み、判定結果がYESであると処理はステップS30へ進む。ステップS29では、iの値をi=i+1にインクリメントし、処理はステップS24へ戻る。一方、ステップS30では、オフライン処理が完了する。   In step S25, the posture angle (roll, pitch, yaw) is divided at Θ = dα at the center position (Xi, Yi). In step S26, the received light intensity distribution in each posture is calculated or obtained based on the output detection signal (that is, actually measured value) of the optical sensor unit 24. In step S27, the received light intensity distribution and position obtained in step S26 are registered (ie, stored) in the DB unit 26. For example, in step S27, the received light intensity distribution, posture, and position coordinates are converted into vectors and registered in a kd tree (kd-tree) for search. In step S28, it is determined whether or not all grid processes have been completed. If the determination result is NO, the process proceeds to step S29, and if the determination result is YES, the process proceeds to step S30. In step S29, the value of i is incremented to i = i + 1, and the process returns to step S24. On the other hand, in step S30, the offline processing is completed.

図26は、オンライン処理の一例を説明するフローチャートである。図26に示すオンライン処理は、図21に示すCPU22が、メモリ23に格納されたプログラムを実行することで実現可能である。ステップS26において、ステップS31では、オンライン処理が開始され、ステップS32では、光センサ部24の高さHを特定する。ステップS33では、高さHでオフライン処理により格納されている検索用DBを特定する。   FIG. 26 is a flowchart illustrating an example of online processing. The online processing shown in FIG. 26 can be realized by the CPU 22 shown in FIG. 21 executing a program stored in the memory 23. In step S26, online processing is started in step S31, and the height H of the optical sensor unit 24 is specified in step S32. In step S33, the search DB stored at the height H by offline processing is specified.

ステップS34では、光センサ部24からの出力検知信号に基づきヨー角度Ψを推定する。ステップS35では、加速度センサ27からの3軸加速度情報に基づきロール角度φ及びピッチ角度θを推定する。ステップS36では、ロール角度φ、ピッチ角度θ及びヨー角度Ψの受光強度分布を取得する。ステップS37では、DB部26の最短隣検索で受光強度分布の登録位置(Xi,Yi)を特定する。例えば、ステップS37では、受光強度分布から検索用ベクトル{pa1, pb1, pc1, pa2, pb2, pc2}+{r, p, y}を作成し、この検索用ベクトル{pa1, pb1, pc1, pa2, pb2, pc2}+{r, p, y}を用いたkd木の最短隣検索により、上記オフライン処理によりDB部26に登録された受光強度分布の登録位置(Xi,Yi)を特定する。ステップS38では、ステップS37で特定した位置(Xi,Yi)を人100の立ち位置の近似とし、処理はステップS34へ戻る。   In step S34, the yaw angle Ψ is estimated based on the output detection signal from the optical sensor unit 24. In step S35, the roll angle φ and the pitch angle θ are estimated based on the triaxial acceleration information from the acceleration sensor 27. In step S36, the received light intensity distribution of the roll angle φ, the pitch angle θ, and the yaw angle ψ is acquired. In step S37, the registration position (Xi, Yi) of the received light intensity distribution is specified by the shortest neighbor search of the DB unit 26. For example, in step S37, a search vector {pa1, pb1, pc1, pa2, pb2, pc2} + {r, p, y} is created from the received light intensity distribution, and this search vector {pa1, pb1, pc1, pa2 , pb2, pc2} + {r, p, y}, the registration position (Xi, Yi) of the received light intensity distribution registered in the DB unit 26 by the offline processing is specified by the shortest neighbor search using the kd tree. In step S38, the position (Xi, Yi) specified in step S37 is approximated to the standing position of the person 100, and the process returns to step S34.

これにより、人100が光源11からの光が照射される円形エリア内にいるか否かに加え、円形エリア内にいる人100の立ち位置と姿勢を推定することができる。   Thereby, in addition to whether or not the person 100 is in the circular area to which the light from the light source 11 is irradiated, the standing position and posture of the person 100 in the circular area can be estimated.

以上の実施例を含む実施形態に関し、更に以下の付記を開示する。
(付記1)
光源からの直線偏光を受光する光センサ部と、
前記光センサ部からの出力検知信号に基づいてヨー角度、ロール角度及びピッチ角度を推定するプロセッサを備え、
前記ヨー角度は前記XYZ座標系の地面と平行なXY平面と垂直なZ軸を中心とした回転角度、前記ロール角度はX軸を中心とした回転角度、前記ピッチ角度はY軸を中心とした回転角度であり、
前記センサ部は、
1つの上面と、M個(Mは3以上の自然数)の側面を有する多面体を形成する本体と、
前記上面に偏光方向が互いに一定角度異なるように配置された3個以上の偏光受光センサと、
前記M個の側面に一定角度間隔で配置された複数の非偏光受光センサを有し、
前記プロセッサは、前記3個以上の偏光受光センサの出力検知信号に基づいて前記ヨー角度を推定し、前記複数の非偏光受光センサの出力検知信号に基づいて前記ロール角度及び前記ピッチ角度を推定することを特徴とする、方位検知装置。
(付記2)
前記プロセッサは、前記ロール角度とは異なるタイミングで前記ピッチ角度を推定することを特徴とする、付記1記載の方位検知装置。
(付記3)
前記光センサ部の前記本体の前記上面は、三角形状または四角形状を有することを特徴とする、付記1または2記載の方位検知装置。
(付記4)
前記光センサ部の前記本体の前記M個の側面は、前記上面から末広がりとなるように傾斜していることを特徴とする、付記3記載の方位検知装置。
(付記5)
前記プロセッサは、前記3個以上の偏光受光センサの出力検知信号が示す偏光受光強度の比率に基づいて前記ヨー角度を推定することを特徴とする、付記1乃至4のいずれか1項記載の方位検知装置。
(付記6)
予め作成された前記複数の非偏光受光センサの出力検知信号が示す受光強度の比率と前記ロール角度の関係を示す第1のテーブルと、予め作成された前記複数の非偏光受光センサの出力検知信号が示す受光強度の比率と前記ピッチ角度の関係を示す第2のテーブルを格納した記憶手段を更に備え、
前記プロセッサは、前記複数の非偏光受光センサの出力検知信号が示す受光強度の比率を求め、求めた前記比率に基づき、前記記憶手段に格納された前記第1のテーブルから前記ロール角度を特定し、前記記憶手段に格納された前記第2のテーブルからピッチ角度を特定することを特徴とする、付記1乃至5のいずれか1項記載の方位検知装置。
(付記7)
前記光源は、前記Z軸方向と平行な方向に沿って前記光を照射することを特徴とする、付記1乃至6のいずれか1項記載の方位検知装置。
(付記8)
前記光源は、前記XY平面と平行な方向に沿って前記光を照射することを特徴とする、付記1乃至6のいずれか1項記載の方位検知装置。
(付記9)
光源からの直線偏光を受光する光センサ部からの出力検知信号に基づいてプロセッサがヨー角度、ロール角度及びピッチ角度を推定する方位検知方法であって、
前記ヨー角度は前記XYZ座標系の地面と平行なXY平面と垂直なZ軸を中心とした回転角度、前記ロール角度はX軸を中心とした回転角度、前記ピッチ角度はY軸を中心とした回転角度であり、
前記センサ部は、1つの上面と、M個(Mは3以上の自然数)の側面を有する多面体を形成する本体と、前記上面に偏光方向が互いに一定角度異なるように配置された3個以上の偏光受光センサと、前記M個の側面に一定角度間隔で配置された複数の非偏光受光センサを有し、
前記プロセッサが、前記3個以上の偏光受光センサの出力検知信号に基づいて前記ヨー角度を推定し、前記複数の非偏光受光センサの出力検知信号に基づいて前記ロール角度及び前記ピッチ角度を推定することを特徴とする、方位検知方法。
(付記10)
前記プロセッサが、前記ロール角度とは異なるタイミングで前記ピッチ角度を推定することを特徴とする、付記9記載の方位検知方法。
(付記11)
前記プロセッサが、前記3個以上の偏光受光センサの出力検知信号が示す偏光受光強度の比率に基づいて前記ヨー角度を推定することを特徴とする、付記9または10記載の方位検知方法。
(付記12)
記憶手段が予め作成された前記複数の非偏光受光センサの出力検知信号が示す受光強度の比率と前記ロール角度の関係を示す第1のテーブルと、予め作成された前記複数の非偏光受光センサの出力検知信号が示す受光強度の比率と前記ピッチ角度の関係を示す第2のテーブルを格納しており、
前記プロセッサが、前記複数の非偏光受光センサの出力検知信号が示す受光強度の比率を求め、求めた前記比率に基づき、前記記憶手段に格納された前記第1のテーブルから前記ロール角度を特定し、前記記憶手段に格納された前記第2のテーブルからピッチ角度を特定することを特徴とする、付記9乃至11のいずれか1項記載の方位検知方法。
(付記13)
前記光源は、前記Z軸方向と平行な方向に沿って前記光を照射することを特徴とする、付記9乃至12のいずれか1項記載の方位検知方法。
(付記14)
前記光源は、前記XY平面と平行な方向に沿って前記光を照射することを特徴とする、付記9乃至12のいずれか1項記載の方位検知方法。
(付記15)
前記プロセッサが、前記ヨー角度、前記ロール角度及び前記ピッチ角度で決まる姿勢毎に、前記光源からの光が照射するエリア内で異なる高さ位置での受光強度分布と前記エリア内での位置とを予めデータベース部に登録しておき、
前記プロセッサが、前記光センサ部の出力検知信号に基づいて特定した高さ位置で前記データベース部を参照し、前記光センサ部の出力検知信号に基づいて推定した前記ヨー角度と慣性センサの出力検知信号に基づいて推定した前記ロール角度及び前記ピッチ角度から取得した受光強度分布で前記データベース部から登録されている位置を特定することを特徴とする、付記9乃至14のいずれか1項記載の方位検知方法。
(付記16)
コンピュータに、光源からの直線偏光を受光する光センサ部からの出力検知信号に基づいてヨー角度、ロール角度及びピッチ角度を推定する方位検知処理を実行させるプログラムであって、
前記ヨー角度は前記XYZ座標系の地面と平行なXY平面と垂直なZ軸を中心とした回転角度、前記ロール角度はX軸を中心とした回転角度、前記ピッチ角度はY軸を中心とした回転角度であり、
前記センサ部は、1つの上面と、M個(Mは3以上の自然数)の側面を有する多面体を形成する本体と、前記上面に偏光方向が互いに一定角度異なるように配置された3個以上の偏光受光センサと、前記M個の側面に一定角度間隔で配置された複数の非偏光受光センサを有し、
前記3個以上の偏光受光センサの出力検知信号に基づいて前記ヨー角度を推定し、前記複数の非偏光受光センサの出力検知信号に基づいて前記ロール角度及び前記ピッチ角度を推定する手順を前記コンピュータに実行させることを特徴とする、プログラム。
(付記17)
前記手順は、前記ロール角度とは異なるタイミングで前記ピッチ角度を推定することを特徴とする、付記16記載のプログラム。
(付記18)
前記手順は、前記3個以上の偏光受光センサの出力検知信号が示す偏光受光強度の比率に基づいて前記ヨー角度を推定することを特徴とする、付記16または17記載のプログラム。
(付記19)
記憶手段が予め作成された前記複数の非偏光受光センサの出力検知信号が示す受光強度の比率と前記ロール角度の関係を示す第1のテーブルと、予め作成された前記複数の非偏光受光センサの出力検知信号が示す受光強度の比率と前記ピッチ角度の関係を示す第2のテーブルを格納しており、
前記手順は、前記複数の非偏光受光センサの出力検知信号が示す受光強度の比率を求め、求めた前記比率に基づき、前記記憶手段に格納された前記第1のテーブルから前記ロール角度を特定し、前記記憶手段に格納された前記第2のテーブルからピッチ角度を特定することを特徴とする、付記16乃至18のいずれか1項記載のプログラム。
The following additional notes are further disclosed with respect to the embodiment including the above examples.
(Appendix 1)
An optical sensor that receives linearly polarized light from the light source;
A processor for estimating a yaw angle, a roll angle and a pitch angle based on an output detection signal from the optical sensor unit;
The yaw angle is a rotation angle about the Z axis perpendicular to the XY plane parallel to the ground of the XYZ coordinate system, the roll angle is a rotation angle about the X axis, and the pitch angle is about the Y axis. Rotation angle,
The sensor unit is
A main body forming a polyhedron having one upper surface and M (M is a natural number of 3 or more) side surfaces;
Three or more polarized light receiving sensors disposed on the upper surface such that the polarization directions are different from each other by a certain angle;
A plurality of non-polarized light receiving sensors disposed at a predetermined angular interval on the M side surfaces;
The processor estimates the yaw angle based on output detection signals of the three or more polarized light receiving sensors, and estimates the roll angle and the pitch angle based on output detection signals of the plurality of non-polarized light receiving sensors. An azimuth detecting device characterized by that.
(Appendix 2)
The azimuth detecting device according to claim 1, wherein the processor estimates the pitch angle at a timing different from the roll angle.
(Appendix 3)
The azimuth detecting device according to appendix 1 or 2, wherein the upper surface of the main body of the optical sensor portion has a triangular shape or a quadrangular shape.
(Appendix 4)
The azimuth detecting device according to appendix 3, wherein the M side surfaces of the main body of the optical sensor unit are inclined so as to extend from the upper surface.
(Appendix 5)
The orientation according to any one of appendices 1 to 4, wherein the processor estimates the yaw angle based on a ratio of polarization received light intensity indicated by output detection signals of the three or more polarized light receiving sensors. Detection device.
(Appendix 6)
A first table showing a relationship between a ratio of received light intensity indicated by output detection signals of the plurality of non-polarized light receiving sensors prepared in advance and the roll angle; and output detection signals of the plurality of non-polarized light receiving sensors prepared in advance. Further comprising storage means for storing a second table indicating the relationship between the ratio of the received light intensity indicated by and the pitch angle,
The processor obtains a ratio of received light intensity indicated by output detection signals of the plurality of non-polarized light receiving sensors, and identifies the roll angle from the first table stored in the storage unit based on the obtained ratio. The azimuth detecting device according to any one of appendices 1 to 5, wherein a pitch angle is specified from the second table stored in the storage means.
(Appendix 7)
The azimuth detecting device according to any one of appendices 1 to 6, wherein the light source irradiates the light along a direction parallel to the Z-axis direction.
(Appendix 8)
The azimuth detecting device according to any one of appendices 1 to 6, wherein the light source irradiates the light along a direction parallel to the XY plane.
(Appendix 9)
An orientation detection method in which a processor estimates a yaw angle, a roll angle, and a pitch angle based on an output detection signal from an optical sensor unit that receives linearly polarized light from a light source,
The yaw angle is a rotation angle about the Z axis perpendicular to the XY plane parallel to the ground of the XYZ coordinate system, the roll angle is a rotation angle about the X axis, and the pitch angle is about the Y axis. Rotation angle,
The sensor unit includes a main body forming a polyhedron having one upper surface, M (M is a natural number of 3 or more) side surfaces, and three or more arranged on the upper surface such that the polarization directions are different from each other by a certain angle. A polarized light receiving sensor and a plurality of non-polarized light receiving sensors arranged at a predetermined angular interval on the M side surfaces;
The processor estimates the yaw angle based on output detection signals of the three or more polarized light receiving sensors, and estimates the roll angle and the pitch angle based on output detection signals of the plurality of non-polarized light receiving sensors. An orientation detection method characterized by the above.
(Appendix 10)
The direction detection method according to claim 9, wherein the processor estimates the pitch angle at a timing different from the roll angle.
(Appendix 11)
11. The azimuth detection method according to appendix 9 or 10, wherein the processor estimates the yaw angle based on a ratio of polarized light reception intensity indicated by output detection signals of the three or more polarization light reception sensors.
(Appendix 12)
A first table indicating a relationship between a roll angle and a ratio of received light intensity indicated by output detection signals of the plurality of non-polarized light receiving sensors prepared in advance, and a plurality of the non-polarized light receiving sensors prepared in advance. Storing a second table showing the relationship between the ratio of the received light intensity indicated by the output detection signal and the pitch angle;
The processor obtains a ratio of received light intensity indicated by output detection signals of the plurality of non-polarized light receiving sensors, and specifies the roll angle from the first table stored in the storage unit based on the obtained ratio. 12. The direction detection method according to any one of appendices 9 to 11, wherein a pitch angle is specified from the second table stored in the storage means.
(Appendix 13)
The direction detection method according to any one of appendices 9 to 12, wherein the light source irradiates the light along a direction parallel to the Z-axis direction.
(Appendix 14)
The direction detection method according to any one of appendices 9 to 12, wherein the light source irradiates the light along a direction parallel to the XY plane.
(Appendix 15)
For each posture determined by the yaw angle, the roll angle, and the pitch angle, the processor calculates the received light intensity distribution at different height positions in the area irradiated with light from the light source and the position in the area. Register in advance in the database section,
The yaw angle estimated based on the output detection signal of the optical sensor unit and the output detection of the inertial sensor by the processor referring to the database unit at the height position specified based on the output detection signal of the optical sensor unit The orientation according to any one of appendices 9 to 14, wherein a position registered from the database unit is specified by a received light intensity distribution acquired from the roll angle and the pitch angle estimated based on a signal. Detection method.
(Appendix 16)
A program for causing a computer to execute an orientation detection process for estimating a yaw angle, a roll angle, and a pitch angle based on an output detection signal from an optical sensor unit that receives linearly polarized light from a light source,
The yaw angle is a rotation angle about the Z axis perpendicular to the XY plane parallel to the ground of the XYZ coordinate system, the roll angle is a rotation angle about the X axis, and the pitch angle is about the Y axis. Rotation angle,
The sensor unit includes a main body forming a polyhedron having one upper surface, M (M is a natural number of 3 or more) side surfaces, and three or more arranged on the upper surface such that the polarization directions are different from each other by a predetermined angle. A polarized light receiving sensor and a plurality of non-polarized light receiving sensors arranged at a predetermined angular interval on the M side surfaces;
A procedure for estimating the yaw angle based on output detection signals of the three or more polarized light receiving sensors and estimating the roll angle and pitch angle based on the output detection signals of the plurality of non-polarized light receiving sensors. A program characterized by causing the program to be executed.
(Appendix 17)
The program according to claim 16, wherein the procedure estimates the pitch angle at a timing different from the roll angle.
(Appendix 18)
18. The program according to appendix 16 or 17, wherein the procedure estimates the yaw angle based on a ratio of polarized light receiving intensity indicated by output detection signals of the three or more polarized light receiving sensors.
(Appendix 19)
A first table indicating a relationship between a roll angle and a ratio of received light intensity indicated by output detection signals of the plurality of non-polarized light receiving sensors prepared in advance, and a plurality of the non-polarized light receiving sensors prepared in advance. Storing a second table showing the relationship between the ratio of the received light intensity indicated by the output detection signal and the pitch angle;
The procedure obtains a ratio of received light intensity indicated by output detection signals of the plurality of non-polarized light receiving sensors, and specifies the roll angle from the first table stored in the storage unit based on the obtained ratio. The program according to any one of appendices 16 to 18, wherein a pitch angle is specified from the second table stored in the storage means.

以上、開示の方位検知装置、方法及びプログラムを実施例により説明したが、本発明は上記実施例に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能であることは言うまでもない。   As mentioned above, although the azimuth | direction detection apparatus, method, and program which were disclosed were demonstrated by the Example, this invention is not limited to the said Example, A various deformation | transformation and improvement are possible within the scope of the present invention. Needless to say.

1 光源
1A LED
1B 偏光フィルタ
21 方位検知装置
22 CPU
23 メモリ
24 光センサ部
25 通信部
26 DB部
27 加速度センサ
241 本体
241a1,241b1,241c1 偏光受光センサ
241a2,241b2,241c2 非偏光受光センサ
1 Light source 1A LED
1B Polarizing Filter 21 Orientation Detection Device 22 CPU
23 Memory 24 Optical sensor unit 25 Communication unit 26 DB unit 27 Acceleration sensor 241 Main body 241a1, 241b1, 241c1 Polarized light receiving sensor 241a2, 241b2, 241c2 Non-polarized light receiving sensor

Claims (7)

光源からの直線偏光を受光する光センサ部と、
前記光センサ部からの出力検知信号に基づいてヨー角度、ロール角度及びピッチ角度を推定するプロセッサを備え、
前記ヨー角度は前記XYZ座標系の地面と平行なXY平面と垂直なZ軸を中心とした回転角度、前記ロール角度はX軸を中心とした回転角度、前記ピッチ角度はY軸を中心とした回転角度であり、
前記センサ部は、
1つの上面と、M個(Mは3以上の自然数)の側面を有する多面体を形成する本体と、
前記上面に偏光方向が互いに一定角度異なるように配置された3個以上の偏光受光センサと、
前記M個の側面に一定角度間隔で配置された複数の非偏光受光センサを有し、
前記プロセッサは、前記3個以上の偏光受光センサの出力検知信号に基づいて前記ヨー角度を推定し、前記複数の非偏光受光センサの出力検知信号に基づいて前記ロール角度及び前記ピッチ角度を推定することを特徴とする、方位検知装置。
An optical sensor that receives linearly polarized light from the light source;
A processor for estimating a yaw angle, a roll angle and a pitch angle based on an output detection signal from the optical sensor unit;
The yaw angle is a rotation angle about the Z axis perpendicular to the XY plane parallel to the ground of the XYZ coordinate system, the roll angle is a rotation angle about the X axis, and the pitch angle is about the Y axis. Rotation angle,
The sensor unit is
A main body forming a polyhedron having one upper surface and M (M is a natural number of 3 or more) side surfaces;
Three or more polarized light receiving sensors disposed on the upper surface such that the polarization directions are different from each other by a certain angle;
A plurality of non-polarized light receiving sensors disposed at a predetermined angular interval on the M side surfaces;
The processor estimates the yaw angle based on output detection signals of the three or more polarized light receiving sensors, and estimates the roll angle and the pitch angle based on output detection signals of the plurality of non-polarized light receiving sensors. An azimuth detecting device characterized by that.
前記プロセッサは、前記ロール角度とは異なるタイミングで前記ピッチ角度を推定することを特徴とする、請求項1記載の方位検知装置。   The azimuth detecting apparatus according to claim 1, wherein the processor estimates the pitch angle at a timing different from the roll angle. 前記光センサ部の前記本体の前記上面は、三角形状または四角形状を有することを特徴とする、請求項1または2記載の方位検知装置。   The azimuth detecting device according to claim 1, wherein the upper surface of the main body of the optical sensor portion has a triangular shape or a quadrangular shape. 前記光センサ部の前記本体の前記M個の側面は、前記上面から末広がりとなるように傾斜していることを特徴とする、請求項3記載の方位検知装置。   The azimuth detecting device according to claim 3, wherein the M side surfaces of the main body of the optical sensor unit are inclined so as to extend from the upper surface. 前記プロセッサは、前記3個以上の偏光受光センサの出力検知信号が示す偏光受光強度の比率に基づいて前記ヨー角度を推定することを特徴とする、請求項1乃至4のいずれか1項記載の方位検知装置。   5. The processor according to claim 1, wherein the processor estimates the yaw angle based on a ratio of polarization received light intensity indicated by output detection signals of the three or more polarization light receiving sensors. 6. Orientation detection device. 光源からの直線偏光を受光する光センサ部からの出力検知信号に基づいてプロセッサがヨー角度、ロール角度及びピッチ角度を推定する方位検知方法であって、
前記ヨー角度は前記XYZ座標系の地面と平行なXY平面と垂直なZ軸を中心とした回転角度、前記ロール角度はX軸を中心とした回転角度、前記ピッチ角度はY軸を中心とした回転角度であり、
前記センサ部は、1つの上面と、M個(Mは3以上の自然数)の側面を有する多面体を形成する本体と、前記上面に偏光方向が互いに一定角度異なるように配置された3個以上の偏光受光センサと、前記M個の側面に一定角度間隔で配置された複数の非偏光受光センサを有し、
前記プロセッサが、前記3個以上の偏光受光センサの出力検知信号に基づいて前記ヨー角度を推定し、前記複数の非偏光受光センサの出力検知信号に基づいて前記ロール角度及び前記ピッチ角度を推定することを特徴とする、方位検知方法。
An orientation detection method in which a processor estimates a yaw angle, a roll angle, and a pitch angle based on an output detection signal from an optical sensor unit that receives linearly polarized light from a light source,
The yaw angle is a rotation angle about the Z axis perpendicular to the XY plane parallel to the ground of the XYZ coordinate system, the roll angle is a rotation angle about the X axis, and the pitch angle is about the Y axis. Rotation angle,
The sensor unit includes a main body forming a polyhedron having one upper surface, M (M is a natural number of 3 or more) side surfaces, and three or more arranged on the upper surface such that the polarization directions are different from each other by a certain angle. A polarized light receiving sensor and a plurality of non-polarized light receiving sensors arranged at a predetermined angular interval on the M side surfaces;
The processor estimates the yaw angle based on output detection signals of the three or more polarized light receiving sensors, and estimates the roll angle and the pitch angle based on output detection signals of the plurality of non-polarized light receiving sensors. An orientation detection method characterized by the above.
コンピュータに、光源からの直線偏光を受光する光センサ部からの出力検知信号に基づいてヨー角度、ロール角度及びピッチ角度を推定する方位検知処理を実行させるプログラムであって、
前記ヨー角度は前記XYZ座標系の地面と平行なXY平面と垂直なZ軸を中心とした回転角度、前記ロール角度はX軸を中心とした回転角度、前記ピッチ角度はY軸を中心とした回転角度であり、
前記センサ部は、1つの上面と、M個(Mは3以上の自然数)の側面を有する多面体を形成する本体と、前記上面に偏光方向が互いに一定角度異なるように配置された3個以上の偏光受光センサと、前記M個の側面に一定角度間隔で配置された複数の非偏光受光センサを有し、
前記3個以上の偏光受光センサの出力検知信号に基づいて前記ヨー角度を推定し、前記複数の非偏光受光センサの出力検知信号に基づいて前記ロール角度及び前記ピッチ角度を推定する手順を前記コンピュータに実行させることを特徴とする、プログラム。
A program for causing a computer to execute an orientation detection process for estimating a yaw angle, a roll angle, and a pitch angle based on an output detection signal from an optical sensor unit that receives linearly polarized light from a light source,
The yaw angle is a rotation angle about the Z axis perpendicular to the XY plane parallel to the ground of the XYZ coordinate system, the roll angle is a rotation angle about the X axis, and the pitch angle is about the Y axis. Rotation angle,
The sensor unit includes a main body forming a polyhedron having one upper surface, M (M is a natural number of 3 or more) side surfaces, and three or more arranged on the upper surface such that the polarization directions are different from each other by a certain angle. A polarized light receiving sensor and a plurality of non-polarized light receiving sensors arranged at a predetermined angular interval on the M side surfaces;
A procedure for estimating the yaw angle based on output detection signals of the three or more polarized light receiving sensors and estimating the roll angle and pitch angle based on the output detection signals of the plurality of non-polarized light receiving sensors. A program characterized by causing the program to be executed.
JP2013089684A 2013-04-22 2013-04-22 Azimuth detection device, method, and program Pending JP2014215053A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013089684A JP2014215053A (en) 2013-04-22 2013-04-22 Azimuth detection device, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013089684A JP2014215053A (en) 2013-04-22 2013-04-22 Azimuth detection device, method, and program

Publications (1)

Publication Number Publication Date
JP2014215053A true JP2014215053A (en) 2014-11-17

Family

ID=51940960

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013089684A Pending JP2014215053A (en) 2013-04-22 2013-04-22 Azimuth detection device, method, and program

Country Status (1)

Country Link
JP (1) JP2014215053A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106716053A (en) * 2014-11-28 2017-05-24 扑来量度公司 Apparatus for recognizing three-dimensional pose and location of moving object
US10186078B2 (en) 2014-11-28 2019-01-22 Polariant, Inc. System and method of recognizing indoor location of moving object

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07253316A (en) * 1994-03-15 1995-10-03 Digital Stream:Kk Angle detector
JPH08122070A (en) * 1994-10-24 1996-05-17 Alps Electric Co Ltd Inclination detection device and input device using it
JPH09163268A (en) * 1995-12-11 1997-06-20 Mitsubishi Precision Co Ltd Device for detecting relative angle and device for providing virtual reality sense
JP2001221660A (en) * 2000-02-04 2001-08-17 Kawasaki Steel Corp Apparatus and method for detecting angle of rotation
JP2004085476A (en) * 2002-08-28 2004-03-18 Sony Corp Head tracking method and device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07253316A (en) * 1994-03-15 1995-10-03 Digital Stream:Kk Angle detector
JPH08122070A (en) * 1994-10-24 1996-05-17 Alps Electric Co Ltd Inclination detection device and input device using it
JPH09163268A (en) * 1995-12-11 1997-06-20 Mitsubishi Precision Co Ltd Device for detecting relative angle and device for providing virtual reality sense
JP2001221660A (en) * 2000-02-04 2001-08-17 Kawasaki Steel Corp Apparatus and method for detecting angle of rotation
JP2004085476A (en) * 2002-08-28 2004-03-18 Sony Corp Head tracking method and device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106716053A (en) * 2014-11-28 2017-05-24 扑来量度公司 Apparatus for recognizing three-dimensional pose and location of moving object
JP2017525965A (en) * 2014-11-28 2017-09-07 ポラリアント インコーポレイテッド 3D posture and position recognition device for moving body
US10186078B2 (en) 2014-11-28 2019-01-22 Polariant, Inc. System and method of recognizing indoor location of moving object
CN106716053B (en) * 2014-11-28 2019-04-05 扑来量度公司 The dimensional posture and position identification device of moving body

Similar Documents

Publication Publication Date Title
US10514545B2 (en) Selective tracking of a head-mounted display
EP3168705B1 (en) Domestic robotic system
CN106383596B (en) Virtual reality anti-dizzy system and method based on space positioning
Wang et al. Accurate and real-time 3-D tracking for the following robots by fusing vision and ultrasonar information
CN106918800B (en) Hybrid moving element, interfacing method and apparatus, and assembly for system
WO2016183812A1 (en) Mixed motion capturing system and method
US10802606B2 (en) Method and device for aligning coordinate of controller or headset with coordinate of binocular system
RU2662913C2 (en) Method of robot localization in localization plane
US20200272235A1 (en) Tracking positions of portions of a device based on detection of magnetic fields by magnetic field sensors having predetermined positions
Lee et al. QR-code based Localization for Indoor Mobile Robot with validation using a 3D optical tracking instrument
KR101951573B1 (en) Device for detecting an obstacle by means of intersecting planes and detection method using such a device
AU2017271003B2 (en) Accelerometers
KR20170027767A (en) Device for detection of obstacles in a horizontal plane and detection method implementing such a device
US20200302093A1 (en) Method and apparatus for enhanced position and orientation determination
WO2016143325A1 (en) Camera system and control method therefor, and electronic device and control program therefor
JP5804892B2 (en) Camera posture calculation device
JP2014215053A (en) Azimuth detection device, method, and program
Schmidt et al. An indoor RGB-D dataset for the evaluation of robot navigation algorithms
CN108844529A (en) Determine the method, apparatus and smart machine of posture
Glas et al. SNAPCAT-3D: Calibrating networks of 3D range sensors for pedestrian tracking
KR101956173B1 (en) Apparatus and Method for Calibrating 3D Position/Orientation Tracking System
Hourdakis et al. roboslam: Dense rgb-d slam for humanoid robots
TWI803043B (en) Hybrid Indoor Positioning System
JP7207915B2 (en) Projection system, projection method and program
Zhang et al. Retracted: Robotic Vehicle Navigation Based on Image Processing Using Kinect

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161206

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170131

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170711