JP2019132673A - Terminal device and position detection system - Google Patents

Terminal device and position detection system Download PDF

Info

Publication number
JP2019132673A
JP2019132673A JP2018014362A JP2018014362A JP2019132673A JP 2019132673 A JP2019132673 A JP 2019132673A JP 2018014362 A JP2018014362 A JP 2018014362A JP 2018014362 A JP2018014362 A JP 2018014362A JP 2019132673 A JP2019132673 A JP 2019132673A
Authority
JP
Japan
Prior art keywords
lighting fixture
terminal device
information
lighting
gravity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018014362A
Other languages
Japanese (ja)
Inventor
栄一 ▲高▼島
栄一 ▲高▼島
Eiichi Takashima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2018014362A priority Critical patent/JP2019132673A/en
Publication of JP2019132673A publication Critical patent/JP2019132673A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a terminal device and a position detection system with which, while having satisfactory position detection accuracy, it is possible to detect a position by a few lighting apparatuses in a short processing time.SOLUTION: Provided is a terminal device capable of imaging a lighting apparatus, comprising: an imaging unit for capturing a moving-image of the lighting apparatus; an acquisition unit for acquiring, from the moving-image, identification information for specifying the lighting apparatus, shape information of the lighting apparatus, and position information about at least six points on the lighting apparatus; and a position detection unit for calculating, using a linear equation, the position of the terminal device on the basis of the identification information, the shaped information and the position information.SELECTED DRAWING: Figure 6

Description

本発明は、端末装置及び位置検出システムに関する。   The present invention relates to a terminal device and a position detection system.

近日、屋外における位置を検出する技術として、人工衛星から電波を受信することで位置を推定する全地球測位システム(GPS:Global Positioning System)が広く用いられている。ただし、GPSの電波が届かない屋内においては位置の検出が困難となるため、屋内における位置の検出方法として、例えば、可視光通信を使った方法を挙げることができる。   In recent years, as a technique for detecting an outdoor position, a global positioning system (GPS) that estimates a position by receiving radio waves from an artificial satellite is widely used. However, since it is difficult to detect the position indoors where GPS radio waves do not reach, an example of a method for detecting the indoor position is a method using visible light communication.

可視光通信は、可視光線を利用した無線通信技術であり、照明器具の点滅のパターンを様々に変調させることで、情報を送信することができる通信技術である。このような可視光通信を利用した位置の検出方法の一例としては、下記の特許文献1、特許文献2、特許文献3及び非特許文献1に開示された技術を挙げることができる。   Visible light communication is a wireless communication technique using visible light, and is a communication technique that can transmit information by variously modulating the blinking pattern of a lighting fixture. As an example of such a position detection method using visible light communication, the techniques disclosed in the following Patent Document 1, Patent Document 2, Patent Document 3, and Non-Patent Document 1 can be cited.

特表2014−506328号公報Special table 2014-506328 gazette 特開2011−128948号公報JP 2011-128948 A 特開2008−224536号公報JP 2008-224536 A

中澤陽平、可視光通信による屋内歩行者位置計測法に関する研究、新潟大学、2016年3月23日Yohei Nakazawa, Research on indoor pedestrian location measurement method using visible light communication, Niigata University, March 23, 2016 出口光一郎、カメラキャリブレーション手法の最近の動向、情報処理学会研究会報告、CV−82−1、pp.1−8、1993年Koichiro Deguchi, Recent Trends in Camera Calibration Methods, Report of Information Processing Society of Japan, CV-82-1, pp. 1-8, 1993

しかしながら、上述したような可視光通信を利用した位置の検出においては、位置の検出精度が低く、もしくは、位置の検出の算出処理に多くに時間を必要としていたり、6つ以上の照明器具を必要としていたりしていた。すなわち、従来の可視光通信を利用した位置の検出方法においては、良好な位置検出精度でありつつ、少ない照明器具で、且つ、少ない処理時間で位置を検出することが難しかった。   However, in the position detection using visible light communication as described above, the position detection accuracy is low, or it takes a lot of time to calculate the position detection, or six or more lighting fixtures are required. I was doing. That is, in the position detection method using the conventional visible light communication, it is difficult to detect the position with a small amount of lighting equipment and a short processing time while having a good position detection accuracy.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、良好な位置検出精度でありつつ、少ない照明器具で、且つ、少ない処理時間で位置を検出することが可能な、新規且つ改良された端末装置及び位置検出システムを提供することにある。   Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to detect a position with a small amount of lighting equipment and a short processing time while having good position detection accuracy. It is an object of the present invention to provide a new and improved terminal device and position detection system capable of being used.

上記課題を解決するために、本発明のある観点によれば、照明器具を撮像することができる端末装置であって、前記照明器具の動画像を撮像する撮像部と、前記動画像から、前記照明器具を特定する識別情報と、前記照明器具の形状情報と、前記照明器具における少なくとも6組の点の位置情報とを取得する取得部と、前記識別情報と、前記形状情報と、前記位置情報とに基づいて、前記端末装置の位置を、線形方程式を利用して算出する位置検出部と、を備える端末装置が提供される。   In order to solve the above-described problem, according to an aspect of the present invention, there is provided a terminal device capable of capturing an image of a lighting fixture, the imaging unit capturing a moving image of the lighting fixture, and the moving image, Identification information for identifying a lighting fixture, shape information of the lighting fixture, position information of at least six sets of points in the lighting fixture, the identification information, the shape information, and the position information And a position detection unit that calculates the position of the terminal device using a linear equation.

前記形状情報は、実空間上及び前記動画像上における、前記照明器具の発光領域の形状、及び、前記発光領域の頂点の位置に関する情報を含んでもよい。   The shape information may include information on the shape of the light emitting area of the lighting fixture and the position of the vertex of the light emitting area on the real space and the moving image.

前記位置情報は、前記実空間上及び前記動画像上における、前記照明器具の重心の位置に関する情報を含んでもよい。   The position information may include information related to the position of the center of gravity of the lighting fixture in the real space and the moving image.

前記取得部は、前記照明器具からの光の受光パターンに基づいて、前記識別情報、前記形状情報、及び、前記位置情報の一部を取得してもよい。   The acquisition unit may acquire a part of the identification information, the shape information, and the position information based on a light reception pattern of light from the lighting fixture.

前記位置検出部は、実空間上の前記照明器具における少なくとも6点と、前記動画像上の前記照明器具における少なくとも6点との対応関係を特定してもよい。   The position detection unit may specify a correspondence relationship between at least six points in the lighting fixture in real space and at least six points in the lighting fixture on the moving image.

前記端末装置は、同一平面上に設けられた少なくとも3つ以上の前記照明器具を撮像してもよい。   The terminal device may image at least three or more of the lighting fixtures provided on the same plane.

前記位置検出部は、前記実空間上及び前記動画像上において、所定の点の間の距離をそれぞれ算出し、算出された前記距離の比較を行うことにより、前記対応関係を特定してもよい。   The position detecting unit may calculate the distance between predetermined points in the real space and the moving image, and may identify the correspondence relationship by comparing the calculated distances. .

前記少なくとも3つ以上の照明器具には、第1、第2及び第3の照明器具を含まれており、前記位置検出部は、前記実空間上における、前記各照明器具の重心の位置を取得し、取得された前記各重心が一直線上に並んでいない場合には、前記実空間上における、前記第1の照明器具における2つの端部を結ぶ直線と、前記第2の照明器具の前記重心と前記第3の照明器具の前記重心とを結ぶ直線とにより構成される角度を利用して、前記対応関係を特定する方法を選択してもよい。   The at least three or more lighting fixtures include first, second, and third lighting fixtures, and the position detection unit acquires the position of the center of gravity of each lighting fixture in the real space. When the acquired centroids are not aligned on a straight line, a straight line connecting two ends of the first luminaire in the real space and the centroid of the second luminaire. And a method of specifying the correspondence relationship using an angle formed by a straight line connecting the center of gravity of the third lighting fixture.

前記位置検出部は、前記角度が所定の角度以内であれば、前記実空間上及び前記動画像上において、前記第1の照明器具における一方の前記端部から、前記第2及び第3の照明器具の前記重心までの距離を算出し、且つ、前記第1の照明器具における他方の前記端部から、前記第2及び第3の照明器具の前記重心までの距離を算出し、前記角度が所定の角度以内でなければ、前記実空間上及び前記動画像上において、前記第1の照明器具における前記2つの端部からの前記第2及び第3の照明器具の前記重心までの距離の合計値を算出してもよい。   If the angle is within a predetermined angle, the position detection unit may perform the second and third illumination from one end of the first lighting fixture on the real space and the moving image. The distance to the center of gravity of the fixture is calculated, the distance from the other end of the first lighting fixture to the center of gravity of the second and third lighting fixtures is calculated, and the angle is predetermined. If the angle is not within the angle, the total value of the distance from the two ends of the first lighting fixture to the center of gravity of the second and third lighting fixtures in the real space and the moving image May be calculated.

前記少なくとも3つ以上の照明器具には、第1、第2及び第3の照明器具を含まれており、前記位置検出部は、前記実空間上及び前記動画像上において、前記第1の照明器具の重心から延びる、前記第2の照明器具の重心と前記第3の照明器具の重心とを結ぶ直線への垂線を算出し、前記第1の照明器具の一方の点と前記第1の照明器具の前記重心とを結ぶ線分と、前記垂線とにより構成される第1の角度を算出し、前記第1の照明器具の他方の点と前記第1の照明器具の前記重心とを結ぶ線分と、前記垂線とにより構成される第2の角度を算出し、算出した前記第1及び第2の角度に基づいて、前記対応関係を特定してもよい。   The at least three or more lighting fixtures include first, second, and third lighting fixtures, and the position detection unit is configured to perform the first lighting on the real space and the moving image. A perpendicular to the straight line extending from the center of gravity of the fixture and connecting the center of gravity of the second lighting fixture and the center of gravity of the third lighting fixture is calculated, and one point of the first lighting fixture and the first illumination are calculated. A first angle formed by a line segment connecting the center of gravity of the fixture and the perpendicular is calculated, and a line connecting the other point of the first lighting fixture and the center of gravity of the first lighting fixture. A second angle constituted by a minute and the perpendicular may be calculated, and the correspondence relationship may be specified based on the calculated first and second angles.

上記課題を解決するために、本発明の他の観点によれば、照明器具と端末装置とを含む位置検出システムであって、前記端末装置は、前記照明器具の動画像を撮像する撮像部と、前記動画像から、前記照明器具を特定する識別情報と、前記照明器具の形状情報と、前記照明器具における少なくとも6組の点の位置情報とを取得する取得部と、前記識別情報と、前記形状情報と、前記位置情報とに基づいて、前記端末装置の位置を、線形方程式を利用して算出する位置検出部と、を有する、位置検出システムが提供される。   In order to solve the above-described problem, according to another aspect of the present invention, a position detection system including a lighting fixture and a terminal device, wherein the terminal device is an imaging unit that captures a moving image of the lighting fixture; , From the moving image, the identification information for identifying the lighting fixture, the shape information of the lighting fixture, and the acquisition unit for acquiring the position information of at least six sets of points in the lighting fixture, the identification information, There is provided a position detection system including a position detection unit that calculates the position of the terminal device using a linear equation based on shape information and the position information.

前記照明器具は、前記識別情報と、前記形状情報と、前記位置情報の一部とを発光することにより前記端末装置へ送信してもよい。   The luminaire may transmit the identification information, the shape information, and a part of the position information to the terminal device by emitting light.

以上説明したように本発明によれば、良好な位置検出精度でありつつ、少ない照明器具で、且つ、少ない処理時間で位置を検出することが可能な端末装置及び位置検出システムを提供することができる。   As described above, according to the present invention, it is possible to provide a terminal device and a position detection system capable of detecting a position with a small amount of lighting equipment and a short processing time while having a good position detection accuracy. it can.

本発明の第1の実施形態に係る位置検出システム1を説明するための説明図である。It is explanatory drawing for demonstrating the position detection system 1 which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る照明器具100の設置位置の一例を説明するための説明図(その1)である。It is explanatory drawing (the 1) for demonstrating an example of the installation position of the lighting fixture 100 which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る照明器具100の設置位置の一例を説明するための説明図(その2)である。It is explanatory drawing (the 2) for demonstrating an example of the installation position of the lighting fixture 100 which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る照明器具100の機能ブロック図である。It is a functional block diagram of the lighting fixture 100 which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る照明器具記憶部104に格納される情報テーブル500の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the information table 500 stored in the lighting fixture memory | storage part 104 which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る端末装置200の機能ブロック図である。It is a functional block diagram of the terminal device 200 which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る端末記憶部204に格納される情報テーブル502の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the information table 502 stored in the terminal memory | storage part 204 which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る位置算出部210の算出方法を説明するための説明図である。It is explanatory drawing for demonstrating the calculation method of the position calculation part 210 which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る位置検出方法のフローチャートである。It is a flowchart of the position detection method which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る対応特定処理(前処理)のサブフローチャートである。It is a subflowchart of the correspondence specific process (pre-processing) which concerns on the 1st Embodiment of this invention. 図10のステップS213のサブフローチャートである。11 is a sub-flowchart of step S213 in FIG. 本発明の第1の実施形態に係る対応特定処理(前処理)を説明するための説明図(その1)である。It is explanatory drawing (the 1) for demonstrating the correspondence specific process (pre-processing) which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る対応特定処理(前処理)を説明するための説明図(その2)である。It is explanatory drawing (the 2) for demonstrating the correspondence specific process (pre-processing) which concerns on the 1st Embodiment of this invention. 本発明の第2の実施形態に係る位置検出方法のフローチャートである。It is a flowchart of the position detection method which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係る位置検出方法を説明するための説明図である。It is explanatory drawing for demonstrating the position detection method which concerns on the 2nd Embodiment of this invention. 本発明の実施形態に係る端末装置200である無線通信装置900のハードウェア構成例を示したブロック図である。It is the block diagram which showed the hardware structural example of the radio | wireless communication apparatus 900 which is the terminal device 200 which concerns on embodiment of this invention.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

また、本明細書および図面において、実質的に同一または類似の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合がある。ただし、実質的に同一又は類似の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、類似する構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。   In the present specification and drawings, a plurality of constituent elements having substantially the same or similar functional configuration may be distinguished by adding different numerals after the same reference numerals. However, when it is not necessary to particularly distinguish each of a plurality of constituent elements having substantially the same or similar functional configuration, only the same reference numerals are given. In addition, similar components in different embodiments may be distinguished by attaching different alphabets after the same reference numerals. However, if it is not necessary to distinguish each similar component, only the same reference numerals are given.

以下に説明する本発明の実施形態は、同一平面上に設けられた少なくとも3つ以上の照明器具100(図1 参照)を用いて、端末装置200(図1 参照)の位置を検出する位置検出方法として説明する。しかしながら、本発明の実施形態は、このように3つ以上の照明器具100を用いて位置を検出することに限定されるものではなく、1つの照明器具100を用いて端末装置200の位置を検出してもよい。   In the embodiment of the present invention described below, position detection for detecting the position of the terminal device 200 (see FIG. 1) using at least three or more lighting fixtures 100 (see FIG. 1) provided on the same plane. This will be described as a method. However, the embodiment of the present invention is not limited to detecting the position using three or more lighting fixtures 100 as described above, and detects the position of the terminal device 200 using one lighting fixture 100. May be.

<<本発明の実施形態をなすに至った経緯>>
次に、本発明の実施形態の具体的な説明に先立ち、本発明者らが本発明の実施形態をなすに至った経緯について説明する。
<< Background to the Embodiment of the Present Invention >>
Next, prior to specific description of the embodiment of the present invention, the background of how the inventors have made the embodiment of the present invention will be described.

先に説明したように、屋外における位置を検出する技術として、人工衛星から電波(GPS電波)を受信することで位置を推定する全地球測位システムが広く用いられている。しかしながら、上述の方法においては、GPSの電波が届かない屋内においては位置の検出が難しくなるため、屋内における位置の検出方法として、可視光通信を使った方法を挙げることができる。当該可視光通信は、人の目で見える波長(約360nm〜約830nm)を持つ電磁波、すなわち、可視光線を利用した無線通信技術であり、可視光線を照射することができる照明器具の点滅のパターンを様々に変調させることで、情報を送信することができる通信技術である。なお、位置を検出する方法としては、他にも、空間を伝播する弾性波である音波を使って位置を検出する方法を挙げることができるが、周囲環境からの影響を受け難いことから、可視光通信を用いた位置検出方法は、音波を使った位置検出方法に比べて、精度が高いといえる。   As described above, a global positioning system that estimates a position by receiving a radio wave (GPS radio wave) from an artificial satellite is widely used as a technique for detecting an outdoor position. However, in the above method, since it is difficult to detect the position indoors where GPS radio waves do not reach, a method using visible light communication can be cited as a method for detecting the position indoors. The visible light communication is a wireless communication technology using electromagnetic waves having a wavelength (about 360 nm to about 830 nm) visible to the human eye, that is, visible light, and a blinking pattern of a luminaire that can irradiate visible light. Is a communication technique capable of transmitting information by modulating the signal. As another method for detecting the position, a method for detecting the position using sound waves, which are elastic waves propagating in space, can be used. However, since it is difficult to be influenced by the surrounding environment, it is visible. It can be said that the position detection method using optical communication has higher accuracy than the position detection method using sound waves.

例えば、可視光通信を用いた位置検出方法としては、上記特許文献1に開示の技術を挙げることができる。上記特許文献1においては、複数の照明器具が、それぞれの固有の識別情報を、可視光通信を用いて位置検出対象となる対象装置へ送信する。さらに、当該対象装置は、予め格納した各照明器具の位置情報と、各照明装置からの可視光線の受信強度とに基づいて、照明器具から自身までの距離を求めることにより、対象装置自身の位置を検出することができる。   For example, as a position detection method using visible light communication, the technique disclosed in Patent Document 1 can be cited. In the said patent document 1, a some lighting fixture transmits each intrinsic | native identification information to the object apparatus used as a position detection object using visible light communication. Furthermore, the target device determines the position of the target device itself by obtaining the distance from the lighting device to itself based on the position information of each lighting device stored in advance and the received intensity of visible light from each lighting device. Can be detected.

また、例えば、特許文献2においては、複数の照明器具は、それぞれの固有の識別情報と照明器具の位置とを、可視光通信を用いて位置検出対象となる対象装置へ送信する。さらに、当該対象装置は、可視光通信を用いて受信した位置情報に基づいて、対象装置自身のおおよその位置を推定する。   Further, for example, in Patent Document 2, a plurality of lighting fixtures transmits their unique identification information and the position of the lighting fixture to a target device that is a position detection target using visible light communication. Further, the target device estimates the approximate position of the target device itself based on the position information received using visible light communication.

また、例えば、非特許文献1においては、3つの照明器具は、それぞれの固有の識別情報と照明器具の位置とを、可視光通信を用いて位置検出対象となる対象装置へ送信する。そして、当該対象装置は、魚眼レンズを使って、各照明器具を撮影し、撮像画面上の各照明器具の位置を取得し、可視光通信を用いて各照明器具の識別情報及び位置情報を取得する。さらに、当該対象装置は、取得した情報に基づいて、非線形最小二乗法を用いて、対象装置自身の位置を検出することができる。   Further, for example, in Non-Patent Document 1, the three luminaires transmit their unique identification information and the position of the luminaire to a target device that is a position detection target using visible light communication. And the said target apparatus image | photographs each lighting fixture using a fisheye lens, acquires the position of each lighting fixture on an imaging screen, and acquires the identification information and position information of each lighting fixture using visible light communication . Furthermore, the target device can detect the position of the target device itself using a nonlinear least square method based on the acquired information.

しかしながら、本発明者は、上述の各文献に開示された技術に対して鋭意検討を行い、これら文献に開示された技術に問題点があることが明らかになった。詳細には、本発明者によれば、上記特許文献1においては、可視光線の受信強度により距離を求める方法であることから、周囲環境の影響を受けやすく、照明装置と対象装置との間の距離の推定精度が低いことが問題であった。また、上記特許文献2においては、おおよその対象装置の位置を推定することを前提とする技術であることから、対象装置の位置の検出の精度が低い。   However, the present inventor has intensively studied the techniques disclosed in the above-mentioned documents, and has found that there are problems with the techniques disclosed in these documents. Specifically, according to the present inventor, in the above-mentioned Patent Document 1, since the distance is obtained by the received intensity of visible light, it is easily affected by the surrounding environment, and between the lighting device and the target device. The problem is that the distance estimation accuracy is low. Moreover, since the above-mentioned Patent Document 2 is a technique based on the premise that the approximate position of the target device is estimated, the accuracy of detection of the position of the target device is low.

さらに、非特許文献1では、非線形最小二乗法を用いて位置を検出するため、算出処理に時間がかかることが問題であった。また、本発明者は、非特許文献1に開示の技術を用いて、非線形最小二乗法に比べて処理の負担が少ない線形方程式を用いることを採用することを検討したが、このような場合、照明器具が6つ以上必要になり、位置検出のためのシステム構築にかかるコストが増加することが問題であった。   Further, in Non-Patent Document 1, since the position is detected by using the nonlinear least square method, there is a problem that the calculation process takes time. In addition, the present inventor examined using a linear equation that uses a technique disclosed in Non-Patent Document 1 and has a smaller processing burden than the nonlinear least square method. In such a case, Six or more lighting fixtures are required, which increases the cost for constructing a system for position detection.

そこで、本発明者は、このような状況を鑑みて、以下に説明する本発明の実施形態を創作するに至った。すなわち、本発明者の創作した本発明の実施形態によれば、良好な位置検出精度でありつつ、少ない照明器具で、且つ、少ない処理時間で位置を検出することができる。以下に、本発明者が創作した本発明の実施形態の詳細を順次説明する。   Therefore, in view of such a situation, the present inventor has created an embodiment of the present invention described below. That is, according to the embodiment of the present invention created by the present inventor, the position can be detected with a small amount of lighting equipment and with a small processing time while having a good position detection accuracy. Below, the detail of embodiment of this invention which this inventor created is demonstrated one by one.

<<第1の実施形態>>
<位置検出システム1の概要構成>
まずは、図1から図3を参照して、本発明の第1の実施形態に係る位置検出システム1の概要を説明する。図1は、本実施形態に係る位置検出システム1を説明するための説明図である。図2及び図3は、本実施形態に係る照明器具100の設置位置の一例を説明するための説明図であり、詳細には、図2は、室内300の天井の平面図の一例であり、図3は、室内300の側面図の一例である。
<< First Embodiment >>
<Outline configuration of the position detection system 1>
First, the outline of the position detection system 1 according to the first embodiment of the present invention will be described with reference to FIGS. FIG. 1 is an explanatory diagram for explaining a position detection system 1 according to the present embodiment. 2 and 3 are explanatory diagrams for explaining an example of the installation position of the lighting fixture 100 according to the present embodiment. Specifically, FIG. 2 is an example of a plan view of the ceiling of the room 300, FIG. 3 is an example of a side view of the room 300.

本実施形態に係る位置検出システム1は、図1に示すように、照明器具100と端末装置200とを含む。当該位置検出システム1は、照明器具100から、照明器具100の発光領域(発光部110)の形状及び位置情報等を、可視光通信を用いて端末装置200へ送信する。さらに、端末装置200は、照明器具100を撮像し、照明器具100の動画像から、照明器具の識別情報、発光領域の形状、及び、照明器具100の位置情報を取得し、取得した情報に基づき、線形方程式を利用して自身の位置を検出することができる。当該位置検出システム1は、少ない照明器具100を用いて、端末装置200の位置を検出することができる。   The position detection system 1 according to the present embodiment includes a lighting fixture 100 and a terminal device 200 as shown in FIG. The position detection system 1 transmits the shape, position information, and the like of the light emitting region (light emitting unit 110) of the lighting fixture 100 to the terminal device 200 from the lighting fixture 100 using visible light communication. Further, the terminal device 200 images the lighting fixture 100, acquires the lighting fixture identification information, the shape of the light emitting area, and the position information of the lighting fixture 100 from the moving image of the lighting fixture 100, and based on the acquired information. The position of itself can be detected using a linear equation. The position detection system 1 can detect the position of the terminal device 200 using a small number of lighting fixtures 100.

上記位置検出システム1は、例えば、工場内、オフィス内、病院内等における人物400の位置を検出する際に用いることができる。なお、以下の説明では、端末装置200を携帯する人物400の位置の検出を目的とするシステムであるとして説明するが、本実施形態に係る位置検出システム1は、これに限定されるものではなく、端末装置200と一体となった物体(例えば、部品、装置や自立歩行型ロボット等)の位置を検出する際にも適用することができる。   The position detection system 1 can be used, for example, when detecting the position of the person 400 in a factory, office, hospital, or the like. In the following description, it is assumed that the system is intended to detect the position of the person 400 carrying the terminal device 200, but the position detection system 1 according to the present embodiment is not limited to this. The present invention can also be applied when detecting the position of an object (for example, a component, an apparatus, or a self-standing walking robot) integrated with the terminal device 200.

以下に、本実施形態に係る位置検出システム1に含まれる各装置の概要について説明する。   Below, the outline | summary of each apparatus contained in the position detection system 1 which concerns on this embodiment is demonstrated.

(照明器具100)
照明器具100は、可視光通信を行うことができる照明装置であり、例えば、図1に示すように、室内300の天井等に固定されて設置される。
(Lighting fixture 100)
The lighting fixture 100 is a lighting device capable of performing visible light communication. For example, as illustrated in FIG. 1, the lighting fixture 100 is fixed and installed on a ceiling or the like of a room 300.

詳細には、複数の照明器具100(照明器具100a、100b、100c、100d)は、図2及び図3に示すように、室内300の天井である同一平面上に設けられる。なお、本実施形態においては、各照明器具100が設置される高さを同一にすることで、端末装置200の位置を検出する際に、三次元空間(実空間)上と画像上とにおける各点の対応関係の特定を容易に行うことができる(特定方法の詳細は、後述する)。   Specifically, the plurality of lighting fixtures 100 (lighting fixtures 100a, 100b, 100c, and 100d) are provided on the same plane that is the ceiling of the room 300, as shown in FIGS. In the present embodiment, when the positions of the terminal devices 200 are detected by making the heights at which the respective lighting fixtures 100 are installed the same, each of the three-dimensional space (real space) and the image is displayed. The correspondence between points can be easily identified (details of the identifying method will be described later).

また、本実施形態においては、位置検出システム1に含まれる照明器具100の数は、図1から図3に示されるような4つに限定されるものではなく、1つであっても、複数であってもよい。なお、以下の説明においては、位置検出システム1に、同一平面(天井)上に設けられた3つの照明器具100が含まれているものとして説明する。また、照明器具100の詳細構成については、後述する。   Moreover, in this embodiment, the number of the lighting fixtures 100 included in the position detection system 1 is not limited to four as shown in FIGS. It may be. In the following description, it is assumed that the position detection system 1 includes three lighting fixtures 100 provided on the same plane (ceiling). Moreover, the detailed structure of the lighting fixture 100 is mentioned later.

(端末装置200)
端末装置200は、例えば、人物400により携帯されて複数の照明器具100の動画像を撮像することができる端末であり、スマートフォン、携帯端末、又はウェアラブル端末等から構成される。なお、当該端末装置200の詳細については、後述する。
(Terminal device 200)
The terminal device 200 is, for example, a terminal that is carried by a person 400 and can capture moving images of the plurality of lighting fixtures 100, and includes a smartphone, a portable terminal, a wearable terminal, or the like. Details of the terminal device 200 will be described later.

なお、本実施形態に係る位置検出システム1は、図1に図示していないサーバを含んでいてもよく、当該サーバは、本実施形態に係る位置検出の際に用いる情報を格納し、必要に応じて、上記端末装置200へ格納した情報を、無線通信等を介して送信してもよい。また、当該サーバは、端末装置200で撮像した照明器具100の動画像を端末装置200から、無線通信等を介して受信し、当該サーバにおいて、当該動画像を用いて端末装置200の位置の検出を行ってもよい。   The position detection system 1 according to the present embodiment may include a server not shown in FIG. 1, and the server stores information used for position detection according to the present embodiment and is necessary. Accordingly, the information stored in the terminal device 200 may be transmitted via wireless communication or the like. In addition, the server receives a moving image of the lighting fixture 100 captured by the terminal device 200 from the terminal device 200 via wireless communication or the like, and the server detects the position of the terminal device 200 using the moving image. May be performed.

<照明器具100の詳細構成>
以上、本実施形態に係る位置検出システム1の概要構成について説明した。次に、本実施形態に係る照明器具100の詳細構成について、図4及び図5を参照して説明する。図4は、本実施形態に係る照明器具100の機能ブロック図である。図5は、本実施形態に係る照明器具記憶部104に格納される情報テーブル500の一例を説明するための説明図である。
<Detailed configuration of lighting apparatus 100>
The outline configuration of the position detection system 1 according to the present embodiment has been described above. Next, the detailed structure of the lighting fixture 100 which concerns on this embodiment is demonstrated with reference to FIG.4 and FIG.5. FIG. 4 is a functional block diagram of the lighting fixture 100 according to the present embodiment. FIG. 5 is an explanatory diagram for explaining an example of the information table 500 stored in the lighting fixture storage unit 104 according to the present embodiment.

図4に示すように、本実施形態に係る照明器具100は、照明器具制御部102、照明器具記憶部104、パケット生成部106、発光処理部(発光制御部)108、及び発光部110を主に有する。以下に、本発明の第1の実施形態に係る照明器具100に含まれる各機能ブロックの詳細について説明する。   As shown in FIG. 4, the lighting fixture 100 according to the present embodiment mainly includes a lighting fixture control unit 102, a lighting fixture storage unit 104, a packet generation unit 106, a light emission processing unit (light emission control unit) 108, and a light emission unit 110. Have. Below, the detail of each functional block contained in the lighting fixture 100 which concerns on the 1st Embodiment of this invention is demonstrated.

(照明器具制御部102)
照明器具制御部102は、照明器具100に内蔵されるCPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)等のハードウェアを用いて、照明器具100の各機能ブロックを制御する機能を有する。具体的には、照明器具制御部102は、後述するパケット生成部106に対して、パケット送信(可視光通信)を行うように、定期的に命令することができる。
(Lighting fixture control unit 102)
The lighting fixture control unit 102 uses hardware such as a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory) built in the lighting fixture 100 to use each functional block of the lighting fixture 100. It has a function to control. Specifically, the luminaire control unit 102 can periodically instruct the packet generation unit 106 described later to perform packet transmission (visible light communication).

(照明器具記憶部104)
照明器具記憶部104は、ROM、RAM等の記憶装置から実現され、例えば、照明器具100の識別情報(ID(Identification))、発光領域(発光部110)の形状に関する情報(形状情報)、照明器具100の設置位置に関する情報(位置情報)等を格納することができる。さらに、照明器具記憶部104は、上述の照明器具制御部102の指示に従って、格納する情報を、後述するパケット生成部106へ出力することができる。また、照明器具記憶部104は、上述した照明器具制御部102が処理を実行するための様々なデータやプログラムを格納していてもよい。
(Lighting device storage unit 104)
The luminaire storage unit 104 is realized by a storage device such as a ROM or a RAM, and includes, for example, identification information (ID (Identification)) of the luminaire 100, information about the shape of the light emitting area (light emitting unit 110) (shape information), illumination Information about the installation position of the instrument 100 (position information) and the like can be stored. Furthermore, the luminaire storage unit 104 can output information to be stored to the packet generation unit 106 described later in accordance with the instructions from the luminaire control unit 102 described above. Moreover, the lighting fixture memory | storage part 104 may store various data and programs for the lighting fixture control part 102 mentioned above to perform a process.

詳細には、照明器具記憶部104は、例えば、図5に示すような情報テーブル500を格納し、情報テーブル500は、照明器具100の識別情報(ID)、三次元空間(実空間)上における、発光領域(発光部110)の形状に関する情報(形状情報)、照明器具100の設置位置に関する情報(位置情報)等を格納する。詳細には、上記識別情報は、照明器具100を特定するための情報であり、各照明器具100に固有の情報が割当てられている。上記形状情報は、三次元空間上の照明器具100の発光領域である発光部110の形状に関する情報が含まれており、より具体的には、三次元空間上の発光部110の輪郭の各頂点の位置座標や、発光部110の形状及び寸法の情報を含むことができる。さらに、位置情報は、三次元空間上の照明器具100の発光部110の重心の位置座標等を含むことができる。なお、以下の説明においては、位置座標は、世界座標系による絶対的位置座標であってもよく、予め設定された基準点からの相対的位置座標であってもよい。   Specifically, the luminaire storage unit 104 stores, for example, an information table 500 as illustrated in FIG. 5, and the information table 500 includes identification information (ID) of the luminaire 100 and a three-dimensional space (real space). Information on the shape of the light emitting area (light emitting unit 110) (shape information), information on the installation position of the lighting fixture 100 (position information), and the like are stored. Specifically, the identification information is information for specifying the lighting fixture 100, and information unique to each lighting fixture 100 is assigned. The shape information includes information related to the shape of the light emitting unit 110 that is the light emitting region of the lighting fixture 100 in the three-dimensional space, and more specifically, each vertex of the contour of the light emitting unit 110 in the three-dimensional space. Position coordinates, and information on the shape and dimensions of the light emitting unit 110 can be included. Further, the position information can include the position coordinates of the center of gravity of the light emitting unit 110 of the lighting apparatus 100 in the three-dimensional space. In the following description, the position coordinates may be absolute position coordinates based on the world coordinate system or may be relative position coordinates from a preset reference point.

なお、本実施形態に係る位置検出システム1は、先に説明したように、図1に図示していないサーバを含んでいてもよい。この場合、当該サーバは、本実施形態に係る照明器具記憶部104に格納された発光領域(発光部110)の形状に関する情報(形状情報)、照明器具100の設置位置に関する情報(位置情報)等を、当該照明器具記憶部104の代わりに、照明器具100の識別情報(ID)と紐づけて格納していてもよい。格納された上記情報は、端末装置200からの要求に応じて、無線通信を介して、当該サーバから、端末装置200へ送信されてもよい。   Note that the position detection system 1 according to the present embodiment may include a server not shown in FIG. 1 as described above. In this case, the server includes information on the shape of the light emitting area (light emitting unit 110) stored in the lighting fixture storage unit 104 according to the present embodiment (shape information), information on the installation position of the lighting fixture 100 (position information), and the like. May be stored in association with the identification information (ID) of the lighting fixture 100 instead of the lighting fixture storage unit 104. The stored information may be transmitted from the server to the terminal device 200 via wireless communication in response to a request from the terminal device 200.

(パケット生成部106)
パケット生成部106は、上述の照明器具制御部102の指示に従って、上述の照明器具記憶部104に格納された、照明器具100の識別情報(ID)、三次元空間(実空間)上における、発光領域の形状に関する情報(形状情報)、及び、照明器具100の設置位置に関する情報(位置情報)等に基づいて、送信するためのパケット情報を生成することができる。言い換えると、パケット生成部106により生成されるパケット情報は、上述の照明器具100のID、形状情報及び位置情報を含む情報であると言える。さらに、パケット生成部106は、生成したパケット情報を、後述する発光処理部108へ出力することができる。
(Packet generator 106)
The packet generation unit 106 emits light in the identification information (ID) of the lighting fixture 100 and the three-dimensional space (real space) stored in the lighting fixture storage unit 104 according to the instruction of the lighting fixture control unit 102 described above. Packet information to be transmitted can be generated based on information on the shape of the region (shape information), information on the installation position of the lighting fixture 100 (position information), and the like. In other words, it can be said that the packet information generated by the packet generation unit 106 is information including the ID, shape information, and position information of the lighting fixture 100 described above. Further, the packet generation unit 106 can output the generated packet information to the light emission processing unit 108 described later.

(発光処理部108)
発光処理部108は、上述したパケット生成部106で生成されたパケット情報に対して変調処理を行い、後述する発光部110の点滅のパターン(発光するタイミング)を制御する。すなわち、発光処理部108は、発光部110を可視光通信可能に制御する機能(制御情報を生成する機能)を持つ。
(Light emission processing unit 108)
The light emission processing unit 108 performs modulation processing on the packet information generated by the packet generation unit 106 described above, and controls a blinking pattern (light emission timing) of the light emitting unit 110 described later. That is, the light emission processing unit 108 has a function of controlling the light emitting unit 110 so that visible light communication is possible (a function of generating control information).

(発光部110)
発光部110は、可視光線を出力することができる発光体であり、例えば、LED(Light Emitting Diode)から構成される。発光部110は、上述した発光処理部108による制御によって、所定の点滅パターンで発光及び消灯(点滅)を繰り返し、具体的には、発光するタイミングを変化させることにより、可視光線によって、端末装置200へ、上記情報(照明器具100の識別情報(ID)、発光領域の形状に関する情報(形状情報)、及び、照明器具100の設置位置に関する情報(位置情報))の送信、すなわち、可視光通信を行うことができる。
(Light Emitting Unit 110)
The light emitting unit 110 is a light emitting body capable of outputting visible light, and is configured by, for example, an LED (Light Emitting Diode). The light emitting unit 110 repeats light emission and extinguishing (flashing) with a predetermined blinking pattern under the control of the light emission processing unit 108 described above, and specifically, the terminal device 200 is changed by visible light by changing the light emission timing. To the above information (identification information (ID) of the lighting fixture 100, information on the shape of the light emitting area (shape information), and information on the installation position of the lighting fixture 100 (position information)), that is, visible light communication. It can be carried out.

<端末装置200の詳細構成>
以上、本実施形態に係る照明器具100の詳細構成について説明した。次に、本実施形態に係る端末装置200の詳細構成について、図6から図8を参照して説明する。図6は、本実施形態に係る端末装置200の機能ブロック図である。図7は、本実施形態に係る端末記憶部204に格納される情報テーブル502の一例を説明するための説明図である。さらに、図8は、本実施形態に係る位置算出部210の算出方法を説明するための説明図である。
<Detailed Configuration of Terminal Device 200>
The detailed configuration of the lighting fixture 100 according to the present embodiment has been described above. Next, a detailed configuration of the terminal device 200 according to the present embodiment will be described with reference to FIGS. FIG. 6 is a functional block diagram of the terminal device 200 according to the present embodiment. FIG. 7 is an explanatory diagram for explaining an example of the information table 502 stored in the terminal storage unit 204 according to the present embodiment. Further, FIG. 8 is an explanatory diagram for explaining a calculation method of the position calculation unit 210 according to the present embodiment.

図6に示すように、本実施形態に係る端末装置200は、端末制御部202、端末記憶部204、カメラ部(撮像部)206、画像処理部(取得部)208、及び位置算出部(位置検出部)210を主に有する。以下に、本実施形態に係る端末装置200に含まれる各機能ブロックの詳細について説明する。   As illustrated in FIG. 6, the terminal device 200 according to the present embodiment includes a terminal control unit 202, a terminal storage unit 204, a camera unit (imaging unit) 206, an image processing unit (acquisition unit) 208, and a position calculation unit (position It mainly includes a detection unit 210. Below, the detail of each functional block contained in the terminal device 200 which concerns on this embodiment is demonstrated.

(端末制御部202)
端末制御部202は、端末装置200に内蔵されるCPU、ROM、及びRAM等のハードウェアを用いて、端末装置200の各機能ブロックを制御する機能を有する。
(Terminal control unit 202)
The terminal control unit 202 has a function of controlling each functional block of the terminal device 200 using hardware such as a CPU, a ROM, and a RAM built in the terminal device 200.

(端末記憶部204)
端末記憶部204は、ROM、RAM等の記憶装置から実現され、後述する画像処理部208によって取得した情報を格納する。詳細には、端末記憶部204は、図7に示すような情報テーブル502を格納する。当該情報テーブル502は、照明器具100ごとに、照明器具100から可視光通信を介して取得した、照明器具100の識別情報(ID)、三次元空間(実空間)上における、発光領域の形状に関する情報(形状情報)、照明器具100の設置位置に関する情報(位置情報)を格納する。さらに、当該情報テーブル502は、照明器具100ごとに、後述するカメラ部206で撮像した照明器具100の動画像上の照明器具100の発光部110の輪郭の面積や頂点の位置(位置座標)等を格納する。
(Terminal storage unit 204)
The terminal storage unit 204 is realized by a storage device such as a ROM and a RAM, and stores information acquired by an image processing unit 208 described later. Specifically, the terminal storage unit 204 stores an information table 502 as shown in FIG. The information table 502 relates to the identification information (ID) of the lighting fixture 100 acquired from the lighting fixture 100 via visible light communication for each lighting fixture 100, and the shape of the light emitting region on the three-dimensional space (real space). Information (shape information) and information (position information) regarding the installation position of the lighting fixture 100 are stored. Further, the information table 502 includes, for each lighting fixture 100, the outline area and the vertex position (positional coordinates) of the light emitting unit 110 of the lighting fixture 100 on the moving image of the lighting fixture 100 captured by the camera unit 206 described later. Is stored.

先に説明したように、上記情報テーブル502に格納される上記形状情報は、三次元空間(実空間)上における、発光部110の輪郭の各頂点の位置座標や、発光部110の形状及び寸法の情報を含むことができる。さらに、上記情報テーブル502に格納される上記位置情報は、三次元空間上における、照明器具100の発光部110の重心の位置座標等を含むことができる。   As described above, the shape information stored in the information table 502 includes the position coordinates of each vertex of the contour of the light emitting unit 110 and the shape and dimensions of the light emitting unit 110 in a three-dimensional space (real space). Information can be included. Further, the position information stored in the information table 502 can include position coordinates of the center of gravity of the light emitting unit 110 of the lighting fixture 100 in a three-dimensional space.

(カメラ部206)
カメラ部206は、例えば、同一平面上に設けられた少なくとも3つ以上の照明器具100の動画像を撮像することができる。詳細には、カメラ部206は、対象空間から発せられる光を受光して撮像面に光像を形成し、撮像面に形成された光像を電気的な画像信号に変換することにより動画像を取得することができる。また、カメラ部206は、例えば、照明器具100から発せられる光を集光する撮影レンズ及びズームレンズ等の撮像光学系、及び、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を有してもよい。
(Camera unit 206)
For example, the camera unit 206 can capture a moving image of at least three or more lighting fixtures 100 provided on the same plane. Specifically, the camera unit 206 receives light emitted from the target space, forms an optical image on the imaging surface, and converts the optical image formed on the imaging surface into an electrical image signal to convert a moving image. Can be acquired. In addition, the camera unit 206 includes, for example, an imaging optical system such as a photographing lens and a zoom lens that collects light emitted from the lighting apparatus 100, and an imaging such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). You may have an element.

(画像処理部208)
画像処理部208は、端末装置200に内蔵されるCPU、ROM、及びRAM等のハードウェアを用いて、上述のカメラ部206が撮像した照明器具100の動画像を取得し、取得した動画像を一時的に格納する。さらに、画像処理部208は、格納した動画像に基づき、照明器具100の点滅パターン(受光パターン)を取得し、取得した点滅パターンに対して復調処理を行うことにより、照明器具100の識別情報(ID)、三次元空間(実空間)上における、発光領域(発光部110)の形状に関する情報(形状情報)、照明器具100の設置位置に関する情報(位置情報)を取得することができる。
(Image processing unit 208)
The image processing unit 208 acquires a moving image of the luminaire 100 captured by the camera unit 206 using hardware such as a CPU, a ROM, and a RAM built in the terminal device 200, and acquires the acquired moving image. Store temporarily. Furthermore, the image processing unit 208 acquires a blinking pattern (light reception pattern) of the lighting fixture 100 based on the stored moving image, and performs demodulation processing on the acquired blinking pattern, thereby identifying the identification information ( ID), information (shape information) regarding the shape of the light emitting region (light emitting unit 110) in the three-dimensional space (real space), and information (position information) regarding the installation position of the lighting fixture 100 can be acquired.

また、画像処理部208は、上述のカメラ部206が撮像した照明器具100の動画像に対して画像認識技術を用いて解析を行うことにより、画像上での照明器具100の発光部110の特徴点として、発光部110の輪郭の頂点及び面積を抽出、算出することができる。さらに、画像処理部208は、抽出した発光部110の輪郭を、可視光通信を介して照明器具100から取得した発光部110の形状に基づいて、頂点の数が一致するように抽象化する処理を行うこともできる。例えば、画像処理部208は、照明器具100が棒状の発光部110を有する場合、可視光通信を介して照明器具100から取得した発光部110の形状として棒状形状である旨の情報と、画像上から抽出した照明器具100の発光部110の輪郭とを参照して、照明器具100を2つの端部を持つ線分とし抽象化することができる。   Further, the image processing unit 208 analyzes the moving image of the lighting fixture 100 picked up by the camera unit 206 using an image recognition technique, so that the characteristics of the light emitting unit 110 of the lighting fixture 100 on the image are displayed. As a point, the vertex and area of the contour of the light emitting unit 110 can be extracted and calculated. Further, the image processing unit 208 abstracts the extracted contour of the light emitting unit 110 so that the number of vertices matches based on the shape of the light emitting unit 110 acquired from the lighting apparatus 100 via visible light communication. Can also be done. For example, when the lighting apparatus 100 includes the rod-shaped light emitting unit 110, the image processing unit 208 includes information indicating that the shape of the light emitting unit 110 acquired from the lighting apparatus 100 via visible light communication is a bar shape, With reference to the contour of the light emitting unit 110 of the luminaire 100 extracted from the above, the luminaire 100 can be abstracted as a line segment having two ends.

さらに、画像処理部208は、取得した情報を、上述の端末記憶部204、及び、後述する位置算出部210に出力することができる。   Furthermore, the image processing unit 208 can output the acquired information to the terminal storage unit 204 described above and a position calculation unit 210 described later.

(位置算出部210)
位置算出部210は、可視光通信を介して上述の画像処理部208によって取得された、照明器具100の識別情報(ID)、三次元空間(実空間)上における、発光領域(発光部110)の形状に関する情報(形状情報)、照明器具100の設置位置に関する情報(位置情報)と、上述の画像処理部208によって画像から抽出された、照明器具100の発光部110の輪郭の面積や頂点の位置情報とに基づいて、線形方程式を利用して、端末装置200の位置を算出することができる。
(Position calculation unit 210)
The position calculation unit 210 is a light emitting region (light emitting unit 110) on the identification information (ID) of the lighting fixture 100 and a three-dimensional space (real space) acquired by the image processing unit 208 described above via visible light communication. Information on the shape of the light source (shape information), information on the installation position of the lighting fixture 100 (position information), and the area and vertex of the contour of the light emitting unit 110 of the lighting fixture 100 extracted from the image by the image processing unit 208 described above. Based on the position information, the position of the terminal device 200 can be calculated using a linear equation.

詳細には、位置算出部210は、画像上の照明器具100における少なくとも6点と、可視光通信を介して取得された三次元空間(実空間)上の位置座標に係る6点との対応関係を特定し、すなわち、6組の点の対応関係を特定し、特定した対応関係に基づいて、線形方程式を用いて、端末装置200の位置座標を算出することができる。   Specifically, the position calculation unit 210 has a correspondence relationship between at least six points in the lighting fixture 100 on the image and six points related to position coordinates in the three-dimensional space (real space) acquired through visible light communication. In other words, the correspondence relationship between the six sets of points can be identified, and the position coordinates of the terminal device 200 can be calculated using a linear equation based on the identified correspondence relationship.

より具体的には、位置算出部210は、図8に示すように、画像600上の各点(図8では点A´、B´、C´)と、三次元空間(実空間)602での各点(図8では点A、B、C)との対応関係(図8においては、線で結ばれた点Aと点A´、点Bと点B´、点Cと点C´が対応している)といった2つの点の組からなる6つの組(言い換えると、12個の点の対応)の対応関係を得ることができ、且つ、端末装置200のカメラ部206の固有の内部パラメータが予めわかっていれば、下記の数式(1)を用いて、端末装置200のカメラ部206の三次元空間上の位置(図8では点Q)や姿勢を算出することが可能である。   More specifically, as shown in FIG. 8, the position calculation unit 210 uses each point on the image 600 (points A ′, B ′, and C ′ in FIG. 8) and a three-dimensional space (real space) 602. (Points A, B, and C ′ connected by a line, points B and B ′, and points C and C ′ in FIG. 8). 6) (in other words, correspondence of 12 points) can be obtained, and the internal parameters specific to the camera unit 206 of the terminal device 200 can be obtained. If it is known in advance, it is possible to calculate the position (point Q in FIG. 8) and posture of the camera unit 206 of the terminal device 200 in the three-dimensional space using the following formula (1).

Figure 2019132673
Figure 2019132673

なお、数式(1)においては、Pは、3×4の行列(12個の未知数)として示され、端末装置200のカメラ部206の三次元空間(実空間)602での位置や姿勢を示す。また、数式(1)においては、(Ximage、Yimage、S)は、画像600上の点の座標を示し、(Xworld、Yworld、Zworld、1)は、三次元空間602での点の座標を示し、2つの点に関する対応関係(三次元空間602上の点と画像600上での点との対応関係)があれば2つの方程式が得られることから、画像600上の6つの点と三次元空間602上での6つの点との対応関係があれば、端末装置200のカメラ部206の位置を示すPを算出することが可能となる。 In Equation (1), P is represented as a 3 × 4 matrix (12 unknowns) and indicates the position and orientation of the camera unit 206 of the terminal device 200 in the three-dimensional space (real space) 602. . In the formula (1), (X image , Y image , S) indicates the coordinates of a point on the image 600, and (X world , Y world , Z world , 1) is the three-dimensional space 602. If the coordinates of the points are shown and there is a correspondence between the two points (correspondence between the points on the three-dimensional space 602 and the points on the image 600), two equations can be obtained. If there is a correspondence between the points and the six points on the three-dimensional space 602, P indicating the position of the camera unit 206 of the terminal device 200 can be calculated.

すなわち、位置算出部210は、端末記憶部204に格納された情報を用いて、6組の点の対応を特定する対応特定処理(前処理)と、対応関係が特定された6組の対応関係に基づいて、端末装置200の位置を算出する位置算出処理とを行うことができる。   That is, the position calculation unit 210 uses the information stored in the terminal storage unit 204 to specify the correspondence specifying process (pre-processing) for specifying the correspondence between the six sets of points and the six sets of correspondences for which the correspondence is specified. And a position calculation process for calculating the position of the terminal device 200.

なお、本実施形態においては、上述した画像処理部208及び位置算出部210等で行われる処理は、位置検出システム1に含まれるサーバ(図示省略)で行ってもよい。この場合、当該サーバは、端末装置200で撮像した照明器具100の動画像を端末装置200から受信し、予め当該サーバに格納された情報を用いて、端末装置200の位置の検出を行うこととなる。   In the present embodiment, the processing performed by the image processing unit 208 and the position calculation unit 210 described above may be performed by a server (not shown) included in the position detection system 1. In this case, the server receives a moving image of the luminaire 100 captured by the terminal device 200 from the terminal device 200 and detects the position of the terminal device 200 using information stored in the server in advance. Become.

<位置検出方法>
以上、本実施形態に係る端末装置200の詳細構成について説明した。次に、本実施形態に係る位置検出方法について、図9から図13を参照して説明する。図9は、本実施形態に係る位置検出方法のフローチャートである。図10は、本実施形態に係る対応特定処理(前処理)のサブフローチャートである。さらに、図11は、図10のステップS213のサブフローチャートである。また、図12及び図13は、本実施形態に係る対応特定処理(前処理)を説明するための説明図である。
<Position detection method>
The detailed configuration of the terminal device 200 according to the present embodiment has been described above. Next, the position detection method according to the present embodiment will be described with reference to FIGS. FIG. 9 is a flowchart of the position detection method according to the present embodiment. FIG. 10 is a sub-flowchart of the correspondence specifying process (pre-processing) according to this embodiment. Further, FIG. 11 is a sub-flowchart of step S213 in FIG. 12 and 13 are explanatory diagrams for explaining the correspondence specifying process (pre-processing) according to the present embodiment.

詳細には、本実施形態に係る位置検出方法は、図9のフローチャートで示され、当該フローチャートは、ステップS101からステップS109までの複数のステップを有する。以下に、本実施形態に係る位置検出方法の各ステップの詳細を説明する。   Specifically, the position detection method according to the present embodiment is shown in the flowchart of FIG. 9, and the flowchart includes a plurality of steps from step S101 to step S109. Details of each step of the position detection method according to the present embodiment will be described below.

なお、以下に説明する本実施形態に係る位置検出方法においては、同一平面(天井)上に設けられた、棒状の発光部110を有する、3つの照明器具(第1、第2及び第3の照明器具)100を用いて、端末装置200の位置を検出するものとして説明する。   In the position detection method according to the present embodiment described below, three lighting fixtures (first, second, and third) having a rod-like light emitting unit 110 provided on the same plane (ceiling). Description will be made assuming that the position of the terminal device 200 is detected using the (luminaire) 100.

(ステップS101)
各照明器具100の発光部110が発光し、照明器具100は、可視光通信を介して、照明器具100の識別情報(ID)、三次元空間(実空間)上における、発光領域(発光部110)の形状に関する情報(形状情報)、及び、照明器具100の設置位置に関する情報(位置情報)を端末装置200へ送信する。具体的には、各照明器具100の発光部110は、所定の点滅パターンで発光及び消灯(点滅)を繰り返し、端末装置200へ、上記情報を送信する。
(Step S101)
The light emitting unit 110 of each lighting fixture 100 emits light, and the lighting fixture 100 transmits the light emitting region (the light emitting unit 110) on the identification information (ID) of the lighting fixture 100 and a three-dimensional space (real space) via visible light communication. ) (Shape information) and information regarding the installation position of the lighting fixture 100 (position information) are transmitted to the terminal device 200. Specifically, the light emitting unit 110 of each lighting fixture 100 repeats light emission and extinguishing (flashing) in a predetermined blinking pattern, and transmits the information to the terminal device 200.

(ステップS103)
端末装置200のカメラ部206は、発光する3つの照明器具100の動画像を撮像する。
(Step S103)
The camera unit 206 of the terminal device 200 captures a moving image of the three lighting fixtures 100 that emit light.

(ステップS105)
端末装置200の画像処理部208は、上述したステップS103で撮像した動画像を一時的に格納する。さらに、画像処理部208は、格納した動画像に基づき、照明器具100の点滅パターン(受光パターン)を取得し、取得した点滅パターンに対して復調処理を行うことにより、照明器具100の識別情報(ID)、三次元空間(実空間)上における、発光領域(発光部110)の形状に関する情報(形状情報)、照明器具100の設置位置に関する情報(位置情報)を取得し、端末記憶部204に格納する。なお、ここで格納される形状情報は、先に説明したように、照明器具100の発光部110の輪郭の各頂点の位置座標であり、さらに、当該発光部110の形状及び寸法の情報を含んでもよい。さらに、ここで格納される位置情報は、三次元空間(実空間)における、照明器具100の発光部110の重心の位置座標である。
(Step S105)
The image processing unit 208 of the terminal device 200 temporarily stores the moving image captured in step S103 described above. Furthermore, the image processing unit 208 acquires a blinking pattern (light reception pattern) of the lighting fixture 100 based on the stored moving image, and performs demodulation processing on the acquired blinking pattern, thereby identifying the identification information ( ID), information on the shape of the light emitting area (light emitting unit 110) in the three-dimensional space (real space) (shape information), and information on the installation position of the lighting fixture 100 (position information) are acquired and stored in the terminal storage unit 204 Store. The shape information stored here is the position coordinates of each vertex of the contour of the light emitting unit 110 of the lighting fixture 100 as described above, and further includes information on the shape and dimensions of the light emitting unit 110. But you can. Furthermore, the position information stored here is a position coordinate of the center of gravity of the light emitting unit 110 of the lighting fixture 100 in a three-dimensional space (real space).

また、端末装置200の画像処理部208は、上述したステップS103で撮像した動画像に対して、画像認識技術を用いて処理を行い、画像上での各照明器具100の発光部110の輪郭の頂点の位置座標及び面積を抽出、算出する。   In addition, the image processing unit 208 of the terminal device 200 performs processing using the image recognition technology on the moving image captured in step S103 described above, and the contour of the light emitting unit 110 of each lighting apparatus 100 on the image is displayed. Extract and calculate vertex position coordinates and area.

(ステップS107)
位置の算出の前処理として、端末装置200の位置算出部210は、画像上の各照明器具100に関する6つの点と、可視光通信を介して取得された三次元空間(実空間)上の位置座標に係る6つの点との対応関係を特定する。なお、当該ステップS107の詳細については、後述する。
(Step S107)
As pre-processing for calculating the position, the position calculation unit 210 of the terminal device 200 includes six points related to each lighting fixture 100 on the image, and a position in the three-dimensional space (real space) acquired through visible light communication. The correspondence relationship with the six points related to the coordinates is specified. Details of step S107 will be described later.

(ステップS109)
端末装置200の位置算出部210は、上述のステップS107で特定された6組の点の対応関係に基づいて、線形方程式を用いて、端末装置200の位置座標を算出する。なお、端末装置200の位置座標の算出は、既に説明したため、ここでは詳細な説明を省略する。
(Step S109)
The position calculation unit 210 of the terminal device 200 calculates the position coordinates of the terminal device 200 using a linear equation based on the correspondence between the six sets of points specified in step S107 described above. Since the calculation of the position coordinates of the terminal device 200 has already been described, detailed description thereof is omitted here.

以上、本実施形態に係る位置検出方法について説明した。次に、図9のステップS107、すなわち、対応特定処理(前処理)の詳細について説明する。詳細には、本実施形態に係る対応特定処理(ステップS107)は、図10のサブフローチャートで示され、当該サブフローチャートには、ステップS201からステップS217までの複数のステップが含まれる。以下に、本実施形態に係る対応特定処理の各ステップの詳細を説明する。   The position detection method according to the present embodiment has been described above. Next, step S107 in FIG. 9, that is, details of the correspondence specifying process (pre-processing) will be described. Specifically, the correspondence specifying process (step S107) according to the present embodiment is shown in the sub-flowchart of FIG. 10, and the sub-flowchart includes a plurality of steps from step S201 to step S217. Details of each step of the correspondence specifying process according to this embodiment will be described below.

なお、以下の説明においては、同一平面(天井)上に設けられた、棒状の発光部110を有する、3つの照明器具100を用いて、端末装置200の位置を検出する。さらに、以下の説明においては、各照明器具100の棒状の発光部110の2つの端部についての三次元空間(実空間)上の位置座標が位置情報としてわかっているものとする。また、以下の説明においては、各照明器具100の棒状の発光部110の2つの端部についての動画像上の位置もわかっているものとする。すなわち、以下の説明においては、各照明器具100において、2つの上記端部の三次元空間上の位置と画像上の位置との対応が特定することができるものとし、3つの照明器具100が含まれていることから、6組の三次元空間上の点と画像上の点との対応関係を得ることができるものとする。   In the following description, the position of the terminal device 200 is detected using the three lighting fixtures 100 having the rod-like light emitting unit 110 provided on the same plane (ceiling). Furthermore, in the following description, it is assumed that the position coordinates on the three-dimensional space (real space) of the two ends of the bar-shaped light emitting unit 110 of each lighting fixture 100 are known as position information. Further, in the following description, it is assumed that the positions on the moving image of the two ends of the bar-shaped light emitting unit 110 of each lighting fixture 100 are also known. That is, in the following description, it is assumed that the correspondence between the position of the two end portions in the three-dimensional space and the position on the image can be specified in each lighting device 100, and three lighting devices 100 are included. Therefore, it is assumed that the correspondence between the six sets of points on the three-dimensional space and the points on the image can be obtained.

(ステップS201)
端末装置200の位置算出部210は、上述の図9に示されるステップS109における端末装置200の位置座標の算出で使用する候補となる情報が格納されることとなる選択候補の集合を空にする。
(Step S201)
The position calculation unit 210 of the terminal device 200 empties a set of selection candidates in which information that is candidates for use in the calculation of the position coordinates of the terminal device 200 in step S109 shown in FIG. 9 is stored. .

(ステップS203)
端末装置200の位置算出部210は、上述の図9のステップS105で取得した照明器具100の識別情報(ID)、三次元空間(実空間)上における、発光領域(発光部110)の形状に関する情報(形状情報)、照明器具100の設置位置に関する情報(位置情報)を、端末記憶部204から取得し、上記選択候補の集合における各照明器具100の実空間上の位置情報の集合として、上記選択候補の実空間側の集合に格納する。詳細には、位置算出部210は、上記形状情報として、各照明器具100の棒状の発光部110の2つの端部についての三次元空間(実空間)上の位置座標を照明器具100のIDと紐づけて格納し、さらに、上記位置情報として、各照明器具100の棒状の発光部110の重心の三次元空間(実空間)上の位置座標を照明器具100のIDと紐づけて格納する。
(Step S203)
The position calculation unit 210 of the terminal device 200 relates to the identification information (ID) of the lighting fixture 100 acquired in step S105 of FIG. 9 described above, and the shape of the light emitting region (light emitting unit 110) in the three-dimensional space (real space). Information (shape information), information on the installation position of the lighting fixture 100 (position information) is acquired from the terminal storage unit 204, and as a set of positional information in the real space of each lighting fixture 100 in the set of selection candidates, Store in the set of selection candidates on the real space side. Specifically, the position calculation unit 210 uses, as the shape information, the position coordinates on the three-dimensional space (real space) of the two ends of the bar-shaped light emitting unit 110 of each lighting fixture 100 as the ID of the lighting fixture 100. Further, the positional coordinates of the bar-shaped light emitting unit 110 of each lighting fixture 100 in the three-dimensional space (real space) are stored in association with the ID of the lighting fixture 100 as the positional information.

(ステップS205)
端末装置200の位置算出部210は、上記選択候補の集合における各照明器具100の位置情報の実空間側集合が空であれば、処理を終了する。一方、端末装置200の位置算出部210は、上記選択候補の集合における各照明器具100の位置情報の実空間側集合が空でなければ、後述するステップS207へ進む。
(Step S205)
The position calculation unit 210 of the terminal device 200 ends the process if the real space side set of the position information of each lighting fixture 100 in the set of selection candidates is empty. On the other hand, the position calculation unit 210 of the terminal device 200 proceeds to step S207 described later unless the real space side set of the position information of each lighting fixture 100 in the set of selection candidates is empty.

(ステップS207)
端末装置200の位置算出部210は、上述の図9のステップS105で抽出した画像上での各照明器具100の発光部110の輪郭の面積の一番大きいものを選択し、選択した照明器具100をpと設定する。
(Step S207)
The position calculation unit 210 of the terminal device 200 selects the one with the largest area of the contour of the light emitting unit 110 of each lighting fixture 100 on the image extracted in step S105 of FIG. Is set to p.

(ステップS209)
端末装置200の位置算出部210は、上述のステップS207で選択したpに係る画像上の情報を、上記選択候補の画像側に係る情報を格納する画像側集合に追加する。詳細には、位置算出部210は、選択したpに係る照明器具100の棒状の発光部110の2つの端部についての動画像上の位置の情報(位置座標)を画像側集合に追加する。
(Step S209)
The position calculation unit 210 of the terminal device 200 adds the information on the image related to p selected in step S207 described above to the image-side set that stores information related to the image side of the selection candidate. Specifically, the position calculation unit 210 adds position information (position coordinates) on the moving image of the two ends of the bar-shaped light emitting unit 110 of the lighting fixture 100 according to the selected p to the image side set.

(ステップS211)
端末装置200の位置算出部210は、画像側集合に格納された画像上の情報と紐づけられる照明器具100の数の大きさが2以下であれば(言い換えると、端部の位置座標の数が5以下であれば)、上述のステップS205へ戻る。一方、端末装置200の位置算出部210は、画像側集合に格納された画像上の情報と紐づけられる照明器具100の数の大きさが2以下でなければ(言い換えると、端部の位置座標の数が5以下でなければ)、後述するステップS213へ進む。
(Step S211)
The position calculation unit 210 of the terminal device 200 determines that the number of lighting fixtures 100 associated with the information on the image stored in the image side set is 2 or less (in other words, the number of position coordinates of the end portion). If it is 5 or less), the process returns to step S205 described above. On the other hand, the position calculation unit 210 of the terminal device 200 does not have the size of the number of the lighting fixtures 100 associated with the information on the image stored in the image side set being 2 or less (in other words, the position coordinates of the end portion). If the number is not less than 5), the process proceeds to step S213 described later.

(ステップS213)
端末装置200の位置算出部210は、選択候補の集合に格納された、各照明器具100の棒状の発光部110の2つの端部についての三次元空間(実空間)上の位置座標と、各照明器具100の棒状の発光部110の2つの端部についての動画像上の位置の情報との対応関係を特定する。なお、当該ステップS213の詳細については、後述する。
(Step S213)
The position calculation unit 210 of the terminal device 200 stores the position coordinates on the three-dimensional space (real space) of the two ends of the bar-shaped light emitting unit 110 of each lighting fixture 100 stored in the set of selection candidates, The correspondence relationship between the two end portions of the bar-shaped light emitting unit 110 of the lighting fixture 100 and the position information on the moving image is specified. Details of step S213 will be described later.

(ステップS215)
端末装置200の位置算出部210は、6組以上の対応関係が特定できたかどうかを判定する。当該位置算出部210は、6組以上の対応関係が特定できなかった場合は、ステップS217へ進む。一方、当該位置算出部210は、6組以上の対応関係が特定できた場合は、処理を終了する。
(Step S215)
The position calculation unit 210 of the terminal device 200 determines whether or not six or more sets of correspondences have been identified. The position calculation unit 210 proceeds to step S217 when six or more sets of correspondences cannot be specified. On the other hand, the position calculation unit 210 ends the process when six or more sets of correspondences can be identified.

(ステップS217)
対応関係が特定できなかったものとして、上述のステップS207で選択したpに関する情報を選択候補の集合から除き、上述のステップS205へ戻る。
(Step S217)
Assuming that the correspondence relationship could not be specified, the information on p selected in step S207 is removed from the set of selection candidates, and the process returns to step S205.

以上、本実施形態に係る対応特定処理(前処理)(ステップS107)の詳細について説明した。次に、図10のステップS213について説明する。詳細には、図10のステップS213は、図11のサブフローチャートで示され、当該サブフローチャートは、ステップS301からステップS321までの複数のステップを有する。以下に、本実施形態に係るステップS213のサブフローチャートに含まれる各ステップの詳細を説明する。   The details of the correspondence specifying process (pre-processing) (step S107) according to the present embodiment have been described above. Next, step S213 in FIG. 10 will be described. Specifically, step S213 in FIG. 10 is shown in the sub-flowchart in FIG. 11, and the sub-flowchart has a plurality of steps from step S301 to step S321. Details of each step included in the sub-flowchart of step S213 according to the present embodiment will be described below.

(ステップS301)
端末装置200の位置算出部210は、処理の順番を管理するための変数mに1を代入する。
(Step S301)
The position calculation unit 210 of the terminal device 200 substitutes 1 for a variable m for managing the processing order.

(ステップS303)
端末装置200の位置算出部210は、上述のステップS203(ステップS105)において選択候補の集合に格納された、各照明器具100の棒状の発光部110の三次元空間(実空間)上の重心の位置座標を取得する。
(Step S303)
The position calculation unit 210 of the terminal device 200 stores the center of gravity on the three-dimensional space (real space) of the rod-shaped light emitting unit 110 of each lighting fixture 100 stored in the set of selection candidates in step S203 (step S105) described above. Get position coordinates.

(ステップS305)
端末装置200の位置算出部210は、上述のステップS303で取得した3つの照明器具100の発光部110の重心が、同一直線上にあるかどうかを判定する。当該位置算出部210は、3つの重心が同一直線上にない場合には、後述するステップS307へ進む。一方、当該位置算出部210は、3つの重心が同一直線上にある場合には、処理を終了する。
(Step S305)
The position calculation unit 210 of the terminal device 200 determines whether or not the centers of gravity of the light emitting units 110 of the three lighting fixtures 100 acquired in step S303 are on the same straight line. If the three centroids are not on the same straight line, the position calculation unit 210 proceeds to step S307 described later. On the other hand, the position calculation unit 210 ends the process when the three centroids are on the same straight line.

(ステップS307)
端末装置200の位置算出部210は、選択候補の画像側集合に含まれる各照明器具100の発光部110の、画像上の重心の位置を、抽出した発光部110の輪郭の頂点の位置座標(上述のステップS105で取得される)に基づき、算出する。
(Step S307)
The position calculation unit 210 of the terminal device 200 extracts the position coordinates of the vertices of the contours of the light emitting units 110 extracted from the positions of the centers of gravity of the light emitting units 110 of the lighting fixtures 100 included in the selection-side image side set on the image. Based on (obtained in step S105 described above).

(ステップS309)
端末装置200の位置算出部210は、選択候補の集合に属する照明器具100のうち、発光部110の輪郭がm番目に大きい照明器具100をqとする。なお、以下の説明においては、当該mは、上述したステップS301で設定されているものとする。
(Step S309)
The position calculation unit 210 of the terminal device 200 sets the lighting fixture 100 having the mth largest contour of the light emitting unit 110 among the lighting fixtures 100 belonging to the set of selection candidates as q. In the following description, it is assumed that m is set in step S301 described above.

(ステップS311)
端末装置200の位置算出部210は、選択候補の集合に格納された、各照明器具100の棒状の発光部110の2つの端部についての三次元空間(実空間)上の位置座標(位置情報)と、各照明器具100の発光部110の三次元空間上の重心の位置座標とに基づいて、qの2つの端部を結ぶ直線と、選択集合に格納されたq以外の2つの照明器具100の重心を結ぶ直線とにより構成される角度αを算出する(図12及び図13参照)。これら直線の詳細については、後述する。
(Step S311)
The position calculation unit 210 of the terminal device 200 stores position coordinates (position information) in the three-dimensional space (real space) of the two ends of the bar-shaped light emitting unit 110 of each lighting fixture 100 stored in the set of selection candidates. ) And the position coordinates of the center of gravity in the three-dimensional space of the light emitting unit 110 of each lighting fixture 100, and two lighting fixtures other than q stored in the selected set and the straight line connecting the two ends of q. An angle α composed of a straight line connecting the centroids of 100 is calculated (see FIGS. 12 and 13). Details of these straight lines will be described later.

(ステップS313)
端末装置200の位置算出部210は、上述のステップS311で算出された角度αが、−45度から+45度(所定の角度)以内である場合には、後述するステップS315へ進む。一方、端末装置200の位置算出部210は、上述のステップS311で算出された角度αが、−45度から+45度(所定の角度)以内でない場合には、後述するステップS317へ進む。
(Step S313)
If the angle α calculated in step S311 described above is within −45 degrees to +45 degrees (predetermined angle), the position calculation unit 210 of the terminal device 200 proceeds to step S315 described later. On the other hand, when the angle α calculated in step S311 is not within −45 degrees to +45 degrees (predetermined angle), the position calculation unit 210 of the terminal device 200 proceeds to step S317 described later.

(ステップS315)
端末装置200の位置算出部210は、選択候補の集合に格納された、各照明器具100の棒状の発光部110の2つの端部についての三次元空間(実空間)上の位置座標と、各照明器具100の棒状の発光部110の2つの端部についての動画像上の位置座標との対応関係を特定する。
(Step S315)
The position calculation unit 210 of the terminal device 200 stores the position coordinates on the three-dimensional space (real space) of the two ends of the bar-shaped light emitting unit 110 of each lighting fixture 100 stored in the set of selection candidates, The correspondence relationship between the two end portions of the bar-shaped light emitting unit 110 of the lighting fixture 100 and the position coordinates on the moving image is specified.

詳細には、上述のステップS311において、当該位置算出部210は、図12に示すように、qである照明器具100の棒状の発光部110の2つの端部700、702についての三次元空間(実空間)上の位置座標に基づいて、これら2つの端部(2点)700、702を結ぶ直線710を算出する。さらに、当該位置算出部210は、上述のステップS303で算出した、各照明器具100a、100bの発光部110の三次元空間上の重心804a、804bの位置座標に基づいて、これら2つの端部700、702を結ぶ直線810を算出する。加えて、当該位置算出部210は、算出した直線710と直線810とにより構成される角度αを算出する。   In detail, in the above-described step S311, the position calculation unit 210, as shown in FIG. 12, is a three-dimensional space for two ends 700 and 702 of the bar-shaped light emitting unit 110 of the luminaire 100 that is q ( A straight line 710 connecting these two end portions (two points) 700 and 702 is calculated based on the position coordinates in the real space. Furthermore, the position calculation unit 210 calculates the two end portions 700 based on the position coordinates of the centroids 804a and 804b in the three-dimensional space of the light emitting units 110 of the respective lighting fixtures 100a and 100b calculated in step S303 described above. , 702 is calculated. In addition, the position calculation unit 210 calculates an angle α composed of the calculated straight line 710 and straight line 810.

そして、算出した角度αが、−45度から+45度以内である場合には、当該位置算出部210は、図12に示すように、三次元空間(実空間)上及び画像上にて、qである照明器具100の端部700から各照明器具100a、100bの重心804a、804bまでの距離a、bをそれぞれ算出する。同様に、当該位置算出部210は、三次元空間上及び画像上にて、図12に示すように、qである照明器具100の端部702から各照明器具100a、100bの重心804a、804bまでの距離a、bをそれぞれ算出する。 When the calculated angle α is within −45 degrees to +45 degrees, the position calculation unit 210 performs q on the three-dimensional space (real space) and the image as shown in FIG. The distances a 0 and b 0 from the end 700 of the lighting fixture 100 to the centers of gravity 804a and 804b of the respective lighting fixtures 100a and 100b are calculated. Similarly, as shown in FIG. 12, the position calculation unit 210 from the end 702 of the luminaire 100 that is q to the centers of gravity 804 a and 804 b of the luminaires 100 a and 100 b on the three-dimensional space and the image. Distances a 1 and b 1 are respectively calculated.

なお、三次元空間(実空間)上のqである照明器具100の端部700、702の位置座標、及び、q以外の照明器具100a、100bの重心804a、804bの位置座標は、上述のステップS203(ステップS105)で取得することができるため、位置算出部210は、これらの位置座標に基づいて、qである照明器具100の端部700、702から各照明器具100a、100bの重心804a、804bまでの距離a、b、a、bを算出することができる。 Note that the position coordinates of the end portions 700 and 702 of the lighting fixture 100 and the position coordinates of the centers of gravity 804a and 804b of the lighting fixtures 100a and 100b other than q are q in the three-dimensional space (real space). Since it can be acquired in S203 (step S105), the position calculation unit 210, based on these position coordinates, the center of gravity 804a of each of the lighting fixtures 100a and 100b from the end portions 700 and 702 of the lighting fixture 100 as q. The distances a 0 , b 0 , a 1 , b 1 up to 804b can be calculated.

さらに、位置算出部210は、画像上の照明器具100の発光部110の輪郭の頂点の位置座標を、上述のステップS105で抽出された発光部110の輪郭に基づいて、算出することができ、算出した位置座標を用いて、画像上の、qである照明器具100の端部700、702の位置座標、及び、q以外の照明器具100a、100bの重心804a、804bの位置座標を算出することができる。従って、位置算出部210は、算出したこれら画像上の位置座標を用いて、qである照明器具100の端部700、702から各照明器具100a、100bの重心804a、804bまでの距離a、b、a、bを算出することができる。 Furthermore, the position calculation unit 210 can calculate the position coordinates of the vertex of the contour of the light emitting unit 110 of the lighting fixture 100 on the image based on the contour of the light emitting unit 110 extracted in step S105 described above, Using the calculated position coordinates, the position coordinates of the ends 700 and 702 of the luminaire 100 that are q and the position coordinates of the centers of gravity 804a and 804b of the luminaires 100a and 100b other than q are calculated on the image. Can do. Accordingly, the position calculation unit 210 uses the calculated position coordinates on the image to determine the distances a 0 to the centers of gravity 804a and 804b of the lighting fixtures 100a and 100b from the ends 700 and 702 of the lighting fixture 100 that are q. b 0 , a 1 and b 1 can be calculated.

そして、当該位置算出部210は、算出した距離a、a、b、bを利用して、三次元空間(実空間)上及び画像上のそれぞれにおいて、qである照明器具100の端部700、702は、それぞれ照明器具100a、100bのいずれかの近いかを基準にグループ分けする。そして、当該位置算出部210は、同じグループに属する三次元空間上の端部700、702と、画像上の端部700、702とが対応させることにより、対応関係を特定することができる。 Then, the position calculation unit 210 uses the calculated distances a 0 , a 1 , b 0 , and b 1 to calculate the position of the luminaire 100 that is q in the three-dimensional space (real space) and the image. The ends 700 and 702 are grouped on the basis of which one of the lighting fixtures 100a and 100b is closer to each other. Then, the position calculation unit 210 can identify the correspondence relationship by causing the end portions 700 and 702 on the three-dimensional space belonging to the same group to correspond to the end portions 700 and 702 on the image.

(ステップS317)
端末装置200の位置算出部210は、上述したステップS315と同様に、選択候補の集合に格納された、各照明器具100の棒状の発光部110の2つの端部についての三次元空間(実空間)上の位置座標と、各照明器具100の棒状の発光部110の2つの端部についての動画像上の位置座標との対応関係を特定する。
(Step S317)
Similar to step S315 described above, the position calculation unit 210 of the terminal device 200 stores a three-dimensional space (real space) for two ends of the bar-shaped light emitting unit 110 of each lighting fixture 100 stored in the set of selection candidates. ) The correspondence between the position coordinates on the moving image and the position coordinates on the moving image of the two ends of the bar-shaped light emitting unit 110 of each lighting fixture 100 is specified.

詳細には、上述のステップS311において、当該位置算出部210は、図13に示すように、qである照明器具100の棒状の発光部110の三次元空間(実空間)上の位置座標に基づいて、qである照明器具100の2つの端部700、702を結ぶ直線710を算出する。さらに、当該位置算出部210は、上述のステップS303で算出した、各照明器具100a、100bの発光部110の三次元空間上の重心804a、804bの位置に基づいて、これら2つの端部700、702を結ぶ直線810を算出する。加えて、当該位置算出部210は、算出した直線710と直線810とにより構成される角度αを算出する。   Specifically, in step S311 described above, the position calculation unit 210 is based on the position coordinates in the three-dimensional space (real space) of the bar-shaped light emitting unit 110 of the lighting fixture 100, which is q, as shown in FIG. Then, a straight line 710 connecting the two end portions 700 and 702 of the luminaire 100 that is q is calculated. Further, the position calculation unit 210 calculates the two end portions 700, based on the positions of the gravity centers 804a and 804b in the three-dimensional space of the light emitting units 110 of the respective lighting fixtures 100a and 100b, which are calculated in step S303 described above. A straight line 810 connecting 702 is calculated. In addition, the position calculation unit 210 calculates an angle α composed of the calculated straight line 710 and straight line 810.

そして、算出した角度αが、−45度から+45度(所定の角度)以内でない場合、当該位置算出部210は、図13に示すように、三次元空間(実空間)上及び画像上にて、qである照明器具100の端部700から各照明器具100a、100bの重心804a、804bまでの距離a、bをそれぞれ算出する。同様に、当該位置算出部210は、三次元空間上及び画像上にて、図13に示すように、qである照明器具100の端部702から各照明器具100a、100bの重心804a、804bまでの距離a、bをそれぞれ算出する。さらに、当該位置算出部210は、算出した距離aと距離aの合計値、及び、算出した距離bと距離bの合計値を算出する。 Then, when the calculated angle α is not within −45 degrees to +45 degrees (predetermined angle), the position calculation unit 210, as shown in FIG. 13, on the three-dimensional space (real space) and on the image. , Q, the distances a 0 and b 0 from the end 700 of the lighting fixture 100 to the centers of gravity 804a and 804b of the lighting fixtures 100a and 100b are calculated. Similarly, as shown in FIG. 13, the position calculation unit 210 from the end portion 702 of the lighting fixture 100 as q to the centers of gravity 804a and 804b of the lighting fixtures 100a and 100b on the three-dimensional space and the image. Distances a 1 and b 1 are respectively calculated. Further, the position calculation unit 210 calculates the total value of the calculated distance a 0 and the distance a 1 and the total value of the calculated distance b 0 and the distance b 1 .

さらに、当該位置算出部210は、算出した合計値を利用して、三次元空間(実空間)上及び画像上のそれぞれにおいて、qである照明器具100の端部700、702は、それぞれ照明器具100a、100bとの間の距離の合計値が大きいか小さいかを基準にグループ分けする。そして、当該位置算出部210は、同じグループに属する三次元空間上の端部700、702と、画像上の端部700、702とが対応させることにより、対応関係を特定することができる。   Further, the position calculation unit 210 uses the calculated total value, and in the three-dimensional space (real space) and on the image, the end portions 700 and 702 of the lighting device 100 that are q are respectively lighting devices. Grouping is performed based on whether the total value of the distances between 100a and 100b is large or small. Then, the position calculation unit 210 can identify the correspondence relationship by causing the end portions 700 and 702 on the three-dimensional space belonging to the same group to correspond to the end portions 700 and 702 on the image.

(ステップS319)
端末装置200の位置算出部210は、変数mを1つ大きく設定する。
(Step S319)
The position calculation unit 210 of the terminal device 200 sets the variable m larger by one.

(ステップS321)
端末装置200の位置算出部210は、上述のステップS319で設定されたmの値が4でない場合には、上述したステップS309へ戻る。一方、当該位置算出部210は、上述のステップS319で設定されたmの値が4である場合には、処理を終了する。
(Step S321)
If the value of m set in step S319 described above is not 4, the position calculation unit 210 of the terminal device 200 returns to step S309 described above. On the other hand, the position calculation unit 210 ends the process when the value of m set in step S319 described above is 4.

以上のように本発明の第1の実施形態によれば、上述のステップS315及びステップS317のように、簡単な距離の算出と簡単な比較により、各照明器具100の棒状の発光部110の2つの端部についての三次元空間(実空間)上の位置座標と、各照明器具100の棒状の発光部110の2つの端部についての動画像上の位置座標との対応関係を特定することができる。さらに、本実施形態によれば、少ない照明器具100であっても、端末装置200の位置を検出するために十分な数の照明器具100に関する位置情報等を得ることができることから、処理時間の少ない線形方程式を利用して、良好な位置検出精度で端末装置200の位置を検出することができる。すなわち、本実施形態によれば、良好な位置検出精度でありつつ、少ない照明器具で、且つ、少ない処理時間で位置を検出することができる。   As described above, according to the first embodiment of the present invention, as shown in steps S315 and S317 described above, 2 of the bar-shaped light emitting units 110 of the respective lighting fixtures 100 can be calculated by simple distance calculation and simple comparison. It is possible to specify the correspondence between the position coordinates on the three-dimensional space (real space) for one end and the position coordinates on the moving image for the two ends of the bar-shaped light emitting unit 110 of each lighting fixture 100. it can. Furthermore, according to this embodiment, even with a small number of lighting fixtures 100, it is possible to obtain position information and the like related to a sufficient number of lighting fixtures 100 for detecting the positions of the terminal device 200, and therefore the processing time is short. Using the linear equation, the position of the terminal device 200 can be detected with good position detection accuracy. That is, according to the present embodiment, the position can be detected with a small amount of lighting equipment and with a short processing time while having a good position detection accuracy.

<<第2の実施形態>>
上述した本発明の第1の実施形態においては、算出した距離を用いて、各照明器具100の棒状の発光部110の2つの端部についての三次元空間(実空間)上の位置座標と、各照明器具100の棒状の発光部110の2つの端部についての動画像上の位置座標との対応関係を特定していた。しかしながら、本発明の実施形態は、これに限定されるものではなく、算出した角度を用いて上述のような特定を行ってもよい。以下に、算出した角度を用いて特定を行う本発明の第2の実施形態を、図14及び図15を参照して説明する。図14は、本実施形態に係る位置検出方法のフローチャートであり、図15は、本実施形態に係る位置検出方法を説明するための説明図である。
<< Second Embodiment >>
In the first embodiment of the present invention described above, using the calculated distance, the position coordinates on the three-dimensional space (real space) for the two ends of the bar-shaped light emitting unit 110 of each lighting fixture 100, The correspondence between the two end portions of the bar-shaped light emitting unit 110 of each lighting fixture 100 and the position coordinates on the moving image is specified. However, the embodiment of the present invention is not limited to this, and the above-described specification may be performed using the calculated angle. Hereinafter, a second embodiment of the present invention in which identification is performed using the calculated angle will be described with reference to FIGS. 14 and 15. FIG. 14 is a flowchart of the position detection method according to the present embodiment, and FIG. 15 is an explanatory diagram for explaining the position detection method according to the present embodiment.

なお、以下の説明においても、第1の実施形態と同様に、同一平面(天井)上に設けられた、棒状の発光部110を有する、3つ以上の照明器具100を用いて、端末装置200の位置を検出する。さらに、以下の説明においては、各照明器具100の棒状の発光部110の2つの端部についての三次元空間(実空間)上の位置座標が位置情報としてわかっているものとする。また、以下の説明においては、各照明器具100の棒状の発光部110の2つの端部についての動画像上の位置座標もわかっているものとする。すなわち、以下の説明においては、各照明器具100において、2つの端部の三次元空間上の位置と画像上の位置との対応が特定することができるものとし、3つの照明器具100が含まれていることから、6組の三次元空間上の点と画像上の点との対応関係を得ることができるものとする。   In the following description, similarly to the first embodiment, the terminal device 200 is used by using three or more lighting fixtures 100 each having a bar-like light emitting unit 110 provided on the same plane (ceiling). The position of is detected. Furthermore, in the following description, it is assumed that the position coordinates on the three-dimensional space (real space) of the two ends of the bar-shaped light emitting unit 110 of each lighting fixture 100 are known as position information. In the following description, it is assumed that the position coordinates on the moving image of the two end portions of the bar-shaped light emitting unit 110 of each lighting fixture 100 are also known. That is, in the following description, it is assumed that the correspondence between the position of the two ends in the three-dimensional space and the position on the image can be specified in each lighting device 100, and three lighting devices 100 are included. Therefore, it is assumed that the correspondence between the six sets of points on the three-dimensional space and the points on the image can be obtained.

なお、本実施形態においては、位置検出システム1、及び、当該位置検出システム1に含まれる各装置の詳細構成は、上述した第1の実施形態と共通するため、ここではこれらの説明を省略する。   In the present embodiment, the detailed configuration of the position detection system 1 and each device included in the position detection system 1 is the same as that in the first embodiment described above, and thus the description thereof is omitted here. .

<位置検出方法>
次に、本実施形態に係る位置検出方法について、図14及び図15を参照して説明する。以下に説明する位置検出方法は、図10に示す第1の実施形態のステップS213に対応し、すなわち、ステップS213の変形例の1つであるといえる。詳細には、本実施形態に係る位置検出方法は、図14のサブフローチャートで示され、当該サブフローチャートは、ステップS401からステップS423までの複数のステップを有する。以下に、本実施形態に係る位置検出方法の各ステップの詳細を説明する。
<Position detection method>
Next, the position detection method according to the present embodiment will be described with reference to FIGS. The position detection method described below corresponds to step S213 of the first embodiment shown in FIG. 10, that is, it can be said to be one of the modifications of step S213. Specifically, the position detection method according to the present embodiment is shown in the sub-flowchart of FIG. 14, and the sub-flowchart has a plurality of steps from step S401 to step S423. Details of each step of the position detection method according to the present embodiment will be described below.

(ステップS401〜ステップS409)
本実施形態におけるステップS401からステップS409は、図11に示される、第1の実施形態のステップS301からステップS309と同様であるため、ここでは、説明を省略する。
(Step S401 to Step S409)
Steps S401 to S409 in the present embodiment are the same as steps S301 to S309 in the first embodiment shown in FIG. 11, and thus description thereof is omitted here.

(ステップS411)
端末装置200の位置算出部210は、図15に示すように、q以外の各照明器具100a、100bの発光部110の三次元空間(実空間)上の重心804a、804bの位置に基づいて、これら2つの重心804a、804bを結ぶ直線810を算出する。さらに、当該位置算出部210は、図15に示すように、qである照明器具100の重心704から、算出した直線810への垂線730を算出する。また、位置算出部210は、qである照明器具100の一方の端部(一方の点)700と重心704とを結ぶ線分710aを算出し、端部700に係る線分710aと垂線730とにより構成される角度(第1の角度)αを算出する。
(Step S411)
As shown in FIG. 15, the position calculation unit 210 of the terminal device 200 is based on the positions of the centroids 804a and 804b in the three-dimensional space (real space) of the light emitting units 110 of the respective lighting fixtures 100a and 100b other than q. A straight line 810 connecting these two centroids 804a and 804b is calculated. Further, as shown in FIG. 15, the position calculation unit 210 calculates a perpendicular 730 to the calculated straight line 810 from the center of gravity 704 of the luminaire 100 that is q. In addition, the position calculation unit 210 calculates a line segment 710a that connects one end (one point) 700 of the luminaire 100 that is q and the center of gravity 704, and a line segment 710a and a perpendicular line 730 that relate to the end 700. An angle (first angle) α 1 constituted by is calculated.

さらに、当該位置算出部210は、図15に示すように、位置算出部210は、qである照明器具100の他方の端部(他方の点)702と重心704とを結ぶ線分710bを算出し、端部702に係る線分710bと垂線730とにより構成される角度(第2の角度)αを算出する。 Further, as shown in FIG. 15, the position calculation unit 210 calculates a line segment 710 b connecting the other end (the other point) 702 of the luminaire 100 that is q and the center of gravity 704. and calculates the configured angle (second angle) alpha 2 by the line segment 710b and the perpendicular 730 of the end portion 702.

なお、三次元空間上のqである照明器具100の端部700、702の位置座標、及び、qである照明器具100及びq以外の照明器具100a、100bの重心704、804a、804bの位置座標は、上述のステップS203(ステップS105)で取得することができるため、位置算出部210は、これらの位置座標に基づいて、上記角度α、αを算出することができる。 It should be noted that the position coordinates of the end portions 700 and 702 of the luminaire 100 that is q in the three-dimensional space and the position coordinates of the centers of gravity 704, 804a, and 804b of the luminaires 100a and 100b other than q. Can be acquired in the above-described step S203 (step S105), the position calculation unit 210 can calculate the angles α 1 and α 2 based on these position coordinates.

(ステップS413)
端末装置200の位置算出部210は、上述したステップS411で算出した角度αと角度αとの差分(α−α)が−60度から+60度(所定の角度)以内でない場合には、後述するステップS415に進む。一方、位置算出部210は、上記差分(α−α)が−60度から+60度(所定の角度)以内である場合には、後述するステップS419に進む。
(Step S413)
The position calculation unit 210 of the terminal device 200 determines that the difference (α 1 −α 2 ) between the angle α 1 and the angle α 2 calculated in step S411 described above is not within −60 degrees to +60 degrees (predetermined angle). Advances to step S415 to be described later. On the other hand, when the difference (α 1 −α 2 ) is within the range of −60 degrees to +60 degrees (predetermined angle), the position calculation unit 210 proceeds to step S419 described later.

(ステップS415)
端末装置200の位置算出部210は、図15に示すように、q以外の各照明器具100a、100bの発光部110の画像上の重心804a、804bの位置に基づいて、これら2つの重心804a、804bを結ぶ直線810を算出する。さらに、当該位置算出部210は、図15に示すように、qである照明器具100の重心704から、算出した直線810への垂線730を算出する。また、位置算出部210は、qである照明器具100の一方の端部(一方の点)700と重心704とを結ぶ線分710aを算出し、端部700に係る線分710aと垂線730とにより構成される角度(第1の角度)αを算出する。
(Step S415)
As shown in FIG. 15, the position calculation unit 210 of the terminal device 200, based on the positions of the centroids 804a and 804b on the image of the light emitting unit 110 of each of the lighting fixtures 100a and 100b other than q, A straight line 810 connecting 804b is calculated. Further, as shown in FIG. 15, the position calculation unit 210 calculates a perpendicular 730 to the calculated straight line 810 from the center of gravity 704 of the luminaire 100 that is q. In addition, the position calculation unit 210 calculates a line segment 710a that connects one end (one point) 700 of the luminaire 100 that is q and the center of gravity 704, and a line segment 710a and a perpendicular line 730 that relate to the end 700. An angle (first angle) α 1 constituted by is calculated.

さらに、当該位置算出部210は、図15に示すように、位置算出部210は、qである照明器具100の他方の端部(他方の点)702と重心704とを結ぶ線分710bを算出し、端部702に係る線分710bと垂線730とにより構成される角度(第2の角度)αを算出する。 Further, as shown in FIG. 15, the position calculation unit 210 calculates a line segment 710 b connecting the other end (the other point) 702 of the luminaire 100 that is q and the center of gravity 704. and calculates the configured angle (second angle) alpha 2 by the line segment 710b and the perpendicular 730 of the end portion 702.

なお、位置算出部210は、画像上の照明器具100の発光部110の輪郭の頂点の位置座標を、上述のステップS105で抽出された発光部110の輪郭に基づいて、算出することができ、算出した位置座標を用いて、画像上の、qである照明器具100の端部700、702の位置座標、及び、qである照明器具100とq以外の照明器具100a、100bとの重心704、804a、804bの位置座標を算出することができる。従って、位置算出部210は、算出したこれら画像上の位置座標を用いて、上記角度α、αを算出することができる。 The position calculation unit 210 can calculate the position coordinates of the vertex of the contour of the light emitting unit 110 of the lighting fixture 100 on the image based on the contour of the light emitting unit 110 extracted in step S105 described above. Using the calculated position coordinates, the position coordinates of the ends 700 and 702 of the lighting device 100 as q on the image, and the center of gravity 704 between the lighting device 100 as q and the lighting devices 100a and 100b other than q, The position coordinates of 804a and 804b can be calculated. Therefore, the position calculation unit 210 can calculate the angles α 1 and α 2 using the calculated position coordinates on the image.

(ステップS417)
さらに、当該位置算出部210は、上述のステップS411及びステップS413で算出した角度α、αの大小関係に基づいて、三次元空間(実空間)上における角度α、αを2つのグループに分け、画像上における角度α、αを2つのグループに分ける。そして、当該位置算出部210は、同じグループに属する三次元空間上の端部700、702と、画像上の端部700、702とを対応させることにより、対応関係を特定することができる。
(Step S417)
Further, the position calculating unit 210, the angle alpha 1 is calculated in step S411 and step S413 described above, based on the magnitude relationship of alpha 2, the three-dimensional spatial angle alpha 1 in the (real space) on, alpha 2 of the two Dividing into groups, the angles α 1 and α 2 on the image are divided into two groups. Then, the position calculation unit 210 can identify the correspondence by associating the end portions 700 and 702 on the three-dimensional space belonging to the same group with the end portions 700 and 702 on the image.

(ステップS419からステップS423)
本実施形態におけるステップS419からステップS423は、図11に示される第1の実施形態のステップS315からステップS321と同様であるため、ここでは、説明を省略する。
(Step S419 to Step S423)
Steps S419 to S423 in the present embodiment are the same as steps S315 to S321 in the first embodiment shown in FIG. 11, and thus description thereof is omitted here.

以上のように本発明の第2の実施形態によれば、上述のステップS411からステップS419のように、簡単な角度の算出と簡単な比較により、各照明器具100の棒状の発光部110の2つの端部についての三次元空間(実空間)上の位置座標と、各照明器具100の棒状の発光部110の2つの端部についての動画像上の位置座標との対応関係を特定することができる。さらに、本実施形態によれば、少ない照明器具100であっても、端末装置200の位置を検出するために十分な数の照明器具100に関する位置情報等を得ることができることから、処理時間の少ない線形方程式を利用して、良好な位置検出精度で端末装置200の位置を検出することができる。すなわち、本実施形態によれば、良好な位置検出精度でありつつ、少ない照明器具で、且つ、少ない処理時間で位置を検出することができる。   As described above, according to the second embodiment of the present invention, as in the above-described steps S411 to S419, 2 of the bar-shaped light emitting unit 110 of each lighting fixture 100 is calculated by simple angle calculation and simple comparison. It is possible to specify the correspondence between the position coordinates on the three-dimensional space (real space) for one end and the position coordinates on the moving image for the two ends of the bar-shaped light emitting unit 110 of each lighting fixture 100. it can. Furthermore, according to this embodiment, even with a small number of lighting fixtures 100, it is possible to obtain position information and the like related to a sufficient number of lighting fixtures 100 for detecting the positions of the terminal device 200, and therefore the processing time is short. Using the linear equation, the position of the terminal device 200 can be detected with good position detection accuracy. That is, according to the present embodiment, the position can be detected with a small amount of lighting equipment and with a short processing time while having a good position detection accuracy.

<<ハードウェア構成>>
以上、本発明の各実施形態について説明した。続いて、本発明の各実施形態に係るハードウェア構成について説明する。上述した位置検出システム1における位置検出方法は、ソフトウェアと、照明器具と、以下に説明する端末装置200のハードウェアとの協働により実現される。
<< Hardware configuration >>
The embodiments of the present invention have been described above. Subsequently, a hardware configuration according to each embodiment of the present invention will be described. The position detection method in the position detection system 1 described above is realized by cooperation of software, a lighting fixture, and hardware of the terminal device 200 described below.

図16は、本発明の実施形態に係る端末装置200である無線通信装置900のハードウェア構成例を示したブロック図である。無線通信装置900は、CPU902と、ROM904と、RAM906と、を有する。また、無線通信装置900は、入力部908と、出力部910と、ストレージ装置912と、ネットワークインタフェース914とを有する。以下に、当該無線通信装置900の各ハードウェアブロックについて説明する。   FIG. 16 is a block diagram illustrating a hardware configuration example of a wireless communication apparatus 900 that is the terminal apparatus 200 according to the embodiment of the present invention. The wireless communication apparatus 900 includes a CPU 902, a ROM 904, and a RAM 906. In addition, the wireless communication device 900 includes an input unit 908, an output unit 910, a storage device 912, and a network interface 914. Below, each hardware block of the said radio | wireless communication apparatus 900 is demonstrated.

(CPU902、ROM904、RAM906)
CPU902は、演算処理装置および制御装置として機能し、各種プログラムに従って端末装置200である無線通信装置900内の動作全般を制御する。また、CPU902は、マイクロプロセッサであってもよい。ROM904は、CPU902が使用するプログラムや演算パラメータ等を記憶する。RAM906は、CPU902の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバス916により相互に接続されている。CPU902、ROM904及びRAM906は、ソフトウェアとの協働により図6を参照して説明した端末装置200の端末制御部202等の機能を実現し得る。
(CPU 902, ROM 904, RAM 906)
The CPU 902 functions as an arithmetic processing device and a control device, and controls the overall operation within the wireless communication device 900, which is the terminal device 200, according to various programs. Further, the CPU 902 may be a microprocessor. The ROM 904 stores programs used by the CPU 902, calculation parameters, and the like. The RAM 906 temporarily stores programs used in the execution of the CPU 902, parameters that change as appropriate during the execution, and the like. These are connected to each other by a host bus 916 including a CPU bus. The CPU 902, the ROM 904, and the RAM 906 can realize the functions of the terminal control unit 202 of the terminal device 200 described with reference to FIG. 6 in cooperation with software.

(入力部908)
入力部908は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、センサ、スイッチ及びレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU902に出力する入力制御回路などから構成されている。ユーザは、当該入力部908を操作することにより、端末装置200に対して各種のデータを入力したり、処理動作を指示したりすることができる。さらに、入力部908は、図6を参照して説明した端末装置200のカメラ部206として機能する、撮影レンズ及びズームレンズなどの撮像光学系、及び、CCD又はCMOS等の撮像素子を有している。
(Input unit 908)
The input unit 908 generates input signals based on input by the user, such as a mouse, a keyboard, a touch panel, buttons, a microphone, a sensor, a switch, and a lever. It consists of a control circuit. By operating the input unit 908, the user can input various data to the terminal device 200 and instruct processing operations. Further, the input unit 908 includes an imaging optical system such as a photographing lens and a zoom lens, and an imaging element such as a CCD or a CMOS, which functions as the camera unit 206 of the terminal device 200 described with reference to FIG. Yes.

(出力部910)
出力部910は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、プロジェクター装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置を含む。また、出力部910は、スピーカ及びヘッドホンなどの音声出力装置を含んでもよい。
(Output unit 910)
The output unit 910 includes display devices such as a CRT (Cathode Ray Tube) display device, a liquid crystal display (LCD) device, a projector device, an OLED (Organic Light Emitting Diode) device, and a lamp. The output unit 910 may include an audio output device such as a speaker and headphones.

(ストレージ装置912)
ストレージ装置912は、データ格納用の装置である。ストレージ装置912は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出装置及び記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ装置912は、例えば、HDD(Hard Disk Drive)又はSSD(Solid Strage Drive)、あるいは同等の機能を有するメモリ等で構成される。このストレージ装置912は、ストレージを駆動し、CPU902が実行するプログラムや各種データを格納する。
(Storage device 912)
The storage device 912 is a device for storing data. The storage device 912 may include a storage medium, a recording device that records data on the storage medium, a reading device that reads data from the storage medium, a deletion device that deletes data recorded on the storage medium, and the like. The storage device 912 includes, for example, an HDD (Hard Disk Drive) or an SSD (Solid Storage Drive), or a memory having an equivalent function. The storage device 912 drives the storage and stores programs executed by the CPU 902 and various data.

(ネットワークインタフェース914)
ネットワークインタフェース914は、例えば、ネットワークに接続するための通信デバイス等で構成された通信インタフェースである。当該通信インタフェースは、例えば、Bluetooth(登録商標)又はZigBee(登録商標)等の近距離無線通信インタフェースや、無線LAN(Local Area Network)、Wi−Fi(登録商標)、又は携帯通信網(LTE、3G)等の通信インタフェースであることができる。また、ネットワークインタフェース914は、有線による通信を行う有線通信装置を含んでいてもよい。
(Network interface 914)
The network interface 914 is a communication interface configured with, for example, a communication device for connecting to a network. The communication interface is, for example, a short-range wireless communication interface such as Bluetooth (registered trademark) or ZigBee (registered trademark), a wireless LAN (Local Area Network), Wi-Fi (registered trademark), or a portable communication network (LTE). 3G) or the like. The network interface 914 may include a wired communication device that performs wired communication.

以上、本発明の実施形態に係る端末装置200である無線通信装置900のハードウェア構成例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。   The hardware configuration example of the wireless communication apparatus 900 that is the terminal apparatus 200 according to the embodiment of the present invention has been described above. Each component described above may be configured using a general-purpose member, or may be configured by hardware specialized for the function of each component. Such a configuration can be appropriately changed according to the technical level at the time of implementation.

<<まとめ>>
以上のように本発明の各実施形態によれば、簡単な距離及び角度の算出と簡単な比較により、各照明器具100の棒状の発光部110の2つの端部についての三次元空間(実空間)上の位置座標と、各照明器具100の棒状の発光部110の2つの端部についての動画像上の位置の情報との対応関係を特定することができる。さらに、本実施形態によれば、少ない照明器具100であっても、端末装置200の位置を検出するために十分な数の照明器具100に関する位置情報等を得ることができることから、処理時間の少ない線形方程式を利用して、良好な位置検出精度で端末装置200の位置を検出することができる。すなわち、本発明の各実施形態によれば、良好な位置検出精度でありつつ、少ない照明器具で、且つ、少ない処理時間で位置を検出することができる。
<< Summary >>
As described above, according to each embodiment of the present invention, the three-dimensional space (real space) of the two ends of the bar-shaped light emitting unit 110 of each lighting fixture 100 can be calculated by simple calculation of distance and angle and simple comparison. ) It is possible to specify the correspondence between the upper position coordinates and the position information on the moving image of the two ends of the bar-shaped light emitting unit 110 of each lighting fixture 100. Furthermore, according to this embodiment, even with a small number of lighting fixtures 100, it is possible to obtain position information and the like related to a sufficient number of lighting fixtures 100 for detecting the positions of the terminal device 200, and therefore the processing time is short. Using the linear equation, the position of the terminal device 200 can be detected with good position detection accuracy. That is, according to each embodiment of the present invention, it is possible to detect a position with a small amount of lighting equipment and a short processing time while having a good position detection accuracy.

なお、上述の実施形態においては、同一平面上に設けられた、棒状の発光部110を有する、3つの照明器具100を用いて、端末装置200の位置を検出するものとして説明した。すなわち、上述の実施形態においては、3つの照明器具100の棒状の発光部110の2つの端部についての三次元空間(実空間)上の位置座標及び画像上の位置座標がわかっているものとして説明した。しかしながら、本発明の実施形態は、上述のような3つの照明器具100を用いることに限定されるものではなく、例えば、発光部110に6つの特徴点を有するような1つの照明器具100を用いても、端末装置200の位置を検出することができる。   In the above-described embodiment, the description has been made assuming that the position of the terminal device 200 is detected using the three lighting fixtures 100 having the rod-like light emitting unit 110 provided on the same plane. That is, in the above-described embodiment, it is assumed that the position coordinates on the three-dimensional space (real space) and the position coordinates on the image for the two ends of the rod-shaped light emitting units 110 of the three lighting fixtures 100 are known. explained. However, the embodiment of the present invention is not limited to using the three lighting fixtures 100 as described above. For example, one lighting fixture 100 having six feature points in the light emitting unit 110 is used. However, the position of the terminal device 200 can be detected.

<<補足>>
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
<< Supplementary >>
The preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.

また、上述した本発明の実施形態の位置検出方法における各ステップは、必ずしも記載された順序に沿って処理されなくてもよい。例えば、各ステップは、適宜順序が変更されて処理されてもよい。また、各ステップは、時系列的に処理される代わりに、一部並列的に又は個別的に処理されてもよい。さらに、各ステップの処理方法についても、必ずしも記載された方法に沿って処理されなくてもよく、例えば、他の機能部によって他の方法によって処理されていてもよい。   Moreover, each step in the position detection method of the embodiment of the present invention described above does not necessarily have to be processed in the order described. For example, the steps may be processed by changing the order as appropriate. Each step may be processed in parallel or individually instead of being processed in time series. Furthermore, the processing method of each step does not necessarily have to be processed according to the described method. For example, the processing method may be processed by another function unit by another method.

さらに、上記の本発明の実施形態に係る位置検出方法の少なくとも一部は、コンピュータを機能させる情報処理プログラムとして、ソフトウェアで構成することが可能であり、ソフトウェアで構成する場合には、これらの方法の少なくとも一部を実現するプログラムをフレキシブルディスクやCD−ROM(Compact Disc Read Only Memory)等の記録媒体に収納し、端末装置200等、もしくは、端末装置200等と接続された他の装置に読み込ませて実行させてもよい。記録媒体は、磁気ディスクや光ディスク等の着脱可能なものに限定されず、ハードディスク装置やメモリなどの固定型の記録媒体でもよい。さらに、これらの方法の少なくとも一部を実現するプログラムを、インターネット等の通信回線(無線通信も含む)を介して頒布してもよい。さらに、同プログラムを暗号化したり、変調をかけたり、圧縮した状態で、インターネット等の有線回線や無線回線を介して、あるいは記録媒体に収納して頒布してもよい。   Furthermore, at least a part of the above-described position detection method according to the embodiment of the present invention can be configured by software as an information processing program for causing a computer to function. When configured by software, these methods are used. Is stored in a recording medium such as a flexible disk or a CD-ROM (Compact Disc Read Only Memory), and is read into the terminal device 200 or other device connected to the terminal device 200 or the like. May be executed. The recording medium is not limited to a removable medium such as a magnetic disk or an optical disk, but may be a fixed recording medium such as a hard disk device or a memory. Furthermore, a program for realizing at least a part of these methods may be distributed via a communication line (including wireless communication) such as the Internet. Further, the program may be distributed in a state where the program is encrypted, modulated or compressed, and stored in a recording medium via a wired line such as the Internet or a wireless line.

1 位置検出システム
100、100a、100b、100c、100d 照明器具
102 照明器具制御部
104 照明器具記憶部
106 パケット生成部
108 発光処理部
110 発光部
200 端末装置
202 端末制御部
204 端末記憶部
206 カメラ部
208 画像処理部
210 位置算出部
300 室内
400 人物
500、502 情報テーブル
600 画像
602 三次元空間
700、702 端部
704、804a、804b 重心
710、810 直線
710a、710b 線分
730 垂線
900 無線通信装置
902 CPU
904 ROM
906 RAM
908 入力部
910 出力部
912 ストレージ装置
914 ネットワークインタフェース
916 ホストバス
DESCRIPTION OF SYMBOLS 1 Position detection system 100, 100a, 100b, 100c, 100d Lighting fixture 102 Lighting fixture control part 104 Lighting fixture storage part 106 Packet generation part 108 Light emission processing part 110 Light emission part 200 Terminal apparatus 202 Terminal control part 204 Terminal storage part 206 Camera part 208 Image processing unit 210 Position calculation unit 300 Indoor 400 Person 500, 502 Information table 600 Image 602 Three-dimensional space 700, 702 End 704, 804a, 804b Center of gravity 710, 810 Straight line 710a, 710b Line segment 730 Vertical 900 Wireless communication device 902 CPU
904 ROM
906 RAM
908 Input unit 910 Output unit 912 Storage device 914 Network interface 916 Host bus

Claims (12)

照明器具を撮像することができる端末装置であって、
前記照明器具の動画像を撮像する撮像部と、
前記動画像から、前記照明器具を特定する識別情報と、前記照明器具の形状情報と、前記照明器具における少なくとも6組の点の位置情報とを取得する取得部と、
前記識別情報と、前記形状情報と、前記位置情報とに基づいて、前記端末装置の位置を、線形方程式を利用して算出する位置検出部と、
を備える端末装置。
A terminal device capable of imaging a lighting fixture,
An imaging unit that captures a moving image of the lighting fixture;
An acquisition unit that acquires identification information for identifying the lighting fixture, shape information of the lighting fixture, and position information of at least six sets of points in the lighting fixture from the moving image;
A position detector that calculates the position of the terminal device using a linear equation based on the identification information, the shape information, and the position information;
A terminal device comprising:
前記形状情報は、実空間上及び前記動画像上における、前記照明器具の発光領域の形状、及び、前記発光領域の頂点の位置に関する情報を含む、請求項1に記載の端末装置。   The terminal device according to claim 1, wherein the shape information includes information related to a shape of a light emitting area of the lighting fixture and a position of a vertex of the light emitting area on a real space and the moving image. 前記位置情報は、前記実空間上及び前記動画像上における、前記照明器具の重心の位置に関する情報を含む、請求項2に記載の端末装置。   The terminal device according to claim 2, wherein the position information includes information related to a position of the center of gravity of the lighting fixture in the real space and the moving image. 前記取得部は、前記照明器具からの光の受光パターンに基づいて、前記識別情報、前記形状情報、及び、前記位置情報の一部を取得する、請求項1〜3のいずれか1項に記載の端末装置。   The said acquisition part acquires any one of the said identification information, the said shape information, and the said positional information based on the light reception pattern of the light from the said lighting fixture, The any one of Claims 1-3. Terminal equipment. 前記位置検出部は、実空間上の前記照明器具における少なくとも6点と、前記動画像上の前記照明器具における少なくとも6点との対応関係を特定する、請求項1に記載の端末装置。   The terminal device according to claim 1, wherein the position detection unit specifies a correspondence relationship between at least six points in the lighting fixture in real space and at least six points in the lighting fixture in the moving image. 同一平面上に設けられた少なくとも3つ以上の前記照明器具を撮像する、請求項5に記載の端末装置。   The terminal device according to claim 5, wherein at least three or more lighting fixtures provided on the same plane are imaged. 前記位置検出部は、前記実空間上及び前記動画像上において、所定の点の間の距離をそれぞれ算出し、算出された前記距離の比較を行うことにより、前記対応関係を特定する、請求項6に記載の端末装置。   The position detection unit calculates the distance between predetermined points on the real space and the moving image, and identifies the correspondence by comparing the calculated distances. 6. The terminal device according to 6. 前記少なくとも3つ以上の照明器具には、第1、第2及び第3の照明器具を含まれており、
前記位置検出部は、
前記実空間上における、前記各照明器具の重心の位置を取得し、
取得された前記各重心が一直線上に並んでいない場合には、
前記実空間上における、前記第1の照明器具における2つの端部を結ぶ直線と、前記第2の照明器具の前記重心と前記第3の照明器具の前記重心とを結ぶ直線とにより構成される角度を利用して、前記対応関係を特定する方法を選択する、
請求項7に記載の端末装置。
The at least three or more lighting fixtures include first, second and third lighting fixtures,
The position detector is
Obtain the position of the center of gravity of each lighting fixture on the real space,
When the acquired centroids are not aligned,
The straight line connecting the two ends of the first lighting fixture in the real space and the straight line connecting the center of gravity of the second lighting fixture and the center of gravity of the third lighting fixture. Select a method for identifying the correspondence using an angle.
The terminal device according to claim 7.
前記位置検出部は、
前記角度が所定の角度以内であれば、
前記実空間上及び前記動画像上において、前記第1の照明器具における一方の前記端部から、前記第2及び第3の照明器具の前記重心までの距離を算出し、且つ、前記第1の照明器具における他方の前記端部から、前記第2及び第3の照明器具の前記重心までの距離を算出し、
前記角度が所定の角度以内でなければ、
前記実空間上及び前記動画像上において、前記第1の照明器具における前記2つの端部からの前記第2及び第3の照明器具の前記重心までの距離の合計値を算出する、
請求項8に記載の端末装置。
The position detector is
If the angle is within a predetermined angle,
On the real space and the moving image, the distance from one end of the first lighting fixture to the center of gravity of the second and third lighting fixtures is calculated, and the first Calculating the distance from the other end of the lighting fixture to the center of gravity of the second and third lighting fixtures;
If the angle is not within a predetermined angle,
On the real space and the moving image, a total value of distances from the two end portions of the first lighting fixture to the centroids of the second and third lighting fixtures is calculated.
The terminal device according to claim 8.
前記少なくとも3つ以上の照明器具には、第1、第2及び第3の照明器具を含まれており、
前記位置検出部は、
前記実空間上及び前記動画像上において、
前記第1の照明器具の重心から延びる、前記第2の照明器具の重心と前記第3の照明器具の重心とを結ぶ直線への垂線を算出し、
前記第1の照明器具の一方の点と前記第1の照明器具の前記重心とを結ぶ線分と、前記垂線とにより構成される第1の角度を算出し、
前記第1の照明器具の他方の点と前記第1の照明器具の前記重心とを結ぶ線分と、前記垂線とにより構成される第2の角度を算出し、
算出した前記第1及び第2の角度に基づいて、前記対応関係を特定する、
請求項7に記載の端末装置。
The at least three or more lighting fixtures include first, second and third lighting fixtures,
The position detector is
On the real space and the moving image,
Calculating a perpendicular to a straight line extending from the center of gravity of the first lighting fixture and connecting the center of gravity of the second lighting fixture and the center of gravity of the third lighting fixture;
Calculating a first angle composed of a line segment connecting one point of the first lighting fixture and the center of gravity of the first lighting fixture, and the perpendicular;
Calculating a second angle constituted by a line segment connecting the other point of the first lighting fixture and the center of gravity of the first lighting fixture, and the perpendicular;
Identifying the correspondence based on the calculated first and second angles;
The terminal device according to claim 7.
照明器具と端末装置とを含む位置検出システムであって、
前記端末装置は、
前記照明器具の動画像を撮像する撮像部と、
前記動画像から、前記照明器具を特定する識別情報と、前記照明器具の形状情報と、前記照明器具における少なくとも6組の点の位置情報とを取得する取得部と、
前記識別情報と、前記形状情報と、前記位置情報とに基づいて、前記端末装置の位置を、線形方程式を利用して算出する位置検出部と、
を有する、
位置検出システム。
A position detection system including a lighting fixture and a terminal device,
The terminal device
An imaging unit that captures a moving image of the lighting fixture;
An acquisition unit that acquires identification information for identifying the lighting fixture, shape information of the lighting fixture, and position information of at least six sets of points in the lighting fixture from the moving image;
A position detector that calculates the position of the terminal device using a linear equation based on the identification information, the shape information, and the position information;
Having
Position detection system.
前記照明器具は、
前記識別情報と、前記形状情報と、前記位置情報の一部とを発光することにより前記端末装置へ送信する、
請求項11に記載の位置検出システム。
The lighting fixture is:
Transmitting the identification information, the shape information, and a part of the position information to the terminal device by emitting light;
The position detection system according to claim 11.
JP2018014362A 2018-01-31 2018-01-31 Terminal device and position detection system Pending JP2019132673A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018014362A JP2019132673A (en) 2018-01-31 2018-01-31 Terminal device and position detection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018014362A JP2019132673A (en) 2018-01-31 2018-01-31 Terminal device and position detection system

Publications (1)

Publication Number Publication Date
JP2019132673A true JP2019132673A (en) 2019-08-08

Family

ID=67546799

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018014362A Pending JP2019132673A (en) 2018-01-31 2018-01-31 Terminal device and position detection system

Country Status (1)

Country Link
JP (1) JP2019132673A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210097214A1 (en) * 2019-09-27 2021-04-01 Electronic Theatre Controls, Inc. Systems and methods for light fixture location determination
JP2021169958A (en) * 2020-04-15 2021-10-28 朝日航洋株式会社 Illumination communication system and method for controlling illumination communication system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007101276A (en) * 2005-09-30 2007-04-19 Topcon Corp Three-dimensional measuring projector and system
JP2012103116A (en) * 2010-11-10 2012-05-31 Nippon Telegr & Teleph Corp <Ntt> Camera pose information calculating device and camera pose information calculating program
JP2013185851A (en) * 2012-03-06 2013-09-19 Sumitomo Mitsui Construction Co Ltd Positioning apparatus, positioning system including the same, and positioning method
WO2014103341A1 (en) * 2012-12-27 2014-07-03 パナソニック株式会社 Information communication method
JP2016526675A (en) * 2013-07-04 2016-09-05 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Orientation determination
WO2017096360A1 (en) * 2015-12-03 2017-06-08 Osram Sylvania Inc. Light-based vehicle positioning for mobile transport systems
WO2018015176A1 (en) * 2016-07-21 2018-01-25 Philips Lighting Holding B.V. Lamp with coded light functionality

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007101276A (en) * 2005-09-30 2007-04-19 Topcon Corp Three-dimensional measuring projector and system
JP2012103116A (en) * 2010-11-10 2012-05-31 Nippon Telegr & Teleph Corp <Ntt> Camera pose information calculating device and camera pose information calculating program
JP2013185851A (en) * 2012-03-06 2013-09-19 Sumitomo Mitsui Construction Co Ltd Positioning apparatus, positioning system including the same, and positioning method
WO2014103341A1 (en) * 2012-12-27 2014-07-03 パナソニック株式会社 Information communication method
JP2016526675A (en) * 2013-07-04 2016-09-05 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Orientation determination
WO2017096360A1 (en) * 2015-12-03 2017-06-08 Osram Sylvania Inc. Light-based vehicle positioning for mobile transport systems
WO2018015176A1 (en) * 2016-07-21 2018-01-25 Philips Lighting Holding B.V. Lamp with coded light functionality

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210097214A1 (en) * 2019-09-27 2021-04-01 Electronic Theatre Controls, Inc. Systems and methods for light fixture location determination
US11835997B2 (en) * 2019-09-27 2023-12-05 Electronic Theatre Controls, Inc. Systems and methods for light fixture location determination
JP2021169958A (en) * 2020-04-15 2021-10-28 朝日航洋株式会社 Illumination communication system and method for controlling illumination communication system
JP7030152B2 (en) 2020-04-15 2022-03-04 朝日航洋株式会社 Lighting communication system and control method of lighting communication system

Similar Documents

Publication Publication Date Title
CN105138135B (en) Wear-type virtual reality device and virtual reality system
CN110915194B (en) Intelligent target tracking using target identification codes
JP4708581B2 (en) Coordinate input device, coordinate input instruction tool, and computer program
KR20180005168A (en) Privacy-sensitive query on the localization zone description file
CN106062862A (en) System and method for immersive and interactive multimedia generation
CN108257177B (en) Positioning system and method based on space identification
JP2006030127A (en) Camera calibrating system and three-dimensional measuring system
JP2009033366A (en) Optical marker system
KR20070066192A (en) Method and apparatus for determining positions of robot
US10603000B2 (en) Radiography system and method for operating radiography system
US10146046B2 (en) Information providing method, information providing apparatus, information processing apparatus, information providing system, and computer-readable recording medium
CN107193380B (en) High-precision virtual reality positioning system
JP2019132673A (en) Terminal device and position detection system
JP2019008337A (en) Object identification system, object identification method, program and computer storage medium
TW201627818A (en) Interactive system, remote controller and operating method thereof
JP5818233B2 (en) Gaze measurement apparatus and method
JP2012115505A (en) Visual line detection device and visual line detection method
JP7192764B2 (en) Information processing device, information processing method, and program
CN112906610A (en) Method for living body detection, electronic circuit, electronic apparatus, and medium
CN113196297B (en) Determining a region of interest of an object using image-based object tracking
CN111862170A (en) Optical motion capture system and method
CN113273176B (en) Automated movie production using image-based object tracking
JP2015153180A (en) Information processor and information processing method
JP2005084012A (en) Skin shape measuring method and skin shape measuring device
JP4167447B2 (en) Object localization system

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211109

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220510