JP2019132673A - Terminal device and position detection system - Google Patents
Terminal device and position detection system Download PDFInfo
- Publication number
- JP2019132673A JP2019132673A JP2018014362A JP2018014362A JP2019132673A JP 2019132673 A JP2019132673 A JP 2019132673A JP 2018014362 A JP2018014362 A JP 2018014362A JP 2018014362 A JP2018014362 A JP 2018014362A JP 2019132673 A JP2019132673 A JP 2019132673A
- Authority
- JP
- Japan
- Prior art keywords
- lighting fixture
- terminal device
- information
- lighting
- gravity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、端末装置及び位置検出システムに関する。 The present invention relates to a terminal device and a position detection system.
近日、屋外における位置を検出する技術として、人工衛星から電波を受信することで位置を推定する全地球測位システム(GPS:Global Positioning System)が広く用いられている。ただし、GPSの電波が届かない屋内においては位置の検出が困難となるため、屋内における位置の検出方法として、例えば、可視光通信を使った方法を挙げることができる。 In recent years, as a technique for detecting an outdoor position, a global positioning system (GPS) that estimates a position by receiving radio waves from an artificial satellite is widely used. However, since it is difficult to detect the position indoors where GPS radio waves do not reach, an example of a method for detecting the indoor position is a method using visible light communication.
可視光通信は、可視光線を利用した無線通信技術であり、照明器具の点滅のパターンを様々に変調させることで、情報を送信することができる通信技術である。このような可視光通信を利用した位置の検出方法の一例としては、下記の特許文献1、特許文献2、特許文献3及び非特許文献1に開示された技術を挙げることができる。
Visible light communication is a wireless communication technique using visible light, and is a communication technique that can transmit information by variously modulating the blinking pattern of a lighting fixture. As an example of such a position detection method using visible light communication, the techniques disclosed in the following
しかしながら、上述したような可視光通信を利用した位置の検出においては、位置の検出精度が低く、もしくは、位置の検出の算出処理に多くに時間を必要としていたり、6つ以上の照明器具を必要としていたりしていた。すなわち、従来の可視光通信を利用した位置の検出方法においては、良好な位置検出精度でありつつ、少ない照明器具で、且つ、少ない処理時間で位置を検出することが難しかった。 However, in the position detection using visible light communication as described above, the position detection accuracy is low, or it takes a lot of time to calculate the position detection, or six or more lighting fixtures are required. I was doing. That is, in the position detection method using the conventional visible light communication, it is difficult to detect the position with a small amount of lighting equipment and a short processing time while having a good position detection accuracy.
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、良好な位置検出精度でありつつ、少ない照明器具で、且つ、少ない処理時間で位置を検出することが可能な、新規且つ改良された端末装置及び位置検出システムを提供することにある。 Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to detect a position with a small amount of lighting equipment and a short processing time while having good position detection accuracy. It is an object of the present invention to provide a new and improved terminal device and position detection system capable of being used.
上記課題を解決するために、本発明のある観点によれば、照明器具を撮像することができる端末装置であって、前記照明器具の動画像を撮像する撮像部と、前記動画像から、前記照明器具を特定する識別情報と、前記照明器具の形状情報と、前記照明器具における少なくとも6組の点の位置情報とを取得する取得部と、前記識別情報と、前記形状情報と、前記位置情報とに基づいて、前記端末装置の位置を、線形方程式を利用して算出する位置検出部と、を備える端末装置が提供される。 In order to solve the above-described problem, according to an aspect of the present invention, there is provided a terminal device capable of capturing an image of a lighting fixture, the imaging unit capturing a moving image of the lighting fixture, and the moving image, Identification information for identifying a lighting fixture, shape information of the lighting fixture, position information of at least six sets of points in the lighting fixture, the identification information, the shape information, and the position information And a position detection unit that calculates the position of the terminal device using a linear equation.
前記形状情報は、実空間上及び前記動画像上における、前記照明器具の発光領域の形状、及び、前記発光領域の頂点の位置に関する情報を含んでもよい。 The shape information may include information on the shape of the light emitting area of the lighting fixture and the position of the vertex of the light emitting area on the real space and the moving image.
前記位置情報は、前記実空間上及び前記動画像上における、前記照明器具の重心の位置に関する情報を含んでもよい。 The position information may include information related to the position of the center of gravity of the lighting fixture in the real space and the moving image.
前記取得部は、前記照明器具からの光の受光パターンに基づいて、前記識別情報、前記形状情報、及び、前記位置情報の一部を取得してもよい。 The acquisition unit may acquire a part of the identification information, the shape information, and the position information based on a light reception pattern of light from the lighting fixture.
前記位置検出部は、実空間上の前記照明器具における少なくとも6点と、前記動画像上の前記照明器具における少なくとも6点との対応関係を特定してもよい。 The position detection unit may specify a correspondence relationship between at least six points in the lighting fixture in real space and at least six points in the lighting fixture on the moving image.
前記端末装置は、同一平面上に設けられた少なくとも3つ以上の前記照明器具を撮像してもよい。 The terminal device may image at least three or more of the lighting fixtures provided on the same plane.
前記位置検出部は、前記実空間上及び前記動画像上において、所定の点の間の距離をそれぞれ算出し、算出された前記距離の比較を行うことにより、前記対応関係を特定してもよい。 The position detecting unit may calculate the distance between predetermined points in the real space and the moving image, and may identify the correspondence relationship by comparing the calculated distances. .
前記少なくとも3つ以上の照明器具には、第1、第2及び第3の照明器具を含まれており、前記位置検出部は、前記実空間上における、前記各照明器具の重心の位置を取得し、取得された前記各重心が一直線上に並んでいない場合には、前記実空間上における、前記第1の照明器具における2つの端部を結ぶ直線と、前記第2の照明器具の前記重心と前記第3の照明器具の前記重心とを結ぶ直線とにより構成される角度を利用して、前記対応関係を特定する方法を選択してもよい。 The at least three or more lighting fixtures include first, second, and third lighting fixtures, and the position detection unit acquires the position of the center of gravity of each lighting fixture in the real space. When the acquired centroids are not aligned on a straight line, a straight line connecting two ends of the first luminaire in the real space and the centroid of the second luminaire. And a method of specifying the correspondence relationship using an angle formed by a straight line connecting the center of gravity of the third lighting fixture.
前記位置検出部は、前記角度が所定の角度以内であれば、前記実空間上及び前記動画像上において、前記第1の照明器具における一方の前記端部から、前記第2及び第3の照明器具の前記重心までの距離を算出し、且つ、前記第1の照明器具における他方の前記端部から、前記第2及び第3の照明器具の前記重心までの距離を算出し、前記角度が所定の角度以内でなければ、前記実空間上及び前記動画像上において、前記第1の照明器具における前記2つの端部からの前記第2及び第3の照明器具の前記重心までの距離の合計値を算出してもよい。 If the angle is within a predetermined angle, the position detection unit may perform the second and third illumination from one end of the first lighting fixture on the real space and the moving image. The distance to the center of gravity of the fixture is calculated, the distance from the other end of the first lighting fixture to the center of gravity of the second and third lighting fixtures is calculated, and the angle is predetermined. If the angle is not within the angle, the total value of the distance from the two ends of the first lighting fixture to the center of gravity of the second and third lighting fixtures in the real space and the moving image May be calculated.
前記少なくとも3つ以上の照明器具には、第1、第2及び第3の照明器具を含まれており、前記位置検出部は、前記実空間上及び前記動画像上において、前記第1の照明器具の重心から延びる、前記第2の照明器具の重心と前記第3の照明器具の重心とを結ぶ直線への垂線を算出し、前記第1の照明器具の一方の点と前記第1の照明器具の前記重心とを結ぶ線分と、前記垂線とにより構成される第1の角度を算出し、前記第1の照明器具の他方の点と前記第1の照明器具の前記重心とを結ぶ線分と、前記垂線とにより構成される第2の角度を算出し、算出した前記第1及び第2の角度に基づいて、前記対応関係を特定してもよい。 The at least three or more lighting fixtures include first, second, and third lighting fixtures, and the position detection unit is configured to perform the first lighting on the real space and the moving image. A perpendicular to the straight line extending from the center of gravity of the fixture and connecting the center of gravity of the second lighting fixture and the center of gravity of the third lighting fixture is calculated, and one point of the first lighting fixture and the first illumination are calculated. A first angle formed by a line segment connecting the center of gravity of the fixture and the perpendicular is calculated, and a line connecting the other point of the first lighting fixture and the center of gravity of the first lighting fixture. A second angle constituted by a minute and the perpendicular may be calculated, and the correspondence relationship may be specified based on the calculated first and second angles.
上記課題を解決するために、本発明の他の観点によれば、照明器具と端末装置とを含む位置検出システムであって、前記端末装置は、前記照明器具の動画像を撮像する撮像部と、前記動画像から、前記照明器具を特定する識別情報と、前記照明器具の形状情報と、前記照明器具における少なくとも6組の点の位置情報とを取得する取得部と、前記識別情報と、前記形状情報と、前記位置情報とに基づいて、前記端末装置の位置を、線形方程式を利用して算出する位置検出部と、を有する、位置検出システムが提供される。 In order to solve the above-described problem, according to another aspect of the present invention, a position detection system including a lighting fixture and a terminal device, wherein the terminal device is an imaging unit that captures a moving image of the lighting fixture; , From the moving image, the identification information for identifying the lighting fixture, the shape information of the lighting fixture, and the acquisition unit for acquiring the position information of at least six sets of points in the lighting fixture, the identification information, There is provided a position detection system including a position detection unit that calculates the position of the terminal device using a linear equation based on shape information and the position information.
前記照明器具は、前記識別情報と、前記形状情報と、前記位置情報の一部とを発光することにより前記端末装置へ送信してもよい。 The luminaire may transmit the identification information, the shape information, and a part of the position information to the terminal device by emitting light.
以上説明したように本発明によれば、良好な位置検出精度でありつつ、少ない照明器具で、且つ、少ない処理時間で位置を検出することが可能な端末装置及び位置検出システムを提供することができる。 As described above, according to the present invention, it is possible to provide a terminal device and a position detection system capable of detecting a position with a small amount of lighting equipment and a short processing time while having a good position detection accuracy. it can.
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.
また、本明細書および図面において、実質的に同一または類似の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合がある。ただし、実質的に同一又は類似の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、類似する構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。 In the present specification and drawings, a plurality of constituent elements having substantially the same or similar functional configuration may be distinguished by adding different numerals after the same reference numerals. However, when it is not necessary to particularly distinguish each of a plurality of constituent elements having substantially the same or similar functional configuration, only the same reference numerals are given. In addition, similar components in different embodiments may be distinguished by attaching different alphabets after the same reference numerals. However, if it is not necessary to distinguish each similar component, only the same reference numerals are given.
以下に説明する本発明の実施形態は、同一平面上に設けられた少なくとも3つ以上の照明器具100(図1 参照)を用いて、端末装置200(図1 参照)の位置を検出する位置検出方法として説明する。しかしながら、本発明の実施形態は、このように3つ以上の照明器具100を用いて位置を検出することに限定されるものではなく、1つの照明器具100を用いて端末装置200の位置を検出してもよい。
In the embodiment of the present invention described below, position detection for detecting the position of the terminal device 200 (see FIG. 1) using at least three or more lighting fixtures 100 (see FIG. 1) provided on the same plane. This will be described as a method. However, the embodiment of the present invention is not limited to detecting the position using three or
<<本発明の実施形態をなすに至った経緯>>
次に、本発明の実施形態の具体的な説明に先立ち、本発明者らが本発明の実施形態をなすに至った経緯について説明する。
<< Background to the Embodiment of the Present Invention >>
Next, prior to specific description of the embodiment of the present invention, the background of how the inventors have made the embodiment of the present invention will be described.
先に説明したように、屋外における位置を検出する技術として、人工衛星から電波(GPS電波)を受信することで位置を推定する全地球測位システムが広く用いられている。しかしながら、上述の方法においては、GPSの電波が届かない屋内においては位置の検出が難しくなるため、屋内における位置の検出方法として、可視光通信を使った方法を挙げることができる。当該可視光通信は、人の目で見える波長(約360nm〜約830nm)を持つ電磁波、すなわち、可視光線を利用した無線通信技術であり、可視光線を照射することができる照明器具の点滅のパターンを様々に変調させることで、情報を送信することができる通信技術である。なお、位置を検出する方法としては、他にも、空間を伝播する弾性波である音波を使って位置を検出する方法を挙げることができるが、周囲環境からの影響を受け難いことから、可視光通信を用いた位置検出方法は、音波を使った位置検出方法に比べて、精度が高いといえる。 As described above, a global positioning system that estimates a position by receiving a radio wave (GPS radio wave) from an artificial satellite is widely used as a technique for detecting an outdoor position. However, in the above method, since it is difficult to detect the position indoors where GPS radio waves do not reach, a method using visible light communication can be cited as a method for detecting the position indoors. The visible light communication is a wireless communication technology using electromagnetic waves having a wavelength (about 360 nm to about 830 nm) visible to the human eye, that is, visible light, and a blinking pattern of a luminaire that can irradiate visible light. Is a communication technique capable of transmitting information by modulating the signal. As another method for detecting the position, a method for detecting the position using sound waves, which are elastic waves propagating in space, can be used. However, since it is difficult to be influenced by the surrounding environment, it is visible. It can be said that the position detection method using optical communication has higher accuracy than the position detection method using sound waves.
例えば、可視光通信を用いた位置検出方法としては、上記特許文献1に開示の技術を挙げることができる。上記特許文献1においては、複数の照明器具が、それぞれの固有の識別情報を、可視光通信を用いて位置検出対象となる対象装置へ送信する。さらに、当該対象装置は、予め格納した各照明器具の位置情報と、各照明装置からの可視光線の受信強度とに基づいて、照明器具から自身までの距離を求めることにより、対象装置自身の位置を検出することができる。
For example, as a position detection method using visible light communication, the technique disclosed in
また、例えば、特許文献2においては、複数の照明器具は、それぞれの固有の識別情報と照明器具の位置とを、可視光通信を用いて位置検出対象となる対象装置へ送信する。さらに、当該対象装置は、可視光通信を用いて受信した位置情報に基づいて、対象装置自身のおおよその位置を推定する。 Further, for example, in Patent Document 2, a plurality of lighting fixtures transmits their unique identification information and the position of the lighting fixture to a target device that is a position detection target using visible light communication. Further, the target device estimates the approximate position of the target device itself based on the position information received using visible light communication.
また、例えば、非特許文献1においては、3つの照明器具は、それぞれの固有の識別情報と照明器具の位置とを、可視光通信を用いて位置検出対象となる対象装置へ送信する。そして、当該対象装置は、魚眼レンズを使って、各照明器具を撮影し、撮像画面上の各照明器具の位置を取得し、可視光通信を用いて各照明器具の識別情報及び位置情報を取得する。さらに、当該対象装置は、取得した情報に基づいて、非線形最小二乗法を用いて、対象装置自身の位置を検出することができる。
Further, for example, in
しかしながら、本発明者は、上述の各文献に開示された技術に対して鋭意検討を行い、これら文献に開示された技術に問題点があることが明らかになった。詳細には、本発明者によれば、上記特許文献1においては、可視光線の受信強度により距離を求める方法であることから、周囲環境の影響を受けやすく、照明装置と対象装置との間の距離の推定精度が低いことが問題であった。また、上記特許文献2においては、おおよその対象装置の位置を推定することを前提とする技術であることから、対象装置の位置の検出の精度が低い。
However, the present inventor has intensively studied the techniques disclosed in the above-mentioned documents, and has found that there are problems with the techniques disclosed in these documents. Specifically, according to the present inventor, in the above-mentioned
さらに、非特許文献1では、非線形最小二乗法を用いて位置を検出するため、算出処理に時間がかかることが問題であった。また、本発明者は、非特許文献1に開示の技術を用いて、非線形最小二乗法に比べて処理の負担が少ない線形方程式を用いることを採用することを検討したが、このような場合、照明器具が6つ以上必要になり、位置検出のためのシステム構築にかかるコストが増加することが問題であった。
Further, in
そこで、本発明者は、このような状況を鑑みて、以下に説明する本発明の実施形態を創作するに至った。すなわち、本発明者の創作した本発明の実施形態によれば、良好な位置検出精度でありつつ、少ない照明器具で、且つ、少ない処理時間で位置を検出することができる。以下に、本発明者が創作した本発明の実施形態の詳細を順次説明する。 Therefore, in view of such a situation, the present inventor has created an embodiment of the present invention described below. That is, according to the embodiment of the present invention created by the present inventor, the position can be detected with a small amount of lighting equipment and with a small processing time while having a good position detection accuracy. Below, the detail of embodiment of this invention which this inventor created is demonstrated one by one.
<<第1の実施形態>>
<位置検出システム1の概要構成>
まずは、図1から図3を参照して、本発明の第1の実施形態に係る位置検出システム1の概要を説明する。図1は、本実施形態に係る位置検出システム1を説明するための説明図である。図2及び図3は、本実施形態に係る照明器具100の設置位置の一例を説明するための説明図であり、詳細には、図2は、室内300の天井の平面図の一例であり、図3は、室内300の側面図の一例である。
<< First Embodiment >>
<Outline configuration of the
First, the outline of the
本実施形態に係る位置検出システム1は、図1に示すように、照明器具100と端末装置200とを含む。当該位置検出システム1は、照明器具100から、照明器具100の発光領域(発光部110)の形状及び位置情報等を、可視光通信を用いて端末装置200へ送信する。さらに、端末装置200は、照明器具100を撮像し、照明器具100の動画像から、照明器具の識別情報、発光領域の形状、及び、照明器具100の位置情報を取得し、取得した情報に基づき、線形方程式を利用して自身の位置を検出することができる。当該位置検出システム1は、少ない照明器具100を用いて、端末装置200の位置を検出することができる。
The
上記位置検出システム1は、例えば、工場内、オフィス内、病院内等における人物400の位置を検出する際に用いることができる。なお、以下の説明では、端末装置200を携帯する人物400の位置の検出を目的とするシステムであるとして説明するが、本実施形態に係る位置検出システム1は、これに限定されるものではなく、端末装置200と一体となった物体(例えば、部品、装置や自立歩行型ロボット等)の位置を検出する際にも適用することができる。
The
以下に、本実施形態に係る位置検出システム1に含まれる各装置の概要について説明する。
Below, the outline | summary of each apparatus contained in the
(照明器具100)
照明器具100は、可視光通信を行うことができる照明装置であり、例えば、図1に示すように、室内300の天井等に固定されて設置される。
(Lighting fixture 100)
The
詳細には、複数の照明器具100(照明器具100a、100b、100c、100d)は、図2及び図3に示すように、室内300の天井である同一平面上に設けられる。なお、本実施形態においては、各照明器具100が設置される高さを同一にすることで、端末装置200の位置を検出する際に、三次元空間(実空間)上と画像上とにおける各点の対応関係の特定を容易に行うことができる(特定方法の詳細は、後述する)。
Specifically, the plurality of lighting fixtures 100 (
また、本実施形態においては、位置検出システム1に含まれる照明器具100の数は、図1から図3に示されるような4つに限定されるものではなく、1つであっても、複数であってもよい。なお、以下の説明においては、位置検出システム1に、同一平面(天井)上に設けられた3つの照明器具100が含まれているものとして説明する。また、照明器具100の詳細構成については、後述する。
Moreover, in this embodiment, the number of the
(端末装置200)
端末装置200は、例えば、人物400により携帯されて複数の照明器具100の動画像を撮像することができる端末であり、スマートフォン、携帯端末、又はウェアラブル端末等から構成される。なお、当該端末装置200の詳細については、後述する。
(Terminal device 200)
The
なお、本実施形態に係る位置検出システム1は、図1に図示していないサーバを含んでいてもよく、当該サーバは、本実施形態に係る位置検出の際に用いる情報を格納し、必要に応じて、上記端末装置200へ格納した情報を、無線通信等を介して送信してもよい。また、当該サーバは、端末装置200で撮像した照明器具100の動画像を端末装置200から、無線通信等を介して受信し、当該サーバにおいて、当該動画像を用いて端末装置200の位置の検出を行ってもよい。
The
<照明器具100の詳細構成>
以上、本実施形態に係る位置検出システム1の概要構成について説明した。次に、本実施形態に係る照明器具100の詳細構成について、図4及び図5を参照して説明する。図4は、本実施形態に係る照明器具100の機能ブロック図である。図5は、本実施形態に係る照明器具記憶部104に格納される情報テーブル500の一例を説明するための説明図である。
<Detailed configuration of
The outline configuration of the
図4に示すように、本実施形態に係る照明器具100は、照明器具制御部102、照明器具記憶部104、パケット生成部106、発光処理部(発光制御部)108、及び発光部110を主に有する。以下に、本発明の第1の実施形態に係る照明器具100に含まれる各機能ブロックの詳細について説明する。
As shown in FIG. 4, the
(照明器具制御部102)
照明器具制御部102は、照明器具100に内蔵されるCPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)等のハードウェアを用いて、照明器具100の各機能ブロックを制御する機能を有する。具体的には、照明器具制御部102は、後述するパケット生成部106に対して、パケット送信(可視光通信)を行うように、定期的に命令することができる。
(Lighting fixture control unit 102)
The lighting
(照明器具記憶部104)
照明器具記憶部104は、ROM、RAM等の記憶装置から実現され、例えば、照明器具100の識別情報(ID(Identification))、発光領域(発光部110)の形状に関する情報(形状情報)、照明器具100の設置位置に関する情報(位置情報)等を格納することができる。さらに、照明器具記憶部104は、上述の照明器具制御部102の指示に従って、格納する情報を、後述するパケット生成部106へ出力することができる。また、照明器具記憶部104は、上述した照明器具制御部102が処理を実行するための様々なデータやプログラムを格納していてもよい。
(Lighting device storage unit 104)
The
詳細には、照明器具記憶部104は、例えば、図5に示すような情報テーブル500を格納し、情報テーブル500は、照明器具100の識別情報(ID)、三次元空間(実空間)上における、発光領域(発光部110)の形状に関する情報(形状情報)、照明器具100の設置位置に関する情報(位置情報)等を格納する。詳細には、上記識別情報は、照明器具100を特定するための情報であり、各照明器具100に固有の情報が割当てられている。上記形状情報は、三次元空間上の照明器具100の発光領域である発光部110の形状に関する情報が含まれており、より具体的には、三次元空間上の発光部110の輪郭の各頂点の位置座標や、発光部110の形状及び寸法の情報を含むことができる。さらに、位置情報は、三次元空間上の照明器具100の発光部110の重心の位置座標等を含むことができる。なお、以下の説明においては、位置座標は、世界座標系による絶対的位置座標であってもよく、予め設定された基準点からの相対的位置座標であってもよい。
Specifically, the
なお、本実施形態に係る位置検出システム1は、先に説明したように、図1に図示していないサーバを含んでいてもよい。この場合、当該サーバは、本実施形態に係る照明器具記憶部104に格納された発光領域(発光部110)の形状に関する情報(形状情報)、照明器具100の設置位置に関する情報(位置情報)等を、当該照明器具記憶部104の代わりに、照明器具100の識別情報(ID)と紐づけて格納していてもよい。格納された上記情報は、端末装置200からの要求に応じて、無線通信を介して、当該サーバから、端末装置200へ送信されてもよい。
Note that the
(パケット生成部106)
パケット生成部106は、上述の照明器具制御部102の指示に従って、上述の照明器具記憶部104に格納された、照明器具100の識別情報(ID)、三次元空間(実空間)上における、発光領域の形状に関する情報(形状情報)、及び、照明器具100の設置位置に関する情報(位置情報)等に基づいて、送信するためのパケット情報を生成することができる。言い換えると、パケット生成部106により生成されるパケット情報は、上述の照明器具100のID、形状情報及び位置情報を含む情報であると言える。さらに、パケット生成部106は、生成したパケット情報を、後述する発光処理部108へ出力することができる。
(Packet generator 106)
The
(発光処理部108)
発光処理部108は、上述したパケット生成部106で生成されたパケット情報に対して変調処理を行い、後述する発光部110の点滅のパターン(発光するタイミング)を制御する。すなわち、発光処理部108は、発光部110を可視光通信可能に制御する機能(制御情報を生成する機能)を持つ。
(Light emission processing unit 108)
The light
(発光部110)
発光部110は、可視光線を出力することができる発光体であり、例えば、LED(Light Emitting Diode)から構成される。発光部110は、上述した発光処理部108による制御によって、所定の点滅パターンで発光及び消灯(点滅)を繰り返し、具体的には、発光するタイミングを変化させることにより、可視光線によって、端末装置200へ、上記情報(照明器具100の識別情報(ID)、発光領域の形状に関する情報(形状情報)、及び、照明器具100の設置位置に関する情報(位置情報))の送信、すなわち、可視光通信を行うことができる。
(Light Emitting Unit 110)
The
<端末装置200の詳細構成>
以上、本実施形態に係る照明器具100の詳細構成について説明した。次に、本実施形態に係る端末装置200の詳細構成について、図6から図8を参照して説明する。図6は、本実施形態に係る端末装置200の機能ブロック図である。図7は、本実施形態に係る端末記憶部204に格納される情報テーブル502の一例を説明するための説明図である。さらに、図8は、本実施形態に係る位置算出部210の算出方法を説明するための説明図である。
<Detailed Configuration of
The detailed configuration of the
図6に示すように、本実施形態に係る端末装置200は、端末制御部202、端末記憶部204、カメラ部(撮像部)206、画像処理部(取得部)208、及び位置算出部(位置検出部)210を主に有する。以下に、本実施形態に係る端末装置200に含まれる各機能ブロックの詳細について説明する。
As illustrated in FIG. 6, the
(端末制御部202)
端末制御部202は、端末装置200に内蔵されるCPU、ROM、及びRAM等のハードウェアを用いて、端末装置200の各機能ブロックを制御する機能を有する。
(Terminal control unit 202)
The
(端末記憶部204)
端末記憶部204は、ROM、RAM等の記憶装置から実現され、後述する画像処理部208によって取得した情報を格納する。詳細には、端末記憶部204は、図7に示すような情報テーブル502を格納する。当該情報テーブル502は、照明器具100ごとに、照明器具100から可視光通信を介して取得した、照明器具100の識別情報(ID)、三次元空間(実空間)上における、発光領域の形状に関する情報(形状情報)、照明器具100の設置位置に関する情報(位置情報)を格納する。さらに、当該情報テーブル502は、照明器具100ごとに、後述するカメラ部206で撮像した照明器具100の動画像上の照明器具100の発光部110の輪郭の面積や頂点の位置(位置座標)等を格納する。
(Terminal storage unit 204)
The
先に説明したように、上記情報テーブル502に格納される上記形状情報は、三次元空間(実空間)上における、発光部110の輪郭の各頂点の位置座標や、発光部110の形状及び寸法の情報を含むことができる。さらに、上記情報テーブル502に格納される上記位置情報は、三次元空間上における、照明器具100の発光部110の重心の位置座標等を含むことができる。
As described above, the shape information stored in the information table 502 includes the position coordinates of each vertex of the contour of the
(カメラ部206)
カメラ部206は、例えば、同一平面上に設けられた少なくとも3つ以上の照明器具100の動画像を撮像することができる。詳細には、カメラ部206は、対象空間から発せられる光を受光して撮像面に光像を形成し、撮像面に形成された光像を電気的な画像信号に変換することにより動画像を取得することができる。また、カメラ部206は、例えば、照明器具100から発せられる光を集光する撮影レンズ及びズームレンズ等の撮像光学系、及び、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を有してもよい。
(Camera unit 206)
For example, the
(画像処理部208)
画像処理部208は、端末装置200に内蔵されるCPU、ROM、及びRAM等のハードウェアを用いて、上述のカメラ部206が撮像した照明器具100の動画像を取得し、取得した動画像を一時的に格納する。さらに、画像処理部208は、格納した動画像に基づき、照明器具100の点滅パターン(受光パターン)を取得し、取得した点滅パターンに対して復調処理を行うことにより、照明器具100の識別情報(ID)、三次元空間(実空間)上における、発光領域(発光部110)の形状に関する情報(形状情報)、照明器具100の設置位置に関する情報(位置情報)を取得することができる。
(Image processing unit 208)
The
また、画像処理部208は、上述のカメラ部206が撮像した照明器具100の動画像に対して画像認識技術を用いて解析を行うことにより、画像上での照明器具100の発光部110の特徴点として、発光部110の輪郭の頂点及び面積を抽出、算出することができる。さらに、画像処理部208は、抽出した発光部110の輪郭を、可視光通信を介して照明器具100から取得した発光部110の形状に基づいて、頂点の数が一致するように抽象化する処理を行うこともできる。例えば、画像処理部208は、照明器具100が棒状の発光部110を有する場合、可視光通信を介して照明器具100から取得した発光部110の形状として棒状形状である旨の情報と、画像上から抽出した照明器具100の発光部110の輪郭とを参照して、照明器具100を2つの端部を持つ線分とし抽象化することができる。
Further, the
さらに、画像処理部208は、取得した情報を、上述の端末記憶部204、及び、後述する位置算出部210に出力することができる。
Furthermore, the
(位置算出部210)
位置算出部210は、可視光通信を介して上述の画像処理部208によって取得された、照明器具100の識別情報(ID)、三次元空間(実空間)上における、発光領域(発光部110)の形状に関する情報(形状情報)、照明器具100の設置位置に関する情報(位置情報)と、上述の画像処理部208によって画像から抽出された、照明器具100の発光部110の輪郭の面積や頂点の位置情報とに基づいて、線形方程式を利用して、端末装置200の位置を算出することができる。
(Position calculation unit 210)
The
詳細には、位置算出部210は、画像上の照明器具100における少なくとも6点と、可視光通信を介して取得された三次元空間(実空間)上の位置座標に係る6点との対応関係を特定し、すなわち、6組の点の対応関係を特定し、特定した対応関係に基づいて、線形方程式を用いて、端末装置200の位置座標を算出することができる。
Specifically, the
より具体的には、位置算出部210は、図8に示すように、画像600上の各点(図8では点A´、B´、C´)と、三次元空間(実空間)602での各点(図8では点A、B、C)との対応関係(図8においては、線で結ばれた点Aと点A´、点Bと点B´、点Cと点C´が対応している)といった2つの点の組からなる6つの組(言い換えると、12個の点の対応)の対応関係を得ることができ、且つ、端末装置200のカメラ部206の固有の内部パラメータが予めわかっていれば、下記の数式(1)を用いて、端末装置200のカメラ部206の三次元空間上の位置(図8では点Q)や姿勢を算出することが可能である。
More specifically, as shown in FIG. 8, the
なお、数式(1)においては、Pは、3×4の行列(12個の未知数)として示され、端末装置200のカメラ部206の三次元空間(実空間)602での位置や姿勢を示す。また、数式(1)においては、(Ximage、Yimage、S)は、画像600上の点の座標を示し、(Xworld、Yworld、Zworld、1)は、三次元空間602での点の座標を示し、2つの点に関する対応関係(三次元空間602上の点と画像600上での点との対応関係)があれば2つの方程式が得られることから、画像600上の6つの点と三次元空間602上での6つの点との対応関係があれば、端末装置200のカメラ部206の位置を示すPを算出することが可能となる。
In Equation (1), P is represented as a 3 × 4 matrix (12 unknowns) and indicates the position and orientation of the
すなわち、位置算出部210は、端末記憶部204に格納された情報を用いて、6組の点の対応を特定する対応特定処理(前処理)と、対応関係が特定された6組の対応関係に基づいて、端末装置200の位置を算出する位置算出処理とを行うことができる。
That is, the
なお、本実施形態においては、上述した画像処理部208及び位置算出部210等で行われる処理は、位置検出システム1に含まれるサーバ(図示省略)で行ってもよい。この場合、当該サーバは、端末装置200で撮像した照明器具100の動画像を端末装置200から受信し、予め当該サーバに格納された情報を用いて、端末装置200の位置の検出を行うこととなる。
In the present embodiment, the processing performed by the
<位置検出方法>
以上、本実施形態に係る端末装置200の詳細構成について説明した。次に、本実施形態に係る位置検出方法について、図9から図13を参照して説明する。図9は、本実施形態に係る位置検出方法のフローチャートである。図10は、本実施形態に係る対応特定処理(前処理)のサブフローチャートである。さらに、図11は、図10のステップS213のサブフローチャートである。また、図12及び図13は、本実施形態に係る対応特定処理(前処理)を説明するための説明図である。
<Position detection method>
The detailed configuration of the
詳細には、本実施形態に係る位置検出方法は、図9のフローチャートで示され、当該フローチャートは、ステップS101からステップS109までの複数のステップを有する。以下に、本実施形態に係る位置検出方法の各ステップの詳細を説明する。 Specifically, the position detection method according to the present embodiment is shown in the flowchart of FIG. 9, and the flowchart includes a plurality of steps from step S101 to step S109. Details of each step of the position detection method according to the present embodiment will be described below.
なお、以下に説明する本実施形態に係る位置検出方法においては、同一平面(天井)上に設けられた、棒状の発光部110を有する、3つの照明器具(第1、第2及び第3の照明器具)100を用いて、端末装置200の位置を検出するものとして説明する。
In the position detection method according to the present embodiment described below, three lighting fixtures (first, second, and third) having a rod-like
(ステップS101)
各照明器具100の発光部110が発光し、照明器具100は、可視光通信を介して、照明器具100の識別情報(ID)、三次元空間(実空間)上における、発光領域(発光部110)の形状に関する情報(形状情報)、及び、照明器具100の設置位置に関する情報(位置情報)を端末装置200へ送信する。具体的には、各照明器具100の発光部110は、所定の点滅パターンで発光及び消灯(点滅)を繰り返し、端末装置200へ、上記情報を送信する。
(Step S101)
The
(ステップS103)
端末装置200のカメラ部206は、発光する3つの照明器具100の動画像を撮像する。
(Step S103)
The
(ステップS105)
端末装置200の画像処理部208は、上述したステップS103で撮像した動画像を一時的に格納する。さらに、画像処理部208は、格納した動画像に基づき、照明器具100の点滅パターン(受光パターン)を取得し、取得した点滅パターンに対して復調処理を行うことにより、照明器具100の識別情報(ID)、三次元空間(実空間)上における、発光領域(発光部110)の形状に関する情報(形状情報)、照明器具100の設置位置に関する情報(位置情報)を取得し、端末記憶部204に格納する。なお、ここで格納される形状情報は、先に説明したように、照明器具100の発光部110の輪郭の各頂点の位置座標であり、さらに、当該発光部110の形状及び寸法の情報を含んでもよい。さらに、ここで格納される位置情報は、三次元空間(実空間)における、照明器具100の発光部110の重心の位置座標である。
(Step S105)
The
また、端末装置200の画像処理部208は、上述したステップS103で撮像した動画像に対して、画像認識技術を用いて処理を行い、画像上での各照明器具100の発光部110の輪郭の頂点の位置座標及び面積を抽出、算出する。
In addition, the
(ステップS107)
位置の算出の前処理として、端末装置200の位置算出部210は、画像上の各照明器具100に関する6つの点と、可視光通信を介して取得された三次元空間(実空間)上の位置座標に係る6つの点との対応関係を特定する。なお、当該ステップS107の詳細については、後述する。
(Step S107)
As pre-processing for calculating the position, the
(ステップS109)
端末装置200の位置算出部210は、上述のステップS107で特定された6組の点の対応関係に基づいて、線形方程式を用いて、端末装置200の位置座標を算出する。なお、端末装置200の位置座標の算出は、既に説明したため、ここでは詳細な説明を省略する。
(Step S109)
The
以上、本実施形態に係る位置検出方法について説明した。次に、図9のステップS107、すなわち、対応特定処理(前処理)の詳細について説明する。詳細には、本実施形態に係る対応特定処理(ステップS107)は、図10のサブフローチャートで示され、当該サブフローチャートには、ステップS201からステップS217までの複数のステップが含まれる。以下に、本実施形態に係る対応特定処理の各ステップの詳細を説明する。 The position detection method according to the present embodiment has been described above. Next, step S107 in FIG. 9, that is, details of the correspondence specifying process (pre-processing) will be described. Specifically, the correspondence specifying process (step S107) according to the present embodiment is shown in the sub-flowchart of FIG. 10, and the sub-flowchart includes a plurality of steps from step S201 to step S217. Details of each step of the correspondence specifying process according to this embodiment will be described below.
なお、以下の説明においては、同一平面(天井)上に設けられた、棒状の発光部110を有する、3つの照明器具100を用いて、端末装置200の位置を検出する。さらに、以下の説明においては、各照明器具100の棒状の発光部110の2つの端部についての三次元空間(実空間)上の位置座標が位置情報としてわかっているものとする。また、以下の説明においては、各照明器具100の棒状の発光部110の2つの端部についての動画像上の位置もわかっているものとする。すなわち、以下の説明においては、各照明器具100において、2つの上記端部の三次元空間上の位置と画像上の位置との対応が特定することができるものとし、3つの照明器具100が含まれていることから、6組の三次元空間上の点と画像上の点との対応関係を得ることができるものとする。
In the following description, the position of the
(ステップS201)
端末装置200の位置算出部210は、上述の図9に示されるステップS109における端末装置200の位置座標の算出で使用する候補となる情報が格納されることとなる選択候補の集合を空にする。
(Step S201)
The
(ステップS203)
端末装置200の位置算出部210は、上述の図9のステップS105で取得した照明器具100の識別情報(ID)、三次元空間(実空間)上における、発光領域(発光部110)の形状に関する情報(形状情報)、照明器具100の設置位置に関する情報(位置情報)を、端末記憶部204から取得し、上記選択候補の集合における各照明器具100の実空間上の位置情報の集合として、上記選択候補の実空間側の集合に格納する。詳細には、位置算出部210は、上記形状情報として、各照明器具100の棒状の発光部110の2つの端部についての三次元空間(実空間)上の位置座標を照明器具100のIDと紐づけて格納し、さらに、上記位置情報として、各照明器具100の棒状の発光部110の重心の三次元空間(実空間)上の位置座標を照明器具100のIDと紐づけて格納する。
(Step S203)
The
(ステップS205)
端末装置200の位置算出部210は、上記選択候補の集合における各照明器具100の位置情報の実空間側集合が空であれば、処理を終了する。一方、端末装置200の位置算出部210は、上記選択候補の集合における各照明器具100の位置情報の実空間側集合が空でなければ、後述するステップS207へ進む。
(Step S205)
The
(ステップS207)
端末装置200の位置算出部210は、上述の図9のステップS105で抽出した画像上での各照明器具100の発光部110の輪郭の面積の一番大きいものを選択し、選択した照明器具100をpと設定する。
(Step S207)
The
(ステップS209)
端末装置200の位置算出部210は、上述のステップS207で選択したpに係る画像上の情報を、上記選択候補の画像側に係る情報を格納する画像側集合に追加する。詳細には、位置算出部210は、選択したpに係る照明器具100の棒状の発光部110の2つの端部についての動画像上の位置の情報(位置座標)を画像側集合に追加する。
(Step S209)
The
(ステップS211)
端末装置200の位置算出部210は、画像側集合に格納された画像上の情報と紐づけられる照明器具100の数の大きさが2以下であれば(言い換えると、端部の位置座標の数が5以下であれば)、上述のステップS205へ戻る。一方、端末装置200の位置算出部210は、画像側集合に格納された画像上の情報と紐づけられる照明器具100の数の大きさが2以下でなければ(言い換えると、端部の位置座標の数が5以下でなければ)、後述するステップS213へ進む。
(Step S211)
The
(ステップS213)
端末装置200の位置算出部210は、選択候補の集合に格納された、各照明器具100の棒状の発光部110の2つの端部についての三次元空間(実空間)上の位置座標と、各照明器具100の棒状の発光部110の2つの端部についての動画像上の位置の情報との対応関係を特定する。なお、当該ステップS213の詳細については、後述する。
(Step S213)
The
(ステップS215)
端末装置200の位置算出部210は、6組以上の対応関係が特定できたかどうかを判定する。当該位置算出部210は、6組以上の対応関係が特定できなかった場合は、ステップS217へ進む。一方、当該位置算出部210は、6組以上の対応関係が特定できた場合は、処理を終了する。
(Step S215)
The
(ステップS217)
対応関係が特定できなかったものとして、上述のステップS207で選択したpに関する情報を選択候補の集合から除き、上述のステップS205へ戻る。
(Step S217)
Assuming that the correspondence relationship could not be specified, the information on p selected in step S207 is removed from the set of selection candidates, and the process returns to step S205.
以上、本実施形態に係る対応特定処理(前処理)(ステップS107)の詳細について説明した。次に、図10のステップS213について説明する。詳細には、図10のステップS213は、図11のサブフローチャートで示され、当該サブフローチャートは、ステップS301からステップS321までの複数のステップを有する。以下に、本実施形態に係るステップS213のサブフローチャートに含まれる各ステップの詳細を説明する。 The details of the correspondence specifying process (pre-processing) (step S107) according to the present embodiment have been described above. Next, step S213 in FIG. 10 will be described. Specifically, step S213 in FIG. 10 is shown in the sub-flowchart in FIG. 11, and the sub-flowchart has a plurality of steps from step S301 to step S321. Details of each step included in the sub-flowchart of step S213 according to the present embodiment will be described below.
(ステップS301)
端末装置200の位置算出部210は、処理の順番を管理するための変数mに1を代入する。
(Step S301)
The
(ステップS303)
端末装置200の位置算出部210は、上述のステップS203(ステップS105)において選択候補の集合に格納された、各照明器具100の棒状の発光部110の三次元空間(実空間)上の重心の位置座標を取得する。
(Step S303)
The
(ステップS305)
端末装置200の位置算出部210は、上述のステップS303で取得した3つの照明器具100の発光部110の重心が、同一直線上にあるかどうかを判定する。当該位置算出部210は、3つの重心が同一直線上にない場合には、後述するステップS307へ進む。一方、当該位置算出部210は、3つの重心が同一直線上にある場合には、処理を終了する。
(Step S305)
The
(ステップS307)
端末装置200の位置算出部210は、選択候補の画像側集合に含まれる各照明器具100の発光部110の、画像上の重心の位置を、抽出した発光部110の輪郭の頂点の位置座標(上述のステップS105で取得される)に基づき、算出する。
(Step S307)
The
(ステップS309)
端末装置200の位置算出部210は、選択候補の集合に属する照明器具100のうち、発光部110の輪郭がm番目に大きい照明器具100をqとする。なお、以下の説明においては、当該mは、上述したステップS301で設定されているものとする。
(Step S309)
The
(ステップS311)
端末装置200の位置算出部210は、選択候補の集合に格納された、各照明器具100の棒状の発光部110の2つの端部についての三次元空間(実空間)上の位置座標(位置情報)と、各照明器具100の発光部110の三次元空間上の重心の位置座標とに基づいて、qの2つの端部を結ぶ直線と、選択集合に格納されたq以外の2つの照明器具100の重心を結ぶ直線とにより構成される角度αを算出する(図12及び図13参照)。これら直線の詳細については、後述する。
(Step S311)
The
(ステップS313)
端末装置200の位置算出部210は、上述のステップS311で算出された角度αが、−45度から+45度(所定の角度)以内である場合には、後述するステップS315へ進む。一方、端末装置200の位置算出部210は、上述のステップS311で算出された角度αが、−45度から+45度(所定の角度)以内でない場合には、後述するステップS317へ進む。
(Step S313)
If the angle α calculated in step S311 described above is within −45 degrees to +45 degrees (predetermined angle), the
(ステップS315)
端末装置200の位置算出部210は、選択候補の集合に格納された、各照明器具100の棒状の発光部110の2つの端部についての三次元空間(実空間)上の位置座標と、各照明器具100の棒状の発光部110の2つの端部についての動画像上の位置座標との対応関係を特定する。
(Step S315)
The
詳細には、上述のステップS311において、当該位置算出部210は、図12に示すように、qである照明器具100の棒状の発光部110の2つの端部700、702についての三次元空間(実空間)上の位置座標に基づいて、これら2つの端部(2点)700、702を結ぶ直線710を算出する。さらに、当該位置算出部210は、上述のステップS303で算出した、各照明器具100a、100bの発光部110の三次元空間上の重心804a、804bの位置座標に基づいて、これら2つの端部700、702を結ぶ直線810を算出する。加えて、当該位置算出部210は、算出した直線710と直線810とにより構成される角度αを算出する。
In detail, in the above-described step S311, the
そして、算出した角度αが、−45度から+45度以内である場合には、当該位置算出部210は、図12に示すように、三次元空間(実空間)上及び画像上にて、qである照明器具100の端部700から各照明器具100a、100bの重心804a、804bまでの距離a0、b0をそれぞれ算出する。同様に、当該位置算出部210は、三次元空間上及び画像上にて、図12に示すように、qである照明器具100の端部702から各照明器具100a、100bの重心804a、804bまでの距離a1、b1をそれぞれ算出する。
When the calculated angle α is within −45 degrees to +45 degrees, the
なお、三次元空間(実空間)上のqである照明器具100の端部700、702の位置座標、及び、q以外の照明器具100a、100bの重心804a、804bの位置座標は、上述のステップS203(ステップS105)で取得することができるため、位置算出部210は、これらの位置座標に基づいて、qである照明器具100の端部700、702から各照明器具100a、100bの重心804a、804bまでの距離a0、b0、a1、b1を算出することができる。
Note that the position coordinates of the
さらに、位置算出部210は、画像上の照明器具100の発光部110の輪郭の頂点の位置座標を、上述のステップS105で抽出された発光部110の輪郭に基づいて、算出することができ、算出した位置座標を用いて、画像上の、qである照明器具100の端部700、702の位置座標、及び、q以外の照明器具100a、100bの重心804a、804bの位置座標を算出することができる。従って、位置算出部210は、算出したこれら画像上の位置座標を用いて、qである照明器具100の端部700、702から各照明器具100a、100bの重心804a、804bまでの距離a0、b0、a1、b1を算出することができる。
Furthermore, the
そして、当該位置算出部210は、算出した距離a0、a1、b0、b1を利用して、三次元空間(実空間)上及び画像上のそれぞれにおいて、qである照明器具100の端部700、702は、それぞれ照明器具100a、100bのいずれかの近いかを基準にグループ分けする。そして、当該位置算出部210は、同じグループに属する三次元空間上の端部700、702と、画像上の端部700、702とが対応させることにより、対応関係を特定することができる。
Then, the
(ステップS317)
端末装置200の位置算出部210は、上述したステップS315と同様に、選択候補の集合に格納された、各照明器具100の棒状の発光部110の2つの端部についての三次元空間(実空間)上の位置座標と、各照明器具100の棒状の発光部110の2つの端部についての動画像上の位置座標との対応関係を特定する。
(Step S317)
Similar to step S315 described above, the
詳細には、上述のステップS311において、当該位置算出部210は、図13に示すように、qである照明器具100の棒状の発光部110の三次元空間(実空間)上の位置座標に基づいて、qである照明器具100の2つの端部700、702を結ぶ直線710を算出する。さらに、当該位置算出部210は、上述のステップS303で算出した、各照明器具100a、100bの発光部110の三次元空間上の重心804a、804bの位置に基づいて、これら2つの端部700、702を結ぶ直線810を算出する。加えて、当該位置算出部210は、算出した直線710と直線810とにより構成される角度αを算出する。
Specifically, in step S311 described above, the
そして、算出した角度αが、−45度から+45度(所定の角度)以内でない場合、当該位置算出部210は、図13に示すように、三次元空間(実空間)上及び画像上にて、qである照明器具100の端部700から各照明器具100a、100bの重心804a、804bまでの距離a0、b0をそれぞれ算出する。同様に、当該位置算出部210は、三次元空間上及び画像上にて、図13に示すように、qである照明器具100の端部702から各照明器具100a、100bの重心804a、804bまでの距離a1、b1をそれぞれ算出する。さらに、当該位置算出部210は、算出した距離a0と距離a1の合計値、及び、算出した距離b0と距離b1の合計値を算出する。
Then, when the calculated angle α is not within −45 degrees to +45 degrees (predetermined angle), the
さらに、当該位置算出部210は、算出した合計値を利用して、三次元空間(実空間)上及び画像上のそれぞれにおいて、qである照明器具100の端部700、702は、それぞれ照明器具100a、100bとの間の距離の合計値が大きいか小さいかを基準にグループ分けする。そして、当該位置算出部210は、同じグループに属する三次元空間上の端部700、702と、画像上の端部700、702とが対応させることにより、対応関係を特定することができる。
Further, the
(ステップS319)
端末装置200の位置算出部210は、変数mを1つ大きく設定する。
(Step S319)
The
(ステップS321)
端末装置200の位置算出部210は、上述のステップS319で設定されたmの値が4でない場合には、上述したステップS309へ戻る。一方、当該位置算出部210は、上述のステップS319で設定されたmの値が4である場合には、処理を終了する。
(Step S321)
If the value of m set in step S319 described above is not 4, the
以上のように本発明の第1の実施形態によれば、上述のステップS315及びステップS317のように、簡単な距離の算出と簡単な比較により、各照明器具100の棒状の発光部110の2つの端部についての三次元空間(実空間)上の位置座標と、各照明器具100の棒状の発光部110の2つの端部についての動画像上の位置座標との対応関係を特定することができる。さらに、本実施形態によれば、少ない照明器具100であっても、端末装置200の位置を検出するために十分な数の照明器具100に関する位置情報等を得ることができることから、処理時間の少ない線形方程式を利用して、良好な位置検出精度で端末装置200の位置を検出することができる。すなわち、本実施形態によれば、良好な位置検出精度でありつつ、少ない照明器具で、且つ、少ない処理時間で位置を検出することができる。
As described above, according to the first embodiment of the present invention, as shown in steps S315 and S317 described above, 2 of the bar-shaped
<<第2の実施形態>>
上述した本発明の第1の実施形態においては、算出した距離を用いて、各照明器具100の棒状の発光部110の2つの端部についての三次元空間(実空間)上の位置座標と、各照明器具100の棒状の発光部110の2つの端部についての動画像上の位置座標との対応関係を特定していた。しかしながら、本発明の実施形態は、これに限定されるものではなく、算出した角度を用いて上述のような特定を行ってもよい。以下に、算出した角度を用いて特定を行う本発明の第2の実施形態を、図14及び図15を参照して説明する。図14は、本実施形態に係る位置検出方法のフローチャートであり、図15は、本実施形態に係る位置検出方法を説明するための説明図である。
<< Second Embodiment >>
In the first embodiment of the present invention described above, using the calculated distance, the position coordinates on the three-dimensional space (real space) for the two ends of the bar-shaped
なお、以下の説明においても、第1の実施形態と同様に、同一平面(天井)上に設けられた、棒状の発光部110を有する、3つ以上の照明器具100を用いて、端末装置200の位置を検出する。さらに、以下の説明においては、各照明器具100の棒状の発光部110の2つの端部についての三次元空間(実空間)上の位置座標が位置情報としてわかっているものとする。また、以下の説明においては、各照明器具100の棒状の発光部110の2つの端部についての動画像上の位置座標もわかっているものとする。すなわち、以下の説明においては、各照明器具100において、2つの端部の三次元空間上の位置と画像上の位置との対応が特定することができるものとし、3つの照明器具100が含まれていることから、6組の三次元空間上の点と画像上の点との対応関係を得ることができるものとする。
In the following description, similarly to the first embodiment, the
なお、本実施形態においては、位置検出システム1、及び、当該位置検出システム1に含まれる各装置の詳細構成は、上述した第1の実施形態と共通するため、ここではこれらの説明を省略する。
In the present embodiment, the detailed configuration of the
<位置検出方法>
次に、本実施形態に係る位置検出方法について、図14及び図15を参照して説明する。以下に説明する位置検出方法は、図10に示す第1の実施形態のステップS213に対応し、すなわち、ステップS213の変形例の1つであるといえる。詳細には、本実施形態に係る位置検出方法は、図14のサブフローチャートで示され、当該サブフローチャートは、ステップS401からステップS423までの複数のステップを有する。以下に、本実施形態に係る位置検出方法の各ステップの詳細を説明する。
<Position detection method>
Next, the position detection method according to the present embodiment will be described with reference to FIGS. The position detection method described below corresponds to step S213 of the first embodiment shown in FIG. 10, that is, it can be said to be one of the modifications of step S213. Specifically, the position detection method according to the present embodiment is shown in the sub-flowchart of FIG. 14, and the sub-flowchart has a plurality of steps from step S401 to step S423. Details of each step of the position detection method according to the present embodiment will be described below.
(ステップS401〜ステップS409)
本実施形態におけるステップS401からステップS409は、図11に示される、第1の実施形態のステップS301からステップS309と同様であるため、ここでは、説明を省略する。
(Step S401 to Step S409)
Steps S401 to S409 in the present embodiment are the same as steps S301 to S309 in the first embodiment shown in FIG. 11, and thus description thereof is omitted here.
(ステップS411)
端末装置200の位置算出部210は、図15に示すように、q以外の各照明器具100a、100bの発光部110の三次元空間(実空間)上の重心804a、804bの位置に基づいて、これら2つの重心804a、804bを結ぶ直線810を算出する。さらに、当該位置算出部210は、図15に示すように、qである照明器具100の重心704から、算出した直線810への垂線730を算出する。また、位置算出部210は、qである照明器具100の一方の端部(一方の点)700と重心704とを結ぶ線分710aを算出し、端部700に係る線分710aと垂線730とにより構成される角度(第1の角度)α1を算出する。
(Step S411)
As shown in FIG. 15, the
さらに、当該位置算出部210は、図15に示すように、位置算出部210は、qである照明器具100の他方の端部(他方の点)702と重心704とを結ぶ線分710bを算出し、端部702に係る線分710bと垂線730とにより構成される角度(第2の角度)α2を算出する。
Further, as shown in FIG. 15, the
なお、三次元空間上のqである照明器具100の端部700、702の位置座標、及び、qである照明器具100及びq以外の照明器具100a、100bの重心704、804a、804bの位置座標は、上述のステップS203(ステップS105)で取得することができるため、位置算出部210は、これらの位置座標に基づいて、上記角度α1、α2を算出することができる。
It should be noted that the position coordinates of the
(ステップS413)
端末装置200の位置算出部210は、上述したステップS411で算出した角度α1と角度α2との差分(α1−α2)が−60度から+60度(所定の角度)以内でない場合には、後述するステップS415に進む。一方、位置算出部210は、上記差分(α1−α2)が−60度から+60度(所定の角度)以内である場合には、後述するステップS419に進む。
(Step S413)
The
(ステップS415)
端末装置200の位置算出部210は、図15に示すように、q以外の各照明器具100a、100bの発光部110の画像上の重心804a、804bの位置に基づいて、これら2つの重心804a、804bを結ぶ直線810を算出する。さらに、当該位置算出部210は、図15に示すように、qである照明器具100の重心704から、算出した直線810への垂線730を算出する。また、位置算出部210は、qである照明器具100の一方の端部(一方の点)700と重心704とを結ぶ線分710aを算出し、端部700に係る線分710aと垂線730とにより構成される角度(第1の角度)α1を算出する。
(Step S415)
As shown in FIG. 15, the
さらに、当該位置算出部210は、図15に示すように、位置算出部210は、qである照明器具100の他方の端部(他方の点)702と重心704とを結ぶ線分710bを算出し、端部702に係る線分710bと垂線730とにより構成される角度(第2の角度)α2を算出する。
Further, as shown in FIG. 15, the
なお、位置算出部210は、画像上の照明器具100の発光部110の輪郭の頂点の位置座標を、上述のステップS105で抽出された発光部110の輪郭に基づいて、算出することができ、算出した位置座標を用いて、画像上の、qである照明器具100の端部700、702の位置座標、及び、qである照明器具100とq以外の照明器具100a、100bとの重心704、804a、804bの位置座標を算出することができる。従って、位置算出部210は、算出したこれら画像上の位置座標を用いて、上記角度α1、α2を算出することができる。
The
(ステップS417)
さらに、当該位置算出部210は、上述のステップS411及びステップS413で算出した角度α1、α2の大小関係に基づいて、三次元空間(実空間)上における角度α1、α2を2つのグループに分け、画像上における角度α1、α2を2つのグループに分ける。そして、当該位置算出部210は、同じグループに属する三次元空間上の端部700、702と、画像上の端部700、702とを対応させることにより、対応関係を特定することができる。
(Step S417)
Further, the
(ステップS419からステップS423)
本実施形態におけるステップS419からステップS423は、図11に示される第1の実施形態のステップS315からステップS321と同様であるため、ここでは、説明を省略する。
(Step S419 to Step S423)
Steps S419 to S423 in the present embodiment are the same as steps S315 to S321 in the first embodiment shown in FIG. 11, and thus description thereof is omitted here.
以上のように本発明の第2の実施形態によれば、上述のステップS411からステップS419のように、簡単な角度の算出と簡単な比較により、各照明器具100の棒状の発光部110の2つの端部についての三次元空間(実空間)上の位置座標と、各照明器具100の棒状の発光部110の2つの端部についての動画像上の位置座標との対応関係を特定することができる。さらに、本実施形態によれば、少ない照明器具100であっても、端末装置200の位置を検出するために十分な数の照明器具100に関する位置情報等を得ることができることから、処理時間の少ない線形方程式を利用して、良好な位置検出精度で端末装置200の位置を検出することができる。すなわち、本実施形態によれば、良好な位置検出精度でありつつ、少ない照明器具で、且つ、少ない処理時間で位置を検出することができる。
As described above, according to the second embodiment of the present invention, as in the above-described steps S411 to S419, 2 of the bar-shaped
<<ハードウェア構成>>
以上、本発明の各実施形態について説明した。続いて、本発明の各実施形態に係るハードウェア構成について説明する。上述した位置検出システム1における位置検出方法は、ソフトウェアと、照明器具と、以下に説明する端末装置200のハードウェアとの協働により実現される。
<< Hardware configuration >>
The embodiments of the present invention have been described above. Subsequently, a hardware configuration according to each embodiment of the present invention will be described. The position detection method in the
図16は、本発明の実施形態に係る端末装置200である無線通信装置900のハードウェア構成例を示したブロック図である。無線通信装置900は、CPU902と、ROM904と、RAM906と、を有する。また、無線通信装置900は、入力部908と、出力部910と、ストレージ装置912と、ネットワークインタフェース914とを有する。以下に、当該無線通信装置900の各ハードウェアブロックについて説明する。
FIG. 16 is a block diagram illustrating a hardware configuration example of a
(CPU902、ROM904、RAM906)
CPU902は、演算処理装置および制御装置として機能し、各種プログラムに従って端末装置200である無線通信装置900内の動作全般を制御する。また、CPU902は、マイクロプロセッサであってもよい。ROM904は、CPU902が使用するプログラムや演算パラメータ等を記憶する。RAM906は、CPU902の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバス916により相互に接続されている。CPU902、ROM904及びRAM906は、ソフトウェアとの協働により図6を参照して説明した端末装置200の端末制御部202等の機能を実現し得る。
(
The
(入力部908)
入力部908は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、センサ、スイッチ及びレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU902に出力する入力制御回路などから構成されている。ユーザは、当該入力部908を操作することにより、端末装置200に対して各種のデータを入力したり、処理動作を指示したりすることができる。さらに、入力部908は、図6を参照して説明した端末装置200のカメラ部206として機能する、撮影レンズ及びズームレンズなどの撮像光学系、及び、CCD又はCMOS等の撮像素子を有している。
(Input unit 908)
The
(出力部910)
出力部910は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、プロジェクター装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置を含む。また、出力部910は、スピーカ及びヘッドホンなどの音声出力装置を含んでもよい。
(Output unit 910)
The
(ストレージ装置912)
ストレージ装置912は、データ格納用の装置である。ストレージ装置912は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出装置及び記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ装置912は、例えば、HDD(Hard Disk Drive)又はSSD(Solid Strage Drive)、あるいは同等の機能を有するメモリ等で構成される。このストレージ装置912は、ストレージを駆動し、CPU902が実行するプログラムや各種データを格納する。
(Storage device 912)
The
(ネットワークインタフェース914)
ネットワークインタフェース914は、例えば、ネットワークに接続するための通信デバイス等で構成された通信インタフェースである。当該通信インタフェースは、例えば、Bluetooth(登録商標)又はZigBee(登録商標)等の近距離無線通信インタフェースや、無線LAN(Local Area Network)、Wi−Fi(登録商標)、又は携帯通信網(LTE、3G)等の通信インタフェースであることができる。また、ネットワークインタフェース914は、有線による通信を行う有線通信装置を含んでいてもよい。
(Network interface 914)
The
以上、本発明の実施形態に係る端末装置200である無線通信装置900のハードウェア構成例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
The hardware configuration example of the
<<まとめ>>
以上のように本発明の各実施形態によれば、簡単な距離及び角度の算出と簡単な比較により、各照明器具100の棒状の発光部110の2つの端部についての三次元空間(実空間)上の位置座標と、各照明器具100の棒状の発光部110の2つの端部についての動画像上の位置の情報との対応関係を特定することができる。さらに、本実施形態によれば、少ない照明器具100であっても、端末装置200の位置を検出するために十分な数の照明器具100に関する位置情報等を得ることができることから、処理時間の少ない線形方程式を利用して、良好な位置検出精度で端末装置200の位置を検出することができる。すなわち、本発明の各実施形態によれば、良好な位置検出精度でありつつ、少ない照明器具で、且つ、少ない処理時間で位置を検出することができる。
<< Summary >>
As described above, according to each embodiment of the present invention, the three-dimensional space (real space) of the two ends of the bar-shaped
なお、上述の実施形態においては、同一平面上に設けられた、棒状の発光部110を有する、3つの照明器具100を用いて、端末装置200の位置を検出するものとして説明した。すなわち、上述の実施形態においては、3つの照明器具100の棒状の発光部110の2つの端部についての三次元空間(実空間)上の位置座標及び画像上の位置座標がわかっているものとして説明した。しかしながら、本発明の実施形態は、上述のような3つの照明器具100を用いることに限定されるものではなく、例えば、発光部110に6つの特徴点を有するような1つの照明器具100を用いても、端末装置200の位置を検出することができる。
In the above-described embodiment, the description has been made assuming that the position of the
<<補足>>
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
<< Supplementary >>
The preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.
また、上述した本発明の実施形態の位置検出方法における各ステップは、必ずしも記載された順序に沿って処理されなくてもよい。例えば、各ステップは、適宜順序が変更されて処理されてもよい。また、各ステップは、時系列的に処理される代わりに、一部並列的に又は個別的に処理されてもよい。さらに、各ステップの処理方法についても、必ずしも記載された方法に沿って処理されなくてもよく、例えば、他の機能部によって他の方法によって処理されていてもよい。 Moreover, each step in the position detection method of the embodiment of the present invention described above does not necessarily have to be processed in the order described. For example, the steps may be processed by changing the order as appropriate. Each step may be processed in parallel or individually instead of being processed in time series. Furthermore, the processing method of each step does not necessarily have to be processed according to the described method. For example, the processing method may be processed by another function unit by another method.
さらに、上記の本発明の実施形態に係る位置検出方法の少なくとも一部は、コンピュータを機能させる情報処理プログラムとして、ソフトウェアで構成することが可能であり、ソフトウェアで構成する場合には、これらの方法の少なくとも一部を実現するプログラムをフレキシブルディスクやCD−ROM(Compact Disc Read Only Memory)等の記録媒体に収納し、端末装置200等、もしくは、端末装置200等と接続された他の装置に読み込ませて実行させてもよい。記録媒体は、磁気ディスクや光ディスク等の着脱可能なものに限定されず、ハードディスク装置やメモリなどの固定型の記録媒体でもよい。さらに、これらの方法の少なくとも一部を実現するプログラムを、インターネット等の通信回線(無線通信も含む)を介して頒布してもよい。さらに、同プログラムを暗号化したり、変調をかけたり、圧縮した状態で、インターネット等の有線回線や無線回線を介して、あるいは記録媒体に収納して頒布してもよい。
Furthermore, at least a part of the above-described position detection method according to the embodiment of the present invention can be configured by software as an information processing program for causing a computer to function. When configured by software, these methods are used. Is stored in a recording medium such as a flexible disk or a CD-ROM (Compact Disc Read Only Memory), and is read into the
1 位置検出システム
100、100a、100b、100c、100d 照明器具
102 照明器具制御部
104 照明器具記憶部
106 パケット生成部
108 発光処理部
110 発光部
200 端末装置
202 端末制御部
204 端末記憶部
206 カメラ部
208 画像処理部
210 位置算出部
300 室内
400 人物
500、502 情報テーブル
600 画像
602 三次元空間
700、702 端部
704、804a、804b 重心
710、810 直線
710a、710b 線分
730 垂線
900 無線通信装置
902 CPU
904 ROM
906 RAM
908 入力部
910 出力部
912 ストレージ装置
914 ネットワークインタフェース
916 ホストバス
DESCRIPTION OF
904 ROM
906 RAM
908
Claims (12)
前記照明器具の動画像を撮像する撮像部と、
前記動画像から、前記照明器具を特定する識別情報と、前記照明器具の形状情報と、前記照明器具における少なくとも6組の点の位置情報とを取得する取得部と、
前記識別情報と、前記形状情報と、前記位置情報とに基づいて、前記端末装置の位置を、線形方程式を利用して算出する位置検出部と、
を備える端末装置。 A terminal device capable of imaging a lighting fixture,
An imaging unit that captures a moving image of the lighting fixture;
An acquisition unit that acquires identification information for identifying the lighting fixture, shape information of the lighting fixture, and position information of at least six sets of points in the lighting fixture from the moving image;
A position detector that calculates the position of the terminal device using a linear equation based on the identification information, the shape information, and the position information;
A terminal device comprising:
前記位置検出部は、
前記実空間上における、前記各照明器具の重心の位置を取得し、
取得された前記各重心が一直線上に並んでいない場合には、
前記実空間上における、前記第1の照明器具における2つの端部を結ぶ直線と、前記第2の照明器具の前記重心と前記第3の照明器具の前記重心とを結ぶ直線とにより構成される角度を利用して、前記対応関係を特定する方法を選択する、
請求項7に記載の端末装置。 The at least three or more lighting fixtures include first, second and third lighting fixtures,
The position detector is
Obtain the position of the center of gravity of each lighting fixture on the real space,
When the acquired centroids are not aligned,
The straight line connecting the two ends of the first lighting fixture in the real space and the straight line connecting the center of gravity of the second lighting fixture and the center of gravity of the third lighting fixture. Select a method for identifying the correspondence using an angle.
The terminal device according to claim 7.
前記角度が所定の角度以内であれば、
前記実空間上及び前記動画像上において、前記第1の照明器具における一方の前記端部から、前記第2及び第3の照明器具の前記重心までの距離を算出し、且つ、前記第1の照明器具における他方の前記端部から、前記第2及び第3の照明器具の前記重心までの距離を算出し、
前記角度が所定の角度以内でなければ、
前記実空間上及び前記動画像上において、前記第1の照明器具における前記2つの端部からの前記第2及び第3の照明器具の前記重心までの距離の合計値を算出する、
請求項8に記載の端末装置。 The position detector is
If the angle is within a predetermined angle,
On the real space and the moving image, the distance from one end of the first lighting fixture to the center of gravity of the second and third lighting fixtures is calculated, and the first Calculating the distance from the other end of the lighting fixture to the center of gravity of the second and third lighting fixtures;
If the angle is not within a predetermined angle,
On the real space and the moving image, a total value of distances from the two end portions of the first lighting fixture to the centroids of the second and third lighting fixtures is calculated.
The terminal device according to claim 8.
前記位置検出部は、
前記実空間上及び前記動画像上において、
前記第1の照明器具の重心から延びる、前記第2の照明器具の重心と前記第3の照明器具の重心とを結ぶ直線への垂線を算出し、
前記第1の照明器具の一方の点と前記第1の照明器具の前記重心とを結ぶ線分と、前記垂線とにより構成される第1の角度を算出し、
前記第1の照明器具の他方の点と前記第1の照明器具の前記重心とを結ぶ線分と、前記垂線とにより構成される第2の角度を算出し、
算出した前記第1及び第2の角度に基づいて、前記対応関係を特定する、
請求項7に記載の端末装置。 The at least three or more lighting fixtures include first, second and third lighting fixtures,
The position detector is
On the real space and the moving image,
Calculating a perpendicular to a straight line extending from the center of gravity of the first lighting fixture and connecting the center of gravity of the second lighting fixture and the center of gravity of the third lighting fixture;
Calculating a first angle composed of a line segment connecting one point of the first lighting fixture and the center of gravity of the first lighting fixture, and the perpendicular;
Calculating a second angle constituted by a line segment connecting the other point of the first lighting fixture and the center of gravity of the first lighting fixture, and the perpendicular;
Identifying the correspondence based on the calculated first and second angles;
The terminal device according to claim 7.
前記端末装置は、
前記照明器具の動画像を撮像する撮像部と、
前記動画像から、前記照明器具を特定する識別情報と、前記照明器具の形状情報と、前記照明器具における少なくとも6組の点の位置情報とを取得する取得部と、
前記識別情報と、前記形状情報と、前記位置情報とに基づいて、前記端末装置の位置を、線形方程式を利用して算出する位置検出部と、
を有する、
位置検出システム。 A position detection system including a lighting fixture and a terminal device,
The terminal device
An imaging unit that captures a moving image of the lighting fixture;
An acquisition unit that acquires identification information for identifying the lighting fixture, shape information of the lighting fixture, and position information of at least six sets of points in the lighting fixture from the moving image;
A position detector that calculates the position of the terminal device using a linear equation based on the identification information, the shape information, and the position information;
Having
Position detection system.
前記識別情報と、前記形状情報と、前記位置情報の一部とを発光することにより前記端末装置へ送信する、
請求項11に記載の位置検出システム。 The lighting fixture is:
Transmitting the identification information, the shape information, and a part of the position information to the terminal device by emitting light;
The position detection system according to claim 11.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018014362A JP2019132673A (en) | 2018-01-31 | 2018-01-31 | Terminal device and position detection system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018014362A JP2019132673A (en) | 2018-01-31 | 2018-01-31 | Terminal device and position detection system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019132673A true JP2019132673A (en) | 2019-08-08 |
Family
ID=67546799
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018014362A Pending JP2019132673A (en) | 2018-01-31 | 2018-01-31 | Terminal device and position detection system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019132673A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210097214A1 (en) * | 2019-09-27 | 2021-04-01 | Electronic Theatre Controls, Inc. | Systems and methods for light fixture location determination |
JP2021169958A (en) * | 2020-04-15 | 2021-10-28 | 朝日航洋株式会社 | Illumination communication system and method for controlling illumination communication system |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007101276A (en) * | 2005-09-30 | 2007-04-19 | Topcon Corp | Three-dimensional measuring projector and system |
JP2012103116A (en) * | 2010-11-10 | 2012-05-31 | Nippon Telegr & Teleph Corp <Ntt> | Camera pose information calculating device and camera pose information calculating program |
JP2013185851A (en) * | 2012-03-06 | 2013-09-19 | Sumitomo Mitsui Construction Co Ltd | Positioning apparatus, positioning system including the same, and positioning method |
WO2014103341A1 (en) * | 2012-12-27 | 2014-07-03 | パナソニック株式会社 | Information communication method |
JP2016526675A (en) * | 2013-07-04 | 2016-09-05 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Orientation determination |
WO2017096360A1 (en) * | 2015-12-03 | 2017-06-08 | Osram Sylvania Inc. | Light-based vehicle positioning for mobile transport systems |
WO2018015176A1 (en) * | 2016-07-21 | 2018-01-25 | Philips Lighting Holding B.V. | Lamp with coded light functionality |
-
2018
- 2018-01-31 JP JP2018014362A patent/JP2019132673A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007101276A (en) * | 2005-09-30 | 2007-04-19 | Topcon Corp | Three-dimensional measuring projector and system |
JP2012103116A (en) * | 2010-11-10 | 2012-05-31 | Nippon Telegr & Teleph Corp <Ntt> | Camera pose information calculating device and camera pose information calculating program |
JP2013185851A (en) * | 2012-03-06 | 2013-09-19 | Sumitomo Mitsui Construction Co Ltd | Positioning apparatus, positioning system including the same, and positioning method |
WO2014103341A1 (en) * | 2012-12-27 | 2014-07-03 | パナソニック株式会社 | Information communication method |
JP2016526675A (en) * | 2013-07-04 | 2016-09-05 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Orientation determination |
WO2017096360A1 (en) * | 2015-12-03 | 2017-06-08 | Osram Sylvania Inc. | Light-based vehicle positioning for mobile transport systems |
WO2018015176A1 (en) * | 2016-07-21 | 2018-01-25 | Philips Lighting Holding B.V. | Lamp with coded light functionality |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210097214A1 (en) * | 2019-09-27 | 2021-04-01 | Electronic Theatre Controls, Inc. | Systems and methods for light fixture location determination |
US11835997B2 (en) * | 2019-09-27 | 2023-12-05 | Electronic Theatre Controls, Inc. | Systems and methods for light fixture location determination |
JP2021169958A (en) * | 2020-04-15 | 2021-10-28 | 朝日航洋株式会社 | Illumination communication system and method for controlling illumination communication system |
JP7030152B2 (en) | 2020-04-15 | 2022-03-04 | 朝日航洋株式会社 | Lighting communication system and control method of lighting communication system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105138135B (en) | Wear-type virtual reality device and virtual reality system | |
CN110915194B (en) | Intelligent target tracking using target identification codes | |
JP4708581B2 (en) | Coordinate input device, coordinate input instruction tool, and computer program | |
KR20180005168A (en) | Privacy-sensitive query on the localization zone description file | |
CN106062862A (en) | System and method for immersive and interactive multimedia generation | |
CN108257177B (en) | Positioning system and method based on space identification | |
JP2006030127A (en) | Camera calibrating system and three-dimensional measuring system | |
JP2009033366A (en) | Optical marker system | |
KR20070066192A (en) | Method and apparatus for determining positions of robot | |
US10603000B2 (en) | Radiography system and method for operating radiography system | |
US10146046B2 (en) | Information providing method, information providing apparatus, information processing apparatus, information providing system, and computer-readable recording medium | |
CN107193380B (en) | High-precision virtual reality positioning system | |
JP2019132673A (en) | Terminal device and position detection system | |
JP2019008337A (en) | Object identification system, object identification method, program and computer storage medium | |
TW201627818A (en) | Interactive system, remote controller and operating method thereof | |
JP5818233B2 (en) | Gaze measurement apparatus and method | |
JP2012115505A (en) | Visual line detection device and visual line detection method | |
JP7192764B2 (en) | Information processing device, information processing method, and program | |
CN112906610A (en) | Method for living body detection, electronic circuit, electronic apparatus, and medium | |
CN113196297B (en) | Determining a region of interest of an object using image-based object tracking | |
CN111862170A (en) | Optical motion capture system and method | |
CN113273176B (en) | Automated movie production using image-based object tracking | |
JP2015153180A (en) | Information processor and information processing method | |
JP2005084012A (en) | Skin shape measuring method and skin shape measuring device | |
JP4167447B2 (en) | Object localization system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190327 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190328 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201111 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210917 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211109 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220510 |