JP2016071663A - Information communication system and information reading method - Google Patents

Information communication system and information reading method Download PDF

Info

Publication number
JP2016071663A
JP2016071663A JP2014200715A JP2014200715A JP2016071663A JP 2016071663 A JP2016071663 A JP 2016071663A JP 2014200715 A JP2014200715 A JP 2014200715A JP 2014200715 A JP2014200715 A JP 2014200715A JP 2016071663 A JP2016071663 A JP 2016071663A
Authority
JP
Japan
Prior art keywords
tag
camera
information
infrared light
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014200715A
Other languages
Japanese (ja)
Other versions
JP6324866B2 (en
Inventor
真鍋 宏幸
Hiroyuki Manabe
宏幸 真鍋
山田 渉
Wataru Yamada
渉 山田
稲村 浩
Hiroshi Inamura
浩 稲村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2014200715A priority Critical patent/JP6324866B2/en
Publication of JP2016071663A publication Critical patent/JP2016071663A/en
Application granted granted Critical
Publication of JP6324866B2 publication Critical patent/JP6324866B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information communication system and an information reading method with which the size of a tag can be reduced and tag information can be read from a distant position.SOLUTION: A camera 200 includes: a light emitting part (infrared light emitting part 210) that emits infrared light; a light receiving part (infrared light receiving part 220) that receives, out of the infrared light emitted from the light emitting part (infrared light emitting part 210), infrared light that has passed through liquid crystal 120 of a tag 100 and reflected on a retroreflective material 110 of the tag 100 so as to include information on the tag 100; and a decryption part that decrypts the information on the tag 100 included in the infrared light received by the light receiving part (infrared light receiving part 220).SELECTED DRAWING: Figure 5

Description

本発明は、情報通信システムおよび情報読取方法に関する。   The present invention relates to an information communication system and an information reading method.

商品パッケージに印刷されているバーコードは、対象物に情報を付与する身近な例である.バーコードのような1次元コードに対して、QRコード(登録商標)などの2次元コード、さらに複数の色を使ったコードを用いれば、より多くの情報を伝えることができる。これらのコード(タグ)は、一般にビジュアルコードもしくはビジュアルタグと呼ばれており、カメラでコードを撮影し、撮影した画像からコードに埋め込まれた情報を解読している.撮影した画像の中で、コードがどこにあるのかを特定することができるため、拡張現実感(AR:Augmented Reality)などの応用にも広く用いられている。   The barcode printed on the product package is a familiar example of adding information to an object. If a two-dimensional code such as a QR code (registered trademark) or a code using a plurality of colors is used for a one-dimensional code such as a barcode, more information can be transmitted. These codes (tags) are generally called visual codes or visual tags. The code is photographed with a camera, and the information embedded in the code is decoded from the photographed image. Since it is possible to specify where the code is in the photographed image, it is also widely used for applications such as augmented reality (AR).

RFID(Radio Frequency IDentification)タグや、Bluetooth(登録商標)タグ、WiFi(登録商標)タグなどの無線タグも広く用いられている。無線タグを用いることによって、たとえば無線タグが視野外にある場合でも、無線通信によってタグ情報を解読することができる。   Wireless tags such as RFID (Radio Frequency IDentification) tags, Bluetooth (registered trademark) tags, and WiFi (registered trademark) tags are also widely used. By using a wireless tag, for example, even when the wireless tag is out of the field of view, the tag information can be decoded by wireless communication.

光通信を用いたタグもある。光通信を用いることによって、小さなタグであっても読み取り距離を長くすることができる。光は、タグ側で光を発する場合もあるし、読取装置側で発する場合もある。   Some tags use optical communication. By using optical communication, the reading distance can be increased even with a small tag. The light may be emitted on the tag side or on the reader side.

特許公開2014−96087号公報Japanese Patent Publication No. 2014-96087 特許公開2003−122896号公報Japanese Patent Publication No. 2003-122896 特許公開2011−235997号公報Japanese Patent Publication No. 2011-235997 特許公開2007−266974号公報Japanese Patent Publication No. 2007-266974

タグは、さまざまな物に取り付けることができ、さらに目立たず環境に溶け込むことができるように、小型化することが望まれる。また、タグ情報が長距離からでも読み取れることも望まれる。   It is desirable to reduce the size of the tag so that it can be attached to various objects and can be melted into the environment without being noticeable. It is also desirable that tag information can be read from a long distance.

ビジュアルタグでは、タグを小型化すると、長距離からタグ情報を読み取ることが困難になる。光通信を用いるタグでは、たとえばタグに発光装置などを搭載しなければならないので、その分、タグが大型化するおそれがある。無線タグでも、たとえばタグに無線装置などを搭載しなければならないので、その分、タグが大型化するおそれがある。   In a visual tag, if the tag is downsized, it becomes difficult to read tag information from a long distance. In a tag using optical communication, for example, a light emitting device or the like must be mounted on the tag, so that the tag may be enlarged accordingly. Even with a wireless tag, for example, since a wireless device or the like must be mounted on the tag, the tag may be increased in size accordingly.

本発明は、上記問題点に鑑みてなされたものであり、タグを小型化することができ、かつ、長距離からタグ情報を読み取ることができる、情報通信システムおよび情報読取方法を提供することを目的とする。   The present invention has been made in view of the above problems, and provides an information communication system and an information reading method capable of downsizing a tag and reading tag information from a long distance. Objective.

ここで、本発明は、近年実用に供されている、赤外光(赤外線)を利用するカメラ(たとえばデプスカメラ)に着目したものである。赤外光を利用することで、対象物までの距離を、測定(計測)することができる。距離の測定方法は、たとえばStructured Light方式や、Time of Flight方式などが知られている。このように対象物までの距離を測定することができるカメラは、赤外光センサ(たとえばデプスセンサ)の小型化などに伴い、将来的には、スマートフォンなどの携帯通信端末に搭載されるなどして、さらに身近に利用可能となる可能性がある。   Here, the present invention focuses on a camera (for example, a depth camera) that uses infrared light (infrared light), which has been practically used in recent years. By using infrared light, the distance to the object can be measured (measured). As a distance measurement method, for example, the Structured Light method, the Time of Flight method, or the like is known. A camera capable of measuring the distance to an object in this way will be mounted on a mobile communication terminal such as a smartphone in the future in accordance with downsizing of an infrared light sensor (for example, a depth sensor). There is a possibility that it will be available more closely.

本発明の一態様に係る情報通信システムは、タグとタグの情報を読み取るためのカメラとを備えた情報通信システムであって、タグは、赤外光を反射する反射面を有する再帰性反射材と、再帰性反射材の反射面を覆い、状態が切り替わり、赤外光に影響を与えることができる液晶と、再帰性反射材で反射した赤外光がタグの情報を含むように、液晶の状態を切り替える制御部と、を含み、カメラは、赤外光を発する発光部と、発光部が発した赤外光のうち、タグの情報を含むように、タグの液晶を透過するとともにタグの再帰性反射材で反射した赤外光、を受ける受光部と、受光部が受けた赤外光に含まれるタグの情報を解読する解読部と、を含む。   An information communication system according to an aspect of the present invention is an information communication system including a tag and a camera for reading information on the tag, wherein the tag has a reflective surface that reflects infrared light. Covering the reflective surface of the retroreflective material, switching the state and affecting the infrared light, and the liquid crystal so that the infrared light reflected by the retroreflective material contains the tag information A control unit that switches the state, and the camera transmits the tag liquid crystal so as to include the tag information out of the infrared light emitted from the light emitting unit and the infrared light emitted from the light emitting unit, and A light receiving unit that receives infrared light reflected by the retroreflecting material, and a decoding unit that decodes information of a tag included in the infrared light received by the light receiving unit.

本発明の一態様に係る情報読取方法は、タグとタグの情報を読み取るためのカメラとによって実行される情報読取方法であって、カメラが、赤外光を発するステップと、タグが、赤外光を発するステップによって発した赤外光を、タグの情報を含むように、液晶の状態を変化させるとともに再帰性反射材で反射させるステップと、カメラが、反射させるステップによって反射した赤外光を受けるステップと、カメラが、赤外光を受けるステップによって受けた赤外光に含まれるタグの情報を解読するステップと、を含む。   An information reading method according to an aspect of the present invention is an information reading method executed by a tag and a camera for reading information on the tag, wherein the camera emits infrared light, and the tag is infrared. The infrared light emitted by the step of emitting light changes the state of the liquid crystal so as to include the tag information and is reflected by the retroreflecting material, and the infrared light reflected by the camera is reflected by the step of reflecting. Receiving, and deciphering tag information contained in the infrared light received by the camera receiving the infrared light.

上記の情報通信システムまたは情報読取方法によれば、カメラから発せられた赤外光がタグに照射されると、赤外光は、タグの情報を含むように、液晶を透過するとともに再帰性反射材で反射する。カメラは、反射した赤外光を受けてタグ情報を解読する。これにより、カメラは、タグ情報を取得することができる。ここで、タグでは液晶および再帰性反射材を用いることによってタグ情報を赤外光に付与するので、タグ側においては赤外光の発光装置などは不要となる。したがって、タグを小型化することができる。さらに、タグを小型化した場合であっても、時間方向に埋め込まれたタグ情報を取得するので、たとえばバーコードのような空間方向に埋め込まれたタグの情報をカメラ画像から解読する場合よりも、長距離からタグ情報を読み取ることができる。   According to the information communication system or the information reading method described above, when infrared light emitted from the camera is irradiated to the tag, the infrared light is transmitted through the liquid crystal and retroreflected so as to include the tag information. Reflected by the material. The camera receives the reflected infrared light and decodes the tag information. Thereby, the camera can acquire tag information. Here, in the tag, tag information is imparted to infrared light by using a liquid crystal and a retroreflecting material, so that no infrared light emitting device or the like is required on the tag side. Therefore, the tag can be reduced in size. Furthermore, even if the tag is downsized, tag information embedded in the time direction is acquired, so that information on the tag embedded in the spatial direction such as a barcode is decoded from the camera image, for example. The tag information can be read from a long distance.

また、カメラは、カメラからタグまでの距離を測定することができるデプスカメラであってもよい。デプスカメラを用いた場合には、タグの情報に加え、タグまでの距離を取得することができる。このため、より多くの情報を利用することができるようになる。   The camera may be a depth camera that can measure the distance from the camera to the tag. When a depth camera is used, in addition to tag information, the distance to the tag can be acquired. For this reason, more information can be used.

また、解読部は、発光部が赤外光を発しするときに受光部が受光した赤外光の強度と、発光部が赤外光を発しないときに受光部が受光した赤外光の強度との差に基づいてタグの情報を解読してもよい。これにより、周囲の光によるノイズを低減して、タグ情報を読み取ることができる。   In addition, the decoding unit is configured so that the intensity of infrared light received by the light receiving unit when the light emitting unit emits infrared light and the intensity of infrared light received by the light receiving unit when the light emitting unit does not emit infrared light. The tag information may be decrypted based on the difference. Thereby, the noise by ambient light can be reduced and tag information can be read.

また、再帰性反射材は、色の異なる複数の再帰性反射材を有してもよい。これにより、赤外光に含まれるタグ情報とは別に視認可能な情報を再帰性反射材に持たせることができるので、タグをカメラで撮像することによって、より多くの情報を取得することができる。   Further, the retroreflective material may include a plurality of retroreflective materials having different colors. Thereby, since the retroreflective material can have visible information separately from the tag information included in the infrared light, more information can be acquired by imaging the tag with the camera. .

また、タグは、液晶の再帰性反射材とは反対側の面を覆い、可視光を吸収しもしくは反射させ、赤外光を透過させる光学フィルタをさらに含んでもよい。これにより、タグが視認できないようにして、タグを目立たなくすることができる。   The tag may further include an optical filter that covers a surface of the liquid crystal opposite to the retroreflecting material, absorbs or reflects visible light, and transmits infrared light. Thereby, it is possible to make the tag inconspicuous by making the tag invisible.

また、タグは、さらに、赤外光を受けて電力を発生する発電素子を含んでもよい。これにより、タグはバッテリなどを有していなくても、液晶の状態を切り替えるためなどに必要な電力を得ることができる。   The tag may further include a power generation element that generates power upon receiving infrared light. Thereby, even if the tag does not have a battery or the like, it is possible to obtain electric power necessary for switching the liquid crystal state.

また、再帰性反射材は、液晶が配置された側に向かって凸となる凸形状もしくは凹となる凹形状を有してもよい。これにより、カメラからタグを見たときの再帰性反射材の面積の、角度への依存性を低減させることができる。したがって、カメラは、タグと向かい合う位置(たとえばタグの正面)になくとも、正面にある場合と同様の面積を有する再帰性反射材に赤外光を照射して、タグ情報を読み取ることができる。   The retroreflecting material may have a convex shape that is convex toward the side where the liquid crystal is disposed or a concave shape that is concave. Thereby, the dependence of the area of the retroreflecting material when viewing the tag from the camera on the angle can be reduced. Therefore, the camera can read the tag information by irradiating the retroreflecting material having the same area as that in the front surface with infrared light, even if it is not in a position facing the tag (for example, the front surface of the tag).

また、カメラは、さらに、解読部の解読結果に基づいて、タグの位置情報を蓄積しているサーバからタグの位置情報を取得する位置情報取得部と、カメラの画角内での複数のタグの撮像データおよびカメラと複数のタグの各々との距離データの少なくともいずれかのデータと、位置情報取得部によって取得された位置情報とに基づいて、カメラの位置を測定する測定部(第1の測定部)と、を含んでもよい。これにより、カメラの位置を測定することができる。   The camera further includes a position information acquisition unit that acquires tag position information from a server that stores tag position information based on a decoding result of the decoding unit, and a plurality of tags within the angle of view of the camera. Based on the imaging data and at least one of the distance data between the camera and each of the plurality of tags and the position information acquired by the position information acquisition unit (measurement unit (first Measuring unit). Thereby, the position of the camera can be measured.

また、カメラは、さらに、解読部の解読結果に基づいて、タグの位置情報を蓄積しているサーバからタグの位置情報を取得する位置情報取得部と、カメラのピッチ、ロールおよびヨーをカメラの姿勢を表すパラメータとして検出する姿勢検出部と、姿勢検出部によって検出されたパラメータと、カメラの画角内でのタグの撮像データおよびカメラとタグとの距離データの少なくともいずれかのデータと、位置情報取得部によって取得された位置情報とに基づいて、カメラの位置を測定する測定部(第2の測定部)と、を含んでもよい。これにより、1つ以上のタグの位置情報と、撮像データおよび/または距離データとが得られれば、カメラの姿勢パラメータを測定し、その姿勢パラメータをさらに用いて、カメラの位置を測定(推定)することができる。   The camera further includes a position information acquisition unit that acquires tag position information from a server that stores tag position information based on the decoding result of the decoding unit, and the camera pitch, roll, and yaw. At least one of a posture detection unit that is detected as a parameter representing the posture, a parameter detected by the posture detection unit, imaging data of the tag within the angle of view of the camera, and distance data between the camera and the tag, and a position A measurement unit (second measurement unit) that measures the position of the camera based on the position information acquired by the information acquisition unit may be included. Accordingly, if position information of one or more tags and imaging data and / or distance data are obtained, the camera posture parameter is measured, and the camera position is further measured (estimated) using the posture parameter. can do.

また、解読部は、タグの再帰性反射材で反射した赤外光の反射強度の時間変化に基づいてタグの情報を解読してもよい。これにより、たとえば反射強度の時間変化の有無に基づいてタグを検出(発見)することもできる。   The decoding unit may decode the tag information based on the temporal change in the reflection intensity of the infrared light reflected by the retroreflecting material of the tag. Thereby, for example, the tag can be detected (discovered) based on whether or not the reflection intensity changes with time.

本発明によれば、タグを小型化することができ、かつ、長距離からタグ情報を読み取ることができる。   According to the present invention, the tag can be reduced in size, and tag information can be read from a long distance.

第1実施形態に係る情報通信システムの概略構成を示す図である。It is a figure which shows schematic structure of the information communication system which concerns on 1st Embodiment. タグの構成の一例を示す図である。It is a figure which shows an example of a structure of a tag. 制御部の機能ブロックを示す図である。It is a figure which shows the functional block of a control part. カメラの機能ブロックを示す図である。It is a figure which shows the functional block of a camera. タグの動作を説明するための図である。It is a figure for demonstrating operation | movement of a tag. タグにおける反射強度の時間変化の一例を示す図である。It is a figure which shows an example of the time change of the reflection intensity in a tag. 情報通信システムにおいて実行される処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process performed in an information communication system. タグの変形例を示す正面図である。It is a front view which shows the modification of a tag. タグの別の変形例を示す図である。It is a figure which shows another modification of a tag. 別の変形例に係るタグの構成を示す図である。It is a figure which shows the structure of the tag which concerns on another modification. 別の変形例に係るタグの構成を示す図である。It is a figure which shows the structure of the tag which concerns on another modification. カメラからタグに情報を伝達する手法の一例を説明するための図である。It is a figure for demonstrating an example of the method of transmitting information from a camera to a tag. 第2実施形態に係る情報通信システムの概略構成を示す図である。It is a figure which shows schematic structure of the information communication system which concerns on 2nd Embodiment. カメラの機能ブロックを示す図である。It is a figure which shows the functional block of a camera. カメラによって撮像される、複数のタグを含む画像の一例を示す図である。It is a figure which shows an example of the image containing a some tag imaged with a camera. 情報通信システムにおいて実行される処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process performed in an information communication system. 第3実施形態に係る情報通信システムの概略構成を示す図である。It is a figure which shows schematic structure of the information communication system which concerns on 3rd Embodiment. 2つのカメラによって撮像される、タグを含む画像の一例を示す図である。It is a figure which shows an example of the image containing a tag imaged with two cameras. 2つのカメラによって撮像される、タグおよび対象物などを含む画像の一例を示す図である。It is a figure which shows an example of the image containing a tag, a target object, etc. imaged with two cameras.

以下、本発明の実施形態について、図面を参照しながら説明する。なお、図面の説明において同一要素には同一符号を付し、重複する説明は省略する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant descriptions are omitted.

[第1実施形態]
図1は、第1実施形態に係る情報通信システムの概略構成を示す図である。図1に示すように、情報通信システム1は、タグ100と、カメラ200とを備える。
[First Embodiment]
FIG. 1 is a diagram showing a schematic configuration of the information communication system according to the first embodiment. As shown in FIG. 1, the information communication system 1 includes a tag 100 and a camera 200.

カメラ200は、赤外光発光部210と、赤外光受光部220とを含む。カメラ200は、さらに、可視光受光部230を含んでもよい。なお、カメラ200に含まれる他の要素については後に図2を参照して説明する。   The camera 200 includes an infrared light emitting unit 210 and an infrared light receiving unit 220. The camera 200 may further include a visible light receiving unit 230. Other elements included in the camera 200 will be described later with reference to FIG.

カメラ200として、たとえばデプスカメラを採用することができる。その場合、カメラ200は、後述する原理により、カメラ200から対象物(タグ100)までの距離を計測することができる。   For example, a depth camera can be employed as the camera 200. In this case, the camera 200 can measure the distance from the camera 200 to the object (tag 100) according to the principle described later.

赤外光発光部210は、赤外光(赤外線)を発する。赤外光発光部210は、たとえば、発光ダイオードなどの発光素子を含んで構成される。   The infrared light emitting unit 210 emits infrared light (infrared rays). For example, the infrared light emitting unit 210 includes a light emitting element such as a light emitting diode.

赤外光受光部220は、赤外光を受ける。とくに、赤外光受光部220は、赤外光発光部210が発した赤外光のうち、タグ100で反射した赤外光(反射光)を受光することが想定されている。赤外光受光部220は、たとえばフォトダイオードなどの受光素子を含んで構成される。   The infrared light receiving unit 220 receives infrared light. In particular, the infrared light receiving unit 220 is assumed to receive infrared light (reflected light) reflected by the tag 100 among the infrared light emitted from the infrared light emitting unit 210. The infrared light receiving unit 220 includes a light receiving element such as a photodiode, for example.

可視光受光部230は、可視光を受ける。カメラ200が可視光受光部230を含む場合には、カメラ200はタグ100を撮像することができる。可視光受光部230は、たとえば半導体センサを用いた撮像装置などを含んで構成される。   The visible light receiving unit 230 receives visible light. When the camera 200 includes the visible light receiving unit 230, the camera 200 can capture an image of the tag 100. The visible light receiving unit 230 is configured to include an imaging device using a semiconductor sensor, for example.

情報通信システム1において、カメラ200は、赤外光発光部210が発した赤外光をタグ100に照射する。タグ100は、赤外光を、タグ100の情報(タグ情報)を含むように反射させる(詳細は後述する)。カメラ200は、赤外光受光部220によってタグ100で反射した赤外光を受光し、受光した赤外光を解読することによって、タグ100の情報を取得する。カメラ200がデプスカメラである場合には、カメラ200はさらに、カメラ200からタグ100までの距離を測定する。したがって、カメラ200は、タグ情報およびタグ100までの距離の2つの情報を取得することができる。   In the information communication system 1, the camera 200 irradiates the tag 100 with infrared light emitted from the infrared light emitting unit 210. The tag 100 reflects infrared light so as to include information (tag information) of the tag 100 (details will be described later). The camera 200 receives the infrared light reflected by the tag 100 by the infrared light receiving unit 220 and acquires the information of the tag 100 by decoding the received infrared light. When the camera 200 is a depth camera, the camera 200 further measures the distance from the camera 200 to the tag 100. Therefore, the camera 200 can acquire two pieces of information, namely the tag information and the distance to the tag 100.

図2は、タグ100の構成の一例を示す図である。図2(a)はタグ100の分解斜視図であり、図2(b)はタグ100を正面(反射面110aの側)から見た図である。図2に示すように、タグ100は、再帰性反射材110と、液晶120と、制御部130とを含む。なお、図2において、カメラ200(図1)からタグ100に照射される赤外光を、赤外光IR1として図示する。   FIG. 2 is a diagram illustrating an example of the configuration of the tag 100. 2A is an exploded perspective view of the tag 100, and FIG. 2B is a view of the tag 100 as viewed from the front (the reflective surface 110a side). As shown in FIG. 2, the tag 100 includes a retroreflecting material 110, a liquid crystal 120, and a control unit 130. In FIG. 2, infrared light irradiated to the tag 100 from the camera 200 (FIG. 1) is illustrated as infrared light IR1.

再帰性反射材110は、反射面110aを有する。再帰性反射材110は、反射面110aに入射した光を、入射方向に向かって反射させる。ここで、光は波長範囲などによって分類されるが、実施形態においては、反射面110aは、少なくとも赤外光IR1を反射すればよい。もちろん、反射面110aは、赤外光以外の光を反射してもよい。再帰性反射材110の構成は特に限定されるものでないが、たとえばガラスビーズでの屈折および反射を利用するタイプの再帰性反射材を採用することができる。なお、図2に示す例では、再帰性反射材110はシート形状(あるいは板形状)を有するが、再帰性反射材110の形状は特に限定されるものではない。   The retroreflective material 110 has a reflective surface 110a. The retroreflecting material 110 reflects the light incident on the reflecting surface 110a toward the incident direction. Here, although light is classified according to a wavelength range or the like, in the embodiment, the reflecting surface 110a may reflect at least the infrared light IR1. Of course, the reflective surface 110a may reflect light other than infrared light. The configuration of the retroreflective material 110 is not particularly limited, and for example, a retroreflective material of a type utilizing refraction and reflection by glass beads can be employed. In the example shown in FIG. 2, the retroreflecting material 110 has a sheet shape (or plate shape), but the shape of the retroreflecting material 110 is not particularly limited.

液晶120は、再帰性反射材110の反射面110aを覆う。液晶120は、オン状態とオフ状態のいずれかに切り替わる。これにより、赤外光に影響を与えることができる。たとえば、液晶120は、ヘイズ値を変化させることのできる液晶を含んで構成することができる。そのような液晶としては、たとえば高分子分散型液晶(PDLC:Polymer Dispersed Liquid Crystal)がある。PDLCを用いる場合には、液晶120はオン状態で光を透過させる一方で、オフ状態では光を拡散させることができる。PDLCにおける光の透過率は、一般的な液晶における光の透過率よりも高い。透過率が高いと、タグ100は、液晶120に向かって多くの光を反射させるので、カメラ200(図1)が受光する光の強度(光量)も大きくなる。その結果、カメラ200がタグ100の情報を読み取り可能な距離を伸ばすことができる。たとえば、カメラ200からタグ100までの距離が数メートル以上であっても、タグ情報を読み取ることができる。また、液晶120に一般的な液晶を用いた場合には、液晶120がオン状態のときとオフ状態のときでタグ100の色が変わってしまう。すなわち、液晶120がオン状態のときは再帰性反射材110の色が現れ、液晶120がオフ状態のときは黒色が現れる。このため、タグ100が目立ってしまい、環境に溶け込むことができなくなる。   The liquid crystal 120 covers the reflective surface 110 a of the retroreflecting material 110. The liquid crystal 120 is switched between an on state and an off state. Thereby, infrared light can be affected. For example, the liquid crystal 120 can include a liquid crystal that can change the haze value. An example of such a liquid crystal is a polymer dispersed liquid crystal (PDLC). In the case of using PDLC, the liquid crystal 120 can transmit light in the on state while diffusing light in the off state. The light transmittance in PDLC is higher than the light transmittance in a general liquid crystal. When the transmittance is high, the tag 100 reflects a large amount of light toward the liquid crystal 120, so that the intensity (light quantity) of light received by the camera 200 (FIG. 1) also increases. As a result, the distance that the camera 200 can read the information on the tag 100 can be extended. For example, tag information can be read even if the distance from the camera 200 to the tag 100 is several meters or more. In addition, when a general liquid crystal is used as the liquid crystal 120, the color of the tag 100 changes between when the liquid crystal 120 is in an on state and when it is in an off state. That is, the color of the retroreflecting material 110 appears when the liquid crystal 120 is on, and black appears when the liquid crystal 120 is off. For this reason, the tag 100 becomes conspicuous and cannot be dissolved into the environment.

なお、図2に示す例では、液晶120はシート形状を有しているが、液晶120の形状は特に限定されるものではない。たとえば液晶120がシート形状を有する場合には、液晶120は、液晶分子と液晶分子を挟む一対のシートと(いずれも図示しない)を含んで構成される。シートは、たとえばガラス製やプラスチック製のものを用いることができる。シートは折り曲げ可能なフレキシブルシートとすることもできる。   In the example shown in FIG. 2, the liquid crystal 120 has a sheet shape, but the shape of the liquid crystal 120 is not particularly limited. For example, when the liquid crystal 120 has a sheet shape, the liquid crystal 120 includes a liquid crystal molecule and a pair of sheets (not shown) sandwiching the liquid crystal molecule. For example, a sheet made of glass or plastic can be used as the sheet. The sheet may be a foldable flexible sheet.

制御部130は、液晶120のオン・オフを切り替える。オン・オフの切り替えは、たとえば液晶120に印加する電圧を制御することによって行うことができる。制御部130は、再帰性反射材110の反射面110aで反射した赤外光がタグ100の情報(タグ情報)を含むように、液晶120のオン・オフの状態を切り替える。たとえば、反射した赤外光の強度の時間変化によって表されるディジタル情報をタグ情報とすることで、反射した赤外光にタグ情報を含ませることができる。   The control unit 130 switches the liquid crystal 120 on and off. The on / off switching can be performed by controlling the voltage applied to the liquid crystal 120, for example. The control unit 130 switches the on / off state of the liquid crystal 120 so that the infrared light reflected by the reflective surface 110a of the retroreflecting material 110 includes information on the tag 100 (tag information). For example, the tag information can be included in the reflected infrared light by using the digital information represented by the time change of the intensity of the reflected infrared light as the tag information.

ここで、図3を参照して、制御部130の機能ブロックについて説明する。図3に示すように、制御部130は、電源部131と、電圧発生部132とを含む。   Here, with reference to FIG. 3, the functional block of the control part 130 is demonstrated. As shown in FIG. 3, the control unit 130 includes a power supply unit 131 and a voltage generation unit 132.

電源部131は、制御部130の電力源である。制御部130は、電源部131の電力で動作する。電源部131は、制御部130の外部(たとえば後述の図8の発電素子140)から供給される電力を受けるように構成されてもよい。たとえば、電源部131の電圧が所定値以上のときに、制御部130は動作する。なお、電源部131は、制御部130の内部のバッテリ(図示しない)などから電力を受けるように構成することもできる。   The power supply unit 131 is a power source of the control unit 130. The control unit 130 operates with the power of the power supply unit 131. The power supply unit 131 may be configured to receive power supplied from outside the control unit 130 (for example, a power generation element 140 in FIG. 8 described later). For example, the control unit 130 operates when the voltage of the power supply unit 131 is equal to or higher than a predetermined value. Note that the power supply unit 131 can also be configured to receive power from a battery (not shown) or the like inside the control unit 130.

電圧発生部132は、液晶120(図2)に印加する電圧を発生する。電圧発生部132は、電源部131からの電力を受けて動作する。   The voltage generator 132 generates a voltage to be applied to the liquid crystal 120 (FIG. 2). The voltage generation unit 132 operates by receiving power from the power supply unit 131.

制御部130の機能は、物理的には、半導体素子などの能動素子および抵抗、コイルおよびコンデンサなどの受動素子を含んだ回路や、CPU(Central Processing Unit)、RAM(Random Access Memory)およびROM(Read Only Memory)などを含んだIC(Integral Circuit)などによって実現される。   The function of the control unit 130 is physically a circuit including an active element such as a semiconductor element and a passive element such as a resistor, a coil and a capacitor, a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM ( This is realized by an IC (Integral Circuit) including Read Only Memory).

再び図2に戻って、タグ100の形状は特に限定されるものではないが、たとえばシート形状を有する再帰性反射材110および液晶120を重ね合わせた形状とすることができる。図2(b)に示す例では、液晶120の面積は再帰性反射材110の面積よりも大きい。この場合、再帰性反射材110と液晶120とが重ならない部分に、制御部130を配置することができる。このようにすれば、タグ100の面積は液晶120の面積よりも大きくならないため、タグ100の面積が大きくなるのを抑制することができる。また、タグ100がシート形状となるので、タグ100が薄型化される。したがって、タグ100を小型化することができる。なお、制御部130を再帰性反射材110の裏面に配置することもできる。これによっても、タグ100の面積が大きくなるのを抑制することができる。   Returning to FIG. 2 again, the shape of the tag 100 is not particularly limited. For example, the retroreflective material 110 having a sheet shape and the liquid crystal 120 may be overlapped. In the example shown in FIG. 2B, the area of the liquid crystal 120 is larger than the area of the retroreflecting material 110. In this case, the control unit 130 can be disposed in a portion where the retroreflecting material 110 and the liquid crystal 120 do not overlap. In this way, since the area of the tag 100 does not become larger than the area of the liquid crystal 120, an increase in the area of the tag 100 can be suppressed. Further, since the tag 100 has a sheet shape, the tag 100 is thinned. Therefore, the tag 100 can be reduced in size. Note that the control unit 130 may be disposed on the back surface of the retroreflecting material 110. Also by this, it can suppress that the area of the tag 100 becomes large.

図4は、カメラ200の機能ブロックを示す図である。図4に示すように、カメラ200は、赤外光発光部210と、赤外光受光部220と、可視光受光部230と、表示部240と、解読部250と、操作部260とを含む。   FIG. 4 is a diagram illustrating functional blocks of the camera 200. As shown in FIG. 4, the camera 200 includes an infrared light emitting unit 210, an infrared light receiving unit 220, a visible light receiving unit 230, a display unit 240, a decoding unit 250, and an operation unit 260. .

赤外光受光部220については先に説明したが、より詳細に説明すると、赤外光受光部220は、赤外光発光部210が発した赤外光のうち、タグ100(図2)の情報を含むように、タグ100の液晶120を透過するとともにタグ100の再帰性反射材110で反射した赤外光、を受ける部分である。   The infrared light receiving unit 220 has been described above. In more detail, the infrared light receiving unit 220 includes the infrared light emitted from the infrared light emitting unit 210 of the tag 100 (FIG. 2). It is a portion that receives infrared light that is transmitted through the liquid crystal 120 of the tag 100 and reflected by the retroreflecting material 110 of the tag 100 so as to include information.

表示部240は、カメラ200によって撮像した画像などを表示する部分である。画像は、たとえば可視光受光部230が受けた光に基づいて作成される。なお、表示部240は、カメラ200のユーザがカメラ200を操作するのに必要な種々の情報を表示することもできる。   The display unit 240 is a part that displays an image captured by the camera 200. The image is created based on the light received by the visible light receiving unit 230, for example. The display unit 240 can also display various information necessary for the user of the camera 200 to operate the camera 200.

解読部250は、赤外光受光部220が受けた赤外光に含まれるタグ100(図2)の情報を解読する部分である。解読は、たとえば、赤外光の強度の時間変化からディジタル情報を読み取ることによって行われる。   The decoding unit 250 is a part that decodes information of the tag 100 (FIG. 2) included in the infrared light received by the infrared light receiving unit 220. Decoding is performed, for example, by reading digital information from a temporal change in the intensity of infrared light.

図5は、タグ100の動作を説明するための図である。図5(a)は液晶120がオン状態のときを示す図である。図5(b)は液晶120がオフ状態のときを示す図である。   FIG. 5 is a diagram for explaining the operation of the tag 100. FIG. 5A is a diagram illustrating the liquid crystal 120 in an on state. FIG. 5B is a diagram illustrating the liquid crystal 120 in the off state.

図5(a)に示すように、液晶120がオン状態のときには、カメラ200からの赤外光IR1は、液晶120を透過する。この場合、赤外光IR1は、再帰性反射材110の反射面110aで反射し、再び液晶120を透過してカメラ200に戻る。なお、図5(a)において、反射した赤外光を赤外光IR2として図示する。   As shown in FIG. 5A, when the liquid crystal 120 is in the on state, the infrared light IR1 from the camera 200 is transmitted through the liquid crystal 120. In this case, the infrared light IR1 is reflected by the reflecting surface 110a of the retroreflecting material 110, passes through the liquid crystal 120 again, and returns to the camera 200. In FIG. 5A, the reflected infrared light is illustrated as infrared light IR2.

一方、図5(b)に示すように、液晶120がオフ状態のときには、カメラ20からの赤外光IR1は、液晶120を透過しない。たとえば液晶120がPDLCの場合には、赤外光IR1は拡散する。拡散した光は、再帰性反射材110で反射し、再び液晶120で再び拡散する。図5(b)において、拡散した赤外光を赤外光IR3として図示する。赤外光IR3は、様々な方向に向かうので、カメラ200に戻る赤外光はわずかである。なお、液晶120が一般的な液晶の場合には赤外光IR1は遮断(吸収)されるが、この場合も、カメラ200に戻る赤外光はわずかとなる。   On the other hand, as shown in FIG. 5B, when the liquid crystal 120 is in the OFF state, the infrared light IR1 from the camera 20 does not pass through the liquid crystal 120. For example, when the liquid crystal 120 is PDLC, the infrared light IR1 diffuses. The diffused light is reflected by the retroreflecting material 110 and again diffused by the liquid crystal 120. In FIG. 5B, the diffused infrared light is illustrated as infrared light IR3. Since the infrared light IR3 travels in various directions, little infrared light returns to the camera 200. Note that, when the liquid crystal 120 is a general liquid crystal, the infrared light IR1 is blocked (absorbed), but in this case as well, the infrared light returning to the camera 200 is small.

以上より、液晶120がオン状態のときとオフ状態のときとでは、液晶120がオン状態のときの方が、カメラ200に戻ってくる赤外光(反射光)の光量が大きくなる。すなわち、液晶120がオン状態のときにはタグ100における反射強度が大きくなり、液晶120がオフ状態のときにはタグ100における反射強度が小さくなる。そのため、たとえば所定のタイミングで液晶120のオンとオフを切り替えて反射強度を変化させることによって、カメラ200の赤外光受光部220が受ける反射光の強度(光量)に時間変化を持たせることができる。この所定のタイミングに基づく反射光の強度の時間変化をタグ100の情報(タグ情報)に対応付けることによって、カメラ200はタグ情報を読み取ることができる。すなわち、カメラ200の解読部250は、反射光の強度の時系列データに基づいてタグ情報を解読することができる。反射光の強度の時間変化の設定を変えることにより、種々の方式でタグ100からカメラ200にタグ情報を送信することができる。送信方式は特に限定されるものではないが、たとえばマンチェスター符号を用いることができる。また、反射光の強度の時間変化の有無を検出することによって、解読部250は、タグ100の有無を検出するともできる。   As described above, the amount of infrared light (reflected light) returning to the camera 200 is larger when the liquid crystal 120 is in the on state and when it is in the off state. That is, when the liquid crystal 120 is on, the reflection intensity at the tag 100 increases, and when the liquid crystal 120 is off, the reflection intensity at the tag 100 decreases. Therefore, for example, by changing the reflection intensity by switching the liquid crystal 120 on and off at a predetermined timing, the intensity (light quantity) of the reflected light received by the infrared light receiving unit 220 of the camera 200 can be changed with time. it can. The camera 200 can read the tag information by associating the temporal change in the intensity of the reflected light based on the predetermined timing with the information (tag information) of the tag 100. That is, the decoding unit 250 of the camera 200 can decode the tag information based on the time series data of the intensity of the reflected light. The tag information can be transmitted from the tag 100 to the camera 200 by various methods by changing the setting of the temporal change in the intensity of the reflected light. Although the transmission method is not particularly limited, for example, a Manchester code can be used. Moreover, the decoding part 250 can also detect the presence or absence of the tag 100 by detecting the presence or absence of the time change of the intensity of reflected light.

このように反射光の強度の時系列データに基づいてタグ情報を解読するというカメラ200の機能は、従来のデプスカメラとは異なる。すなわち、従来のデプスカメラは、距離を測定するために赤外光を利用するものの、対象物において反射して戻ってくる反射光の強度は、対象物までの距離の測定には利用されない。これは、反射光の強度が、距離だけでなく、それぞれの対象物に固有な反射率の影響を受けるためである。なお、反射光の強度を測定する場合もあるが、距離を測定する際にその結果(計測結果)の信頼性を表す指標として取得されるにとどまっている。これに対し、第1実施形態では、カメラ200は、反射光の強度の時間変化からタグ情報を読み取る。こうすることで、カメラ200がデプスカメラである場合には、カメラ200は、カメラ200からタグ100までの距離の測定と、タグ情報の読み取りとを並行して行うことができる。   Thus, the function of the camera 200 for decoding the tag information based on the time-series data of the intensity of the reflected light is different from that of the conventional depth camera. That is, the conventional depth camera uses infrared light to measure the distance, but the intensity of the reflected light reflected and returned from the object is not used to measure the distance to the object. This is because the intensity of the reflected light is affected not only by the distance but also by the reflectance inherent to each object. In some cases, the intensity of reflected light is measured, but it is only acquired as an index representing the reliability of the result (measurement result) when measuring the distance. On the other hand, in the first embodiment, the camera 200 reads the tag information from the temporal change in the intensity of the reflected light. In this way, when the camera 200 is a depth camera, the camera 200 can measure the distance from the camera 200 to the tag 100 and read the tag information in parallel.

ここで、カメラ200の赤外光受光部220は、タグ100からの反射光以外の周囲の光も受光し得る。受光した周囲の光がノイズとして現れると、タグ情報を精度よく読み取ることができなくなる。そこで、解読部250は、赤外光発光部210および赤外光受光部220と協働して、赤外光発光部210が赤外光を発しするときに赤外光受光部220が受光した赤外光の強度と、赤外光発光部210が赤外光を発しないときに赤外光受光部220が受光した赤外光の強度との差に基づいてタグ情報を解読することもできる。これにより、赤外光発光部210が赤外光を発光しないときに赤外光受光部220が受光した赤外光の強度(すなわちノイズとしての周囲の光)の影響をキャンセルすることができるので、ノイズの影響を低減させ、タグ情報を精度よく読み取ることができる。   Here, the infrared light receiving unit 220 of the camera 200 can also receive ambient light other than the reflected light from the tag 100. If the received ambient light appears as noise, the tag information cannot be read accurately. Therefore, the decoding unit 250 cooperates with the infrared light emitting unit 210 and the infrared light receiving unit 220 to receive the infrared light receiving unit 220 when the infrared light emitting unit 210 emits infrared light. Tag information can also be decoded based on the difference between the intensity of infrared light and the intensity of infrared light received by the infrared light receiving unit 220 when the infrared light emitting unit 210 does not emit infrared light. . As a result, it is possible to cancel the influence of the intensity of infrared light (that is, ambient light as noise) received by the infrared light receiving unit 220 when the infrared light emitting unit 210 does not emit infrared light. The influence of noise can be reduced, and tag information can be read accurately.

図6は、タグ100における反射強度の時間変化の一例を示す図である。図6に示すグラフにおいて、横軸は時刻を示し、縦軸はタグ100における反射強度を示す。   FIG. 6 is a diagram illustrating an example of a temporal change in reflection intensity in the tag 100. In the graph shown in FIG. 6, the horizontal axis indicates time, and the vertical axis indicates the reflection intensity at the tag 100.

図6に示すグラフにおいて、反射強度は、η1とη2との2つの値を取る。η1は、液晶120(図2など)がオン状態のときの反射強度であり、η2は、液晶120がオフ状態のときの反射強度である。図6に示す例では、時刻t10〜t20における反射強度の変化、時刻t20〜t30における反射強度の変化、および時刻t30〜t40における反射強度の変化が、ディジタル信号の0,1,1にそれぞれ対応している。図6に示す例では、マンチェスター符号が用いられており、時刻t10〜20の間で、反射強度がη1(時刻t10〜t15)からη2(時刻t15〜t20)に変化している。また、時刻t20〜t30において反射強度がη2(時刻t20〜t25)からη1(時刻t25〜t30)に変化し、同様に、時刻t30〜t40において反射強度がη2(時刻t30〜t35)からη1(時刻t35〜t40)に変化している。このように、ディジタル情報(0または1)を信号の変化する向き(η1からη2またはη2からη1)に変換することによって、タグ100からカメラ200へタグ情報を伝送することができる。   In the graph shown in FIG. 6, the reflection intensity takes two values, η1 and η2. η1 is the reflection intensity when the liquid crystal 120 (FIG. 2 or the like) is in the on state, and η2 is the reflection intensity when the liquid crystal 120 is in the off state. In the example shown in FIG. 6, the change in reflection intensity at times t10 to t20, the change in reflection intensity at times t20 to t30, and the change in reflection intensity at times t30 to t40 correspond to 0, 1, and 1 of the digital signal, respectively. doing. In the example shown in FIG. 6, Manchester code is used, and the reflection intensity changes from η1 (time t10 to t15) to η2 (time t15 to t20) between times t10 and t20. Also, the reflection intensity changes from η2 (time t20 to t25) to η1 (time t25 to t30) from time t20 to t30, and similarly, the reflection intensity changes from η2 (time t30 to t35) to η1 (time t30 to t40). Time t35 to t40). In this way, the tag information can be transmitted from the tag 100 to the camera 200 by converting the digital information (0 or 1) into the signal changing direction (η1 to η2 or η2 to η1).

図7は、情報通信システム1(図1)において実行される処理の一例を示すフローチャートである。このフローチャートの処理は、たとえば、カメラ200において、タグ100の情報を読み取るためのアプリケーションが実行されたことに応じて開始される。   FIG. 7 is a flowchart showing an example of processing executed in the information communication system 1 (FIG. 1). The process of this flowchart is started in response to the execution of an application for reading information on the tag 100 in the camera 200, for example.

まず、カメラ200の赤外光発光部210は、赤外光を発する(ステップS101)。   First, the infrared light emitting unit 210 of the camera 200 emits infrared light (step S101).

そして、タグ100は、カメラ200からの赤外光を受ける(ステップS102)。   Then, the tag 100 receives infrared light from the camera 200 (step S102).

次に、タグ100は、液晶のオン状態およびオフ状態を切り替えつつ赤外光を反射する(ステップS103)。具体的に、制御部130が液晶120に印加される電圧を制御することによって、液晶120のオン状態およびオフ状態を切り替える。これにより、赤外光は、タグ100の情報を含むように、再帰性反射材110で反射する。   Next, the tag 100 reflects infrared light while switching the liquid crystal between an on state and an off state (step S103). Specifically, the control unit 130 controls the voltage applied to the liquid crystal 120 to switch the liquid crystal 120 between an on state and an off state. Thereby, the infrared light is reflected by the retroreflecting material 110 so as to include the information of the tag 100.

そして、カメラ200の赤外光受光部220は、反射した赤外光を受ける(ステップS104)。   Then, the infrared light receiving unit 220 of the camera 200 receives the reflected infrared light (step S104).

そして、カメラ200の解読部250は、赤外光に含まれるタグ情報を解読する(ステップS105)。   And the decoding part 250 of the camera 200 decodes the tag information contained in infrared light (step S105).

次に、第1実施形態に係る情報通信システム1の作用効果について説明する。この情報通信システム1によれば、カメラ200から発せられた赤外光がタグに100照射されると、赤外光は、タグ100の情報を含むように、液晶120を透過するとともに再帰性反射材110で反射する(ステップSS101〜S103)。カメラ200は、反射した赤外光を受けてタグ情報を解読する(ステップS104,S105)。これにより、カメラ200は、タグ情報を取得することができる。ここで、タグ100では液晶120および再帰性反射材110を用いることによってタグ情報を赤外光に付与するので、タグ100側においては赤外光の発光装置などは不要となる。したがって、タグ100を小型化することができる。さらに、時間方向に埋め込まれたタグ情報を取得するので、たとえばバーコードのような空間方向に埋め込まれたタグの情報をカメラ画像から解読する場合よりも、タグ情報を読み取ることができる距離を長くすることができる。   Next, effects of the information communication system 1 according to the first embodiment will be described. According to the information communication system 1, when infrared light emitted from the camera 200 is irradiated to the tag 100, the infrared light is transmitted through the liquid crystal 120 and retroreflected so as to include information on the tag 100. Reflected by the material 110 (steps SS101 to S103). The camera 200 receives the reflected infrared light and decodes the tag information (steps S104 and S105). Thereby, the camera 200 can acquire tag information. Here, in the tag 100, the tag information is imparted to the infrared light by using the liquid crystal 120 and the retroreflecting material 110, so that no infrared light emitting device or the like is required on the tag 100 side. Therefore, the tag 100 can be reduced in size. Furthermore, since the tag information embedded in the time direction is acquired, the distance at which the tag information can be read is made longer than when the information of the tag embedded in the spatial direction such as a barcode is decoded from the camera image. can do.

図8は、タグの変形例を示す正面図である。図8に示すように、タグ100Aは、再帰性反射材110Aと、液晶120と、制御部130とを含む。さらに、タグ100Aは、発電素子140を含んでもよい。   FIG. 8 is a front view showing a modification of the tag. As shown in FIG. 8, the tag 100 </ b> A includes a retroreflecting material 110 </ b> A, a liquid crystal 120, and a control unit 130. Furthermore, the tag 100A may include a power generation element 140.

再帰性反射材110Aは、色の異なる複数の再帰性反射材を含む。図8に示す例では、再帰性反射材110は、再帰性反射材111(第1の再帰性反射材)と、再帰性反射材112(第2の再帰性反射材)との2種類の再帰性反射材を含む。ただし、再帰性反射材110に含まれる再帰性反射材の数は2よりも大きい数であってもかまわない。   The retroreflective material 110A includes a plurality of retroreflective materials having different colors. In the example shown in FIG. 8, the retroreflective material 110 includes two types of retroreflectors, a retroreflective material 111 (first retroreflective material) and a retroreflective material 112 (second retroreflective material). Includes reflective material. However, the number of retroreflective materials included in the retroreflective material 110 may be larger than two.

再帰性反射材112は、カメラ200(図1)のユーザ等の人間にとって視認可能な色および形状を有している。液晶120がPDLCの場合には、液晶120がオン状態およびオフ状態のいずれの状態であっても、ユーザ等は、液晶120の裏側(タグ100Aの正面とは反対側)に配置された再帰性反射材112を視認することができる。そのため、再帰性反射材112の形状を工夫することによって、ユーザに情報提供することができる。図8に示す例では、再帰性反射材112は「EXIT」との文字列を表すように形成されている。すなわち、液晶120のオン状態およびオフ状態に限らず、常に「EXIT」の文字情報を、タグ100からユーザに提供することができる。なお、液晶120がPDLCでなく通常の液晶の場合には、液晶がオン状態のときにのみ、ユーザは「EXIT」の文字を視認できることになる。   The retroreflecting material 112 has a color and shape that can be visually recognized by a person such as a user of the camera 200 (FIG. 1). In the case where the liquid crystal 120 is a PDLC, the user or the like is recursively arranged on the back side of the liquid crystal 120 (the side opposite to the front surface of the tag 100A) regardless of whether the liquid crystal 120 is in the on state or the off state. The reflective material 112 can be visually recognized. Therefore, information can be provided to the user by devising the shape of the retroreflecting material 112. In the example shown in FIG. 8, the retroreflective material 112 is formed to represent a character string “EXIT”. That is, not only the on state and the off state of the liquid crystal 120 but the character information “EXIT” can always be provided from the tag 100 to the user. When the liquid crystal 120 is not a PDLC but a normal liquid crystal, the user can visually recognize the characters “EXIT” only when the liquid crystal is in an on state.

ここで重要なことは、このように再帰性反射材112によって「EXIT」という文字情報をユーザに提供したとしても、タグ100Aの性能には影響を及ぼさないとういことである。すなわち、たとえば、再帰性反射材112に代えてインクで「EXIT」の文字を表すと、「EXIT」の文字情報をユーザに提供することはできるが、再帰性反射材の反射面の面積がインクの分だけ小さくなる。その結果、タグ100Aで反射してカメラ200(図1)に戻る赤外光の光量も減少するので、たとえばタグ100Aの情報を読み取ることができる距離が短くなってしまう。これに対し、図8に示すように、色等が異なるがいずれも再帰性反射材である2種類の再帰性反射材111および再帰性反射材112によって、「EXIT」の文字列を表すようにすれば、反射面の大きさ(面積)が維持されるので、タグ100Aの反射性能(反射強度)は損なわれない。したがって、タグ100Aのタグ情報を遠くからでも読み取ることができる。   What is important here is that even if the text information “EXIT” is provided to the user by the retroreflecting material 112 in this way, it does not affect the performance of the tag 100A. That is, for example, if the characters “EXIT” are represented by ink instead of the retroreflecting material 112, the character information of “EXIT” can be provided to the user, but the area of the reflective surface of the retroreflecting material is the ink. It will be smaller by As a result, the amount of infrared light reflected by the tag 100A and returning to the camera 200 (FIG. 1) also decreases, so that, for example, the distance at which information on the tag 100A can be read is shortened. On the other hand, as shown in FIG. 8, the character string “EXIT” is represented by the two types of retroreflective material 111 and the retroreflective material 112, which are different in color and the like, but are both retroreflective materials. Then, since the size (area) of the reflection surface is maintained, the reflection performance (reflection intensity) of the tag 100A is not impaired. Therefore, the tag information of the tag 100A can be read even from a distance.

先に述べたように、タグ100Aは、発電素子140を含んでもよい。発電素子140は、液晶120のオン状態およびオフ状態を切り替えるための電力を発生する。発電素子140として、たとえば太陽電池を用いることができる。図8に示す例では、発電素子140は、複数の太陽電池セル140a〜140fを含んで構成される。   As described above, the tag 100A may include the power generation element 140. The power generation element 140 generates electric power for switching the liquid crystal 120 between an on state and an off state. As the power generation element 140, for example, a solar cell can be used. In the example illustrated in FIG. 8, the power generation element 140 includes a plurality of solar cells 140a to 140f.

タグ100Aは、たとえば赤外光の発光装置などを含まないので小型化されるだけでなく、その分、消費電力も小さくなる。具体的に、液晶120を駆動するための電力(制御部130が動作するための電力)があればよく、そのような電力は、赤外光の発光装置の消費電力よりもかなり小さい。したがって、小さな太陽電池であっても、タグ100Aの発電素子140として十分に機能する。したがって、タグ100Aの小型化を維持することができる。   Since the tag 100A does not include, for example, an infrared light emitting device, the tag 100A is not only reduced in size, but also reduces power consumption. Specifically, it is only necessary to have power for driving the liquid crystal 120 (power for operating the control unit 130), and such power is considerably smaller than the power consumption of the infrared light emitting device. Therefore, even a small solar cell functions sufficiently as the power generation element 140 of the tag 100A. Therefore, the size reduction of the tag 100A can be maintained.

図9は、タグの別の変形例を示す図である。図9(a)はタグ100Bの分解斜視図であり、図9(b)はタグ100Bを正面から見た図である。図9に示すように、タグ100Bは、再帰性反射材110と、液晶120と、光学フィルタ150と、インク160とを含む。   FIG. 9 is a diagram illustrating another modification of the tag. FIG. 9A is an exploded perspective view of the tag 100B, and FIG. 9B is a view of the tag 100B as viewed from the front. As shown in FIG. 9, the tag 100 </ b> B includes a retroreflecting material 110, a liquid crystal 120, an optical filter 150, and ink 160.

光学フィルタ150は、液晶120の上面を覆うように配置される。液晶120の上面とは、液晶120の再帰性反射材110とは反対側の面であり、また、タグ100Aの正面側の面である。タグ100Aの正面とは、赤外光IR1が照射される側の面である。光学フィルタ150は、赤外光を透過させる一方で、可視光を吸収しもしくは反射させる。図9に示す例では、光学フィルタ150はシート形状(あるいは板形状)を有する光学フィルムであるが、光学フィルタ150の形状は特に限定されるものではない。光学フィルタ150は、複数のシート、たとえば、赤外光を透過させるシートおよび可視光を吸収する(もしくは反射させる)シートを組み合わせて構成することもできる。   The optical filter 150 is disposed so as to cover the upper surface of the liquid crystal 120. The upper surface of the liquid crystal 120 is a surface of the liquid crystal 120 on the side opposite to the retroreflecting material 110, and is a surface on the front side of the tag 100A. The front surface of the tag 100A is a surface on the side irradiated with the infrared light IR1. The optical filter 150 transmits infrared light while absorbing or reflecting visible light. In the example shown in FIG. 9, the optical filter 150 is an optical film having a sheet shape (or plate shape), but the shape of the optical filter 150 is not particularly limited. The optical filter 150 can also be configured by combining a plurality of sheets, for example, a sheet that transmits infrared light and a sheet that absorbs (or reflects) visible light.

インク160は、光学フィルタ150の上面の一部に塗布される。光学フィルタ150の上面は、光学フィルタ150におけるタグ100Aの正面側の面である。図9に示す例では、インク160によって「EXIT」の文字が表される。これにより、ユーザ等は、「EXIT」の文字情報を視認することができる。   The ink 160 is applied to a part of the upper surface of the optical filter 150. The upper surface of the optical filter 150 is a surface of the optical filter 150 on the front side of the tag 100A. In the example illustrated in FIG. 9, the characters “EXIT” are represented by the ink 160. Accordingly, the user or the like can visually recognize the character information “EXIT”.

タグ100Bによれば、光学フィルタ150が可視光を吸収するので、タグ100Bを正面からみた場合、タグ100Bの構成要素のうち、光学フィルタ150から後ろ側(正面とは反対の側)に配置されている構成要素が、ユーザ等からは視認できなくなる。図9(b)に示す例では、再帰性反射材110と、液晶120および制御部130の一部が視認されない。このように多くの構成要素をユーザ等から見えないようにすることで、タグ100Bを目立たなくすることができる。一方、ユーザ等は、光学フィルタ150のよりも正面側に配置されるインク160については、視認することができる。そのため、「EXIT」の文字情報を常時(液晶120のオン状態およびオフ状態に依存せず)ユーザ等に提供することができる。   According to the tag 100B, since the optical filter 150 absorbs visible light, when the tag 100B is viewed from the front, among the components of the tag 100B, the optical filter 150 is disposed on the rear side (the side opposite to the front). The components that are present are not visible to the user or the like. In the example shown in FIG. 9B, the retroreflecting material 110, the liquid crystal 120, and a part of the control unit 130 are not visually recognized. Thus, by hiding many components from the user or the like, the tag 100B can be made inconspicuous. On the other hand, the user or the like can visually recognize the ink 160 disposed on the front side of the optical filter 150. Therefore, the character information “EXIT” can be provided to the user or the like at all times (regardless of whether the liquid crystal 120 is on or off).

また、インク160に代えて、光学フィルタ150とは別の図示しない光学フィルタ(第2の光学フィルタ)を用いてもよい。別の光学フィルタは、光学フィルタ150とは、可視光の吸収スペクトルが異なるように構成される。なお、別の光学フィルタは、赤外光を透過させる点において、光学フィルタ150と同様に構成されてもよい。光学フィルタ150と、光学フィルタ150とは可視光の吸収スペクトルの異なる別の光学フィルタとは、ユーザ等から見て異なる色に見えるため、ユーザ等は、たとえば別の光学フィルタによって形成される「EXIT」の文字情報を読み取ることができる。また、インク160が用いられないので、反射面の面積が低下してタグ100Bの読み取り性能が低下することを防ぐことができる。   Further, instead of the ink 160, an optical filter (second optical filter) (not shown) different from the optical filter 150 may be used. Another optical filter is configured to have a different absorption spectrum of visible light from the optical filter 150. Another optical filter may be configured in the same manner as the optical filter 150 in that infrared light is transmitted. Since the optical filter 150 and another optical filter having a different absorption spectrum of visible light appear to have different colors when viewed from the user or the like, the user or the like may be, for example, “EXIT formed by another optical filter. "Can be read. In addition, since the ink 160 is not used, it is possible to prevent the reading area of the tag 100B from being reduced due to a reduction in the area of the reflection surface.

図10は、別の変形例に係るタグの構成を示す図である。図10(a)は、タグ100Cを上方から見た図である。図10(b)は、タグ100Cを背面から見た図である。   FIG. 10 is a diagram illustrating a configuration of a tag according to another modification. FIG. 10A is a view of the tag 100C as viewed from above. FIG. 10B is a view of the tag 100C as viewed from the back.

図10に示すように、タグ100Cは、再帰性反射材110Cと、液晶120Cとを含む。なお、図10においては、タグ100Cに含まれる他の要素(図2の制御部130など)の図示は省略する。   As shown in FIG. 10, the tag 100C includes a retroreflecting material 110C and a liquid crystal 120C. In FIG. 10, illustration of other elements (such as the control unit 130 in FIG. 2) included in the tag 100C is omitted.

図10(a)に示すように、再帰性反射材110Cは、液晶120Cが配置された側(赤外光IR1が照射される側)に向かって凸となる凸形状を有する。このため、再帰性反射材110Cは、フラットでない反射面を有するように構成される。図10に示す例では、再帰性反射材110Cは、反射面110Ca,110Cbおよび110Ccの3つの反射面を有するように構成される。ただし、反射面の数は特に限定されるものではない。反射面110Cbおよび110Ccの面方向は、反射面110Caの面方向と異なる。反射面110Caは、タグ100Cの正面に照射された赤外光IR1を、正面方向に反射する。同様に、反射面110Cbおよび反射面110Ccも、タグ100Cの正面に照射された赤外光IR1を、正面方向に反射する。これにより、タグ100Cの反射特性を維持しつつ、カメラからタグ100Cを見たときの再帰性反射材の面積の、角度への依存性を低減することができる。反射面110Ca,110Cb,110Ccを適切に設計することによって、異なる角度でカメラからタグ100Cを見た場合であっても、再帰性反射材の面積をほぼ一定に保つことができる。   As shown in FIG. 10A, the retroreflective material 110C has a convex shape that is convex toward the side where the liquid crystal 120C is disposed (the side irradiated with the infrared light IR1). For this reason, the retroreflective material 110C is configured to have a non-flat reflective surface. In the example illustrated in FIG. 10, the retroreflecting material 110 </ b> C is configured to have three reflecting surfaces 110 </ b> C, 110 </ b> Cb, and 110 </ b> Cc. However, the number of reflecting surfaces is not particularly limited. The surface directions of the reflecting surfaces 110Cb and 110Cc are different from the surface direction of the reflecting surface 110Ca. The reflective surface 110Ca reflects the infrared light IR1 applied to the front surface of the tag 100C in the front direction. Similarly, the reflecting surface 110Cb and the reflecting surface 110Cc also reflect the infrared light IR1 irradiated on the front surface of the tag 100C in the front direction. Thereby, the dependence of the area of the retroreflecting material on the angle when the tag 100C is viewed from the camera can be reduced while maintaining the reflection characteristics of the tag 100C. By appropriately designing the reflective surfaces 110Ca, 110Cb, and 110Cc, the area of the retroreflecting material can be kept substantially constant even when the tag 100C is viewed from a camera at different angles.

液晶120Cは、再帰性反射材110Cの形状に合わせて、赤外光IR1が照射される側に向かって凸となる凸形状を有する。そのような液晶120Cは、たとえば、再帰性反射材110Cの3つの反射面110Ca,110Cbおよび110Ccにそれぞれフィットする、3つの板状(シート状)の液晶を組合わせて構成することができる。   The liquid crystal 120C has a convex shape that is convex toward the side irradiated with the infrared light IR1 in accordance with the shape of the retroreflecting material 110C. Such a liquid crystal 120C can be configured by combining, for example, three plate-like (sheet-like) liquid crystals that respectively fit the three reflecting surfaces 110Ca, 110Cb, and 110Cc of the retroreflecting material 110C.

タグ100Cによれば、異なる角度でカメラからタグ100Cを見た場合であっても、タグ100Cの面積をほぼ一定に保つことができる。このため、カメラ200(図1)がタグ100Cと向かい合う位置(たとえばタグ100Cの正面)になくとも、カメラ200から100Cに赤外光を照射するための面積が確保され、赤外光を照射しやすくなる。すなわち、カメラ200は、タグ100Cの正面になくとも、正面にある場合と同様に、タグ情報を読み取ることができる。この効果は、タグ100Cの再帰性反射材110Cが、液晶120Cが配置された側に向かって凹となる凹形状を有する場合でも同様に得られる。このことは、後述するタグ100Dの再帰性反射材110Dについても同様である。   According to the tag 100C, even when the tag 100C is viewed from the camera at different angles, the area of the tag 100C can be kept substantially constant. For this reason, even if the camera 200 (FIG. 1) is not located at a position facing the tag 100C (for example, the front face of the tag 100C), an area for irradiating infrared light to the cameras 200 to 100C is secured, and infrared light is irradiated. It becomes easy. That is, the camera 200 can read the tag information even if it is not in front of the tag 100C, as in the case of being in front. This effect is similarly obtained even when the retroreflective member 110C of the tag 100C has a concave shape that is concave toward the side where the liquid crystal 120C is disposed. The same applies to the retroreflecting material 110D of the tag 100D described later.

一方、タグ100Cと同様の機能を有するタグとして、図11に示す構成を採用することもできる。   On the other hand, the configuration shown in FIG. 11 may be employed as a tag having the same function as the tag 100C.

図11に示すように、タグ100Dは、再帰性反射材110Dと、液晶120Dとを含む。図11においても、他の要素(図2の制御部130など)の図示は省略する。   As shown in FIG. 11, the tag 100D includes a retroreflecting material 110D and a liquid crystal 120D. Also in FIG. 11, illustration of other elements (such as the control unit 130 in FIG. 2) is omitted.

図11(a)に示すように、再帰性反射材110Dも、再帰性反射材110C(図10)と同様に、液晶120Dが配置された側(赤外光IR1が照射される側)に向かって凸となる凸形状を有する。ここで、再帰性反射材110Dは、フラットでない1つの反射面110Daを有するように構成される。反射面110Daは、たとえば、再帰性反射材を湾曲させることによって形成することができる。反射面110Daは、タグ100Dの正面に照射された赤外光IR1を、正面方向に反射する。   As shown in FIG. 11A, the retroreflective material 110D is also directed toward the side where the liquid crystal 120D is disposed (the side irradiated with the infrared light IR1), like the retroreflective material 110C (FIG. 10). And has a convex shape. Here, the retroreflecting material 110 </ b> D is configured to have one reflecting surface 110 </ b> Da that is not flat. The reflective surface 110Da can be formed, for example, by curving a retroreflecting material. The reflective surface 110Da reflects the infrared light IR1 irradiated on the front surface of the tag 100D in the front direction.

液晶120Dは、再帰性反射材110Dの形状に合わせた形状を有する。   The liquid crystal 120D has a shape that matches the shape of the retroreflecting material 110D.

タグ100Dによっても、タグ100C(図10)と同様に、異なる角度でカメラからタグ100Dを見たときの再帰性反射材の面積をほぼ一定に保つことができる。また、タグ100Dは、たとえば再帰性反射材および液晶を湾曲させるだけで構成することができるので、容易に制作することができる。   Similarly to the tag 100C (FIG. 10), the tag 100D can keep the area of the retroreflecting material almost constant when the tag 100D is viewed from the camera at different angles. Moreover, since the tag 100D can be configured only by bending the retroreflecting material and the liquid crystal, for example, it can be easily manufactured.

以上では、タグからタグ情報をカメラで読み取る手法について説明した。一方で、カメラからタグへ情報を伝達することができれば、タグとカメラとの間で相互に情報をやり取りすることができるので、情報通信システムの用途が広がる。具体的に、たとえば、ユーザがカメラを操作することによってタグ側においてタグ情報を切り替える、カメラがタグを撮像しているときだけタグが動作することによって消費電力を低減させる、タグの設定を変更するなどの用途が考えられる。   The method for reading tag information from the tag with the camera has been described above. On the other hand, if information can be transmitted from the camera to the tag, information can be exchanged between the tag and the camera. Specifically, for example, the tag information is switched on the tag side when the user operates the camera, the tag operates to reduce power consumption only when the camera is imaging the tag, and the tag setting is changed. The use of such is considered.

そこで、先に図8を参照して説明したような、発電素子140を含む構成を有するタグ100Aを応用することによって、カメラからタグへの情報伝達を可能にする手法について説明する。   Therefore, a method for enabling information transmission from the camera to the tag by applying the tag 100A having the configuration including the power generation element 140 as described above with reference to FIG. 8 will be described.

[応用例]
図12は、カメラからタグに情報を伝達する手法の一例について説明するための図である。図12(a)は、タグ100Aにおける発電素子140および制御部130等の構成の一例を示す図である。図12(b)は、発電素子140の電圧および制御部130を動作(駆動)させるための電圧の時間変化を説明するための図である。
[Application example]
FIG. 12 is a diagram for explaining an example of a method for transmitting information from a camera to a tag. FIG. 12A is a diagram illustrating an example of the configuration of the power generation element 140, the control unit 130, and the like in the tag 100A. FIG. 12B is a diagram for explaining the time change of the voltage of the power generation element 140 and the voltage for operating (driving) the control unit 130.

図12(a)に示すように、制御部130は、発電素子140で発生した電力を受ける。先に図3を参照して説明したように、タグに含まれる制御部130は、電圧発生部132が電源部131からの電力を受けて動作することによって、液晶120(図2)のオン状態およびオフ状態を切り替える。たとえば、電源部131の電圧が所定値以上のときに、制御部130は動作する。図12(a)に示す構成においては、発電素子140で発生した電圧V1に応じた電圧が、制御部130の電源部131に印加される。そして、電源部131に印加される電圧が所定値以上のときに、制御部130が動作することとなる。   As shown in FIG. 12A, the control unit 130 receives power generated by the power generation element 140. As described above with reference to FIG. 3, the control unit 130 included in the tag operates as the liquid crystal 120 (FIG. 2) is turned on when the voltage generation unit 132 operates by receiving power from the power supply unit 131. And toggle off state. For example, the control unit 130 operates when the voltage of the power supply unit 131 is equal to or higher than a predetermined value. In the configuration illustrated in FIG. 12A, a voltage corresponding to the voltage V <b> 1 generated by the power generation element 140 is applied to the power supply unit 131 of the control unit 130. The control unit 130 operates when the voltage applied to the power supply unit 131 is equal to or higher than a predetermined value.

この応用例では、制御部130は、発電素子140の電圧V1を検出する。たとえば、図12(b)に示すように、発電素子140の電圧V1をモニタするための電圧センサ(電圧計測部)133が設けられる。電圧センサ133のモニタ結果(検出結果)を取得することによって、制御部130は、発電素子140の電圧V1を検出することができる。   In this application example, the control unit 130 detects the voltage V <b> 1 of the power generation element 140. For example, as shown in FIG. 12B, a voltage sensor (voltage measurement unit) 133 for monitoring the voltage V1 of the power generation element 140 is provided. By acquiring the monitoring result (detection result) of the voltage sensor 133, the control unit 130 can detect the voltage V1 of the power generation element 140.

ここで、先に述べたように、発電素子140はたとえば太陽電池である。太陽電池が受ける光量は環境によって変化するので一定でなく、発電素子140の電圧V1は安定しない。そこで、安定した電圧(電力)を制御部130に供給するために、ダイオード141およびコンデンサ142にから構成される回路が、発電素子140と制御部130との間に接続される。具体的には、ダイオード141が、発電素子140から制御部130に向かって電流が流れるように、発電素子140と制御部130との間に接続される。コンデンサ142は、制御部130に電圧を印加できるように、制御部130に並列に接続される。こうすることで、発電素子140の電圧V1によって、コンデンサ142を充電しつつ、制御部130に電圧を印加(電力を供給)することができる。したがって、制御部130は安定して動作する。なお、制御部130には、コンデンサ142および制御部130の電圧は、発電素子140の電圧V1に対して、ダイオード141の順方向電圧の分だけ低い電圧(電圧V2)となる。   Here, as described above, the power generation element 140 is, for example, a solar battery. The amount of light received by the solar cell varies depending on the environment and is not constant, and the voltage V1 of the power generation element 140 is not stable. Therefore, in order to supply a stable voltage (electric power) to the control unit 130, a circuit including the diode 141 and the capacitor 142 is connected between the power generation element 140 and the control unit 130. Specifically, the diode 141 is connected between the power generation element 140 and the control unit 130 so that a current flows from the power generation element 140 toward the control unit 130. The capacitor 142 is connected in parallel to the control unit 130 so that a voltage can be applied to the control unit 130. By doing so, it is possible to apply a voltage (supply power) to the control unit 130 while charging the capacitor 142 with the voltage V <b> 1 of the power generation element 140. Therefore, the control unit 130 operates stably. In the control unit 130, the voltage of the capacitor 142 and the control unit 130 is lower than the voltage V1 of the power generation element 140 by a forward voltage of the diode 141 (voltage V2).

さらに、発電素子140として、単結晶シリコン系の太陽電池を用いることができる。単結晶シリコン系の太陽電池は、可視光だけでなく、赤外光によっても発電する。したがって、発電素子140は、周囲の光(可視光)による発電だけでなく、カメラ200(図1)からの赤外光による発電も行うことができる。この場合、カメラ200からの赤外光の光量に応じて、発電素子140の電圧V1が変化する。たとえば、タグ100がカメラ200の画角内に位置しているときには、カメラ200から赤外光がタグ100に照射されるので、発電素子140の電圧V1(発電電力)は大きくなる。逆に、タグ100がカメラ200の画角外に位置しているときには、タグ100には赤外光が照射されないので、発電素子140の電圧V1は小さくなる。この原理を利用することによって、次に説明するように、カメラ200からタグ100Aに情報を伝達することができる。   Further, a single crystal silicon solar cell can be used as the power generation element 140. Single-crystal silicon solar cells generate power not only with visible light but also with infrared light. Therefore, the power generation element 140 can perform not only power generation by ambient light (visible light) but also power generation by infrared light from the camera 200 (FIG. 1). In this case, the voltage V <b> 1 of the power generation element 140 changes according to the amount of infrared light from the camera 200. For example, when the tag 100 is located within the angle of view of the camera 200, infrared light is emitted from the camera 200 to the tag 100, and thus the voltage V1 (generated power) of the power generation element 140 increases. On the contrary, when the tag 100 is located outside the angle of view of the camera 200, the tag 100 is not irradiated with infrared light, so the voltage V1 of the power generation element 140 becomes small. By utilizing this principle, information can be transmitted from the camera 200 to the tag 100A as described below.

図12(b)に示すグラフは、横軸が時刻を示し、縦軸が電圧を示す。図12(b)に示す例では、制御部130によって、タグ情報の送信が間隔を空けて繰り返し実行されている。具体的に、時刻0〜t110および時刻t140〜t150においては、タグ情報が送信され、時刻t110〜t140および時刻t150から次のタグ情報の送信が開始されるまでは、タグ情報が送信されない。   In the graph shown in FIG. 12B, the horizontal axis indicates time, and the vertical axis indicates voltage. In the example shown in FIG. 12B, the control unit 130 repeatedly executes tag information transmission at intervals. Specifically, tag information is transmitted from time 0 to t110 and time t140 to t150, and tag information is not transmitted until transmission of the next tag information starts from time t110 to t140 and time t150.

具体的に、時刻0〜t110および時刻t140〜t150においては、制御部130が液晶120のオン状態およびオフ状態を切り替えることによって、カメラ200から照射された赤外光がタグ情報を含むように反射する。このために制御部130が消費する電力が、発電素子140だけでなくコンデンサ142からの放電によっても賄われるので、コンデンサの電圧V2および発電素子140の電圧V1はいずれも低下していく。   Specifically, at time 0 to t110 and time t140 to t150, the control unit 130 switches the on and off states of the liquid crystal 120, so that the infrared light emitted from the camera 200 is reflected so as to include tag information. To do. For this reason, since the power consumed by the control unit 130 is covered not only by the power generation element 140 but also by the discharge from the capacitor 142, the voltage V2 of the capacitor and the voltage V1 of the power generation element 140 both decrease.

一方、時刻t110〜t120および時刻t150以降においては、タグ情報が送信されず、制御部130は液晶120のオン状態およびオフ状態の切り替えを行わない。このため、コンデンサ142が、発電素子140の電力で充電されるので、コンデンサの電圧V2および発電素子140の電圧V1はいずれも上昇していく。   On the other hand, after time t110 to t120 and after time t150, tag information is not transmitted, and the control unit 130 does not switch the liquid crystal 120 between the on state and the off state. For this reason, since the capacitor 142 is charged with the electric power of the power generation element 140, both the voltage V2 of the capacitor and the voltage V1 of the power generation element 140 increase.

ここで、時刻t120およびt130においては、カメラ200からタグ100Aへの赤外光の照射が停止される。このとき、太陽電池としての発電素子140の受光量(すなわち発電量)が減少するので、発電素子140の電圧V1は大きく低下する。ただし、カメラ200からタグ100Aへの赤外光の照射が停止される時間が短いので、その間は、充電されたコンデンサ142の放電によって、制御部130への電圧印加(電力供給)が維持される。すなわち、電圧V1が低下しても、電圧V2は低下しない。このように、カメラ200からタグ100Aへの赤外光の照射を停止する時間が比較的短ければ、制御部130の動作が停止しないように制御部130に電圧V2を印加しつつ、発電素子140の電圧V1を変化させることができる。   Here, at time t120 and t130, irradiation of infrared light from the camera 200 to the tag 100A is stopped. At this time, since the amount of light received by the power generation element 140 as a solar cell (that is, the amount of power generation) decreases, the voltage V1 of the power generation element 140 greatly decreases. However, since the irradiation of infrared light from the camera 200 to the tag 100A is stopped for a short time, voltage application (power supply) to the control unit 130 is maintained by discharging the charged capacitor 142 during that period. . That is, even if the voltage V1 decreases, the voltage V2 does not decrease. As described above, if the time for stopping the irradiation of infrared light from the camera 200 to the tag 100A is relatively short, the power generation element 140 is applied while applying the voltage V2 to the control unit 130 so that the operation of the control unit 130 is not stopped. The voltage V1 can be changed.

そこで、発電素子140の電圧V1の変化を利用して、カメラ200からタグ100に情報を伝達することができる。たとえば、発電素子140の電圧V1の低下(電圧降下)の持続時間、回数、および電圧降下が複数回現れる場合はそれらの時間間隔などを、カメラ200からタグ100への情報とすることができる。タグ100は、制御部130によって発電素子140の電圧V1をモニタすることで、カメラ200からの情報を受けることができる。なお、たとえばBluetoothなどによってカメラ200からタグ100へ情報を伝達することもできるが、装置の大型化や消費電力の増加などを伴う。一方、この応用例のように、発電素子140の電圧V1を利用することで、たとえばダイオード141およびコンデンサ142からなる回路などを用いるだけでカメラ200からタグ100への情報伝達が可能となる。そのため、装置が大型化せず、消費電力もほとんど増加しない。   Therefore, information can be transmitted from the camera 200 to the tag 100 using a change in the voltage V1 of the power generation element 140. For example, the duration, the number of times of decrease (voltage drop) of the voltage V1 of the power generation element 140, and the time interval when the voltage drop appears a plurality of times can be information from the camera 200 to the tag 100. The tag 100 can receive information from the camera 200 by monitoring the voltage V <b> 1 of the power generation element 140 by the control unit 130. For example, information can be transmitted from the camera 200 to the tag 100 by Bluetooth or the like, but this involves an increase in the size of the apparatus and an increase in power consumption. On the other hand, by using the voltage V1 of the power generation element 140 as in this application example, information can be transmitted from the camera 200 to the tag 100 only by using, for example, a circuit including a diode 141 and a capacitor 142. Therefore, the apparatus is not increased in size and the power consumption is hardly increased.

[第2実施形態]
図13は、第2実施形態に係る情報通信システムの概略構成を示す図である。図13に示すように、情報通信システム1Aは、複数のタグ100a〜100eと、カメラ200Aと、サーバ300とを含む。
[Second Embodiment]
FIG. 13 is a diagram showing a schematic configuration of an information communication system according to the second embodiment. As illustrated in FIG. 13, the information communication system 1 </ b> A includes a plurality of tags 100 a to 100 e, a camera 200 </ b> A, and a server 300.

情報通信システム1Aは、カメラ200Aの位置を測定することができる(詳細は後述する)。図13に示す例では、タグ100a〜100eおよびカメラ200Aは、家屋2の内部に配置されており、情報通信システム1Aは、カメラ200Aの屋内測位を行うことができる。   The information communication system 1A can measure the position of the camera 200A (details will be described later). In the example shown in FIG. 13, the tags 100a to 100e and the camera 200A are arranged inside the house 2, and the information communication system 1A can perform indoor positioning of the camera 200A.

タグ100a〜100eは、図1のタグ100と同様の構成および機能を含む。   The tags 100a to 100e include the same configuration and function as the tag 100 of FIG.

カメラ200Aは、図1のカメラ200と比較して機能が相違するが、カメラ200の機能を含んでいてもよい。さらに、カメラ200Aは、通信ネットワークを介して、サーバ300と通信可能に構成される。   The camera 200 </ b> A has a function different from that of the camera 200 of FIG. 1, but may include the function of the camera 200. Furthermore, the camera 200A is configured to be able to communicate with the server 300 via a communication network.

サーバ300は、タグ100a〜100eの位置情報を蓄積している。位置情報は、たとえば、サーバ300内のデータベース301に記憶されている。データベース301は、タグ100a〜100eの各々のIDと、位置情報とを対応づけて記述する。   The server 300 stores the position information of the tags 100a to 100e. The location information is stored in the database 301 in the server 300, for example. The database 301 describes each ID of the tags 100a to 100e in association with the position information.

サーバ300の機能は、物理的には、CPU、RAMおよびROMなどを含んだIC(Integral Circuit)およびデータ送受信デバイスである通信モジュールなどによって実現される。   The functions of the server 300 are physically realized by an IC (Integral Circuit) including a CPU, a RAM, a ROM, and the like and a communication module that is a data transmission / reception device.

図14は、カメラ200Aの機能ブロックを示す図である。図14に示すように、カメラ200Aは、赤外光発光部210と、赤外光受光部220と、可視光受光部230と、表示部240と、解読部250と、操作部260と、通信部270と、位置情報取得部280と、測定部290と、加速度センサ295とを含む。   FIG. 14 is a diagram illustrating functional blocks of the camera 200A. As shown in FIG. 14, the camera 200 </ b> A includes an infrared light emitting unit 210, an infrared light receiving unit 220, a visible light receiving unit 230, a display unit 240, a decoding unit 250, an operation unit 260, a communication Unit 270, position information acquisition unit 280, measurement unit 290, and acceleration sensor 295.

通信部270は、サーバ300(図13)と通信を行う部分である。通信の手法は特に限定されないが、たとえば通信部270と基地局(図示しない)との無線通信、および、基地局とサーバ300との有線通信などを用いることができる。   The communication unit 270 is a part that communicates with the server 300 (FIG. 13). Although the communication method is not particularly limited, for example, wireless communication between the communication unit 270 and a base station (not shown), wired communication between the base station and the server 300, or the like can be used.

位置情報取得部280は、解読部250の解読結果に基づいて、タグ100a〜100e(以下、単にタグ100a等という場合もある)の位置情報を蓄積しているサーバ300からタグの位置情報を取得する部分である。   The position information acquisition unit 280 acquires the tag position information from the server 300 that stores the position information of the tags 100a to 100e (hereinafter sometimes simply referred to as the tag 100a) based on the decoding result of the decoding unit 250. It is a part to do.

測定部290は、カメラ200Aの画角内での複数のタグ100a等の撮像データおよびカメラ200Aと複数のタグ100a等との距離データの少なくともいずれかのデータと、位置情報取得部280によって取得された位置情報とに基づいて、カメラ200Aの位置を測定する部分(第1の測定部)である。カメラ200Aと複数のタグ100a等との距離データは、たとえばカメラ200Aがデプスカメラである場合に、デプスセンサを用いて取得することができる。距離データは必須ではないので、距離データが取得できない場合であっても、測定部290は、カメラ200Aの位置を測定することができる。なお、その場合、測定部290は、測定したカメラ200Aの位置と、タグ100a等の位置情報とに基づいて、カメラ200Aとタグ100aの各々との距離を測定することもできる。   The measurement unit 290 is acquired by the position information acquisition unit 280 and at least one of imaging data of the plurality of tags 100a and the like and distance data between the camera 200A and the plurality of tags 100a and the like within the angle of view of the camera 200A. This is a part (first measurement unit) for measuring the position of the camera 200A based on the obtained position information. For example, when the camera 200A is a depth camera, the distance data between the camera 200A and the plurality of tags 100a can be obtained using a depth sensor. Since the distance data is not essential, the measurement unit 290 can measure the position of the camera 200A even when the distance data cannot be acquired. In this case, the measurement unit 290 can also measure the distance between the camera 200A and each of the tags 100a based on the measured position of the camera 200A and position information such as the tag 100a.

また、測定部290の変形例も考えられる。変形例としての測定部290xは、加速度センサ295を用いてカメラ200Aの位置を測定し得る。加速度センサ295は、カメラ200Aのピッチ、ロールおよびヨーをカメラ200Aの姿勢を表すパラメータとして検出する、姿勢検出部として機能する。測定部290xは、加速度センサ295よって検出されたパラメータと、カメラ200Aの画角内でのタグ100a等の撮像データおよびカメラ200Aとタグ100a等との距離データの少なくともいずれかのデータと、位置情報取得部280によって取得された位置情報とに基づいて、カメラ200Aの位置を測定する部分(第2の測定部)である。カメラ200Aとタグ100a等との距離データは、たとえばカメラ200Aがデプスカメラである場合に、デプスセンサを用いて取得することができる。距離データは必須ではないので、距離データが取得できない場合であっても、測定部290は、カメラ200Aの位置を測定することができる。なお、その場合、測定部290は、測定したカメラ200Aの位置と、タグ100a等の位置情報とに基づいて、カメラ200Aとタグ100aの各々との距離を測定することもできる。   A modification of the measurement unit 290 is also conceivable. The measurement unit 290x as a modified example can measure the position of the camera 200A using the acceleration sensor 295. The acceleration sensor 295 functions as an attitude detection unit that detects the pitch, roll, and yaw of the camera 200A as parameters representing the attitude of the camera 200A. The measurement unit 290x includes at least one of parameters detected by the acceleration sensor 295, imaging data such as the tag 100a within the angle of view of the camera 200A, and distance data between the camera 200A and the tag 100a, and position information. This is a part (second measurement unit) that measures the position of the camera 200A based on the position information acquired by the acquisition unit 280. For example, when the camera 200A is a depth camera, the distance data between the camera 200A and the tag 100a can be acquired using a depth sensor. Since the distance data is not essential, the measurement unit 290 can measure the position of the camera 200A even when the distance data cannot be acquired. In this case, the measurement unit 290 can also measure the distance between the camera 200A and each of the tags 100a based on the measured position of the camera 200A and position information such as the tag 100a.

図13に戻って、カメラ200Aは、たとえばタグ100aからタグ情報を読み取り、サーバ300にタグ100aの設置場所を問い合わせて取得することができる。ここで、カメラ200Aがデプスカメラの場合には、カメラ200Aは、カメラ200Aからタグ100aまでの距離を測定することもできる。その場合、カメラ200Aは、カメラ200Aの画角内でのタグ100aの位置と、タグ100aまでの距離とに基づいて、カメラ200Aの位置を測定することができる。しかし、カメラ200Aとタグ100aとの間の距離が計測可能な距離よりも長いと、カメラ200Aは、タグ100aまでの距離を測定することができない。そのため、カメラ200Aは、屋内測位を行うことができなくなる。   Returning to FIG. 13, for example, the camera 200 </ b> A can read the tag information from the tag 100 a and inquire the server 300 about the installation location of the tag 100 a to obtain the tag. Here, when the camera 200A is a depth camera, the camera 200A can also measure the distance from the camera 200A to the tag 100a. In that case, the camera 200A can measure the position of the camera 200A based on the position of the tag 100a within the angle of view of the camera 200A and the distance to the tag 100a. However, if the distance between the camera 200A and the tag 100a is longer than the measurable distance, the camera 200A cannot measure the distance to the tag 100a. For this reason, the camera 200A cannot perform indoor positioning.

一方、カメラ200Aが複数のタグ100a〜100eの各々からタグ情報を読み取ることによって、次に説明するように、デプスカメラによる距離測定を行わなくとも、カメラ200Aの位置を推定して測定することができる。なお、デプスカメラによる距離測定が可能な場合には、測定した距離データを用いることもできる。   On the other hand, when the camera 200A reads tag information from each of the plurality of tags 100a to 100e, the position of the camera 200A can be estimated and measured without performing distance measurement using a depth camera, as will be described below. it can. In addition, when the distance measurement by a depth camera is possible, the measured distance data can also be used.

図15は、カメラ200Aによって撮像される、複数のタグ100a〜100eを含む画像の一例を示す図である。   FIG. 15 is a diagram illustrating an example of an image including a plurality of tags 100a to 100e captured by the camera 200A.

図15に示すように、タグ100a〜100eのそれぞれの位置(設置場所)は、それらのタグ情報(ID:1〜ID:5)を取得することによって、サーバ300に問い合わせて取得することができる。タグ100a〜100eの位置情報が取得できれば、図15に示す画像(カメラ200Aの画角内)でのタグ100a〜100eの撮像データと、タグ100a〜100eの位置情報とに基づいて、カメラ200Aの位置を計算して求めることができる。また、このようにして求めたカメラ200Aの位置と、タグ100a等との位置とを比較することによって、カメラ200Aと、タグ100a等との距離を求めることができる。このカメラ200Aの位置およびタグ100a等との距離の計算は、測定部290によって行われる。なお、カメラ200Aの位置の測定および、タグ100aとの距離の測定は、上記とは別に、たとえば次のようにして行うこともできる。   As shown in FIG. 15, the positions (installation locations) of the tags 100a to 100e can be acquired by inquiring the server 300 by acquiring the tag information (ID: 1 to ID: 5). . If the position information of the tags 100a to 100e can be acquired, based on the image data of the tags 100a to 100e in the image shown in FIG. 15 (within the angle of view of the camera 200A) and the position information of the tags 100a to 100e, The position can be calculated and obtained. Further, the distance between the camera 200A and the tag 100a or the like can be obtained by comparing the position of the camera 200A thus obtained with the position of the tag 100a or the like. The measurement unit 290 calculates the position of the camera 200A and the distance from the tag 100a and the like. In addition, the measurement of the position of the camera 200A and the measurement of the distance from the tag 100a can be performed separately as described above, for example.

すなわち、たとえば、加速度センサ295のような、カメラ200Aの姿勢パラメータを検出できるセンサによって、タグ100a等の撮像データと位置情報とに加えて、姿勢パラメータを用いて、カメラ200Aの位置を推定することができる。この場合も、カメラ200Aからタグ100a等までの距離も計算することができる。このカメラ200Aの位置およびタグ100a等との距離の計算は、測定部290xによって行われる。   That is, for example, the position of the camera 200A is estimated by using a posture parameter in addition to the imaging data of the tag 100a and the position information by a sensor that can detect the posture parameter of the camera 200A, such as the acceleration sensor 295. Can do. Also in this case, the distance from the camera 200A to the tag 100a or the like can be calculated. Calculation of the position of the camera 200A and the distance from the tag 100a and the like is performed by the measurement unit 290x.

上述のように測定部290または測定部290xによってカメラ200Aの位置を測定することができる理由は、次のように説明することができる。すなわち、タグの位置情報を取得することができれば、1つのタグの画角内の位置(撮像データ)およびカメラからタグまでの距離データの少なくともいずれかが分かる。未知数であるカメラ200Aの位置パラメータは6つであるから、カメラの位置パラメータに関連するパラメータを6つ以上計測できればよい。測定部290の場合には、2つ以上のタグの画角内の位置およびカメラからタグまでの距離データのいずれかを合わせて、6つの既知パラメータを取得することができるので、カメラ200Aの位置を測定することができる。一方、測定部290xの場合には、1つ以上のタグの画角内の位置およびカメラからタグまでの距離データの少なくともいずれかからを合わせて、3つの既知パラメータを取得するとともに、加速度センサ295によってピッチ、ロールおよびヨーの3つのパラメータを検出することによって合計6つのパラメータが取得できるので、カメラ200Aの位置を推定(測定)することができる。なお、カメラ200Aの位置が測定できれば、位置情報が分かっているタグ100a等までの距離は容易に計算することができる。   The reason why the position of the camera 200A can be measured by the measurement unit 290 or the measurement unit 290x as described above can be described as follows. That is, if the tag position information can be acquired, at least one of the position within the angle of view (imaging data) and the distance data from the camera to the tag can be known. Since there are six position parameters of the unknown camera 200A, it is only necessary to measure six or more parameters related to the camera position parameters. In the case of the measurement unit 290, six known parameters can be acquired by combining any of the position within the angle of view of two or more tags and the distance data from the camera to the tag. Can be measured. On the other hand, in the case of the measurement unit 290x, three known parameters are obtained by combining at least one of the position within the angle of view of one or more tags and the distance data from the camera to the tag, and the acceleration sensor 295. By detecting three parameters of pitch, roll, and yaw, a total of six parameters can be acquired, so that the position of the camera 200A can be estimated (measured). If the position of the camera 200A can be measured, the distance to the tag 100a or the like whose position information is known can be easily calculated.

さらに別の方法として、たとえば、カメラ200Aが受光するタグ100a等から反射した赤外光の強度から、タグ100a等までの距離を推定することができる。反射した赤外光の強度は、タグ100a等の反射係数、およびカメラ200Aからタグ100a等までの距離に依存する。そのため、タグ100a等の反射係が分かれば、タグ100a等から反射した赤外光の強度に基づいて、カメラ200Aからタグ100aまでの距離を算出することができる。タグ100a等の反射係数は、たとえばサーバ300のデータベース301に予め記憶させておくことができる。カメラ200Aは、サーバ300から、タグ100a等の反射係数を取得することができる。別の方法として、デプスカメラとしてのカメラ200Aの他に、もう一台のカメラを用いる方法もある。これについては、後述の変形例にて説明する。   As yet another method, for example, the distance to the tag 100a or the like can be estimated from the intensity of infrared light reflected from the tag 100a or the like received by the camera 200A. The intensity of the reflected infrared light depends on the reflection coefficient of the tag 100a and the like and the distance from the camera 200A to the tag 100a and the like. Therefore, if the reflection mechanism such as the tag 100a is known, the distance from the camera 200A to the tag 100a can be calculated based on the intensity of infrared light reflected from the tag 100a. The reflection coefficient of the tag 100a or the like can be stored in advance in the database 301 of the server 300, for example. The camera 200 </ b> A can acquire the reflection coefficient of the tag 100 a and the like from the server 300. As another method, there is a method using another camera in addition to the camera 200A as a depth camera. This will be described in a later-described modification.

なお、タグ100a〜100eは必ずしも同時に撮像される必要はない。たとえば、SLAM(Simultaneously Localization and Mapping)などの画像処理手法を適用したり、カメラ200Aに加速度センサや角速度センサを搭載することで、過去に撮像されたタグであって、現在の画角内に存在しないタグを、屋内測位に用いることもできる。なお、SLAMなどの画像処理手法を別に設置されたカメラが撮像した画像群に適用し、その結果をカメラ200Aに用いることで、カメラ200Aが取得する画像を安定化させ、タグをより確実に検出できるようにすることもできる。   The tags 100a to 100e are not necessarily imaged at the same time. For example, a tag captured in the past by applying an image processing method such as SLAM (Simultaneously Localization and Mapping) or mounting an acceleration sensor or an angular velocity sensor on the camera 200A, and present within the current angle of view. Tags that are not used can also be used for indoor positioning. It should be noted that an image processing method such as SLAM is applied to an image group captured by a separately installed camera, and the result is used in the camera 200A, thereby stabilizing the image acquired by the camera 200A and detecting the tag more reliably. It can also be made possible.

図16は、情報通信システム1A(図13)において実行される処理の一例を示すフローチャートである。ステップS201〜S205については、図7のステップS101〜S105と同様である。すなわち、カメラ200A(たとえばデプスカメラ)は、赤外光を発する(ステップS201)。タグ100a等は、カメラ200Aからの赤外光を受け(ステップS202)、液晶のオン・オフを切り替えつつ赤外光を反射する(ステップS203)。カメラ200Aは、反射した赤外光を受け(ステップS204)、タグ情報を解読する(ステップS205)。   FIG. 16 is a flowchart illustrating an example of processing executed in the information communication system 1A (FIG. 13). Steps S201 to S205 are the same as steps S101 to S105 in FIG. That is, the camera 200A (for example, a depth camera) emits infrared light (step S201). The tag 100a or the like receives the infrared light from the camera 200A (step S202), and reflects the infrared light while switching the liquid crystal on and off (step S203). The camera 200A receives the reflected infrared light (step S204) and decodes the tag information (step S205).

次に、カメラ200Aの通信部270は、タグ情報をサーバ300に送信する(ステップS206)。   Next, the communication unit 270 of the camera 200A transmits tag information to the server 300 (step S206).

サーバ300は、カメラ200Aから送信されたタグ情報を受信する(ステップS207)。   The server 300 receives the tag information transmitted from the camera 200A (step S207).

そして、サーバ300は、タグの位置情報を、カメラ200Aに送信する(ステップS207)。具体的に、サーバ300は、ステップS207において受信したタグ情報に基づいて、タグ情報と、タグの位置情報とを関連づけて記述しているデータベース301を検索する。そして、サーバ300は、この検索によって得られたタグの位置情報を、カメラ200Aに送信する。   Then, the server 300 transmits the tag position information to the camera 200A (step S207). Specifically, the server 300 searches the database 301 describing the tag information and the tag position information in association with each other based on the tag information received in step S207. Then, the server 300 transmits the tag position information obtained by this search to the camera 200A.

カメラ200Aの通信部270は、サーバ300から、タグの位置情報を受信する(ステップS209)。位置情報取得部280は、タグの位置情報を取得する。   The communication unit 270 of the camera 200A receives tag position information from the server 300 (step S209). The position information acquisition unit 280 acquires tag position information.

そして、カメラ200Aは、カメラ200Aの位置を測定する(ステップS210)。具体的に、測定部290が、カメラ200Aの画角内での複数のタグ100a等の撮像データおよびカメラ200Aと複数のタグ100a等との距離データの少なくともいずれかのデータと、位置情報取得部280によって取得された位置情報とに基づいて、カメラ200Aの位置を測定する。あるいは、測定部290xが、加速度センサ295よって検出されたパラメータと、カメラ200Aの画角内でのタグ100a等の撮像データおよびカメラ200Aとタグ100a等との距離データの少なくともいずれかのデータと、位置情報取得部280によって取得された位置情報とに基づいて、カメラ200Aの位置を測定する。さらに、カメラ200Aとタグ100a等との距離が測定されてもよい。なお、距離の測定は、タグの位置情報を用いない他の手法、たとえば先に述べたような反射した赤外光の強度からタグ100a等までの距離を推定する手法によって行われてもよい。   Then, the camera 200A measures the position of the camera 200A (step S210). Specifically, the measurement unit 290 includes at least one of imaging data such as a plurality of tags 100a within the angle of view of the camera 200A and distance data between the camera 200A and the plurality of tags 100a, and a position information acquisition unit. Based on the position information acquired by H.280, the position of the camera 200A is measured. Alternatively, the measurement unit 290x may include at least one of parameters detected by the acceleration sensor 295, imaging data such as the tag 100a within the angle of view of the camera 200A, and distance data between the camera 200A and the tag 100a. Based on the position information acquired by the position information acquisition unit 280, the position of the camera 200A is measured. Further, the distance between the camera 200A and the tag 100a may be measured. The distance measurement may be performed by another method that does not use the tag position information, for example, a method for estimating the distance from the reflected infrared light intensity to the tag 100a or the like as described above.

次に、第2実施形態に係る情報通信システム1Aの作用効果について説明する。この情報通信システム1Aによれば、カメラ200Aは、タグ100a等の位置情報を蓄積しているサーバ300からタグ100a等の位置情報を取得する(ステップS206〜S209)。また、カメラ200Aは、カメラ200Aの画角内での複数のタグ100a等の撮像データおよびカメラ200Aと複数のタグ100a等との距離データの少なくともいずれかのデータと、位置情報取得部280によって取得された位置情報とに基づいて、カメラ200Aの位置を測定する。あるいは、カメラ200Aは、加速度センサ295よって検出されたパラメータ(カメラ200Aの姿勢パラメータ)と、カメラ200Aの画角内でのタグ100a等の撮像データおよびカメラ200Aとタグ100a等との距離データの少なくともいずれかのデータと、位置情報取得部280によって取得された位置情報とに基づいて、カメラ200Aの位置を測定する(ステップS210)。これにより、カメラ200Aの位置を測定することができる。さらにカメラ200Aとタグ100aとの距離を測定することもできる。また、たとえばカメラ200Aがデプスカメラであり、カメラ200Aからタグ100a等までの距離がデプスセンサによっては計測できないほど離れている場合であっても、上述のカメラ200Aの位置の測定手法においては距離データが必須ではないので、カメラ200Aの位置を測定することができる。   Next, effects of the information communication system 1A according to the second embodiment will be described. According to the information communication system 1A, the camera 200A acquires the position information such as the tag 100a from the server 300 that stores the position information such as the tag 100a (steps S206 to S209). The camera 200A is acquired by the position information acquisition unit 280 and at least one of imaging data such as a plurality of tags 100a within the angle of view of the camera 200A and distance data between the camera 200A and the plurality of tags 100a. Based on the obtained position information, the position of the camera 200A is measured. Alternatively, the camera 200A includes at least a parameter detected by the acceleration sensor 295 (attitude parameter of the camera 200A), imaging data such as the tag 100a within the angle of view of the camera 200A, and distance data between the camera 200A and the tag 100a. Based on any of the data and the position information acquired by the position information acquisition unit 280, the position of the camera 200A is measured (step S210). Thereby, the position of the camera 200A can be measured. Further, the distance between the camera 200A and the tag 100a can be measured. Further, for example, even when the camera 200A is a depth camera and the distance from the camera 200A to the tag 100a or the like is so far as not to be measured by the depth sensor, the distance data is not obtained in the above-described method for measuring the position of the camera 200A. Since it is not essential, the position of the camera 200A can be measured.

[変形例]
図17は、変形例に係る情報通信システムの概略構成を示す図である。図17に示すように、情報通信システム1Cは、タグ100と、カメラ200B,201と、サーバ300とを含む。
[Modification]
FIG. 17 is a diagram illustrating a schematic configuration of an information communication system according to a modification. As illustrated in FIG. 17, the information communication system 1 </ b> C includes a tag 100, cameras 200 </ b> B and 201, and a server 300.

情報通信システム1Cは、カメラ200Bと、カメラ201との2つのカメラを用いて、カメラ200Cの位置を測定する(詳細は後述する)。   The information communication system 1C measures the position of the camera 200C using two cameras, the camera 200B and the camera 201 (details will be described later).

カメラ200Bは、図13のカメラ200Aと比較して機能が相違するが、カメラ200Aの機能を含んでいてもよい。さらに、カメラ200Bは、カメラ201と通信可能に構成される。   The camera 200B has a function different from that of the camera 200A of FIG. 13, but may include the function of the camera 200A. Furthermore, the camera 200B is configured to be able to communicate with the camera 201.

カメラ201は、たとえばRGBカメラである。カメラ201は、可視光を受光する可視光受光部230を含む。一方で、カメラ201は、カメラ200Bのような赤外光発光部210や赤外光受光部220を含んでいない点において、カメラ200Bと比較して相違する。   The camera 201 is, for example, an RGB camera. The camera 201 includes a visible light receiving unit 230 that receives visible light. On the other hand, the camera 201 is different from the camera 200B in that the camera 201 does not include the infrared light emitting unit 210 and the infrared light receiving unit 220 like the camera 200B.

すなわち、情報通信システム1Cは、カメラ201およびカメラ200Bの2つのカメラのうち、一方は、赤外光を利用して対象物までの距離を測定する機能を有するカメラ(カメラ200B)であり、他方は、そのような機能を有さないカメラ(カメラ201)である、という特徴を有する。   That is, in the information communication system 1C, one of the two cameras, the camera 201 and the camera 200B, is a camera (camera 200B) having a function of measuring a distance to an object using infrared light, and the other Has a feature that it is a camera (camera 201) that does not have such a function.

図18は、一例として、カメラ200Bおよびカメラ201の2つのカメラによって撮像される、タグ100aを含む画像の一例を示す図である。なお、タグ100b〜100eについても画像に含まれるが、ここでは図示を省略する。図18(a)において、カメラ201によって撮像される画像におけるタグ100aの位置が、実線白丸として図示される。図18(a)において、参考として、カメラ200Bによって撮像される画像におけるタグ100aの位置が、破線白丸として重ねて図示される。図18(b)において、カメラ200Bによって撮像される画像におけるタグ100aの位置が、実線白丸として図示される。図18(b)において、参考として、カメラ201によって撮像される画像におけるタグ100aの位置が、破線白丸として重ねて図示される。   FIG. 18 is a diagram illustrating an example of an image including a tag 100a that is captured by two cameras, the camera 200B and the camera 201, as an example. The tags 100b to 100e are also included in the image, but are not shown here. In FIG. 18A, the position of the tag 100a in the image captured by the camera 201 is shown as a solid white circle. In FIG. 18 (a), for reference, the position of the tag 100a in the image captured by the camera 200B is shown as a dashed white circle. In FIG. 18B, the position of the tag 100a in the image captured by the camera 200B is illustrated as a solid white circle. In FIG. 18B, for reference, the position of the tag 100a in the image picked up by the camera 201 is shown as a dotted white circle.

図18に示すように、カメラ200Bと、カメラ201とが離れた配置されている場合、カメラ200Bによって撮像された画像と、カメラ201によって撮像された画像との2つの画像におけるタグ100aの各位置は、それぞれ相違する。相違の程度は、カメラ200Bおよびカメラ201と、タグ100aとのそれぞれの距離によって変化する。そのため、2つの画像におけるタグの位置関係から、カメラ200B(あるいはカメラ201)からタグ100aまでの距離を算出することができる。なお、この場合、先に図15を参照して説明したような、タグから反射した赤外光の強度からタグまでの距離を推定するという手法を併用することによって、カメラ200Bからタグ100aまでの距離をさらに精度良く計測することができる。   As illustrated in FIG. 18, when the camera 200 </ b> B and the camera 201 are arranged apart from each other, each position of the tag 100 a in the two images of the image captured by the camera 200 </ b> B and the image captured by the camera 201. Are different from each other. The degree of difference varies depending on the distances between the camera 200B and the camera 201 and the tag 100a. Therefore, the distance from the camera 200B (or camera 201) to the tag 100a can be calculated from the positional relationship of the tags in the two images. In this case, by using the method of estimating the distance from the tag based on the intensity of the infrared light reflected from the tag as described above with reference to FIG. 15, the distance from the camera 200B to the tag 100a is also used. The distance can be measured with higher accuracy.

ここで、カメラ201によって撮像した画像におけるタグ100aの位置を正確に検出することが重要となる。タグ100aが、カメラ200Bの距離計測範囲外にあるような場合には、画像におけるタグ100aの大きさはかなり小さくなる。そのため、カメラ201によって撮像された画像からはタグ100aを検出できない可能性がある。   Here, it is important to accurately detect the position of the tag 100a in the image captured by the camera 201. When the tag 100a is outside the distance measurement range of the camera 200B, the size of the tag 100a in the image is considerably reduced. Therefore, there is a possibility that the tag 100a cannot be detected from the image captured by the camera 201.

そこで、タグ情報に基づいて、タグ100aが付されている対象物の特徴に関する情報をサーバ300に問い合わせて取得し、その情報を利用することが考えられる。対象物の特徴としては、たとえば、対象物の色(たとえば赤色)や形状(たとえば丸形状)、あるいは大きさ(たとえば画像に占めるピクセル数)などが挙げられる。対象物の特徴が分かれば、カメラ201によって撮像された画像において、そのような特徴を有している対象物を特定することによって、タグ100aの位置を検出することができる。この場合にも、先に図15を参照して説明したような、タグから反射した赤外光の強度からタグまでの距離を推定するという手法を併用することによって、カメラ200Bからタグ100aまでの距離をさらに制度良く計測することができる。   Therefore, based on the tag information, it is conceivable to inquire the server 300 for information regarding the characteristics of the object to which the tag 100a is attached, and to use the information. Examples of the characteristics of the object include the color (for example, red) and the shape (for example, round shape) or the size (for example, the number of pixels in the image) of the object. If the characteristics of the object are known, the position of the tag 100a can be detected by specifying the object having such characteristics in the image captured by the camera 201. Also in this case, by using the method of estimating the distance from the tag to the tag based on the intensity of the infrared light reflected from the tag as described with reference to FIG. 15, the camera 200B to the tag 100a can be used together. The distance can be measured more systematically.

さらに、カメラ200Bによって撮像された画像におけるタグ100aの位置情報から、カメラ201における対象物の大きさと位置を計算することもできる。   Furthermore, the size and position of the object in the camera 201 can be calculated from the position information of the tag 100a in the image captured by the camera 200B.

このようにして、カメラ201によって撮像された画像において、タグ100aが付された対象物を特定する手法について、図19を参照して説明する。図19は、カメラ200Bおよびカメラ201の2つのカメラによって撮像される、タグ100および対象物などを含む画像の一例を示す図である。   In this way, a method for identifying an object with the tag 100a in an image captured by the camera 201 will be described with reference to FIG. FIG. 19 is a diagram illustrating an example of an image including a tag 100 and an object captured by two cameras, the camera 200B and the camera 201.

図19(a)に示すように、この例では、タグ100aは、対象物12に付されている。また、対象物12の近傍には、他の対象物として、対象物11,13,14が存在している。   As shown in FIG. 19A, in this example, the tag 100a is attached to the object 12. In addition, there are objects 11, 13, and 14 as other objects in the vicinity of the object 12.

図19(b)は、カメラ201によって撮像された画像である。カメラ201は、タグ100aを検出できないので、タグ100aの近傍に存在するものとして、対象物11〜14が表示される。対象物11〜14は、タグ100aが付された対象物の候補とされる。   FIG. 19B is an image captured by the camera 201. Since the camera 201 cannot detect the tag 100a, the objects 11 to 14 are displayed as being present in the vicinity of the tag 100a. The objects 11 to 14 are candidates for the object to which the tag 100a is attached.

図19(c)は、カメラ200Bによって撮像された画像である。カメラ200Bは、タグ100aの位置と、カメラ200Bからタグ100aまでの距離を検出している。図19(c)に示す例では、タグ100aの位置が黒色の四角として表され、距離が4mとして表される。   FIG. 19C is an image captured by the camera 200B. The camera 200B detects the position of the tag 100a and the distance from the camera 200B to the tag 100a. In the example shown in FIG. 19C, the position of the tag 100a is represented as a black square, and the distance is represented as 4 m.

ここで、タグ100aが付された対象物の特徴の一つである対象物の大きさに基づいて、カメラ201によって撮像された画像における対象物の占める大きさを求めることができる。このような処理は、カメラ201において実行されてもよいし、カメラ200B側において測定部290などが実行してもよい。また、カメラ200Bが対象物の色や形状の情報をサーバ300に問い合わせることによって、タグ100aが対象物11〜14のどの対象物に付されているのか、を正確に判断することができる。このようにして、図19に示す例においては、対象物12にタグ100aが付されており、対象物12が検出すべき対象である、との判断を行うことができる。   Here, the size occupied by the object in the image captured by the camera 201 can be obtained based on the size of the object that is one of the features of the object to which the tag 100a is attached. Such processing may be executed by the camera 201, or may be executed by the measurement unit 290 or the like on the camera 200B side. In addition, when the camera 200B inquires the server 300 for information on the color or shape of the object, it is possible to accurately determine which of the objects 11 to 14 the tag 100a is attached to. In this way, in the example shown in FIG. 19, the tag 100a is attached to the object 12, and it can be determined that the object 12 is an object to be detected.

以上説明した変形例によっても、カメラ200Bの位置の測定(たとえば屋内測位)を行うことができる。   Also according to the modification described above, the position of the camera 200B can be measured (for example, indoor positioning).

なお、たとえば、RGBカメラとしてのカメラ201は、カメラ201に動きが生じた場合であっても,撮像した画像を安定化させる機能および移動する対象物を追跡する機能を有していてもよい。そして、画像を安定化させるための画像の補正情報および移動する対象物の情報を、デプスカメラとしてのカメラ200Bに提供し,カメラ201はそれらの情報を利用してタグ100a等の検出、追跡、およびタグ100a等からのタグ情報の解読を行ってもよい。   Note that, for example, the camera 201 as an RGB camera may have a function of stabilizing a captured image and a function of tracking a moving object even when the camera 201 moves. Then, the correction information of the image for stabilizing the image and the information of the moving object are provided to the camera 200B as the depth camera, and the camera 201 uses the information to detect, track, The tag information from the tag 100a or the like may be decoded.

本発明は、上述した実施形態に限定されるものではない。各実施形態および各変形例の特徴部分を適宜組み合わせた構成についても、本発明の実施形態とすることができる。   The present invention is not limited to the embodiment described above. A configuration in which the characteristic portions of each embodiment and each modification are appropriately combined can also be used as the embodiment of the present invention.

1…情報通信システム、100…タグ、110…再帰性反射材、120…液晶、130…制御部、140…発電素子、150…光学フィルタ、160…インク、200…カメラ、210…赤外光発光部、220…赤外光受光部、230…可視光受光部、240…表示部、250…解読部、260…操作部、270…通信部、280…位置情報取得部、290,290x…測定部、295…加速度センサ、300…サーバ。   DESCRIPTION OF SYMBOLS 1 ... Information communication system, 100 ... Tag, 110 ... Retroreflective material, 120 ... Liquid crystal, 130 ... Control part, 140 ... Power generation element, 150 ... Optical filter, 160 ... Ink, 200 ... Camera, 210 ... Infrared light emission , 220 ... Infrared light receiver, 230 ... Visible light receiver, 240 ... Display part, 250 ... Decoding part, 260 ... Operation part, 270 ... Communication part, 280 ... Position information acquisition part, 290, 290x ... Measurement part 295 ... Acceleration sensor, 300 ... Server.

Claims (10)

タグと前記タグの情報を読み取るためのカメラとを備えた情報通信システムであって、
前記タグは、
赤外光を反射する反射面を有する再帰性反射材と、
前記再帰性反射材の反射面を覆い、状態が切り替わり、赤外光に影響を与えることができる液晶と、
前記再帰性反射材で反射した赤外光が前記タグの情報を含むように、前記液晶の状態を切り替える制御部と、
を含み、
前記カメラは、
赤外光を発する発光部と、
前記発光部が発した赤外光のうち、前記タグの情報を含むように、前記タグの前記液晶を透過するとともに前記タグの前記再帰性反射材で反射した赤外光、を受ける受光部と、
前記受光部が受けた赤外光に含まれる前記タグの情報を解読する解読部と、
を含む、情報通信システム。
An information communication system comprising a tag and a camera for reading information on the tag,
The tag is
A retroreflector having a reflective surface for reflecting infrared light;
Covering the reflective surface of the retroreflective material, the state is switched, and a liquid crystal capable of affecting infrared light;
A control unit that switches the state of the liquid crystal so that the infrared light reflected by the retroreflecting material includes information on the tag;
Including
The camera
A light emitting unit that emits infrared light;
A light receiving unit that receives infrared light transmitted through the liquid crystal of the tag and reflected by the retroreflecting material of the tag so as to include information on the tag among infrared light emitted by the light emitting unit; ,
A decoding unit for decoding information of the tag included in the infrared light received by the light receiving unit;
An information communication system.
前記カメラは、前記カメラから前記タグまでの距離を測定することができるデプスカメラである、請求項1に記載の情報通信システム。   The information communication system according to claim 1, wherein the camera is a depth camera capable of measuring a distance from the camera to the tag. 前記再帰性反射材は、色の異なる複数の再帰性反射材を有する、請求項1または2に記載の情報通信システム。   The information communication system according to claim 1, wherein the retroreflective material includes a plurality of retroreflective materials having different colors. 前記タグは、前記液晶の前記再帰性反射材とは反対側の面を覆い、可視光を吸収しもしくは反射させ、赤外光を透過させる光学フィルタをさらに含む、請求項1または2に記載の情報通信システム。   The tag according to claim 1 or 2, further comprising an optical filter that covers a surface of the liquid crystal opposite to the retroreflecting material, absorbs or reflects visible light, and transmits infrared light. Information communication system. 前記タグは、さらに、
赤外光を受けて電力を発生する発電素子を含む、請求項1〜4のいずれか1項に記載の情報通信システム。
The tag further includes:
The information communication system according to any one of claims 1 to 4, further comprising a power generation element that generates power upon receiving infrared light.
前記再帰性反射材は、前記液晶が配置された側に向かって凸となる凸形状もしくは凹となる凹形状を有する、請求項1〜5のいずれか1項に記載の情報通信システム。   6. The information communication system according to claim 1, wherein the retroreflective material has a convex shape that is convex toward the side on which the liquid crystal is disposed or a concave shape that is concave. 7. 前記カメラは、さらに、
前記解読部の解読結果に基づいて、前記タグの位置情報を蓄積しているサーバから前記タグの位置情報を取得する位置情報取得部と、
前記カメラの画角内での複数のタグの撮像データおよび前記カメラと前記複数のタグの各々との距離データの少なくともいずれかのデータと、前記位置情報取得部によって取得された前記位置情報とに基づいて、前記カメラの位置を測定する測定部と、
を含む、請求項1〜6のいずれか1項に記載の情報通信システム。
The camera further includes:
Based on the decoding result of the decoding unit, a position information acquisition unit that acquires the position information of the tag from the server that stores the position information of the tag;
Imaging data of a plurality of tags within the angle of view of the camera, distance data between the camera and each of the plurality of tags, and the position information acquired by the position information acquisition unit Based on the measurement unit for measuring the position of the camera,
The information communication system according to claim 1, comprising:
前記カメラは、さらに、
前記解読部の解読結果に基づいて、前記タグの位置情報を蓄積しているサーバから前記タグの位置情報を取得する位置情報取得部と、
前記カメラのピッチ、ロールおよびヨーを前記カメラの姿勢を表すパラメータとして検出する姿勢検出部と、
前記姿勢検出部によって検出された前記パラメータと、前記カメラの画角内でのタグの撮像データおよび前記カメラと前記タグとの距離データの少なくともいずれかのデータと、前記位置情報取得部によって取得された前記位置情報とに基づいて、前記カメラの位置を測定する測定部と、
を含む、請求項1〜6のいずれか1項に記載の情報通信システム。
The camera further includes:
Based on the decoding result of the decoding unit, a position information acquisition unit that acquires the position information of the tag from the server that stores the position information of the tag;
An attitude detection unit for detecting the pitch, roll and yaw of the camera as parameters representing the attitude of the camera;
The parameter detected by the attitude detection unit, at least one of tag imaging data within the angle of view of the camera and distance data between the camera and the tag, and the position information acquisition unit A measurement unit for measuring the position of the camera based on the position information;
The information communication system according to claim 1, comprising:
前記解読部は、前記タグの前記再帰性反射材で反射した赤外光の反射強度の時間変化に基づいて前記タグの情報を解読する、請求項1〜8のいずれか1項に記載の情報通信システム。   The information according to any one of claims 1 to 8, wherein the decoding unit decodes information of the tag based on a temporal change in reflection intensity of infrared light reflected by the retroreflecting material of the tag. Communications system. タグと前記タグの情報を読み取るためのカメラとによって実行される情報読取方法であって、
前記カメラが、赤外光を発するステップと、
前記タグが、前記発するステップによって発した赤外光を、前記タグの情報を含むように、液晶を透過させるとともに再帰性反射材で反射させるステップと、
前記カメラが、前記反射させるステップによって反射した赤外光を受けるステップと、
前記カメラが、前記受けるステップによって受けた赤外光に含まれる前記タグの情報を解読するステップと、
を含む、情報読取方法。
An information reading method executed by a tag and a camera for reading information on the tag,
The camera emitting infrared light;
Infrared light emitted by the tag in the emitting step is transmitted through the liquid crystal and reflected by a retroreflecting material so as to include information on the tag; and
The camera receiving the infrared light reflected by the reflecting step;
Decoding the tag information contained in the infrared light received by the camera in the receiving step;
A method for reading information.
JP2014200715A 2014-09-30 2014-09-30 Information communication system Active JP6324866B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014200715A JP6324866B2 (en) 2014-09-30 2014-09-30 Information communication system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014200715A JP6324866B2 (en) 2014-09-30 2014-09-30 Information communication system

Publications (2)

Publication Number Publication Date
JP2016071663A true JP2016071663A (en) 2016-05-09
JP6324866B2 JP6324866B2 (en) 2018-05-16

Family

ID=55866996

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014200715A Active JP6324866B2 (en) 2014-09-30 2014-09-30 Information communication system

Country Status (1)

Country Link
JP (1) JP6324866B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018155663A (en) * 2017-03-17 2018-10-04 光トライオード株式会社 Laser beam tracking system
WO2020086972A1 (en) * 2018-10-26 2020-04-30 Current Lighting Solutions, Llc Identification of lighting fixtures for indoor positioning using color band code
WO2021075090A1 (en) * 2019-10-17 2021-04-22 パナソニックIpマネジメント株式会社 Correction parameter calculation method, displacement amount calculation method, correction parameter calculation device, and displacement amount calculation device
US11663437B2 (en) 2020-02-19 2023-05-30 Fujifilm Business Innovation Corp. Light emitting apparatus recognition system and light emitting apparatus

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01258193A (en) * 1988-04-08 1989-10-16 Touken:Kk Tag card and recognition system for it
JPH0341414A (en) * 1989-07-07 1991-02-21 Opt Kk Identification card
JP2007201914A (en) * 2006-01-27 2007-08-09 Zeo System:Kk Information communication system and tag applied to same
JP2013124972A (en) * 2011-12-15 2013-06-24 Samsung Yokohama Research Institute Co Ltd Position estimation device and method and television receiver

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01258193A (en) * 1988-04-08 1989-10-16 Touken:Kk Tag card and recognition system for it
JPH0341414A (en) * 1989-07-07 1991-02-21 Opt Kk Identification card
JP2007201914A (en) * 2006-01-27 2007-08-09 Zeo System:Kk Information communication system and tag applied to same
JP2013124972A (en) * 2011-12-15 2013-06-24 Samsung Yokohama Research Institute Co Ltd Position estimation device and method and television receiver

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018155663A (en) * 2017-03-17 2018-10-04 光トライオード株式会社 Laser beam tracking system
WO2020086972A1 (en) * 2018-10-26 2020-04-30 Current Lighting Solutions, Llc Identification of lighting fixtures for indoor positioning using color band code
US11558949B2 (en) 2018-10-26 2023-01-17 Current Lighting Solutions, Llc Identification of lighting fixtures for indoor positioning using color band code
WO2021075090A1 (en) * 2019-10-17 2021-04-22 パナソニックIpマネジメント株式会社 Correction parameter calculation method, displacement amount calculation method, correction parameter calculation device, and displacement amount calculation device
JP7489671B2 (en) 2019-10-17 2024-05-24 パナソニックIpマネジメント株式会社 Correction parameter calculation method, displacement amount calculation method, correction parameter calculation device, and displacement amount calculation device
US11663437B2 (en) 2020-02-19 2023-05-30 Fujifilm Business Innovation Corp. Light emitting apparatus recognition system and light emitting apparatus

Also Published As

Publication number Publication date
JP6324866B2 (en) 2018-05-16

Similar Documents

Publication Publication Date Title
US20240094353A1 (en) Lidar system, apparatus communicating with the lidar system, and apparatus located in a field of view (fov) of the lidar system
CN111465872B (en) System and method for light detection and ranging
KR102523828B1 (en) Semiconductor body and method for measuring flight time
CN107111944B (en) Sign for vehicle identification system identification
US8553212B2 (en) Geodesic measurement system and method for identifying a target unit having a geodesic measurement device
US9111473B1 (en) Input system
JP6324866B2 (en) Information communication system
CN102346840B (en) PDT is utilized to collect the running gear of vehicles performance
US7874490B2 (en) Active electro-optical identification
US8292184B2 (en) Barcode scanner
CN105682539A (en) Portable eye tracking device
US20150022321A1 (en) Long-Range Electronic Identification System
TW294778B (en) Scanning optical rangefinder
US20110199192A1 (en) Reconfiguration of a radio frequency tag
US20110199191A1 (en) Reconfiguration of a radio frequency reader
US10733402B2 (en) System for vehicle identification
US10692912B2 (en) Optical device for exposure of a sensor device for a vehicle
CN110447040B (en) Electronic label
Zhang et al. Research on visible light indoor positioning technique using two light sources andspecular reflection cancellation
US10608409B1 (en) Calibration of laser power monitor in an imaging system of a wearable head mounted display
JP4664012B2 (en) Directional optical ID device and optical ID tag
WO2020075506A1 (en) Distance measurement system, calibration method, program, and electronic device
Ashok et al. What am i looking at? low-power radio-optical beacons for in-view recognition on smart-glass
Manabe et al. Tag system with low-powered tag and depth sensing camera
Janjua et al. Oslo: Optical sensor localization through mesh networked cameras

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171117

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180307

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180410

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180411

R150 Certificate of patent or registration of utility model

Ref document number: 6324866

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150