JP2021009560A - Equipment detecting device and equipment detecting method - Google Patents

Equipment detecting device and equipment detecting method Download PDF

Info

Publication number
JP2021009560A
JP2021009560A JP2019123077A JP2019123077A JP2021009560A JP 2021009560 A JP2021009560 A JP 2021009560A JP 2019123077 A JP2019123077 A JP 2019123077A JP 2019123077 A JP2019123077 A JP 2019123077A JP 2021009560 A JP2021009560 A JP 2021009560A
Authority
JP
Japan
Prior art keywords
marker
identification information
unit
information
building
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019123077A
Other languages
Japanese (ja)
Other versions
JP7303676B2 (en
Inventor
勝大 堀江
Katsuhiro Horie
勝大 堀江
横井 謙太朗
Kentaro Yokoi
謙太朗 横井
一紀 丸山
Kazunori Maruyama
一紀 丸山
憲一 細谷
Kenichi Hosoya
憲一 細谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Energy Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Energy Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Energy Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2019123077A priority Critical patent/JP7303676B2/en
Publication of JP2021009560A publication Critical patent/JP2021009560A/en
Application granted granted Critical
Publication of JP7303676B2 publication Critical patent/JP7303676B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To provide an equipment detecting device capable of efficiently detecting objects installed in a wide range.SOLUTION: According to one embodiment, an equipment detecting device comprises an imaging unit which acquires an image captured by an imaging device moving in a building, and a detecting unit which detects an equipment identification graphic, which is provided for identifying equipment in the building, from the captured image. The equipment detecting device further includes: an extraction unit which compares first identification information obtained from the equipment identification graphic with second identification information stored in a storage unit as identification information of the equipment, and extracts the second identification information corresponding to the first identification information; a determination unit which determines position information indicating a position of the equipment in the building on the basis of information output from the imaging device or a device moving with the imaging device when the second identification information corresponding to the first identification information is output; and a registration unit which registers the identification information of the equipment in association with the determined position information.SELECTED DRAWING: Figure 3

Description

本発明の実施形態は、機器検出装置および機器検出方法に関する。 Embodiments of the present invention relate to a device detection device and a device detection method.

画像中に存在する2次元コードを検出することで、データベースに登録されている物体を検出する技術が知られている。 A technique for detecting an object registered in a database by detecting a two-dimensional code existing in an image is known.

特許第4724800号公報Japanese Patent No. 4724800 特開2018−16489号公報Japanese Unexamined Patent Publication No. 2018-16489

しかしながら、上記の技術では、物体に近い距離にカメラを設置する必要があることが問題となる。この場合、広範囲に設置されている物体を検出するためには、多くのカメラを設置する必要がある。 However, in the above technique, there is a problem that the camera needs to be installed at a distance close to the object. In this case, it is necessary to install many cameras in order to detect an object installed in a wide range.

よって、本発明の実施形態は、広範囲に設置されている物体を効率的に検出可能な機器検出装置および機器検出方法を提供することを課題とする。 Therefore, it is an object of the present embodiment of the present invention to provide a device detection device and a device detection method capable of efficiently detecting an object installed in a wide range.

一の実施形態によれば、機器検出装置は、建物内を移動する撮像装置により撮像された撮像画像を取得する撮像部を備える。前記機器検出装置はさらに、前記撮像画像から、前記建物内の機器の識別用に前記機器または前記機器付近に設けられた図形である機器識別図形を検出する検出部を備える。前記機器検出装置はさらに、前記機器識別図形から得られた第1の識別情報と、前記機器の識別情報として格納部内に格納されている第2の識別情報とを照合して、前記第1の識別情報に対応する前記第2の識別情報を前記格納部から抽出する抽出部を備える。前記機器検出装置はさらに、前記第1の識別情報に対応する前記第2の識別情報が抽出された場合に、前記撮像装置から出力された情報、または前記撮像装置と共に移動する装置から出力された情報に基づいて、前記建物内における前記機器の位置を示す位置情報を決定する決定部を備える。前記機器検出装置はさらに、前記機器の識別情報と、前記決定部により決定された前記位置情報とを関連付けて登録する登録部を備える。 According to one embodiment, the device detection device includes an imaging unit that acquires an image captured by an imaging device moving in a building. The device detection device further includes a detection unit that detects a device identification figure, which is a figure provided in the vicinity of the device or the device for identifying the device in the building, from the captured image. The device detection device further collates the first identification information obtained from the device identification figure with the second identification information stored in the storage unit as the device identification information, and the first identification device. An extraction unit that extracts the second identification information corresponding to the identification information from the storage unit is provided. The device detection device is further output from the information output from the image pickup device or from a device moving with the image pickup device when the second identification information corresponding to the first identification information is extracted. A determination unit for determining position information indicating the position of the device in the building is provided based on the information. The device detection device further includes a registration unit that registers the identification information of the device and the position information determined by the determination unit in association with each other.

第1実施形態の機器検出システムの構成を示すブロック図である。It is a block diagram which shows the structure of the device detection system of 1st Embodiment. 第1実施形態の機器検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the device detection apparatus of 1st Embodiment. 第1実施形態の機器検出システムの構成を示す図である。It is a figure which shows the structure of the device detection system of 1st Embodiment. 第1実施形態の撮像装置から出力された撮像画像の例と、第1実施形態の機器マーカーの例とを示す図である。It is a figure which shows the example of the captured image output from the image pickup apparatus of 1st Embodiment, and the example of the device marker of 1st Embodiment. 第1実施形態の撮像装置から出力された撮像画像の例を示す図である。It is a figure which shows the example of the captured image output from the imaging apparatus of 1st Embodiment. 第1実施形態のデータベース内の格納データの例を示す図である。It is a figure which shows the example of the stored data in the database of 1st Embodiment. 第1実施形態の機器検出方法を説明するためのフローチャートである。It is a flowchart for demonstrating the apparatus detection method of 1st Embodiment. 第1実施形態の機器検出方法の詳細を説明するためのフローチャートである。It is a flowchart for demonstrating the detail of the apparatus detection method of 1st Embodiment. 第1実施形態の第1変形例の機器検出システムの構成を示す図である。It is a figure which shows the structure of the device detection system of the 1st modification of 1st Embodiment. 第1実施形態の第1変形例の撮像装置から出力された撮像画像の例を示す図である。It is a figure which shows the example of the captured image output from the imaging apparatus of the 1st modification of 1st Embodiment. 第1実施形態の第1変形例の位置座標テーブルの例を示す図である。It is a figure which shows the example of the position coordinate table of the 1st modification of 1st Embodiment. 第1実施形態の第1変形例の機器検出方法を説明するためのフローチャートである。It is a flowchart for demonstrating the apparatus detection method of the 1st modification of 1st Embodiment. 第2実施形態の機器検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the device detection apparatus of 2nd Embodiment. 第2実施形態の機器検出方法を説明するためのフローチャートである。It is a flowchart for demonstrating the apparatus detection method of 2nd Embodiment. 第3実施形態の機器検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the device detection apparatus of 3rd Embodiment. 第3実施形態の連結画像の例を示す図である。It is a figure which shows the example of the connected image of 3rd Embodiment. 第3実施形態の機器検出方法を説明するためのフローチャートである。It is a flowchart for demonstrating the apparatus detection method of 3rd Embodiment.

以下、本発明の実施形態を、図面を参照して説明する。図1から図17において、同一または類似の構成には同一の符号を付し、重複する説明は省略する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In FIGS. 1 to 17, the same or similar configurations are designated by the same reference numerals, and redundant description will be omitted.

(第1実施形態)
図1は、第1実施形態の機器検出システムの構成を示すブロック図である。
(First Embodiment)
FIG. 1 is a block diagram showing a configuration of the device detection system of the first embodiment.

本実施形態の機器検出システムは、図1に示すように、機器検出装置1と、機器情報管理装置2と、1台以上の撮像装置3とを備えている。図1は、1台以上の撮像装置3の例として、3台の撮像装置3a〜3cを示している。図1はさらに、撮像装置3による撮像対象となる機器マーカー4および位置マーカー5と、機器検出装置1および撮像装置3を移動させるクレーン6とを示している。機器マーカー4、位置マーカー5、クレーン6はそれぞれ、機器識別図形、位置識別図形、移動体の例である。機器マーカー4、位置マーカー5、クレーン6の詳細については後述する。 As shown in FIG. 1, the device detection system of the present embodiment includes a device detection device 1, a device information management device 2, and one or more image pickup devices 3. FIG. 1 shows three image pickup devices 3a to 3c as an example of one or more image pickup devices 3. FIG. 1 further shows a device marker 4 and a position marker 5 to be imaged by the image pickup device 3, and a crane 6 for moving the device detection device 1 and the image pickup device 3. The device marker 4, the position marker 5, and the crane 6 are examples of a device identification figure, a position identification figure, and a moving body, respectively. Details of the equipment marker 4, the position marker 5, and the crane 6 will be described later.

本実施形態の機器検出システムは、後述するように、複数の機器が配置された建物内に設けられており、これらの機器を検出するように動作する。建物の例は、工業製品を製造する製造現場に建てられた建屋であり、機器の例は、工業製品の製造用の制御盤である。機器検出装置1は、各撮像装置3により建物内で撮像された撮像画像を取得し、撮像画像中の機器マーカー4に基づいて機器を検出し、撮像画像中の位置マーカー5に基づいて機器の位置を検出する。機器情報管理装置2は、機器検出装置1の動作に必要な情報や、機器検出装置1から出力された情報を管理する。 As will be described later, the device detection system of the present embodiment is provided in a building in which a plurality of devices are arranged, and operates so as to detect these devices. An example of a building is a building built on a manufacturing site that manufactures industrial products, and an example of equipment is a control panel for manufacturing industrial products. The device detection device 1 acquires a captured image captured in the building by each imaging device 3, detects the device based on the device marker 4 in the captured image, and bases the device on the position marker 5 in the captured image. Detect the position. The device information management device 2 manages information necessary for the operation of the device detection device 1 and information output from the device detection device 1.

機器検出装置1は例えば、PC(Personal Computer)やサーバ装置などのコンピュータである。機器検出装置1は、キーボード、マウス、ディスプレイ、通信デバイスなどの入出力装置11と、プロセッサやROM(Read Only Memory)などの演算装置12と、HDD(Hard Disc Drive)や半導体メモリなどの記憶装置13と、記憶装置13内のプログラム14とを備えている。機器検出装置1は、有線通信または無線通信により各撮像装置3と通信可能である。 The device detection device 1 is, for example, a computer such as a PC (Personal Computer) or a server device. The device detection device 1 includes an input / output device 11 such as a keyboard, a mouse, a display, and a communication device, a computing device 12 such as a processor and a ROM (Read Only Memory), and a storage device such as an HDD (Hard Disc Drive) and a semiconductor memory. A 13 and a program 14 in the storage device 13 are provided. The device detection device 1 can communicate with each image pickup device 3 by wire communication or wireless communication.

機器情報管理装置2は例えば、PCやサーバ装置などのコンピュータである。機器情報管理装置2は、プロセッサやROMなどの演算装置21と、HDDや半導体メモリなどの記憶装置22と、データベース23とを備えている。データベース23は、記憶装置22に含まれていてもよいし、記憶装置22とは別に設けられていてもよい。また、データベース23は、1台の装置により構成されていてもよいし、複数台の装置により構成されていてもよい。データベース23は、格納部の例である。機器情報管理装置2は、有線通信または無線通信により機器検出装置1と通信可能である。本実施形態の機器検出装置1と機器情報管理装置2は、ネットワークを介して互いに接続される。 The device information management device 2 is, for example, a computer such as a PC or a server device. The device information management device 2 includes an arithmetic unit 21 such as a processor and a ROM, a storage device 22 such as an HDD and a semiconductor memory, and a database 23. The database 23 may be included in the storage device 22 or may be provided separately from the storage device 22. Further, the database 23 may be composed of one device or a plurality of devices. Database 23 is an example of a storage unit. The device information management device 2 can communicate with the device detection device 1 by wired communication or wireless communication. The device detection device 1 and the device information management device 2 of the present embodiment are connected to each other via a network.

図2は、第1実施形態の機器検出装置1の構成を示すブロック図である。 FIG. 2 is a block diagram showing the configuration of the device detection device 1 of the first embodiment.

本実施形態の機器検出装置1は、図2に示すように、撮像部31と、マーカー検出部32と、識別部33と、照合部34と、位置推定部35と、登録部36と、記憶部37とを備えている。これらのブロックは例えば、上述のプログラム14を機器検出装置1内で実行することで実現される。これらのブロックの詳細については後述する。識別部33および照合部34は抽出部の例であり、位置推定部35は決定部の例である。 As shown in FIG. 2, the device detection device 1 of the present embodiment includes an imaging unit 31, a marker detection unit 32, an identification unit 33, a collation unit 34, a position estimation unit 35, a registration unit 36, and a storage unit. It is provided with a unit 37. These blocks are realized, for example, by executing the above-mentioned program 14 in the device detection device 1. Details of these blocks will be described later. The identification unit 33 and the collation unit 34 are examples of the extraction unit, and the position estimation unit 35 is an example of the determination unit.

図3は、第1実施形態の機器検出システムの構成を示す図である。 FIG. 3 is a diagram showing the configuration of the device detection system of the first embodiment.

図3は、本実施形態の機器検出システムの全体構成を示す斜視図であり、上述した建物の床41と、床41の中央に設けられた通路42と、床41の上に配置された複数の機器43と、機器43を運搬する車両44とを示している。機器43の例は制御盤であり、車両44の例はトラックである。図3はさらに、床41に平行で互いに垂直なx方向およびy方向と、床41に垂直なz方向とを示している。 FIG. 3 is a perspective view showing the overall configuration of the device detection system of the present embodiment, the floor 41 of the building described above, the passage 42 provided in the center of the floor 41, and a plurality of passages arranged on the floor 41. The device 43 and the vehicle 44 that carries the device 43 are shown. An example of the device 43 is a control panel, and an example of the vehicle 44 is a truck. FIG. 3 further shows the x and y directions parallel to the floor 41 and perpendicular to each other, and the z direction perpendicular to the floor 41.

本実施形態では、ある製品の製造工程が進むと、この製品の製造に用いられる機器43の設置場所を移動する。本実施形態では、各機器43の設置場所の管理を機器検出装置1などにより行う。これにより、機器43の管理に要する手間を軽減することや、機器43の管理が遅れることで製造作業が遅れることを抑制することが可能となる。 In the present embodiment, as the manufacturing process of a certain product progresses, the installation location of the device 43 used for manufacturing the product is moved. In the present embodiment, the installation location of each device 43 is managed by the device detection device 1 or the like. As a result, it is possible to reduce the labor required for managing the device 43 and to prevent the manufacturing work from being delayed due to the delay in the management of the device 43.

図3はさらに、機器検出装置1と、機器情報管理装置2と、撮像装置3(撮像装置3a〜3c)と、複数の機器マーカー4と、複数の位置マーカー5と、クレーン6とを示している。 FIG. 3 further shows the device detection device 1, the device information management device 2, the image pickup device 3 (imaging devices 3a to 3c), the plurality of device markers 4, the plurality of position markers 5, and the crane 6. There is.

機器検出装置1と撮像装置3は、建物内を移動することが可能なクレーン6に取り付けられている。図3は、床41の上方でy方向に移動しようとしているクレーン6を示している。一方、機器情報管理装置2は、建物内に静止した状態で設置されている。撮像装置3は、クレーン6とは別の手段により建物内を移動してもよい。 The device detection device 1 and the image pickup device 3 are attached to a crane 6 that can move in the building. FIG. 3 shows a crane 6 trying to move in the y direction above the floor 41. On the other hand, the device information management device 2 is installed in a stationary state in the building. The image pickup device 3 may move in the building by means other than the crane 6.

なお、機器情報管理装置2は、図3に示す建物とは別の建物内に設置されていてもよい。このような構成は例えば、複数の建物内の機器43の情報をこの1台の機器情報管理装置2で管理する場合に採用可能である。この場合、個々の建物内に機器検出装置1を配置し、複数台の機器検出装置1と1台の機器情報管理装置2で機器検出システムを構成することが考えられる。 The device information management device 2 may be installed in a building different from the building shown in FIG. Such a configuration can be adopted, for example, when the information of the devices 43 in a plurality of buildings is managed by the one device information management device 2. In this case, it is conceivable to arrange the device detection device 1 in each building and configure the device detection system with a plurality of device detection devices 1 and one device information management device 2.

機器マーカー4は、機器43を識別するために用いられる目印であり、個々の機器43に設けられている。本実施形態では、各機器43の上部に、紙に印刷された1つの機器マーカー4が貼られている。建物内のある機器43の上部と別の機器43の上部には、互いに異なる識別子を保持する機器マーカー4が貼られている。機器マーカー4は、このような識別子を保持することが可能であればどのような図形でもよく、例えば1次元バーコードや、2次元バーコードや、QRコードでもよい。また、ここでいう図形は、1つ以上の文字、数字、または記号や、これらの組合せでもよい。本実施形態の機器マーカー4は、複数種類の色のいずれかがm×n分割のセルの各々に配置されたカラーマーカーである。 The device marker 4 is a mark used to identify the device 43, and is provided on each device 43. In the present embodiment, one device marker 4 printed on paper is attached to the upper part of each device 43. Device markers 4 holding different identifiers are affixed to the upper part of one device 43 and the upper part of another device 43 in the building. The device marker 4 may be any graphic as long as it can hold such an identifier, and may be, for example, a one-dimensional barcode, a two-dimensional barcode, or a QR code. Further, the figure referred to here may be one or more letters, numbers, symbols, or a combination thereof. The device marker 4 of the present embodiment is a color marker in which any of a plurality of types of colors is arranged in each of the cells divided into m × n.

本実施形態の機器マーカー4は、上述のように、管理対象となる機器43の上部に設けられる。ただし、管理対象となる機器43が天井板を備えない場合には、その機器43の付近の机の上にその機器43の機器マーカー4を設けてもよい。機器マーカー4の向きはどのように設定してもよく、例えば、機器マーカー4の長辺をx方向に平行にしてもよいし、機器マーカー4の長辺をy方向に平行にしてもよい。また、機器マーカー4は、撮像装置3の撮像対象となるため、機器マーカー4と撮像装置3との間に撮像を妨げる遮蔽が生じないように配置される。機器マーカー4の表面には、光の反射を抑制する加工を施してもよい。機器マーカー4のさらなる詳細については後述する。 As described above, the device marker 4 of the present embodiment is provided on the upper part of the device 43 to be managed. However, if the device 43 to be managed does not have a ceiling plate, the device marker 4 of the device 43 may be provided on a desk near the device 43. The orientation of the device marker 4 may be set in any way. For example, the long side of the device marker 4 may be parallel to the x direction, or the long side of the device marker 4 may be parallel to the y direction. Further, since the device marker 4 is an image pickup target of the image pickup device 3, the device marker 4 is arranged between the device marker 4 and the image pickup device 3 so as not to obstruct the image pickup. The surface of the device marker 4 may be processed to suppress light reflection. Further details of the device marker 4 will be described later.

位置マーカー5は、建物内の位置を識別するために用いられる目印であり、建物内の複数の場所に設けられている。本実施形態の位置マーカー5は、紙に印刷されて、建物の通路42の上に貼られている。本実施形態では、機器マーカー4の検出結果と位置マーカー5の検出結果とを組み合わせることで、各機器43が建物内のどの位置に設置されているかを判定(推定)することができる。建物内のある場所と別の場所には、互いに異なる識別子を保持する位置マーカー5が貼られている。位置マーカー5は、このような識別子を保持することが可能であればどのような図形でもよく、例えば1次元バーコードや、2次元バーコードや、QRコードや、ARコードでもよい。また、ここでいう図形は、1つ以上の文字、数字、または記号や、これらの組合せでもよい。本実施形態の位置マーカー5は、機器マーカー4と同様に、カラーマーカーである。 The position marker 5 is a mark used for identifying a position in the building, and is provided at a plurality of places in the building. The position marker 5 of the present embodiment is printed on paper and affixed on the passage 42 of the building. In the present embodiment, by combining the detection result of the device marker 4 and the detection result of the position marker 5, it is possible to determine (estimate) at which position in the building each device 43 is installed. Position markers 5 holding different identifiers are affixed to one place and another place in the building. The position marker 5 may be any graphic as long as it can hold such an identifier, and may be, for example, a one-dimensional barcode, a two-dimensional barcode, a QR code, or an AR code. Further, the figure referred to here may be one or more letters, numbers, symbols, or a combination thereof. The position marker 5 of the present embodiment is a color marker like the device marker 4.

位置マーカー5の向きは、どのように設定してもよい。また、位置マーカー5は、撮像装置3の撮像対象となるため、位置マーカー5と撮像装置3との間に撮像を妨げる遮蔽が生じないように配置される。位置マーカー5の表面には、光の反射を抑制する加工を施してもよい。位置マーカー5同士は、等間隔に配置されていてもよいし、非等間隔に配置されていてもよい。各位置マーカー5は、撮像装置3a、撮像装置3b、撮像装置3cのいずれに撮像されてもよい。位置マーカー5のさらなる詳細については後述する。 The orientation of the position marker 5 may be set in any way. Further, since the position marker 5 is an image pickup target of the image pickup device 3, the position marker 5 is arranged so as not to cause a shield that hinders the image pickup between the position marker 5 and the image pickup device 3. The surface of the position marker 5 may be processed to suppress light reflection. The position markers 5 may be arranged at equal intervals or may be arranged at non-equal intervals. Each position marker 5 may be imaged by any of the image pickup device 3a, the image pickup device 3b, and the image pickup device 3c. Further details of the position marker 5 will be described later.

撮像装置3は、機器マーカー4や位置マーカー5を撮像可能な角度でクレーン6に取り付けられている。本実施形態の撮像装置3は、床41を向く角度でクレーン6に取り付けられている。撮像装置3a〜3cは、互いに重複する領域を撮像していてもよい。撮像装置3は、例えばCCTV(Closed-Circuit Television)カメラであるが、その他の撮像装置でもよい。撮像装置3は、動画を撮像する装置でもよいし、静止画を撮像する装置でもよい。 The image pickup device 3 is attached to the crane 6 at an angle at which the device marker 4 and the position marker 5 can be imaged. The image pickup apparatus 3 of the present embodiment is attached to the crane 6 at an angle facing the floor 41. The imaging devices 3a to 3c may image regions that overlap each other. The image pickup device 3 is, for example, a CCTV (Closed-Circuit Television) camera, but other image pickup devices may also be used. The image pickup device 3 may be a device for capturing a moving image or a device for capturing a still image.

図3は、撮像装置3の例として、3台の撮像装置3a〜3cを示している。本実施形態の機器検出システムは、機器マーカー4と位置マーカー5が設置される可能性のある範囲をすべて撮像範囲として網羅するために、複数台の撮像装置3を備えている。機器検出システムの撮像装置3の台数は、撮像装置3の解像度や機器マーカー4と位置マーカー5の設置範囲に応じて、任意の台数に設定してもよい。よって、機器検出システムの撮像装置3の台数は、3台以外でもよい。 FIG. 3 shows three image pickup devices 3a to 3c as an example of the image pickup device 3. The device detection system of the present embodiment includes a plurality of image pickup devices 3 in order to cover the entire range in which the device marker 4 and the position marker 5 may be installed as an image pickup range. The number of image pickup devices 3 of the device detection system may be set to an arbitrary number according to the resolution of the image pickup device 3 and the installation range of the device marker 4 and the position marker 5. Therefore, the number of image pickup devices 3 in the device detection system may be other than three.

ここで、本実施形態の撮像装置3a〜3cは、建物内をクレーン6により移動することに留意されたい。これらの撮像装置3a〜3cは、1箇所に静止したままでは機器マーカー4と位置マーカー5の全設置範囲を撮像することはできない。しかしながら、これらの撮像装置3a〜3cが建物内を移動することで、機器マーカー4と位置マーカー5の全設置範囲を撮像することが可能となる。 Here, it should be noted that the imaging devices 3a to 3c of the present embodiment move in the building by the crane 6. These image pickup devices 3a to 3c cannot capture the entire installation range of the device marker 4 and the position marker 5 while stationary at one place. However, when these imaging devices 3a to 3c move in the building, it is possible to image the entire installation range of the device marker 4 and the position marker 5.

本実施形態の機器検出装置1は、撮像装置3により撮像された撮像画像を取得し、撮像画像から機器マーカー4と位置マーカー5とを検出し、機器マーカー4の検出結果と位置マーカー5の検出結果とを組み合わせることで各機器43の設置位置を判定(推定)する。この判定の前には、機器マーカー4から得られた識別子とデータベース23内の識別子との照合や、位置マーカー5から得られた識別子とデータベース23内の識別子との照合が行われる。機器マーカー4から得られる識別子の例は、機器43の登録番号であり、位置マーカー5から得られる識別子の例は、建物内の区画に関する情報である。上記の判定の結果は、データベース23内に登録され、データベース23内の情報が更新される。このようにして、本実施形態の機器検出システムは、各機器43の位置を自動的に管理することができる。 The device detection device 1 of the present embodiment acquires the captured image captured by the image pickup device 3, detects the device marker 4 and the position marker 5 from the captured image, and detects the detection result of the device marker 4 and the position marker 5. By combining the results, the installation position of each device 43 is determined (estimated). Prior to this determination, the identifier obtained from the device marker 4 and the identifier in the database 23 are collated, and the identifier obtained from the position marker 5 and the identifier in the database 23 are collated. An example of an identifier obtained from the device marker 4 is a registration number of the device 43, and an example of an identifier obtained from the position marker 5 is information about a section in a building. The result of the above determination is registered in the database 23, and the information in the database 23 is updated. In this way, the device detection system of the present embodiment can automatically manage the position of each device 43.

撮像装置3により撮像された撮像画像の例は、後述するように、図4(a)の撮像画像7a、図5(a)の撮像画像7b、図5(b)の撮像画像7c、図10(a)の撮像画像7d、図10(b)の撮像画像7eなどである。これらの図は、建物内のx方向に対応するX方向(X座標)や、建物内のy方向に対応するY方向(Y座標)を示している。本実施形態の機器検出システムは、機器マーカー4や位置マーカー5の位置を、X座標やY座標により管理する。以下、これらの撮像画像7a〜7eを例とする任意の撮像画像について説明する際には、これを「撮像画像7」と表記することにする。 Examples of the captured image captured by the imaging device 3 include the captured image 7a of FIG. 4A, the captured image 7b of FIG. 5A, the captured image 7c of FIG. 5B, and FIG. 10 as described later. The captured image 7d of (a), the captured image 7e of FIG. 10B, and the like. These figures show the X direction (X coordinate) corresponding to the x direction in the building and the Y direction (Y coordinate) corresponding to the y direction in the building. The device detection system of the present embodiment manages the positions of the device marker 4 and the position marker 5 by the X coordinate and the Y coordinate. Hereinafter, when an arbitrary captured image using these captured images 7a to 7e as an example is described, this will be referred to as “captured image 7”.

以下、図3を参照しながら、機器検出装置1の撮像部31、マーカー検出部32、識別部33、照合部34、位置推定部35、登録部36、および記憶部37の詳細を説明する。この説明中で、図4から図6も適宜参照する。 Hereinafter, the details of the imaging unit 31, the marker detection unit 32, the identification unit 33, the collation unit 34, the position estimation unit 35, the registration unit 36, and the storage unit 37 of the device detection device 1 will be described with reference to FIG. In this description, FIGS. 4 to 6 will also be referred to as appropriate.

撮像部31は、撮像装置3により撮像された撮像画像7を取得する。本実施形態の撮像装置3は、クレーン6と共に建物内の複数の箇所に移動し、これらの箇所で撮像した撮像画像7を撮像部31に出力する。撮像部31は、撮像画像7を半導体メモリ内に記憶させてもよいし、HDD内に保存してもよい。 The imaging unit 31 acquires the captured image 7 captured by the imaging device 3. The imaging device 3 of the present embodiment moves to a plurality of locations in the building together with the crane 6, and outputs the captured images 7 captured at these locations to the imaging unit 31. The imaging unit 31 may store the captured image 7 in the semiconductor memory or may store it in the HDD.

マーカー検出部32は、撮像画像7から、機器マーカー4が存在する領域や、位置マーカー5が存在する領域を検出する。本実施形態の機器マーカー4は、m×n個のセルと、これらのセルを取り囲む外枠とで構成されている。各セルは、6種類の色(赤、青、緑、黄、シアン、マゼンタ)のいずれかで塗りつぶされている。外枠は、背景色と分離可能な色で塗りつぶされている。本実施形態の位置マーカー5も、機器マーカー4と同様の構成を有している。マーカー検出部32は例えば、色抽出などの画像処理方法により撮像画像7から機器マーカー4や位置マーカー5を検出する。 The marker detection unit 32 detects the region where the device marker 4 exists and the region where the position marker 5 exists from the captured image 7. The device marker 4 of the present embodiment is composed of m × n cells and an outer frame surrounding these cells. Each cell is filled with one of six colors (red, blue, green, yellow, cyan, magenta). The outer frame is filled with a color that is separable from the background color. The position marker 5 of the present embodiment also has the same configuration as the device marker 4. The marker detection unit 32 detects the device marker 4 and the position marker 5 from the captured image 7 by, for example, an image processing method such as color extraction.

機器マーカー4は、機器マーカー4を構成するセルの色により、機器43の識別子(機器43の登録番号)を保持している。機器43の識別子は、データベース23にも格納されており、機器マーカー4から得られた識別子と照合するために使用される。機器マーカー4が保持する識別子は、第1の識別情報の例であり、これと照合するためにデータベース23に格納されている識別子は、第2の識別情報の例である。 The device marker 4 holds the identifier of the device 43 (registration number of the device 43) according to the color of the cells constituting the device marker 4. The identifier of the device 43 is also stored in the database 23 and is used to collate with the identifier obtained from the device marker 4. The identifier held by the device marker 4 is an example of the first identification information, and the identifier stored in the database 23 for collation with this is an example of the second identification information.

同様に、位置マーカー5は、位置マーカー5を構成するセルの色により、建物内の位置の識別子(建物内の区画に関する情報)を保持している。建物内の位置の識別子は、データベース23にも格納されており、位置マーカー5から得られた識別子と照合するために使用される。位置マーカー4が保持する識別子は、第3の識別情報の例であり、これと照合するためにデータベース23に格納されている識別子は、第4の識別情報の例である。 Similarly, the position marker 5 holds an identifier of a position in the building (information about a section in the building) by the color of the cells constituting the position marker 5. The identifier of the position in the building is also stored in the database 23 and is used for collating with the identifier obtained from the position marker 5. The identifier held by the position marker 4 is an example of the third identification information, and the identifier stored in the database 23 for collation with this is an example of the fourth identification information.

図4は、第1実施形態の撮像装置3から出力された撮像画像7の例と、第1実施形態の機器マーカー4の例とを示す図である。 FIG. 4 is a diagram showing an example of an image captured image 7 output from the image capturing apparatus 3 of the first embodiment and an example of the device marker 4 of the first embodiment.

図4(a)は、撮像画像7の一例として、いずれかの撮像装置3から出力された撮像画像7aを示している。撮像画像7aは、床41の上に配置された2台の機器43(機器43a、43b)と、これらの機器43の上部に貼られた2つの機器マーカー4(機器マーカー4a、4b)とを含んでいる。図4(b)は、機器マーカー4aを示す拡大図である。 FIG. 4A shows the captured image 7a output from any of the imaging devices 3 as an example of the captured image 7. The captured image 7a includes two devices 43 (devices 43a and 43b) arranged on the floor 41 and two device markers 4 (device markers 4a and 4b) attached to the upper part of these devices 43. Includes. FIG. 4B is an enlarged view showing the device marker 4a.

マーカー検出部32は、撮像画像7aから、抽出対象の色と一致する画像範囲を抽出する。マーカー検出部32は、画像範囲の抽出に使用する色の識別の手法として、RGB色空間を用いてもよいし、HSV色空間を用いてもよい。マーカー検出部32は、撮像画像7aから、抽出対象の色以外の画像範囲を黒色に変換した画像を生成する。本実施形態のマーカー検出部32は、より高精度に機器マーカー4a、4bの画像範囲を特定するために、上記の変換後の画像の2値化やノイズ除去などの画像処理を行う。本実施形態のマーカー検出部32はさらに、画像処理後の画像を用いて上記の画像範囲(矩形領域)の面積を計算し、閾値の範囲内に入る機器マーカー4a、4bを特定する。 The marker detection unit 32 extracts an image range that matches the color to be extracted from the captured image 7a. The marker detection unit 32 may use an RGB color space or an HSV color space as a method for identifying colors used for extracting an image range. The marker detection unit 32 generates an image in which the image range other than the color to be extracted is converted to black from the captured image 7a. The marker detection unit 32 of the present embodiment performs image processing such as binarization of the converted image and noise removal in order to specify the image range of the device markers 4a and 4b with higher accuracy. The marker detection unit 32 of the present embodiment further calculates the area of the above image range (rectangular area) using the image after image processing, and identifies the device markers 4a and 4b that fall within the threshold range.

マーカー検出部32は、撮像画像7aから色情報を抽出することで機器マーカー4を検出する。マーカー検出部32は、記憶部37に記憶された抽出対象の色と一致する色は、機器マーカー4の外枠の色であると認識する。また、矩形領域の面積の範囲を定めるための閾値も、記憶部37に記憶されている。 The marker detection unit 32 detects the device marker 4 by extracting color information from the captured image 7a. The marker detection unit 32 recognizes that the color that matches the color of the extraction target stored in the storage unit 37 is the color of the outer frame of the device marker 4. Further, a threshold value for determining the range of the area of the rectangular region is also stored in the storage unit 37.

マーカー検出部32は、撮像画像7aからある機器マーカー4の領域を検出した場合、その機器マーカー4の領域情報を識別部33に送出する。領域情報の例は、機器マーカー4の所定の角部のX座標およびY座標や、機器マーカー4のX方向の幅およびY方向の幅である。以上の処理は、位置マーカー5に対しても同様に行われる。なお、図4(a)の撮像画像7aは2つの機器マーカー4a、4bを含んでいるが、各撮像画像7に含まれる機器マーカー4の個数は2つ以外でもよい。 When the marker detection unit 32 detects a region of a certain device marker 4 from the captured image 7a, the marker detection unit 32 sends out the area information of the device marker 4 to the identification unit 33. Examples of area information are the X-coordinate and Y-coordinate of a predetermined corner portion of the device marker 4, and the width in the X direction and the width in the Y direction of the device marker 4. The above processing is similarly performed for the position marker 5. The captured image 7a in FIG. 4A includes two device markers 4a and 4b, but the number of device markers 4 included in each captured image 7 may be other than two.

以下、図3を参照しながら、機器検出装置1の各ブロックの説明を続ける。 Hereinafter, the description of each block of the device detection device 1 will be continued with reference to FIG.

識別部33は、マーカー検出部32により検出された機器マーカー4の情報を、機器43の登録番号に変換する。このようにして、識別部33は、機器マーカー4が示す登録番号を識別することができる。識別部33はさらに、マーカー検出部32により検出された位置マーカー5の情報を、建物内の区画に関する情報(以下「区画情報」と呼ぶ)に変換する。このようにして、識別部33は、位置マーカー5が示す区画情報を識別することができる。区画情報の例は、建物内の各区画を表す番号または文字列や、建物内の区画間の境界を表す番号または文字列である。 The identification unit 33 converts the information of the device marker 4 detected by the marker detection unit 32 into the registration number of the device 43. In this way, the identification unit 33 can identify the registration number indicated by the device marker 4. The identification unit 33 further converts the information of the position marker 5 detected by the marker detection unit 32 into information regarding a section in the building (hereinafter referred to as “section information”). In this way, the identification unit 33 can identify the division information indicated by the position marker 5. Examples of parcel information are numbers or character strings representing each parcel in a building, or numbers or character strings representing boundaries between parcels in a building.

識別部33は、マーカー検出部32から機器マーカー4の領域情報を取得する。領域情報の例は、機器マーカー4の角部のX座標およびY座標や、機器マーカー4のX方向の幅およびY方向の幅である。識別部33は、機器マーカー4の領域情報に基づいて、撮像画像7から機器マーカー4の内部領域(機器マーカー4の外枠内の領域)を抽出する。具体的には、識別部33は、機器マーカー4の内部領域の角部のX座標およびY座標や、機器マーカー4の内部領域のX方向の幅およびY方向の幅を算出する。これらの値は、例えばピクセル数で表される。機器マーカー4から外枠を除外する割合は、外枠除外パラメータとして記憶部37に予め記憶しておくものとする。 The identification unit 33 acquires the area information of the device marker 4 from the marker detection unit 32. Examples of the area information are the X and Y coordinates of the corners of the device marker 4, and the width of the device marker 4 in the X direction and the width in the Y direction. The identification unit 33 extracts the internal region of the device marker 4 (the area within the outer frame of the device marker 4) from the captured image 7 based on the area information of the device marker 4. Specifically, the identification unit 33 calculates the X and Y coordinates of the corners of the internal region of the device marker 4, and the width of the internal region of the device marker 4 in the X direction and the width in the Y direction. These values are represented, for example, by the number of pixels. The ratio of excluding the outer frame from the device marker 4 is stored in advance in the storage unit 37 as an outer frame exclusion parameter.

識別部33は、機器マーカー4の内部領域の情報に基づいて、機器マーカー4の情報を機器43の登録番号に変換する。この変換は、記憶部37に記憶されている色変換テーブルを用いて行われる。 The identification unit 33 converts the information of the device marker 4 into the registration number of the device 43 based on the information of the internal area of the device marker 4. This conversion is performed using the color conversion table stored in the storage unit 37.

識別部33は、誤識別の抑制のために、撮像画像7中の輝度分布を均一化する画像処理や、撮像画像7内の色数を減少させる画像処理を行ってもよい。例えば、撮像画像7中の輝度分布の均一化のためのヒストグラム平均化処理やヒストグラム伸長処理を行ってもよい。また、セルへの誤配色を抑制するために、K−means法の処理を行ってもよい。以上の処理は、位置マーカー5に対しても同様に行われる。 The identification unit 33 may perform image processing for making the luminance distribution in the captured image 7 uniform or image processing for reducing the number of colors in the captured image 7 in order to suppress erroneous discrimination. For example, a histogram averaging process or a histogram stretching process for making the luminance distribution in the captured image 7 uniform may be performed. Further, in order to suppress an erroneous color arrangement in the cell, the K-means method may be performed. The above processing is similarly performed for the position marker 5.

照合部34は、識別部33により識別された機器マーカー4の登録番号とデータベース23内の登録番号とを照合して、機器マーカー4の登録番号に対応する登録番号をデータベース23から抽出する。具体的には、機器マーカー4の登録番号と同じ登録番号がデータベース23内に存在する場合には、照合部34は、機器マーカー4の登録番号(すなわち、データベース23から抽出された登録番号)を位置推定部35に送出する。一方、機器マーカー4の登録番号と同じ登録番号がデータベース23内に存在しない場合には、照合部34は、機器マーカー4の検出が誤りだったものと判断し、この検出結果を処理対象から除外する。データベース23には、個々の機器43の登録番号があらかじめ登録されている。本実施形態では、ある登録番号を有する機器マーカー4を作成した際に、その登録番号をデータベース23に登録してもよい。 The collation unit 34 collates the registration number of the device marker 4 identified by the identification unit 33 with the registration number in the database 23, and extracts the registration number corresponding to the registration number of the device marker 4 from the database 23. Specifically, when the same registration number as the registration number of the device marker 4 exists in the database 23, the collation unit 34 sets the registration number of the device marker 4 (that is, the registration number extracted from the database 23). It is sent to the position estimation unit 35. On the other hand, if the same registration number as the registration number of the device marker 4 does not exist in the database 23, the collation unit 34 determines that the detection of the device marker 4 is incorrect, and excludes this detection result from the processing target. To do. The registration numbers of the individual devices 43 are registered in advance in the database 23. In the present embodiment, when the device marker 4 having a certain registration number is created, the registration number may be registered in the database 23.

照合部34はさらに、識別部33により識別された位置マーカー5の区画情報とデータベース23内の区画情報とを照合して、位置マーカー5の区画情報に対応する区画情報をデータベース23から抽出する。具体的には、位置マーカー5の区画情報と同じ区画情報がデータベース23内に存在する場合には、照合部34は、位置マーカー5の区画情報(すなわち、データベース23から抽出された区画情報)を位置推定部35に送出する。一方、位置マーカー5の区画情報と同じ区画情報がデータベース23内に存在しない場合には、照合部34は、位置マーカー5の検出が誤りだったものと判断し、この検出結果を処理対象から除外する。データベース23には、建物内の複数の位置の区画情報があらかじめ登録されている。本実施形態では、ある区画情報を有する位置マーカー5を作成した際に、その区画情報をデータベース23に登録してもよい。 The collation unit 34 further collates the partition information of the position marker 5 identified by the identification unit 33 with the partition information in the database 23, and extracts the partition information corresponding to the partition information of the position marker 5 from the database 23. Specifically, when the same partition information as the partition information of the position marker 5 exists in the database 23, the collation unit 34 uses the partition information of the position marker 5 (that is, the partition information extracted from the database 23). It is sent to the position estimation unit 35. On the other hand, when the same partition information as the partition information of the position marker 5 does not exist in the database 23, the collation unit 34 determines that the detection of the position marker 5 is erroneous, and excludes this detection result from the processing target. To do. In the database 23, division information of a plurality of positions in the building is registered in advance. In the present embodiment, when the position marker 5 having a certain section information is created, the section information may be registered in the database 23.

上述のように、位置マーカー5は、建物内の位置を識別するために用いられる目印であり、建物内の複数の場所に設けられている。本実施形態の位置マーカー5は、建物内の位置を一意に示す情報として区画情報を保持している。本実施形態では、区画間の境界を示す場所に位置マーカー5が設置され、各撮像画像7に少なくとも1つの位置マーカー5が含まれるように建物内の様々な場所に複数の位置マーカー5が設置されている。また、本実施形態の位置マーカー5は、区画情報を番号の形で保持しており、以下この番号を区画番号と呼ぶ。 As described above, the position marker 5 is a mark used for identifying a position in the building, and is provided at a plurality of places in the building. The position marker 5 of the present embodiment holds the section information as information uniquely indicating the position in the building. In the present embodiment, position markers 5 are installed at locations indicating boundaries between sections, and a plurality of position markers 5 are installed at various locations in the building so that each captured image 7 includes at least one position marker 5. Has been done. Further, the position marker 5 of the present embodiment holds the division information in the form of a number, and this number is hereinafter referred to as a division number.

位置マーカー5は、機器マーカー4と同じ仕様で作成しても異なる仕様で作成してもよいが、本実施形態の位置マーカー5は、機器マーカー4と同じ仕様で作成されたカラーマーカーとなっている。本実施形態の位置マーカー5は、複数のセルと、これらのセルを取り囲む外枠とで構成されており、外枠は、床41の色と分離可能な色で塗りつぶされている。位置マーカー5は、位置マーカー5を構成するセルの色により、建物内の位置を一意に示す区画情報を保持している。 The position marker 5 may be created with the same specifications as the device marker 4 or with different specifications, but the position marker 5 of the present embodiment is a color marker created with the same specifications as the device marker 4. There is. The position marker 5 of the present embodiment is composed of a plurality of cells and an outer frame surrounding these cells, and the outer frame is filled with a color separable from the color of the floor 41. The position marker 5 holds the section information that uniquely indicates the position in the building by the color of the cells constituting the position marker 5.

位置推定部35は、機器マーカー4の検出結果と位置マーカー5の検出結果とを組み合わせることで、各機器43の設置位置を判定(推定)する。具体的には、1枚の同じ撮像画像7から1つの機器マーカー4と1つの位置マーカー5が検出された場合に、機器マーカー4が示す登録番号に基づいて機器43が特定され、位置マーカー5が示す区画情報に基づいてこの機器43の位置が特定される。本実施形態の位置推定部35は、撮像画像7に含まれる機器マーカー4の左上角部のY座標と位置マーカー5の左上角部のY座標とを取得し、これらのY座標の値を比較し、その比較結果に基づいて、機器マーカー4に対応する機器43の位置を示す位置情報を決定(設定)する。本実施形態の位置情報は、位置マーカー5が示す区画情報に基づいて決定される。 The position estimation unit 35 determines (estimates) the installation position of each device 43 by combining the detection result of the device marker 4 and the detection result of the position marker 5. Specifically, when one device marker 4 and one position marker 5 are detected from one same captured image 7, the device 43 is specified based on the registration number indicated by the device marker 4, and the position marker 5 is specified. The position of the device 43 is specified based on the partition information indicated by. The position estimation unit 35 of the present embodiment acquires the Y coordinate of the upper left corner of the device marker 4 and the Y coordinate of the upper left corner of the position marker 5 included in the captured image 7, and compares the values of these Y coordinates. Then, based on the comparison result, the position information indicating the position of the device 43 corresponding to the device marker 4 is determined (set). The position information of the present embodiment is determined based on the section information indicated by the position marker 5.

図5は、第1実施形態の撮像装置3から出力された撮像画像7の例を示す図である。 FIG. 5 is a diagram showing an example of an captured image 7 output from the imaging device 3 of the first embodiment.

図5(a)は、撮像画像7の一例として、いずれかの撮像装置3から出力された撮像画像7bを示している。撮像画像7bは、床41の上に配置された1台の機器43(機器43c)と、この機器43の上部に貼られた1つの機器マーカー4(機器マーカー4c)と、床41に設けられた通路42の上に貼られた1つの位置マーカー5(位置マーカー5a)とを含んでいる。図5(a)はさらに、機器マーカー4cの左上角部のY座標Y1と、位置マーカー5aの左上角部のY座標Y2とを示している。 FIG. 5A shows an captured image 7b output from any of the imaging devices 3 as an example of the captured image 7. The captured image 7b is provided on the floor 41, one device 43 (device 43c) arranged on the floor 41, one device marker 4 (device marker 4c) attached to the upper part of the device 43, and the floor 41. It includes one position marker 5 (position marker 5a) affixed on the passage 42. FIG. 5A further shows the Y coordinate Y1 at the upper left corner of the device marker 4c and the Y coordinate Y2 at the upper left corner of the position marker 5a.

図5(b)は、撮像画像7の一例として、いずれかの撮像装置3から出力された撮像画像7cを示している。撮像画像7cは、床41の上に配置された1台の機器43(機器43d)と、この機器43の上部に貼られた1つの機器マーカー4(機器マーカー4d)と、床41に設けられた通路42の上に貼られた2つの位置マーカー5(位置マーカー5b、5c)とを含んでいる。図5(b)はさらに、機器マーカー4dの左上角部のY座標Y3と、位置マーカー5bの左上角部のY座標Y4と、位置マーカー5cの左上角部のY座標Y5とを示している。 FIG. 5B shows an captured image 7c output from any of the imaging devices 3 as an example of the captured image 7. The captured image 7c is provided on the floor 41, one device 43 (device 43d) arranged on the floor 41, one device marker 4 (device marker 4d) attached to the upper part of the device 43, and the floor 41. It includes two position markers 5 (position markers 5b, 5c) attached on the passage 42. FIG. 5B further shows the Y coordinate Y3 at the upper left corner of the device marker 4d, the Y coordinate Y4 at the upper left corner of the position marker 5b, and the Y coordinate Y5 at the upper left corner of the position marker 5c. ..

図5(a)の場合、マーカー検出部32、識別部33、および照合部44は次のように動作する。マーカー検出部32は、図5(a)の撮像画像7bから、位置マーカー5aの左上角部のX座標およびY座標や、位置マーカー5aのX方向の幅およびY方向の幅を算出する。識別部33は、マーカー検出部32により検出された位置マーカー5aの区画番号を算出する。照合部34は、識別部33により算出された位置マーカー5aの区画番号とデータベース23内の区画番号とを照合して、位置マーカー5aの区画番号に対応する区画番号をデータベース23から抽出する。以上は、図5(b)の場合でも同様である。 In the case of FIG. 5A, the marker detection unit 32, the identification unit 33, and the collation unit 44 operate as follows. The marker detection unit 32 calculates the X and Y coordinates of the upper left corner of the position marker 5a and the width of the position marker 5a in the X direction and the width of the Y direction from the captured image 7b of FIG. 5A. The identification unit 33 calculates the section number of the position marker 5a detected by the marker detection unit 32. The collation unit 34 collates the division number of the position marker 5a calculated by the identification unit 33 with the division number in the database 23, and extracts the division number corresponding to the division number of the position marker 5a from the database 23. The above is the same in the case of FIG. 5 (b).

位置推定部35は、マーカー検出部32により1枚の撮像画像7から検出された位置マーカー5の数に応じて、位置情報を決定する処理を変える。例えば、図5(a)の撮像画像7bは1つの位置マーカー5aを含んでおり、この位置マーカー5aに基づいて位置情報が決定される。一方、図5(b)の撮像画像7bは2つの位置マーカー5b、5cを含んでおり、これらの位置マーカー5b、5cに基づいて位置情報が決定される。ただし、位置マーカー5の数をカウントする際には、照合部34によりデータベース23から区画情報が抽出された位置マーカー5のみをカウント対象とし、照合部34によりデータベース23から区画情報が抽出されなかった位置マーカー5はカウント対象から除外する。位置情報の決定は、区画情報が抽出された位置マーカー5を用いて行われる。 The position estimation unit 35 changes the process of determining the position information according to the number of the position markers 5 detected from one captured image 7 by the marker detection unit 32. For example, the captured image 7b of FIG. 5A includes one position marker 5a, and the position information is determined based on the position marker 5a. On the other hand, the captured image 7b of FIG. 5B includes two position markers 5b and 5c, and the position information is determined based on these position markers 5b and 5c. However, when counting the number of position markers 5, only the position marker 5 whose partition information was extracted from the database 23 by the collation unit 34 was counted, and the partition information was not extracted from the database 23 by the collation unit 34. The position marker 5 is excluded from the counting target. The position information is determined by using the position marker 5 from which the section information is extracted.

図5(a)に示すように、マーカー検出部32が検出した位置マーカー5の数が1つ(位置マーカー5a)の場合には、機器マーカー4cの左上角部のY座標Y1と、位置マーカー5aの左上角部のY座標Y2とを比較する。そして、Y1がY2より大きい場合には、区画P1を示す区画情報が、機器マーカー4c(機器43c)の位置を示す位置情報として決定される(Y1>Y2)。一方、Y1がY2より小さいかY2と等しい場合には、区画P2を示す区画情報が、機器マーカー4cの位置を示す位置情報として決定される(Y1≦Y2)。 As shown in FIG. 5A, when the number of position markers 5 detected by the marker detection unit 32 is one (position marker 5a), the Y coordinate Y1 at the upper left corner of the device marker 4c and the position marker Compare with the Y coordinate Y2 at the upper left corner of 5a. Then, when Y1 is larger than Y2, the partition information indicating the partition P1 is determined as the position information indicating the position of the device marker 4c (device 43c) (Y1> Y2). On the other hand, when Y1 is smaller than Y2 or equal to Y2, the partition information indicating the partition P2 is determined as the position information indicating the position of the device marker 4c (Y1 ≦ Y2).

区画P1は、位置マーカー5aの+Y方向側の区画であり、区画P2は、位置マーカー5aの−Y方向側の区画である。図5(a)ではY1がY2より小さいため、区画P2を示す区画情報が、機器マーカー4cの位置を示す位置情報として決定される。決定された区画情報は、機器マーカー4cの登録番号と共に登録部36に送出される。 The section P1 is a section on the + Y direction side of the position marker 5a, and the section P2 is a section on the −Y direction side of the position marker 5a. Since Y1 is smaller than Y2 in FIG. 5A, the partition information indicating the partition P2 is determined as the position information indicating the position of the device marker 4c. The determined partition information is sent to the registration unit 36 together with the registration number of the device marker 4c.

図5(b)に示すように、マーカー検出部32が検出した位置マーカー5の数が2つ(位置マーカー5b、5c)の場合には、機器マーカー4dの左上角部のY座標Y3と、位置マーカー5bの左上角部のY座標Y4と、位置マーカー5cの左上角部のY座標Y5とを比較する。そして、Y3がY4より大きい場合には、区画P3を示す区画情報が、機器マーカー4d(機器43d)の位置を示す位置情報として決定される(Y3>Y4)。また、Y3がY4より小さいかY4と等しくかつY5より大きい場合には、区画P4を示す区画情報が、機器マーカー4dの位置を示す位置情報として決定される(Y5<Y3≦Y4)。一方、Y3がY5より小さいかY2と等しい場合には、区画P5を示す区画情報が、機器マーカー4dの位置を示す位置情報として決定される(Y3≦Y5)。 As shown in FIG. 5B, when the number of position markers 5 detected by the marker detection unit 32 is two (position markers 5b and 5c), the Y coordinate Y3 at the upper left corner of the device marker 4d and The Y coordinate Y4 at the upper left corner of the position marker 5b is compared with the Y coordinate Y5 at the upper left corner of the position marker 5c. Then, when Y3 is larger than Y4, the partition information indicating the partition P3 is determined as the position information indicating the position of the device marker 4d (device 43d) (Y3> Y4). When Y3 is smaller than Y4, equal to Y4, and larger than Y5, the partition information indicating the partition P4 is determined as the position information indicating the position of the device marker 4d (Y5 <Y3 ≦ Y4). On the other hand, when Y3 is smaller than Y5 or equal to Y2, the partition information indicating the partition P5 is determined as the position information indicating the position of the device marker 4d (Y3 ≦ Y5).

区画P3は、位置マーカー5bの+Y方向側の区画であり、区画P4は、位置マーカー5bの−Y方向側で位置マーカー5cの+Y方向側の区画であり、区画P5は、位置マーカー5cの−Y方向側の区画である。図5(b)ではY3がY4より小さくかつY5より大きいため、区画P4を示す区画情報が、機器マーカー4dの位置を示す位置情報として決定される。決定された区画情報は、機器マーカー4dの登録番号と共に登録部36に送出される。 Section P3 is a section on the + Y direction side of the position marker 5b, section P4 is a section on the −Y direction side of the position marker 5b and a section on the + Y direction side of the position marker 5c, and section P5 is a section on the + Y direction side of the position marker 5c. It is a section on the Y direction side. In FIG. 5B, since Y3 is smaller than Y4 and larger than Y5, the partition information indicating the partition P4 is determined as the position information indicating the position of the device marker 4d. The determined partition information is sent to the registration unit 36 together with the registration number of the device marker 4d.

マーカー検出部32が検出した位置マーカー5の数が3つ以上の場合には、2つの場合と同様の処理が行われる。 When the number of position markers 5 detected by the marker detection unit 32 is 3 or more, the same processing as in the case of 2 is performed.

以下、図3を参照しながら、機器検出装置1の各ブロックの説明を続ける。 Hereinafter, the description of each block of the device detection device 1 will be continued with reference to FIG.

登録部36は、位置推定部35から送出された各機器マーカー4の登録番号および区画情報をデータベース23内に登録する。例えば、ある機器マーカー4の登録番号「N」および区画情報「I」が登録された場合には、登録番号「N」を有する機器43が、区画情報「I」で示す区画に位置することを意味する。この機器マーカー4の登録番号「N」と区画情報「I」は、同じ機器43の情報として、互いに関連付けられてデータベース23内に登録される。登録部36はさらに、位置推定部35から各機器マーカー4の登録番号および区画情報を取得した時刻を、データベース23内に登録してもよい。また、登録部36は、これらの情報をデータベース23以外の場所に登録してもよい。 The registration unit 36 registers the registration number and the division information of each device marker 4 sent from the position estimation unit 35 in the database 23. For example, when the registration number "N" and the section information "I" of a certain device marker 4 are registered, the device 43 having the registration number "N" is located in the section indicated by the section information "I". means. The registration number "N" of the device marker 4 and the section information "I" are registered in the database 23 in association with each other as information of the same device 43. The registration unit 36 may further register the registration number of each device marker 4 and the time when the division information is acquired from the position estimation unit 35 in the database 23. Further, the registration unit 36 may register such information in a place other than the database 23.

記憶部37は、機器検出装置1の動作に必要な種々の情報を所持しており、例えば、各位置マーカー5の設置位置(座標)を示す位置座標テーブルを所持している。本実施形態の位置座標テーブルは、建物の構造などを考慮に入れてあらかじめ作成され、記憶部37内に記憶しておく。 The storage unit 37 possesses various information necessary for the operation of the device detection device 1, and possesses, for example, a position coordinate table indicating the installation position (coordinates) of each position marker 5. The position coordinate table of the present embodiment is created in advance in consideration of the structure of the building and the like, and is stored in the storage unit 37.

なお、本実施形態で記憶部37から取得される情報は、代わりに記憶部37以外の記憶場所から取得されてもよい。また、本実施形態で記憶部37内に記憶される情報は、代わりに記憶部37以外の記憶場所に記憶されてもよい。このような記憶場所の例は、機器情報管理装置2や、機器検出システム外の記憶装置である。 The information acquired from the storage unit 37 in the present embodiment may be acquired from a storage location other than the storage unit 37 instead. Further, the information stored in the storage unit 37 in the present embodiment may be stored in a storage location other than the storage unit 37 instead. Examples of such storage locations are the device information management device 2 and a storage device outside the device detection system.

図6は、第1実施形態のデータベース23内の格納データの例を示す図である。 FIG. 6 is a diagram showing an example of stored data in the database 23 of the first embodiment.

図6は、格納データの項目として、機器マーカー4の登録番号(ID)と、機器マーカー4の位置を示す区画情報と、登録番号および区画情報がデータベース23に登録されたタイミング(更新日)と、製造される製品の客先とを示している。図6は、一例として、4つの機器43のID、区画情報、更新日、および客先を示している。 FIG. 6 shows the registration number (ID) of the device marker 4, the partition information indicating the position of the device marker 4, and the timing (update date) when the registration number and the partition information are registered in the database 23 as the items of the stored data. , Indicates the customer of the manufactured product. As an example, FIG. 6 shows the IDs, division information, update dates, and customer destinations of the four devices 43.

本実施形態では、出荷待ち状態のステータスをデータベース23に登録してもよい。また、ある機器43の区画情報の更新日が所定の日よりも前の場合には、その機器43について進捗遅れのステータスをデータベース23に登録してもよい。さらに、登録部36によりデータベース23に登録される機器マーカー4の登録番号は、識別部33により識別された登録番号でもよいし、照合部34によりデータベース23から抽出された登録番号でもよいし、この機器マーカー4を特定可能であればこれらの登録番号のいずれかを別の番号に変換した番号でもよい。 In the present embodiment, the status of the waiting state for shipment may be registered in the database 23. Further, when the update date of the division information of a certain device 43 is earlier than a predetermined date, the progress delay status of the device 43 may be registered in the database 23. Further, the registration number of the device marker 4 registered in the database 23 by the registration unit 36 may be the registration number identified by the identification unit 33 or the registration number extracted from the database 23 by the collation unit 34. If the device marker 4 can be identified, any of these registration numbers may be converted into another number.

図7は、第1実施形態の機器検出方法を説明するためのフローチャートである。図7に示す機器検出方法は、本実施形態の機器検出装置1により行われる。 FIG. 7 is a flowchart for explaining the device detection method of the first embodiment. The device detection method shown in FIG. 7 is performed by the device detection device 1 of the present embodiment.

まず、撮像部31が、建物内のいずれかの撮像装置3から撮像画像7を取得する(ステップS1)。撮像装置3は、終日連続して撮像を継続してもよいし、一定時間ごとに撮影を開始して一定期間の経過後に撮影を終了してもよい。後者の場合、記憶部37は、撮影開始時間および撮影終了時間のリストを記憶しておく。 First, the imaging unit 31 acquires the captured image 7 from any of the imaging devices 3 in the building (step S1). The imaging device 3 may continue imaging all day long, or may start imaging at regular time intervals and end imaging after a certain period of time has elapsed. In the latter case, the storage unit 37 stores a list of shooting start time and shooting end time.

次に、マーカー検出部32が、撮像画像7から機器マーカー4や位置マーカー5を検出するために、撮像画像7から色情報を抽出する(ステップS2)。撮像画像7から機器マーカー4の領域が検出された場合には(ステップS3 YES)、ステップS4に移行する。撮像画像7から機器マーカー4の領域が検出されなかった場合には(ステップS3 NO)、ステップS1に戻る。 Next, the marker detection unit 32 extracts color information from the captured image 7 in order to detect the device marker 4 and the position marker 5 from the captured image 7 (step S2). When the region of the device marker 4 is detected from the captured image 7 (YES in step S3), the process proceeds to step S4. If the region of the device marker 4 is not detected from the captured image 7 (step S3 NO), the process returns to step S1.

次に、識別部33が、マーカー検出部32により検出された色情報を、機器43(機器マーカー4)の登録番号に変換する(ステップS4)。識別部33はさらに、マーカー検出部32により検出された色情報を、位置マーカー5の区画番号に変換する。 Next, the identification unit 33 converts the color information detected by the marker detection unit 32 into the registration number of the device 43 (device marker 4) (step S4). The identification unit 33 further converts the color information detected by the marker detection unit 32 into the section number of the position marker 5.

次に、照合部34が、識別部33により得られた登録番号と、データベース23内に照合用に格納(登録)されている登録番号とを照合する。識別部33により得られた登録番号がデータベース23内に登録されている場合には(ステップS5 YES)、ステップS6に移行する。識別部33により得られた登録番号がデータベース23内に登録されていない場合には(ステップS5 NO)、ステップS1に戻る。照合部34は、識別部33により得られた区画番号についても同様の処理を行う。 Next, the collation unit 34 collates the registration number obtained by the identification unit 33 with the registration number stored (registered) for collation in the database 23. If the registration number obtained by the identification unit 33 is registered in the database 23 (YES in step S5), the process proceeds to step S6. If the registration number obtained by the identification unit 33 is not registered in the database 23 (step S5 NO), the process returns to step S1. The collation unit 34 performs the same processing on the section number obtained by the identification unit 33.

次に、位置推定部35が、データベース23内に登録されていると判断された登録番号および区画番号に基づいて、機器マーカー4の位置情報を推定する(ステップS6)。具体的には、位置推定部35は、機器マーカー4が位置する区画を、位置マーカー5の区画番号に基づいて判定し、機器マーカー4の位置情報として、機器マーカー4が位置する区画を示す区画情報を決定する。例えば、図5(a)および図5(b)に示す方法により区画情報が決定される。 Next, the position estimation unit 35 estimates the position information of the device marker 4 based on the registration number and the section number determined to be registered in the database 23 (step S6). Specifically, the position estimation unit 35 determines the section where the device marker 4 is located based on the section number of the position marker 5, and uses the position information of the device marker 4 as the section indicating the section where the device marker 4 is located. Determine the information. For example, the division information is determined by the methods shown in FIGS. 5 (a) and 5 (b).

次に、登録部36は、位置推定部35により決定された機器マーカー4の区画情報を、この機器マーカー4の登録番号と共に機器情報管理装置2に送信する(ステップS7)。その結果、機器マーカー4の登録番号および区画情報が、データベース23に登録される。 Next, the registration unit 36 transmits the division information of the device marker 4 determined by the position estimation unit 35 to the device information management device 2 together with the registration number of the device marker 4 (step S7). As a result, the registration number and the division information of the device marker 4 are registered in the database 23.

図8は、第1実施形態の機器検出方法の詳細を説明するためのフローチャートである。図8は、本実施形態の機器検出装置1により位置マーカー5について行われる処理を示している。この説明中では、図5(a)および図5(b)を参照する。 FIG. 8 is a flowchart for explaining the details of the device detection method of the first embodiment. FIG. 8 shows the processing performed on the position marker 5 by the device detection device 1 of the present embodiment. In this description, reference is made to FIGS. 5 (a) and 5 (b).

まず、マーカー検出部32が、撮像画像7から機器マーカー4や位置マーカー5を検出する(ステップS11)。次に、識別部33が、機器マーカー4が示す登録番号や、位置マーカー5が示す区画番号を識別する(ステップS12)。次に、これら登録番号および区画番号をデータベース23内の登録番号および区画番号と照合した後、ステップS13に移行する。 First, the marker detection unit 32 detects the device marker 4 and the position marker 5 from the captured image 7 (step S11). Next, the identification unit 33 identifies the registration number indicated by the device marker 4 and the division number indicated by the position marker 5 (step S12). Next, after collating these registration numbers and partition numbers with the registration numbers and partition numbers in the database 23, the process proceeds to step S13.

図5(a)の撮像画像7bが撮像された場合のように、マーカー検出部32が検出した位置マーカー5の数が1つ(位置マーカー5a)の場合には(ステップS13 YES)、位置推定部35は、機器マーカー4cの左上角部のY座標Y1と、位置マーカー5aの左上角部のY座標Y2とを比較する。そして、Y1がY2より大きい場合には(ステップS14 YES)、区画P1を示す区画情報が、機器マーカー4c(機器43c)の位置を示す位置情報として決定され、機器情報管理装置2に送信される(ステップS21)。一方、Y1がY2より小さいかY2と等しい場合には(ステップS14 NO)、区画P2を示す区画情報が、機器マーカー4cの位置を示す位置情報として決定され送信される(ステップS22)。 When the number of position markers 5 detected by the marker detection unit 32 is one (position marker 5a) as in the case where the captured image 7b of FIG. 5A is captured (step S13 YES), the position is estimated. The unit 35 compares the Y coordinate Y1 at the upper left corner of the device marker 4c with the Y coordinate Y2 at the upper left corner of the position marker 5a. Then, when Y1 is larger than Y2 (YES in step S14), the section information indicating the section P1 is determined as the position information indicating the position of the device marker 4c (device 43c) and transmitted to the device information management device 2. (Step S21). On the other hand, when Y1 is smaller than Y2 or equal to Y2 (step S14 NO), the partition information indicating the partition P2 is determined and transmitted as the position information indicating the position of the device marker 4c (step S22).

一方、図5(b)の撮像画像7cが撮像された場合のように、マーカー検出部32が検出した位置マーカー5の数が2つ以上(位置マーカー5b、5c。ここでは2つ)の場合には(ステップS13 NO)、位置推定部35は、機器マーカー4dの左上角部のY座標Y3と、位置マーカー5bの左上角部のY座標Y4と、位置マーカー5cの左上角部のY座標Y5とを比較する。そして、Y3がY4より大きい場合には(ステップS15 YES)、区画P3を示す区画情報が、機器マーカー4d(機器43d)の位置を示す位置情報として決定され、機器情報管理装置2に送信される(ステップS23)。また、Y3がY4より小さいかY4と等しくかつY5より大きい場合には(ステップS15 NO、ステップS16 YES)、区画P4を示す区画情報が、機器マーカー4dの位置を示す位置情報として決定され送信される(ステップS24)。一方、Y3がY5より小さいかY2と等しい場合には(ステップS16 NO)、区画P5を示す区画情報が、機器マーカー4dの位置を示す位置情報として決定され送信される(ステップS25)。 On the other hand, when the number of position markers 5 detected by the marker detection unit 32 is two or more (position markers 5b, 5c, here two) as in the case where the captured image 7c of FIG. 5B is captured. (Step S13 NO), the position estimation unit 35 has the Y coordinate Y3 of the upper left corner of the device marker 4d, the Y coordinate Y4 of the upper left corner of the position marker 5b, and the Y coordinate of the upper left corner of the position marker 5c. Compare with Y5. Then, when Y3 is larger than Y4 (YES in step S15), the section information indicating the section P3 is determined as the position information indicating the position of the device marker 4d (device 43d) and transmitted to the device information management device 2. (Step S23). When Y3 is smaller than Y4, equal to Y4, and larger than Y5 (step S15 NO, step S16 YES), the partition information indicating the partition P4 is determined and transmitted as the position information indicating the position of the device marker 4d. (Step S24). On the other hand, when Y3 is smaller than Y5 or equal to Y2 (step S16 NO), the partition information indicating the partition P5 is determined and transmitted as the position information indicating the position of the device marker 4d (step S25).

このように、本実施形態の機器検出システムは、各機器43に設置された機器マーカー4を検出し、機器マーカー4が建物内のどの位置に存在するかを推定することで、建物全体の機器43の設置位置を自動で検出することができる。本実施形態の機器検出システムはさらに、検出された機器43の設置位置を機器管理システム上に登録することで、機器43の位置を自動で管理することができる。 As described above, the device detection system of the present embodiment detects the device marker 4 installed in each device 43 and estimates the position of the device marker 4 in the building to estimate the device in the entire building. The installation position of 43 can be automatically detected. Further, the device detection system of the present embodiment can automatically manage the position of the device 43 by registering the installed position of the detected device 43 on the device management system.

(1)第1変形例
図9は、第1実施形態の第1変形例の機器検出システムの構成を示す図である。
(1) First Modified Example FIG. 9 is a diagram showing a configuration of an equipment detection system of the first modified example of the first embodiment.

図9は、本変形例の機器検出システムの全体構成を示す斜視図であり、図3に示す構成要素に加え、建物の壁面45を示している。図3の位置マーカー5は、床41の中央に設置された通路42の上に設けられているが、図9の位置マーカー5は、床41以外の場所、具体的には壁面45に設けられている。図9は、y方向に延びる壁面45の高い位置に設けられた複数の位置マーカー5を示している。本変形例の位置マーカー5は、壁面45に塗料などで記載されていてもよいし、位置マーカー5が記載された板やシートが壁面に貼付される形で壁面45に設けられていてもよい。 FIG. 9 is a perspective view showing the overall configuration of the device detection system of the present modification, and shows the wall surface 45 of the building in addition to the components shown in FIG. The position marker 5 of FIG. 3 is provided on the passage 42 installed in the center of the floor 41, but the position marker 5 of FIG. 9 is provided at a place other than the floor 41, specifically, the wall surface 45. ing. FIG. 9 shows a plurality of position markers 5 provided at high positions on the wall surface 45 extending in the y direction. The position marker 5 of this modification may be described on the wall surface 45 with a paint or the like, or a plate or sheet on which the position marker 5 is described may be provided on the wall surface 45 in a form of being attached to the wall surface. ..

本変形例の撮像装置3は、床41を向く角度でクレーン6に取り付けられた撮像装置3a〜3cに加え、壁面45を向く角度でクレーン6に取り付けられた撮像装置3dを含んでいる。撮像装置3a〜3dは、クレーン6と共に建物内を移動する。本変形例の機器検出装置1は、撮像装置3a〜3cにより撮像された撮像画像7から機器マーカー4を検出し、撮像装置3dにより撮像された撮像画像7から位置マーカー5を検出する。 The image pickup device 3 of this modification includes the image pickup devices 3a to 3c attached to the crane 6 at an angle facing the floor 41, and the image pickup device 3d attached to the crane 6 at an angle facing the wall surface 45. The image pickup devices 3a to 3d move in the building together with the crane 6. The device detection device 1 of this modification detects the device marker 4 from the captured images 7 captured by the image pickup devices 3a to 3c, and detects the position marker 5 from the captured images 7 captured by the image pickup device 3d.

撮像装置3により撮像された撮像画像7の例は、前述したように、図4(a)の撮像画像7a、図5(a)の撮像画像7b、図5(b)の撮像画像7cや、後述するように、図10(a)の撮像画像7d、図10(b)の撮像画像7eなどである。これらの図は、建物内のx方向に対応するX方向(X座標)や、建物内のy方向に対応するY方向(Y座標)や、建物内のz方向に対応するZ方向(Z座標)を示している。本変形例の機器検出システムは、機器マーカー4や位置マーカー5の位置を、X座標やY座標やZ座標により管理する。 Examples of the captured image 7 captured by the imaging device 3 include the captured image 7a of FIG. 4A, the captured image 7b of FIG. 5A, the captured image 7c of FIG. 5B, and the captured image 7c of FIG. 5B, as described above. As will be described later, the captured image 7d in FIG. 10A, the captured image 7e in FIG. 10B, and the like. These figures show the X direction (X coordinate) corresponding to the x direction in the building, the Y direction (Y coordinate) corresponding to the y direction in the building, and the Z direction (Z coordinate) corresponding to the z direction in the building. ) Is shown. The device detection system of this modification manages the positions of the device marker 4 and the position marker 5 by the X coordinate, the Y coordinate, and the Z coordinate.

以下、本変形例のさらなる詳細を説明する。なお、図1に示す機器検出システムの構成や、図2に示す機器検出装置1の構成は、本変形例にも適用される。 Further details of this modification will be described below. The configuration of the device detection system shown in FIG. 1 and the configuration of the device detection device 1 shown in FIG. 2 are also applied to this modification.

図10は、第1実施形態の第1変形例の撮像装置3から出力された撮像画像7の例を示す図である。 FIG. 10 is a diagram showing an example of an captured image 7 output from the imaging device 3 of the first modification of the first embodiment.

図10(a)は、撮像画像7の一例として、撮像装置3dにより撮像された撮像画像7dを示している。撮像画像7dは、3つの位置マーカー5(位置マーカー5d〜5f)を含んでいる。図10(a)は、建物内のy方向に対応するY方向(Y座標)と、建物内のz方向に対応するZ方向(Z座標)とを示している。図10(a)はさらに、位置マーカー5fのY座標Yaと、撮像画像7dのY方向の幅Waとを示している。本変形例の機器検出システムは、機器マーカー4や位置マーカー5の位置を、X座標、Y座標、およびZ座標により管理する。 FIG. 10A shows the captured image 7d captured by the imaging device 3d as an example of the captured image 7. The captured image 7d includes three position markers 5 (position markers 5d to 5f). FIG. 10A shows the Y direction (Y coordinate) corresponding to the y direction in the building and the Z direction (Z coordinate) corresponding to the z direction in the building. FIG. 10A further shows the Y coordinate Ya of the position marker 5f and the width Wa of the captured image 7d in the Y direction. The device detection system of this modification manages the positions of the device marker 4 and the position marker 5 by the X coordinate, the Y coordinate, and the Z coordinate.

位置マーカー5d、5eはそれぞれ、2桁の数字「4−3」「4−4」により、建物内の区画情報を保持している。例えば、位置マーカー5eは、「4−4」という数字が印刷された板により構成されており、「4−4」という数字が、建物内の1つの区画を示す区画情報となっている。なお、位置マーカー5d、5eは、2桁以外の数字で表された区画情報を保持していてもよいし、数字以外の文字や形状などで表された区画情報を保持していてもよい。ただし、位置マーカー5d、5eは、数字の大きさの順番で区画が配置された順番が分かるような区画情報を保持していることが望ましい。 The position markers 5d and 5e hold the section information in the building by the two-digit numbers "4-3" and "4-4", respectively. For example, the position marker 5e is composed of a board on which the number "4-4" is printed, and the number "4-4" is the section information indicating one section in the building. The position markers 5d and 5e may hold the section information represented by a number other than two digits, or may hold the section information represented by a character or shape other than the number. However, it is desirable that the position markers 5d and 5e hold the division information so that the order in which the divisions are arranged can be known in the order of the size of the numbers.

位置マーカー5fは、建物内の区画間の境界を示すために設けられており、例えば三角形が印刷された板により構成されている。なお、この位置マーカー5fは、上述の他の位置マーカー5とは異なり、建物内の位置の識別子を保持していないことに留意されたい。本変形例では、位置マーカー5d、5eと同様に識別子を保持する複数の第1位置マーカー5が壁面45に一列に設けられており、位置マーカー5fと同様に識別子を保持しない複数の第2位置マーカー5が第1位置マーカー5の間に設けられている。本変形例の第2位置マーカー5は、いずれも三角形が印刷された板により構成されているが、これらの三角形は、別の図形に置き換えてもよい(例えば円や直線)。また、第2位置マーカー5は、第1位置マーカー5と同様に識別子を保持していてもよい。 The position marker 5f is provided to indicate the boundary between the sections in the building, and is composed of, for example, a board on which a triangle is printed. It should be noted that this position marker 5f does not hold an identifier of a position in the building, unlike the other position markers 5 described above. In this modification, a plurality of first position markers 5 holding an identifier like the position markers 5d and 5e are provided in a row on the wall surface 45, and a plurality of second positions not holding an identifier like the position markers 5f. The marker 5 is provided between the first position markers 5. The second position marker 5 of this modification is composed of a plate on which triangles are printed, but these triangles may be replaced with another figure (for example, a circle or a straight line). Further, the second position marker 5 may hold an identifier in the same manner as the first position marker 5.

図10(b)は、撮像画像7の一例として、撮像装置3aにより撮像された撮像画像7eを示している。撮像画像7eは、撮像画像7dと同時刻に撮像された画像である。撮像画像7eは、床41の上に配置された1台の機器43(機器43e)と、この機器43の上部に貼られた1つの機器マーカー4(機器マーカー4e)とを含んでいる。図10(b)はさらに、機器マーカー4eの左上角部のY座標Y6と、建物内の区画間の境界線のY座標Y7、Y8とを示している。 FIG. 10B shows the captured image 7e captured by the imaging device 3a as an example of the captured image 7. The captured image 7e is an image captured at the same time as the captured image 7d. The captured image 7e includes one device 43 (device 43e) arranged on the floor 41 and one device marker 4 (device marker 4e) attached to the upper part of the device 43. FIG. 10B further shows the Y coordinate Y6 at the upper left corner of the device marker 4e and the Y coordinates Y7 and Y8 of the boundary line between the sections in the building.

本変形例では、マーカー検出部32が撮像画像7dから位置マーカー5d〜5fを検出すると、識別部33が、位置マーカー5d、5eから位置マーカー5d、5eの区画情報を識別し、照合部34が、位置マーカー5d、5eから識別された区画情報をデータベース23内の区画情報と照合する。そして、位置マーカー5d、5eから識別された区画情報がデータベース23内に存在する場合、位置推定部35は、位置マーカー5fは、位置マーカー5d(4−3という区画情報を保持する第1位置マーカー5)と、位置マーカー5e(4−4という区画情報を保持する第1位置マーカー5)との間に位置する第2位置マーカー5であると判定する。これにより、位置推定部35は、位置マーカー5d、5eの情報に基づいて位置マーカー5fのY座標Yaを特定することができる。 In this modification, when the marker detection unit 32 detects the position markers 5d to 5f from the captured image 7d, the identification unit 33 identifies the division information of the position markers 5d and 5e from the position markers 5d and 5e, and the collation unit 34 , The partition information identified from the position markers 5d and 5e is collated with the partition information in the database 23. Then, when the partition information identified from the position markers 5d and 5e exists in the database 23, the position estimation unit 35 determines that the position marker 5f is the first position marker that holds the position marker 5d (4-3). It is determined that the second position marker 5 is located between the position marker 5) and the position marker 5e (the first position marker 5 that holds the division information of 4-4). As a result, the position estimation unit 35 can specify the Y coordinate Ya of the position marker 5f based on the information of the position markers 5d and 5e.

なお、位置推定部35は、位置マーカー5d、5eの両方が検出された場合に位置マーカー5fが検出されたと判定する代わりに、位置マーカー5d、5eの一方(例えば位置マーカー5e)が検出された場合に位置マーカー5fが検出されたと判定するようにしてもよい。実際、図10(a)の撮像画像7d中の位置マーカー5dは、位置マーカー5dの半分しか撮像画像7d中に含まれていないため、マーカー検出部32により検出されないと考えられる。よって、以下の説明においては、位置推定部35は、位置マーカー5eが検出された場合に、位置マーカー5eの−Y方向に位置マーカー5eと隣接する位置マーカー5fが検出されたと判定すると想定する。 Note that the position estimation unit 35 detects one of the position markers 5d and 5e (for example, the position marker 5e) instead of determining that the position marker 5f is detected when both the position markers 5d and 5e are detected. In some cases, it may be determined that the position marker 5f has been detected. In fact, it is considered that the position marker 5d in the captured image 7d of FIG. 10A is not detected by the marker detection unit 32 because only half of the position marker 5d is included in the captured image 7d. Therefore, in the following description, it is assumed that the position estimation unit 35 determines that when the position marker 5e is detected, the position marker 5f adjacent to the position marker 5e is detected in the −Y direction of the position marker 5e.

一方、記憶部37は、各第2位置マーカー5と、区画間の境界線のY座標との対応関係を示す位置座標テーブルを予め保持している。位置座標テーブルは例えば、Y座標Yaを有する位置マーカー5fと、区画間の境界線のY座標Y7、Y8とが対応していることを示している。よって、位置推定部35は、撮像画像7dから位置マーカー5fが検出された場合、撮像画像7dと同時刻に撮像された撮像画像7e中には、Y座標Y7、Y8を有する境界線が存在すると判定する。その結果、本変形例の位置推定部35は、図5(b)の撮像画像7cに対する処理と同様の処理を実施することが可能となる。 On the other hand, the storage unit 37 holds in advance a position coordinate table showing the correspondence between each second position marker 5 and the Y coordinate of the boundary line between the sections. The position coordinate table shows, for example, that the position marker 5f having the Y coordinate Ya and the Y coordinates Y7 and Y8 of the boundary line between the sections correspond to each other. Therefore, when the position marker 5f is detected from the captured image 7d, the position estimation unit 35 determines that a boundary line having Y coordinates Y7 and Y8 exists in the captured image 7e captured at the same time as the captured image 7d. judge. As a result, the position estimation unit 35 of the present modification can perform the same processing as the processing for the captured image 7c of FIG. 5B.

具体的には、位置推定部35は、機器マーカー4eの左上角部のY座標Y6と、区画間の境界線のY座標Y7と、区画間の境界線のY座標Y8とを比較する。そして、Y6がY7より大きい場合には、区画P6を示す区画情報が、機器マーカー4e(機器43e)の位置を示す位置情報として決定される(Y6>Y7)。また、Y6がY7より小さいかY7と等しくかつY8より大きい場合には、区画P7を示す区画情報が、機器マーカー4eの位置を示す位置情報として決定される(Y8<Y6≦Y7)。一方、Y6がY8より小さいかY8と等しい場合には、区画P8を示す区画情報が、機器マーカー4eの位置を示す位置情報として決定される(Y6≦Y8)。 Specifically, the position estimation unit 35 compares the Y coordinate Y6 of the upper left corner portion of the device marker 4e with the Y coordinate Y7 of the boundary line between the sections and the Y coordinate Y8 of the boundary line between the sections. Then, when Y6 is larger than Y7, the partition information indicating the partition P6 is determined as the position information indicating the position of the device marker 4e (device 43e) (Y6> Y7). When Y6 is smaller than Y7, equal to Y7, and larger than Y8, the partition information indicating the partition P7 is determined as the position information indicating the position of the device marker 4e (Y8 <Y6 ≦ Y7). On the other hand, when Y6 is smaller than Y8 or equal to Y8, the partition information indicating the partition P8 is determined as the position information indicating the position of the device marker 4e (Y6 ≦ Y8).

区画P6は、Y座標Y7を有する境界線の+Y方向側の区画であり、区画P7は、Y座標Y7を有する境界線の−Y方向側でY座標Y8を有する境界線の+Y方向側の区画であり、区画P8は、Y座標Y8を有する境界線の−Y方向側の区画である。図10(b)ではY6がY7より小さくかつY8より大きいため、区画P7を示す区画情報が、機器マーカー4eの位置を示す位置情報として決定される。決定された区画情報は、機器マーカー4eの登録番号と共に登録部36に送出される。 The section P6 is a section on the + Y direction side of the boundary line having the Y coordinate Y7, and the section P7 is a section on the + Y direction side of the boundary line having the Y coordinate Y8 on the −Y direction side of the boundary line having the Y coordinate Y7. The compartment P8 is a compartment on the −Y direction side of the boundary line having the Y coordinate Y8. In FIG. 10B, since Y6 is smaller than Y7 and larger than Y8, the partition information indicating the partition P7 is determined as the position information indicating the position of the device marker 4e. The determined partition information is sent to the registration unit 36 together with the registration number of the device marker 4e.

図11は、第1実施形態の第1変形例の位置座標テーブルの例を示す図である。 FIG. 11 is a diagram showing an example of a position coordinate table of the first modification of the first embodiment.

本変形例の記憶部37は、位置マーカー5fなどの第2位置マーカー5と、区画間の境界線のY座標との対応関係を示す位置座標テーブルを予め保持している。位置座標テーブルは例えば、Y座標Yaを有する位置マーカー5fと、区画間の境界線のY座標Y7、Y8とが対応していることを示している。なお、図11の位置座標テーブルでは、位置マーカー5fのY座標Yaは、境界線のY座標Y7、Y8と異なる単位系で表示されている点に留意されたい。本変形例の位置マーカー5fのY座標Yaは、位置マーカー5fの中心Y座標を示している。 The storage unit 37 of this modification holds in advance a position coordinate table showing the correspondence between the second position marker 5 such as the position marker 5f and the Y coordinate of the boundary line between the sections. The position coordinate table shows, for example, that the position marker 5f having the Y coordinate Ya and the Y coordinates Y7 and Y8 of the boundary line between the sections correspond to each other. It should be noted that in the position coordinate table of FIG. 11, the Y coordinate Ya of the position marker 5f is displayed in a unit system different from the Y coordinates Y7 and Y8 of the boundary line. The Y coordinate Ya of the position marker 5f in this modification indicates the center Y coordinate of the position marker 5f.

図12は、第1実施形態の第1変形例の機器検出方法を説明するためのフローチャートである。図12は、本変形例の機器検出装置1により位置マーカー5について行われる処理を示している。この説明中では、図10(a)および図10(b)を参照する。 FIG. 12 is a flowchart for explaining a device detection method of the first modification of the first embodiment. FIG. 12 shows the processing performed on the position marker 5 by the device detection device 1 of this modification. In this description, reference is made to FIGS. 10 (a) and 10 (b).

まず、マーカー検出部32が、図10(a)の撮像画像7dから位置マーカー5eを検出する(ステップS31)。次に、識別部33が、位置マーカー5eが示す区画情報を識別する(ステップS32)。次に、位置マーカー5eから識別された区画情報をデータベース23内の区画情報と照合した後、ステップS33に移行する。 First, the marker detection unit 32 detects the position marker 5e from the captured image 7d in FIG. 10A (step S31). Next, the identification unit 33 identifies the division information indicated by the position marker 5e (step S32). Next, after collating the partition information identified from the position marker 5e with the partition information in the database 23, the process proceeds to step S33.

次に、マーカー検出部32が、図10(b)の撮像画像7dから位置マーカー5fを検出する(ステップS33)。ステップS33の処理は例えば、テンプレートマッチング処理やパターン認識処理などの画像処理により行われる。 Next, the marker detection unit 32 detects the position marker 5f from the captured image 7d in FIG. 10B (step S33). The process of step S33 is performed by image processing such as template matching process and pattern recognition process, for example.

次に、位置推定部35が、位置マーカー5e、5fに関する情報を受け取ると共に、記憶部37から位置座標テーブルを読み込む(ステップS34)。これにより、位置推定部35は、位置マーカー5fは、位置マーカー5e(4−4という区画情報を保持する第1位置マーカー5)と隣接する第2位置マーカー5である判定することができる。また、位置推定部35は、位置マーカー5eの情報に基づいて位置マーカー5fのY座標Yaを特定することができる。位置推定部35はさらに、撮像画像7dと同時刻に撮像された撮像画像7e中には、Y座標Y7、Y8を有する境界線が存在すると判定することができる。 Next, the position estimation unit 35 receives the information regarding the position markers 5e and 5f, and reads the position coordinate table from the storage unit 37 (step S34). As a result, the position estimation unit 35 can determine that the position marker 5f is the second position marker 5 adjacent to the position marker 5e (the first position marker 5 holding the partition information of 4-4). Further, the position estimation unit 35 can specify the Y coordinate Ya of the position marker 5f based on the information of the position marker 5e. The position estimation unit 35 can further determine that a boundary line having Y coordinates Y7 and Y8 exists in the captured image 7e captured at the same time as the captured image 7d.

次に、位置推定部35は、撮像画像7e中の機器マーカー4eの左上角部のY座標Y6と、区画間の境界線のY座標Y7と、区画間の境界線のY座標Y8とを比較する。そして、Y6がY7より大きい場合には(ステップS35 YES)、区画P6を示す区画情報が、機器マーカー4e(機器43e)の位置を示す位置情報として決定され、機器情報管理装置2に送信される(ステップS41)。また、Y6がY7より小さいかY7と等しくかつY8より大きい場合には(ステップS35 NO、ステップS36 YES)、区画P7を示す区画情報が、機器マーカー4eの位置を示す位置情報として決定され送信される(ステップS42)。一方、Y6がY8より小さいかY8と等しい場合には(ステップS36 NO)、区画P8を示す区画情報が、機器マーカー4eの位置を示す位置情報として決定され送信される(ステップS43)。 Next, the position estimation unit 35 compares the Y coordinate Y6 of the upper left corner of the device marker 4e in the captured image 7e with the Y coordinate Y7 of the boundary line between the sections and the Y coordinate Y8 of the boundary line between the sections. To do. Then, when Y6 is larger than Y7 (YES in step S35), the section information indicating the section P6 is determined as the position information indicating the position of the device marker 4e (device 43e) and transmitted to the device information management device 2. (Step S41). When Y6 is smaller than Y7, equal to Y7, and larger than Y8 (step S35 NO, step S36 YES), the partition information indicating the partition P7 is determined and transmitted as the position information indicating the position of the device marker 4e. (Step S42). On the other hand, when Y6 is smaller than Y8 or equal to Y8 (step S36 NO), the partition information indicating the partition P8 is determined and transmitted as the position information indicating the position of the device marker 4e (step S43).

このように、本変形例の機器検出システムは、床41ではなく壁面45に設けられた位置マーカー5を備えている。これにより、位置マーカー5が建物内を歩行する人(例えば物品の運搬作業員)により踏まれることを回避することができ、位置マーカー5が人に踏まれて劣化することを防止することができる。 As described above, the device detection system of this modification includes the position marker 5 provided on the wall surface 45 instead of the floor 41. As a result, it is possible to prevent the position marker 5 from being stepped on by a person walking in the building (for example, an article transporter), and it is possible to prevent the position marker 5 from being stepped on by a person and deteriorating. ..

(2)第2変形例
第1実施形態の第2変形例については、図3を参照しながら説明することにする。なお、図1に示す機器検出システムの構成や、図2に示す機器検出装置1の構成は、本変形例にも適用される。
(2) Second Modified Example The second modified example of the first embodiment will be described with reference to FIG. The configuration of the device detection system shown in FIG. 1 and the configuration of the device detection device 1 shown in FIG. 2 are also applied to this modification.

図3では、各機器マーカー4の位置を推定するために、位置マーカー5が利用される。一方、本変形例では、各機器マーカー4の位置を推定するために、建物内に存在する特徴的な部分が利用される。このような部分の例は、建物内の柱の角や、建物内の床41の色などである。このような部分の検出は例えば、テンプレートマッチング処理やパターン認識処理などの画像処理により行われる。 In FIG. 3, the position marker 5 is used to estimate the position of each device marker 4. On the other hand, in this modification, in order to estimate the position of each device marker 4, a characteristic portion existing in the building is used. Examples of such parts are the corners of pillars in a building, the color of the floor 41 in a building, and the like. Detection of such a portion is performed by image processing such as template matching processing or pattern recognition processing, for example.

例えば、各機器マーカー4の位置を推定するために柱の角を利用する場合には、マーク検出部32は、撮像画像7から柱の角を検出する。この場合、柱の角のY座標を予め記憶部37内に記憶しておく。そして、位置推定部35は、撮像画像7から機器マーカー4と柱の角とが検出された場合、機器マーカー4の位置情報を柱の角のY座標を用いて決定する。この位置情報は、図5(a)の撮像画像7bに対する処理と同様の処理を実施することで決定することができる。 For example, when the corner of the pillar is used to estimate the position of each device marker 4, the mark detection unit 32 detects the corner of the pillar from the captured image 7. In this case, the Y coordinate of the corner of the pillar is stored in the storage unit 37 in advance. Then, when the device marker 4 and the corner of the pillar are detected from the captured image 7, the position estimation unit 35 determines the position information of the device marker 4 using the Y coordinate of the corner of the pillar. This position information can be determined by performing the same processing as the processing for the captured image 7b in FIG. 5A.

このように、本変形例の機器検出システムは、位置マーカー5の代わりに建物内の特徴的な部分を利用して、各機器マーカー4の位置を推定する。これにより、位置マーカー5の設置やメンテナンスに要する手間を回避することが可能となる。 As described above, the device detection system of the present modification uses a characteristic portion in the building instead of the position marker 5 to estimate the position of each device marker 4. As a result, it is possible to avoid the trouble required for the installation and maintenance of the position marker 5.

なお、本変形例では、機器マーカー4の位置を推定するために、建物内に存在する複数の特徴的な部分を利用してもよい。このような部分の例は、建物内の複数本の柱の角である。この場合、柱同士の形状や色の違いを、位置マーカー5同士の区画情報の違いと同様に利用してもよい。これにより、第1の柱は建物内の第1の区画に配置され、第2の柱は建物内の第2の区画に配置されている、といったような判断が可能となる。この場合、柱の識別は識別部33が行い、柱の識別が正しいか否かの判定は照合部34が行う。 In this modification, a plurality of characteristic parts existing in the building may be used in order to estimate the position of the device marker 4. An example of such a part is the corner of multiple pillars in a building. In this case, the difference in shape and color between the pillars may be used in the same manner as the difference in the division information between the position markers 5. As a result, it is possible to determine that the first pillar is arranged in the first section in the building and the second pillar is arranged in the second section in the building. In this case, the identification unit 33 identifies the pillars, and the collation unit 34 determines whether or not the identification of the pillars is correct.

(3)第3変形例
第1実施形態の第3変形例については、図3を参照しながら説明することにする。なお、図1に示す機器検出システムの構成や、図2に示す機器検出装置1の構成は、本変形例にも適用される。
(3) Third Modified Example A third modified example of the first embodiment will be described with reference to FIG. The configuration of the device detection system shown in FIG. 1 and the configuration of the device detection device 1 shown in FIG. 2 are also applied to this modification.

図3では、位置マーカー5を撮像する撮像装置3は可視カメラであり、撮像装置3により撮像された位置マーカー5を用いて機器マーカー4の位置情報を決定する。一方、本変形例では、クレーン6に撮像装置3と共に取り付けられた別の装置を用いて機器マーカー4の位置情報を決定する。このような装置の例は、レーザーセンサやステレオカメラである。 In FIG. 3, the image pickup device 3 that captures the position marker 5 is a visible camera, and the position information of the device marker 4 is determined using the position marker 5 imaged by the image pickup device 3. On the other hand, in this modification, the position information of the device marker 4 is determined by using another device attached to the crane 6 together with the image pickup device 3. Examples of such devices are laser sensors and stereo cameras.

レーザーセンサを利用する場合、レーザーセンサは例えば、+y方向または−y方向を向くようにクレーン6に取り付けられる。レーザーセンサは、撮像装置3やクレーン6と共に建物内を±y方向に移動する。レーザーセンサが+y方向を向くようにクレーン6に取り付けられている場合には、レーザーセンサは、クレーン6の+y方向に位置する建物の壁までの距離を計測することで、撮像装置3の位置を推定する。一方、レーザーセンサが−y方向を向くようにクレーン6に取り付けられている場合には、レーザーセンサは、クレーン6の−y方向に位置する建物の壁までの距離を計測することで、撮像装置3の位置を推定する。壁とレーザーセンサとの間の距離は、例えば既知の方法により計測可能である。 When using a laser sensor, the laser sensor is attached to the crane 6 so as to face, for example, the + y direction or the −y direction. The laser sensor moves in the building in the ± y direction together with the image pickup device 3 and the crane 6. When the laser sensor is attached to the crane 6 so as to face the + y direction, the laser sensor measures the distance to the wall of the building located in the + y direction of the crane 6 to determine the position of the imaging device 3. presume. On the other hand, when the laser sensor is attached to the crane 6 so as to face the −y direction, the laser sensor measures the distance to the wall of the building located in the −y direction of the crane 6 to obtain an imaging device. Estimate the position of 3. The distance between the wall and the laser sensor can be measured, for example, by known methods.

この場合、撮像画像3から機器マーカー4が検出された場合には、位置推定部35は、この機器マーカー4の位置情報を、この撮像画像3が撮像された際にレーザーセンサにより計測された上記距離に基づいて決定する。具体的には、レーザーセンサにより計測された上記距離に基づいて撮像装置3の位置が推定され、推定された撮像装置3の位置に基づいて機器マーカー4の位置情報が決定される。 In this case, when the device marker 4 is detected from the captured image 3, the position estimation unit 35 measures the position information of the device marker 4 by the laser sensor when the captured image 3 is captured. Determined based on distance. Specifically, the position of the image pickup device 3 is estimated based on the above distance measured by the laser sensor, and the position information of the device marker 4 is determined based on the estimated position of the image pickup device 3.

ステレオカメラを利用する場合、ステレオカメラは例えば、+y方向または−y方向を向くようにクレーン6に取り付けられる。ステレオカメラは、撮像装置3やクレーン6と共に建物内を±y方向に移動する。ステレオカメラが+y方向を向くようにクレーン6に取り付けられている場合には、ステレオカメラは、クレーン6の+y方向に位置する建物の壁までの距離を計測することで、撮像装置3の位置を推定する。一方、ステレオカメラが−y方向を向くようにクレーン6に取り付けられている場合には、ステレオカメラは、クレーン6の−y方向に位置する建物の壁までの距離を計測することで、撮像装置3の位置を推定する。壁とステレオカメラとの間の距離は、例えば三角測量の原理で奥行方向の距離を計算する既知の方法により計測可能である。この場合の機器マーカー4の位置情報は、レーザーセンサの場合と同様に決定可能である。 When using a stereo camera, the stereo camera is attached to the crane 6 so as to face, for example, in the + y direction or the −y direction. The stereo camera moves in the building in the ± y direction together with the image pickup device 3 and the crane 6. When the stereo camera is attached to the crane 6 so as to face the + y direction, the stereo camera measures the distance to the wall of the building located in the + y direction of the crane 6 to determine the position of the image pickup device 3. presume. On the other hand, when the stereo camera is attached to the crane 6 so as to face the −y direction, the stereo camera measures the distance to the wall of the building located in the −y direction of the crane 6 to obtain an imaging device. Estimate the position of 3. The distance between the wall and the stereo camera can be measured, for example, by a known method of calculating the distance in the depth direction by the principle of triangulation. The position information of the device marker 4 in this case can be determined in the same manner as in the case of the laser sensor.

このように、本変形例の機器検出システムは、撮像装置3の代わりにレーザーセンサやステレオカメラを利用して、各機器マーカー4の位置を推定する。これにより、位置マーカー5の設置やメンテナンスに要する手間を回避することが可能となる。なお、本変形例のレーザーセンサやステレオカメラは、撮像装置3と建物内の壁以外の箇所との距離を計測してもよい。 As described above, the device detection system of the present modification uses a laser sensor or a stereo camera instead of the image pickup device 3 to estimate the position of each device marker 4. As a result, it is possible to avoid the trouble required for the installation and maintenance of the position marker 5. The laser sensor or stereo camera of this modification may measure the distance between the image pickup device 3 and a portion other than the wall in the building.

以上のように、本実施形態の機器検出装置1は、建物内を移動する撮像装置3から撮像画像7を取得し、撮像画像7から検出された機器マーカー4に基づいて建物内の機器43を特定し、撮像装置3または撮像装置3と共に移動する装置からの情報に基づいて機器43(機器マーカー4)の位置を決定する。例えば、本実施形態の機器検出装置1は、図3等を参照して説明したように、撮像画像7から検出された位置マーカー5に基づいて、機器43(機器マーカー4)の位置を決定する。 As described above, the device detection device 1 of the present embodiment acquires the captured image 7 from the image pickup device 3 moving in the building, and uses the device marker 4 detected from the captured image 7 to obtain the device 43 in the building. The position of the device 43 (device marker 4) is determined based on the information from the device that identifies and moves with the image pickup device 3 or the image pickup device 3. For example, the device detection device 1 of the present embodiment determines the position of the device 43 (device marker 4) based on the position marker 5 detected from the captured image 7, as described with reference to FIG. 3 and the like. ..

よって、本実施形態によれば、機器43に近い距離に撮像装置3を設置しなくても、撮像装置3が機器43に近付くように移動することで、広範囲に設置されている機器43を検出することが可能となる。このように、本実施形態によれば、広範囲に設置されている機器43を効率的に検出することが可能となる。 Therefore, according to the present embodiment, even if the image pickup device 3 is not installed at a distance close to the device 43, the device 43 installed in a wide range is detected by moving the image pickup device 3 so as to approach the device 43. It becomes possible to do. As described above, according to the present embodiment, it is possible to efficiently detect the device 43 installed in a wide range.

なお、撮像装置3は、本実施形態ではクレーン6により移動されるが、その他の手段により移動されてもよい。例えば、撮像装置3は、建物内を移動するフォークリフトに取り付けられていてもよいし、建物内を移動する作業員のヘルメットに取り付けられていてもよい。これは、後述する第2実施形態や第3実施形態でも同様である。 Although the image pickup device 3 is moved by the crane 6 in this embodiment, it may be moved by other means. For example, the image pickup device 3 may be attached to a forklift that moves in the building, or may be attached to a helmet of a worker who moves in the building. This also applies to the second embodiment and the third embodiment described later.

(第2実施形態)
図13は、第2実施形態の機器検出装置1の構成を示すブロック図である。本実施形態の機器検出装置1は、図2に示す構成要素に加え、移動検出部38を備えている。本実施形態については、図3を参照しながら説明することにする。なお、図1に示す機器検出システムの構成は、本実施形態にも適用される。
(Second Embodiment)
FIG. 13 is a block diagram showing the configuration of the device detection device 1 of the second embodiment. The device detection device 1 of the present embodiment includes a movement detection unit 38 in addition to the components shown in FIG. The present embodiment will be described with reference to FIG. The configuration of the device detection system shown in FIG. 1 is also applied to this embodiment.

第1実施形態の場合、撮像装置3は、終日連続して撮像を継続してもよいし、一定時間ごとに撮影を開始して一定期間の経過後に撮影を終了してもよい。後者の場合、記憶部37は、撮影開始時間および撮影終了時間のリストを記憶しておく。撮像部31は、このような撮像装置3から撮像画像7を取得する。 In the case of the first embodiment, the imaging device 3 may continue imaging all day long, or may start imaging at regular time intervals and end imaging after a certain period of time has elapsed. In the latter case, the storage unit 37 stores a list of shooting start time and shooting end time. The imaging unit 31 acquires the captured image 7 from such an imaging device 3.

本実施形態の場合、移動検出部38は、撮像装置3からの撮像画像7に基づいて、撮像装置3が移動中であるか否かを検出する。そして、移動検出部38は、撮像装置3が移動中であるか否かの検出結果に基づいて、撮像部31が機器マーカー4の検出用に撮像装置3から撮像画像7を取得するタイミングを制御する。例えば、撮像装置3が移動中ではないと検出された場合には、移動検出部38は、撮像装置3から撮像画像7を取得しないことを要求する信号を撮像部31に送信する。一方、撮像装置3が移動中であると検出された場合には、移動検出部38は、撮像装置3から撮像画像7を取得することを要求する信号を撮像部31に送信する。撮像部31は、このような信号に応じて、撮像装置3から撮像画像7を取得するか否かを決定する。これにより、本実施形態の機器検出装置1は、撮像装置3が移動中である場合に限り撮像部31に機器マーカー4の検出用の撮像画像7を取得させるような自動制御を行うことができる。 In the case of the present embodiment, the movement detection unit 38 detects whether or not the image pickup device 3 is moving based on the captured image 7 from the image pickup device 3. Then, the movement detection unit 38 controls the timing at which the image pickup unit 31 acquires the captured image 7 from the image pickup device 3 for the detection of the device marker 4 based on the detection result of whether or not the image pickup device 3 is moving. To do. For example, when it is detected that the image pickup apparatus 3 is not moving, the movement detection unit 38 transmits a signal requesting that the image pickup image 7 is not acquired from the image pickup apparatus 3 to the image pickup apparatus 31. On the other hand, when it is detected that the image pickup device 3 is moving, the movement detection unit 38 transmits a signal requesting that the image pickup image 7 is acquired from the image pickup device 3 to the image pickup unit 31. The imaging unit 31 determines whether or not to acquire the captured image 7 from the imaging device 3 in response to such a signal. As a result, the device detection device 1 of the present embodiment can perform automatic control such that the image pickup unit 31 acquires the captured image 7 for detection of the device marker 4 only when the image pickup device 3 is moving. ..

本実施形態によれば、移動検出部38が画像処理により撮像装置3の移動を検出することで、機器マーカー4や位置マーカー5の検出処理を開始するタイミングを自動的に設定することが可能となる。本実施形態によれば、このような検出処理を撮像装置3が移動中の場合に限り行うことが可能となるため、検出処理の対象となる撮像画像7の枚数を削減することや、撮像画像7の保存量を削減することが可能となる。 According to the present embodiment, the movement detection unit 38 detects the movement of the image pickup apparatus 3 by image processing, so that it is possible to automatically set the timing for starting the detection processing of the device marker 4 and the position marker 5. Become. According to the present embodiment, since such a detection process can be performed only when the image pickup apparatus 3 is moving, the number of captured images 7 to be detected can be reduced, and the captured images can be reduced. It is possible to reduce the storage amount of 7.

図14は、第2実施形態の機器検出方法を説明するためのフローチャートである。図14のフローチャートは、図7に示すステップS1からS7の前に、ステップS8を含んでいる。 FIG. 14 is a flowchart for explaining the device detection method of the second embodiment. The flowchart of FIG. 14 includes step S8 before steps S1 to S7 shown in FIG.

ステップS8では、移動検出部38が、撮像装置3から取得した撮像画像7に基づいて撮像装置3が移動したか否かを判断する。具体的には、移動検出部38は、複数枚の撮像画像7の時系列の変化量を算出する。時系列の変化量は例えば、背景差分処理やフレーム間差分処理により各撮像画像7をその前フレームまたは後フレームの撮像画像7と比較して差分画像を取得することで算出可能である。また、時系列の変化量は例えば、オプティカルフロー処理により各画素の移動を算出することで算出してもよい。あるいは、移動検出部38は、撮像装置3の移動開始前の撮像画像7をテンプレート画像とするテンプレートマッチング処理により、撮像画像とテンプレート画像とを比較することで、撮像装置3が移動したか否かを判断してもよい。 In step S8, the movement detection unit 38 determines whether or not the image pickup device 3 has moved based on the captured image 7 acquired from the image pickup device 3. Specifically, the movement detection unit 38 calculates the amount of change in time series of a plurality of captured images 7. The amount of change in the time series can be calculated, for example, by comparing each captured image 7 with the captured image 7 of the preceding frame or the rear frame by background subtraction processing or inter-frame difference processing and acquiring a difference image. Further, the amount of change in time series may be calculated by, for example, calculating the movement of each pixel by optical flow processing. Alternatively, the movement detection unit 38 compares the captured image with the template image by a template matching process using the captured image 7 before the start of movement of the imaging device 3 as a template image to determine whether or not the imaging device 3 has moved. May be judged.

撮像装置3が移動していないと判断された場合には(ステップS8 NO)、ステップS8の処理を後に再び行う。一方、撮像装置3が移動したと判断された場合には(ステップS8 YES)、ステップS1に移行する。ステップS1では、撮像部31が機器マーカー4の検出用の撮像画像7を撮像装置3から取得する。 If it is determined that the image pickup apparatus 3 has not moved (step S8 NO), the process of step S8 is performed again later. On the other hand, when it is determined that the image pickup apparatus 3 has moved (YES in step S8), the process proceeds to step S1. In step S1, the imaging unit 31 acquires the captured image 7 for detecting the device marker 4 from the imaging device 3.

以上のように、本実施形態の機器検出装置1は、撮像装置3の移動を検出する移動検出部38を備えている。よって、本実施形態によれば、機器マーカー4等の検出処理の対象となる撮像画像7の枚数を削減することや、撮像画像7の保存量を削減することが可能となる。 As described above, the device detection device 1 of the present embodiment includes a movement detection unit 38 that detects the movement of the image pickup device 3. Therefore, according to this embodiment, it is possible to reduce the number of captured images 7 to be detected by the device marker 4 and the like, and to reduce the storage amount of the captured images 7.

(第3実施形態)
図15は、第3実施形態の機器検出装置1の構成を示すブロック図である。本実施形態の機器検出装置1は、図2に示す構成要素に加え、画像連結部39を備えている。本実施形態については、図3や図16を参照しながら説明することにする。図16は、第3実施形態の連結画像の例を示す図である。なお、図1に示す機器検出システムの構成は、本実施形態にも適用される。
(Third Embodiment)
FIG. 15 is a block diagram showing the configuration of the device detection device 1 of the third embodiment. The device detection device 1 of the present embodiment includes an image connecting unit 39 in addition to the components shown in FIG. This embodiment will be described with reference to FIGS. 3 and 16. FIG. 16 is a diagram showing an example of a connected image of the third embodiment. The configuration of the device detection system shown in FIG. 1 is also applied to this embodiment.

画像連結部39は、1台以上の撮像装置3により撮像された複数枚の撮像画像7を連結し、これらの撮像画像7を連結して得られた、機器43の設置場所全体の状態を表す連結画像を出力する。このような連結画像の例は、図16(a)の連結画像8aや、図16(b)の連結画像8bである。図16(a)の連結画像8aは例えば、図3の撮像装置3a〜3cにより撮像された複数枚の撮像画像7を連結することで得られる。図16(b)の連結画像8bは例えば、図9の撮像装置3a〜3dにより撮像された複数枚の撮像画像7を連結することで得られる。以下、これらの連結画像8a、8bを例とする任意の連結画像について説明する際には、これを「連結画像8」と表記することにする。本実施形態によれば、建物全体を俯瞰する連結画像8を出力することで、各機器43の位置や機器43同士の位置関係をわかりやすく表示することが可能となる。 The image connecting unit 39 connects a plurality of captured images 7 captured by one or more imaging devices 3, and represents the state of the entire installation location of the device 43 obtained by connecting these captured images 7. Output a concatenated image. Examples of such a connected image are the connected image 8a of FIG. 16A and the connected image 8b of FIG. 16B. The linked image 8a of FIG. 16A can be obtained, for example, by connecting a plurality of captured images 7 captured by the imaging devices 3a to 3c of FIG. The linked image 8b of FIG. 16B is obtained, for example, by connecting a plurality of captured images 7 captured by the imaging devices 3a to 3d of FIG. Hereinafter, when an arbitrary connected image using these connected images 8a and 8b as an example will be described, this will be referred to as “connected image 8”. According to the present embodiment, by outputting the connected image 8 that gives a bird's-eye view of the entire building, it is possible to display the position of each device 43 and the positional relationship between the devices 43 in an easy-to-understand manner.

画像連結部39は、撮像部31から複数枚の撮像画像7を受け取り、これらの撮像画像7を、位置推定部35から受け取った情報に基づいて連結する。例えば、画像連結部39は、これらの撮像画像7中に含まれる複数の機器マーカー4の位置情報を受け取り、生成される連結画像8内の機器マーカー4同士の位置関係が、この位置情報が示す機器マーカー4の位置と整合するように、これらの撮像画像7を連結する。連結画像8の生成には、機器マーカー4の位置情報以外の情報を利用してもよい。このような情報の例は、区画間の境界線のY座標や、位置マーカー5の区画情報などである。 The image connecting unit 39 receives a plurality of captured images 7 from the imaging unit 31, and connects these captured images 7 based on the information received from the position estimation unit 35. For example, the image connecting unit 39 receives the position information of the plurality of device markers 4 included in the captured images 7, and the positional relationship between the device markers 4 in the generated connected image 8 is indicated by the position information. These captured images 7 are connected so as to match the position of the device marker 4. Information other than the position information of the device marker 4 may be used to generate the connected image 8. Examples of such information are the Y coordinate of the boundary line between the sections, the section information of the position marker 5, and the like.

画像連結部39は、その他の方法で撮像画像7同士を連結してもよい。例えば、画像連結部39は、テンプレートマッチング処理により撮像画像7同士の類似領域を重ね合わせることで、撮像画像同士を連結してもよい。また、画像連結部39は、ORB特徴量などの撮像画像7中の特徴量を算出し、特徴量に基づいて撮像画像7同士の類似領域を重ね合わせることで、撮像画像7同士を連結してもよい。 The image connecting unit 39 may connect the captured images 7 to each other by other methods. For example, the image connecting unit 39 may connect the captured images by superimposing similar regions of the captured images 7 by template matching processing. Further, the image connecting unit 39 calculates the feature amount in the captured image 7 such as the ORB feature amount, and superimposes the similar regions of the captured images 7 based on the feature amount to connect the captured images 7 to each other. May be good.

なお、図16(a)の連結画像8aは、X軸が縦向きでY軸が横向きになる形、すなわち、元々の各撮像画像7の向きを90度回転させた形で表示されているが、このような回転をせずに連結画像8aを表示してもよい。連結画像8aをディスプレイに表示する際に、連結画像8aは回転して表示してもよいし、拡大または縮小して表示してもよい。これは、図16(b)の連結画像8bについても同様である。 The connected image 8a of FIG. 16A is displayed in a form in which the X-axis is vertically oriented and the Y-axis is horizontally oriented, that is, the original orientation of each captured image 7 is rotated by 90 degrees. , The connected image 8a may be displayed without such rotation. When the connected image 8a is displayed on the display, the connected image 8a may be rotated and displayed, or may be enlarged or reduced. This also applies to the connected image 8b of FIG. 16 (b).

ここで、図16(b)の連結画像8bについて説明する。 Here, the connected image 8b of FIG. 16B will be described.

図16(b)は、連結画像8bに付加された付加情報9を示している。付加情報9は、連結画像8b中のある機器43に関する情報であり、連結画像8b中でこの機器43が配置されている位置付近に付加されている。図16(b)の付加情報9は、この機器43の登録番号と区画情報とを含んでいる。画像連結部39は、連結画像8b中にこの付加情報9を付加する位置を、この機器43の区画情報に基づいて決定する。連結画像8bは例えば、連結画像8b中に付加情報9が付加された形で出力され、連結画像8b上に付加情報9が重畳表示される形でディスプレイ上に表示される。 FIG. 16B shows additional information 9 added to the connected image 8b. The additional information 9 is information about a certain device 43 in the connected image 8b, and is added in the vicinity of the position where the device 43 is arranged in the connected image 8b. The additional information 9 of FIG. 16B includes the registration number and the division information of the device 43. The image connecting unit 39 determines a position to add the additional information 9 in the connected image 8b based on the section information of the device 43. For example, the connected image 8b is output in a form in which the additional information 9 is added to the connected image 8b, and is displayed on the display in a form in which the additional information 9 is superimposed and displayed on the connected image 8b.

図16(b)の連結画像8bはさらに、壁面45(図9を参照)に設けられた複数の位置マーカー5を含んでいる。これらの位置マーカー5は、実際に撮像画像7中に含まれていた位置マーカー5でもよいし、付加情報9と同様に連結画像8bに付加された付加物でもよい。 The connected image 8b of FIG. 16B further includes a plurality of position markers 5 provided on the wall surface 45 (see FIG. 9). These position markers 5 may be the position markers 5 actually included in the captured image 7, or may be an adduct added to the connected image 8b as in the additional information 9.

また、付加情報9は、機器43の登録番号や区画情報以外の情報でもよい。例えば、付加情報9は、データベース23に記憶されている機器情報(機器43に関する情報)や、記憶部37に予め記憶させておいた機器情報でもよい。付加情報9を表示する際の表示色は、どのような色でもよい。例えば、付加情報9は、白色などの背景と分離可能な特定の色で表示してもよいし、付加情報9の下に隠れる画像が見えるように若干の透明度を持たせて表示してもよい。 Further, the additional information 9 may be information other than the registration number of the device 43 and the division information. For example, the additional information 9 may be device information (information about the device 43) stored in the database 23 or device information stored in advance in the storage unit 37. The display color when displaying the additional information 9 may be any color. For example, the additional information 9 may be displayed in a specific color that can be separated from the background such as white, or may be displayed with some transparency so that the image hidden under the additional information 9 can be seen. ..

図17は、第3実施形態の機器検出方法を説明するためのフローチャートである。図17のフローチャートでは、図7のフローチャートのステップS7がステップS9およびS10に置き換えられている。 FIG. 17 is a flowchart for explaining the device detection method of the third embodiment. In the flowchart of FIG. 17, step S7 of the flowchart of FIG. 7 is replaced with steps S9 and S10.

図17のフローチャートでは、ステップS6において位置情報の推定が終わると、画像連結部39が、位置推定部35から受け取った情報に基づいて複数枚の撮像画像3を連結し、連結画像8を作成する(ステップS9)。 In the flowchart of FIG. 17, when the estimation of the position information is completed in step S6, the image connecting unit 39 connects a plurality of captured images 3 based on the information received from the position estimating unit 35 to create the connected image 8. (Step S9).

次に、登録部36は、位置推定部35により決定された機器マーカー4の区画情報を、この機器マーカー4の登録番号や、画像連結部39により作成された連結画像8と共に機器情報管理装置2に送信する(ステップS7)。その結果、機器マーカー4の登録番号および区画情報や、上記の連結画像8が、データベース23に登録される。 Next, the registration unit 36 uses the partition information of the device marker 4 determined by the position estimation unit 35 together with the registration number of the device marker 4 and the connection image 8 created by the image connection unit 39 in the device information management device 2. (Step S7). As a result, the registration number and section information of the device marker 4 and the above-mentioned connected image 8 are registered in the database 23.

以上のように、本実施形態の機器検出装置1は、1台以上の撮像装置3により撮像された複数枚の撮像画像7を連結して連結画像8を出力する画像連結部39を備えている。よって、本実施形態によれば、建物内の広範囲を俯瞰する連結画像8を出力することで、各機器43の位置や機器43同士の位置関係をわかりやすく表示することが可能となる。 As described above, the device detection device 1 of the present embodiment includes an image connecting unit 39 that connects a plurality of captured images 7 captured by one or more imaging devices 3 and outputs a linked image 8. .. Therefore, according to the present embodiment, by outputting the connected image 8 that gives a bird's-eye view of a wide area in the building, it is possible to display the position of each device 43 and the positional relationship between the devices 43 in an easy-to-understand manner.

なお、画像連結部39により連結される撮像画像3同士は、同じ撮像装置3により異なる時刻に撮像された撮像画像3でもよいし、異なる撮像装置3により同じ時刻に撮像された撮像画像3でもよいし、異なる撮像装置3により異なる時刻に撮像された撮像画像3でもよい。 The captured images 3 connected by the image connecting unit 39 may be captured images 3 captured by the same imaging device 3 at different times, or may be captured images 3 captured by different imaging devices 3 at the same time. However, the captured images 3 may be captured at different times by different imaging devices 3.

ここで、図1の機器検出装置1中のプログラム14について説明する。 Here, the program 14 in the device detection device 1 of FIG. 1 will be described.

このプログラム14は、インストール可能な形式または実行可能な形式のファイルで、CD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等の、コンピュータで読み取り可能な記録媒体に記録されて提供されてもよい。また、このプログラム14を、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、このプログラム14を、インターネット等のネットワーク経由で提供または配布するようにしてもよい。第1から第3実施形態では、いずれの方法でプログラム14を機器検出装置1内に提供してもよい。また、このプログラム14は、機器検出装置1内のROMに予め組み込まれていてもよい。 This program 14 is a file in an installable format or an executable format, and is recorded on a computer-readable recording medium such as a CD-ROM, a flexible disk (FD), a CD-R, or a DVD (Digital Versatile Disk). May be provided. Further, the program 14 may be provided by storing it on a computer connected to a network such as the Internet and downloading it via the network. Further, the program 14 may be provided or distributed via a network such as the Internet. In the first to third embodiments, the program 14 may be provided in the device detection device 1 by any method. Further, this program 14 may be preliminarily incorporated in the ROM in the device detection device 1.

以上、いくつかの実施形態を説明したが、これらの実施形態は、例としてのみ提示したものであり、発明の範囲を限定することを意図したものではない。本明細書で説明した新規な装置および方法は、その他の様々な形態で実施することができる。また、本明細書で説明した装置および方法の形態に対し、発明の要旨を逸脱しない範囲内で、種々の省略、置換、変更を行うことができる。添付の特許請求の範囲およびこれに均等な範囲は、発明の範囲や要旨に含まれるこのような形態や変形例を含むように意図されている。 Although some embodiments have been described above, these embodiments are presented only as examples and are not intended to limit the scope of the invention. The novel devices and methods described herein can be implemented in a variety of other forms. In addition, various omissions, substitutions, and changes can be made to the forms of the apparatus and method described in the present specification without departing from the gist of the invention. The appended claims and their equivalent scope are intended to include such forms and variations contained within the scope and gist of the invention.

1:機器検出装置、2:機器情報管理装置、
3、3a、3b、3c、3d:撮像装置、
4、4a、4b、4c、4d、4e:機器マーカー、
5、5a、5b、5c、5d、5e、5f:位置マーカー、
6:クレーン、7、7a、7b、7c、7d、7e:撮像画像、
8、8a、8b:連結画像、9:付加情報、
11:入出力装置、12:演算装置、13:記憶装置、14:プログラム、
21:演算装置、22:記憶装置、23:データベース、
31:撮像部、32:マーカー検出部、33:識別部、
34:照合部、35:位置推定部、36:登録部、
37:記憶部、38:移動検出部、39:画像連結部、
41:床、42:通路、43、43a、43b、43c、43d、43e:機器、
44:車両、45:壁面
1: Device detection device, 2: Device information management device,
3, 3a, 3b, 3c, 3d: Imaging device,
4, 4a, 4b, 4c, 4d, 4e: device markers,
5, 5a, 5b, 5c, 5d, 5e, 5f: Position marker,
6: Crane, 7, 7a, 7b, 7c, 7d, 7e: captured image,
8, 8a, 8b: Concatenated image, 9: Additional information,
11: Input / output device, 12: Arithmetic logic unit, 13: Storage device, 14: Program,
21: Arithmetic logic unit, 22: Storage device, 23: Database,
31: Imaging unit, 32: Marker detection unit, 33: Identification unit,
34: Collation unit, 35: Position estimation unit, 36: Registration unit,
37: Storage unit, 38: Movement detection unit, 39: Image connection unit,
41: Floor, 42: Aisle, 43, 43a, 43b, 43c, 43d, 43e: Equipment,
44: Vehicle, 45: Wall

Claims (14)

建物内を移動する撮像装置により撮像された撮像画像を取得する撮像部と、
前記撮像画像から、前記建物内の機器の識別用に前記機器または前記機器付近に設けられた図形である機器識別図形を検出する検出部と、
前記機器識別図形から得られた第1の識別情報と、前記機器の識別情報として格納部内に格納されている第2の識別情報とを照合して、前記第1の識別情報に対応する前記第2の識別情報を前記格納部から抽出する抽出部と、
前記第1の識別情報に対応する前記第2の識別情報が抽出された場合に、前記撮像装置から出力された情報、または前記撮像装置と共に移動する装置から出力された情報に基づいて、前記建物内における前記機器の位置を示す位置情報を決定する決定部と、
前記機器の識別情報と、前記決定部により決定された前記位置情報とを関連付けて登録する登録部と、
を備える機器検出装置。
An imaging unit that acquires an image captured by an imaging device that moves inside the building,
From the captured image, a detection unit that detects a device identification figure, which is a figure provided on or near the device for identifying the device in the building, and
The first identification information obtained from the device identification figure is collated with the second identification information stored in the storage unit as the identification information of the device, and the first identification information corresponding to the first identification information is collated. An extraction unit that extracts the identification information of 2 from the storage unit,
When the second identification information corresponding to the first identification information is extracted, the building is based on the information output from the image pickup apparatus or the information output from the apparatus moving with the image pickup apparatus. A determination unit that determines position information indicating the position of the device in the device,
A registration unit that associates and registers the identification information of the device with the position information determined by the determination unit, and
A device detector equipped with.
前記検出部は、前記撮像画像から、前記建物内の位置の識別用に前記建物内に設けられた図形である位置識別図形を検出し、
前記抽出部は、前記位置識別図形から得られた第3の識別情報と、前記建物内の位置の識別情報として前記格納部内に格納されている第4の識別情報とを照合して、前記第3の識別情報に対応する前記第4の識別情報を前記格納部から抽出し、
前記決定部は、前記第3の識別情報に対応する前記第4の識別情報が抽出された前記位置識別図形に基づいて、前記位置情報を決定する、
請求項1に記載の機器検出装置。
The detection unit detects a position identification figure, which is a figure provided in the building for identifying a position in the building, from the captured image.
The extraction unit collates the third identification information obtained from the position identification figure with the fourth identification information stored in the storage unit as the identification information of the position in the building, and the first The fourth identification information corresponding to the identification information of 3 is extracted from the storage unit, and the fourth identification information is extracted from the storage unit.
The determination unit determines the position information based on the position identification figure from which the fourth identification information corresponding to the third identification information is extracted.
The device detection device according to claim 1.
前記決定部は、前記機器の位置を示す前記位置情報を、前記機器の前記機器識別図形と同じ前記撮像画像から検出された前記位置識別図形に基づいて決定する、請求項2に記載の機器検出装置。 The device detection according to claim 2, wherein the determination unit determines the position information indicating the position of the device based on the position identification figure detected from the same captured image as the device identification figure of the device. apparatus. 前記位置識別図形は、前記建物の床の上に設置されている、請求項2または3に記載の機器検出装置。 The device detection device according to claim 2 or 3, wherein the position identification figure is installed on the floor of the building. 前記位置識別図形は、前記建物の壁面に設置されている、請求項2または3に記載の機器検出装置。 The device detection device according to claim 2 or 3, wherein the position identification figure is installed on the wall surface of the building. 前記検出部は、前記撮像画像から、前記建物内の所定の部分を検出し、
前記決定部は、前記撮像画像から検出された前記所定の部分に基づいて、前記位置情報を決定する、請求項1に記載の機器検出装置。
The detection unit detects a predetermined part in the building from the captured image, and then
The device detection device according to claim 1, wherein the determination unit determines the position information based on the predetermined portion detected from the captured image.
前記決定部は、前記撮像装置と共に移動する装置により計測された前記建物内の所定の箇所までの距離に基づいて、前記位置情報を決定する、請求項1に記載の機器検出装置。 The device detection device according to claim 1, wherein the determination unit determines the position information based on a distance to a predetermined location in the building measured by a device that moves with the image pickup device. 前記撮像装置は、前記撮像装置を移動させる移動体に取り付けられている、請求項1から7のいずれか1項に記載の機器検出装置。 The device detection device according to any one of claims 1 to 7, wherein the image pickup device is attached to a moving body that moves the image pickup device. 前記位置情報は、前記建物内において前記機器が位置する区画に関する情報である、請求項1から8のいずれか1項に記載の機器検出装置。 The device detection device according to any one of claims 1 to 8, wherein the position information is information about a section in which the device is located in the building. 前記撮像画像に基づいて、前記撮像装置が移動中であるか否かを検出する移動検出部をさらに備え、
前記移動検出部は、前記撮像装置が移動中であるか否かの検出結果に基づいて、前記撮像部が前記機器識別図形の検出用に前記撮像装置から前記撮像画像を取得するタイミングを制御する、請求項1から9のいずれか1項に記載の機器検出装置。
A movement detection unit for detecting whether or not the image pickup device is moving based on the captured image is further provided.
The movement detection unit controls the timing at which the image pickup unit acquires the captured image from the image pickup device for detecting the device identification figure based on the detection result of whether or not the image pickup device is moving. , The device detection device according to any one of claims 1 to 9.
前記決定部により決定された前記位置情報に基づいて、前記撮像装置により撮像された複数の前記撮像画像を連結し、複数の前記撮像画像を連結して得られた連結画像を出力する画像連結部をさらに備える、請求項1から10のいずれか1項に記載の機器検出装置。 An image connecting unit that concatenates a plurality of the captured images captured by the imaging device based on the position information determined by the determining unit and outputs a concatenated image obtained by concatenating the plurality of captured images. The device detection device according to any one of claims 1 to 10, further comprising. 前記画像連結部は、前記機器の情報を前記連結画像中の前記機器の位置付近に付加して前記連結画像を出力する、請求項11に記載の機器検出装置。 The device detection device according to claim 11, wherein the image connecting unit adds information on the device to the vicinity of the position of the device in the connected image and outputs the connected image. 建物内を移動する撮像装置により撮像された撮像画像を取得し、
前記撮像画像から、前記建物内の機器の識別用に前記機器または前記機器付近に設けられた図形である機器識別図形を検出し、
前記機器識別図形から得られた第1の識別情報と、前記機器の識別情報として格納部内に格納されている第2の識別情報とを照合して、前記第1の識別情報に対応する前記第2の識別情報を前記格納部から抽出し、
前記第1の識別情報に対応する前記第2の識別情報が抽出された場合に、前記撮像装置から出力された情報、または前記撮像装置と共に移動する装置から出力された情報に基づいて、前記建物内における前記機器の位置を示す位置情報を決定し、
前記機器の識別情報と、決定された前記位置情報とを関連付けて登録する、
ことを含む機器検出方法。
Acquire the captured image captured by the imaging device that moves in the building,
From the captured image, a device identification figure, which is a figure provided on or near the device for identifying the device in the building, is detected.
The first identification information obtained from the device identification figure is collated with the second identification information stored in the storage unit as the identification information of the device, and the first identification information corresponding to the first identification information is collated. The identification information of 2 is extracted from the storage unit, and
When the second identification information corresponding to the first identification information is extracted, the building is based on the information output from the image pickup apparatus or the information output from the apparatus moving with the image pickup apparatus. Determine the position information indicating the position of the device in the
The identification information of the device and the determined position information are associated and registered.
Equipment detection methods including that.
前記検出では、前記撮像画像から、前記建物内の位置の識別用に前記建物内に設けられた図形である位置識別図形を検出し、
前記抽出では、前記位置識別図形から得られた第3の識別情報と、前記建物内の位置の識別情報として前記格納部内に格納されている第4の識別情報とを照合して、前記第3の識別情報に対応する前記第4の識別情報を前記格納部から抽出し、
前記決定では、前記第3の識別情報に対応する前記第4の識別情報が抽出された前記位置識別図形に基づいて、前記位置情報を決定する、
請求項13に記載の機器検出方法。
In the detection, a position identification figure, which is a figure provided in the building for identifying the position in the building, is detected from the captured image.
In the extraction, the third identification information obtained from the position identification figure is collated with the fourth identification information stored in the storage unit as the identification information of the position in the building, and the third identification information is collated. The fourth identification information corresponding to the identification information of is extracted from the storage unit, and the fourth identification information is extracted from the storage unit.
In the determination, the position information is determined based on the position identification figure from which the fourth identification information corresponding to the third identification information is extracted.
The device detection method according to claim 13.
JP2019123077A 2019-07-01 2019-07-01 Equipment detection device Active JP7303676B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019123077A JP7303676B2 (en) 2019-07-01 2019-07-01 Equipment detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019123077A JP7303676B2 (en) 2019-07-01 2019-07-01 Equipment detection device

Publications (2)

Publication Number Publication Date
JP2021009560A true JP2021009560A (en) 2021-01-28
JP7303676B2 JP7303676B2 (en) 2023-07-05

Family

ID=74199392

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019123077A Active JP7303676B2 (en) 2019-07-01 2019-07-01 Equipment detection device

Country Status (1)

Country Link
JP (1) JP7303676B2 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004196439A (en) * 2002-12-16 2004-07-15 Fuji Photo Film Co Ltd Inventory management system
JP2005083984A (en) * 2003-09-10 2005-03-31 Neomax Co Ltd Article position checking system
JP2006219244A (en) * 2005-02-09 2006-08-24 Toyota Industries Corp Inventory control system
JP2007279155A (en) * 2006-04-03 2007-10-25 Mitsubishi Electric Corp Information terminal and image display method
JP2017014014A (en) * 2015-06-26 2017-01-19 東芝テック株式会社 Image processing apparatus
JP2018002331A (en) * 2016-06-28 2018-01-11 新日鉄住金ソリューションズ株式会社 System, information processor, information processing method, and program
JP2019014593A (en) * 2017-07-10 2019-01-31 株式会社ベイビッグ Position management system and position management method
JP2019094191A (en) * 2017-11-24 2019-06-20 株式会社富士通アドバンストエンジニアリング Shelf allocation generation program, shelf allocation generation method and shelf allocation generation device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004196439A (en) * 2002-12-16 2004-07-15 Fuji Photo Film Co Ltd Inventory management system
JP2005083984A (en) * 2003-09-10 2005-03-31 Neomax Co Ltd Article position checking system
JP2006219244A (en) * 2005-02-09 2006-08-24 Toyota Industries Corp Inventory control system
JP2007279155A (en) * 2006-04-03 2007-10-25 Mitsubishi Electric Corp Information terminal and image display method
JP2017014014A (en) * 2015-06-26 2017-01-19 東芝テック株式会社 Image processing apparatus
JP2018002331A (en) * 2016-06-28 2018-01-11 新日鉄住金ソリューションズ株式会社 System, information processor, information processing method, and program
JP2019014593A (en) * 2017-07-10 2019-01-31 株式会社ベイビッグ Position management system and position management method
JP2019094191A (en) * 2017-11-24 2019-06-20 株式会社富士通アドバンストエンジニアリング Shelf allocation generation program, shelf allocation generation method and shelf allocation generation device

Also Published As

Publication number Publication date
JP7303676B2 (en) 2023-07-05

Similar Documents

Publication Publication Date Title
JP4970195B2 (en) Person tracking system, person tracking apparatus, and person tracking program
JP5207719B2 (en) Label with color code, color code extraction means, and three-dimensional measurement system
US10512941B2 (en) Projection instruction device, parcel sorting system, and projection instruction method
JP5773436B2 (en) Information terminal equipment
CN109584307A (en) The system and method for improving the intrinsic parametric calibration of video camera
WO2017163710A1 (en) Instruction projecting device, package sorting system and instruction projecting method
JP6646853B2 (en) Projection instruction device, luggage sorting system and projection instruction method
WO2017163711A1 (en) Projection indicator, cargo assortment system, and projection indicating method
JP2015045952A (en) Position information display system and method
KR20110050640A (en) Machine-readable form configuration and system and method for interpreting at least one user mark
WO2017179543A1 (en) Information processing device, information processing method, and program recording medium
JP7303676B2 (en) Equipment detection device
JP6262610B2 (en) Information registration device, information continuation registration device, method and program
JP6065911B2 (en) Arrangement information registration device, arrangement information registration method, and arrangement information registration program
JP7263983B2 (en) Photography omission detection device and photography omission detection method
JP2017079326A (en) Identification device, traceability system, and identification method
JP2020114778A (en) Projection instruction device, goods assort system and projection instruction method
US10589319B2 (en) Projection instruction device, parcel sorting system, and projection instruction method
JP7237812B2 (en) CODE DRAWING, CODE READING DEVICE, AND CODE READING METHOD
JPWO2019003686A1 (en) Package recognition device, package sorting system and package recognition method
JP6628038B2 (en) Projection instruction device, luggage sorting system and projection instruction method
JP2021155183A (en) Article inspection device, article inspection method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230508

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230623

R150 Certificate of patent or registration of utility model

Ref document number: 7303676

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150