JP2019139642A - Device, system, and method for detecting locations - Google Patents

Device, system, and method for detecting locations Download PDF

Info

Publication number
JP2019139642A
JP2019139642A JP2018024264A JP2018024264A JP2019139642A JP 2019139642 A JP2019139642 A JP 2019139642A JP 2018024264 A JP2018024264 A JP 2018024264A JP 2018024264 A JP2018024264 A JP 2018024264A JP 2019139642 A JP2019139642 A JP 2019139642A
Authority
JP
Japan
Prior art keywords
position detection
image
learning
captured
building
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018024264A
Other languages
Japanese (ja)
Inventor
元明 山崎
Motoaki Yamazaki
元明 山崎
白石 理人
Masato Shiraishi
理人 白石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimizu Construction Co Ltd
Shimizu Corp
Original Assignee
Shimizu Construction Co Ltd
Shimizu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimizu Construction Co Ltd, Shimizu Corp filed Critical Shimizu Construction Co Ltd
Priority to JP2018024264A priority Critical patent/JP2019139642A/en
Publication of JP2019139642A publication Critical patent/JP2019139642A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a location detection device capable of detecting locations of people inside a building without using special equipment for detecting locations.SOLUTION: A location detection device comprises: an image acquisition unit configured to acquire images captured inside a building as target images indicative of targets for detecting shot locations; and a location detection unit configured to detect shot locations where the target images were captured from the target images using a location detection model for estimating the shot locations.SELECTED DRAWING: Figure 1

Description

本発明は、撮像位置を検出する位置検出装置、位置検出システム、及び位置検出方法に関する。   The present invention relates to a position detection device, a position detection system, and a position detection method for detecting an imaging position.

従来、建物内などにおいて、人間の位置を検出する方法は、各種検討されている。例えば、ビーコン、無線タグ、wifi(ワイファイ)電波、地磁気、IMES(Indoor MESsaging System)、PHS(Personal Handy-phone System)等の通信端末技術や、この組合せでの構成が多い(例えば、特許文献1参照)。   Conventionally, various methods for detecting a human position in a building or the like have been studied. For example, there are many configurations of communication terminal technologies such as beacons, wireless tags, wifi radio waves, geomagnetism, IMES (Indoor MESsaging System), PHS (Personal Handy-phone System), and combinations thereof (for example, Patent Document 1). reference).

特開2011−214834号公報JP 2011-214834 A

しかしながら、上述した人間の位置を検出する方法には、共通する欠点として、人間の各々が携帯する自身の位置を示す専用機器を常時携帯する必要があり、又は電波あるいは光学的に位置検出を行う位置検出センサなどの専用機器を建物内に配置する必要があり、装置コストがかかるという問題がある。   However, the above-described methods for detecting the position of a person need to always carry a dedicated device that indicates the position of each person carried by each person, or perform position detection by radio waves or optically. There is a problem that it is necessary to arrange dedicated equipment such as a position detection sensor in the building, which increases the device cost.

上述の課題を鑑み、本発明は、位置を検出するための専用機器を用いることなく、屋内にいる人間の位置を検出することができる位置検出装置、位置検出システム、及び位置検出方法を提供することを目的とする。   In view of the above-described problems, the present invention provides a position detection device, a position detection system, and a position detection method capable of detecting the position of a person indoors without using a dedicated device for detecting the position. For the purpose.

上述の課題を解決するために、本発明の一態様に係る位置検出装置は、建物内で撮像された画像を、撮像位置を検出する対象を示す対象画像として取得する画像取得部と、前記対象画像が撮像された撮像位置を、前記対象画像から前記撮像位置を推定する位置検出モデルを用いて検出する位置検出部とを備えることを特徴とする。   In order to solve the above-described problem, a position detection device according to an aspect of the present invention includes an image acquisition unit that acquires an image captured in a building as a target image that indicates a target for detecting an imaging position; And a position detection unit that detects an imaging position where the image is captured using a position detection model that estimates the imaging position from the target image.

また、本発明の一態様の位置検出装置では、前記位置検出モデルは、建物内を撮像した学習用画像に当該学習用画像を撮像した撮像位置を示す情報が付された学習データを用いて機械学習を実行することにより作成された学習モデルであることを特徴とする。   In the position detection device according to one aspect of the present invention, the position detection model is a machine that uses learning data in which information indicating the imaging position at which the learning image is captured is added to the learning image that is captured inside the building. It is a learning model created by executing learning.

また、本発明の一態様の位置検出装置では、前記対象画像を識別する情報とともに記憶する位置情報記憶部を更に備えることを特徴とする。   The position detection device according to one aspect of the present invention further includes a position information storage unit that stores information that identifies the target image.

また、本発明の一態様の位置検出システムでは、上述した位置検出装置と、建物内を撮像した学習用画像に、当該学習用画像を撮像した撮像位置を示す情報が付された学習データを用いて機械学習を実行することにより、画像が撮像された撮像位置を検出するための撮像位置検出モデルを作成する学習サーバとを備えることを特徴とする。   In the position detection system of one embodiment of the present invention, the above-described position detection device and learning data in which information indicating the imaging position at which the learning image is captured are attached to the learning image in which the inside of the building is captured are used. And a learning server that creates an imaging position detection model for detecting an imaging position at which an image is captured by executing machine learning.

また、本発明の一態様の位置検出方法では、画像取得部が、建物内で撮像された画像を、撮像位置を検出する対象を示す対象画像として取得し、位置検出部が、前記対象画像が撮像された撮像位置を、前記対象画像から前記撮像位置を推定する位置検出モデルを用いて検出することを特徴とする。   In the position detection method of one embodiment of the present invention, the image acquisition unit acquires an image captured in the building as a target image indicating a target for detecting the imaging position, and the position detection unit detects that the target image is An imaged imaging position is detected using a position detection model that estimates the imaging position from the target image.

本発明によれば、位置を検出するための専用機器を用いることなく、屋内にいる人間の位置を検出することができる。   According to the present invention, it is possible to detect the position of a person indoors without using a dedicated device for detecting the position.

実施形態の位置検出システム1の構成例を示すブロック図である。It is a block diagram which shows the structural example of the position detection system 1 of embodiment. 実施形態のカメラ12が屋内を撮像する例を示すイメージ図である。It is an image figure which shows the example which the camera 12 of embodiment images indoors. 実施形態のカメラ12により撮像された対象画像の一例を示す図である。It is a figure which shows an example of the target image imaged with the camera 12 of embodiment. 実施形態の学習サーバ11により用いられる学習データの一例を示す図である。It is a figure which shows an example of the learning data used by the learning server 11 of embodiment. 実施形態の位置検出システム1が位置を検出する処理の流れについて説明するシーケンスチャートである。It is a sequence chart explaining the flow of processing in which position detection system 1 of an embodiment detects a position.

以下、本発明の実施形態による位置検出装置、位置検出システム、及び位置検出方法を説明する。
図1は、実施形態の位置検出システム1の構成例を示すブロック図である。位置検出システム1は、位置検出装置10、学習サーバ11、及びカメラ12の各々を備えている。本実施形態においては、位置検出システム1にはカメラ12が複数台備えられている場合を例示したが、位置検出システム1には少なくとも一台のカメラ12が備えられていればよい。
また、位置検出装置10、学習サーバ11、及びカメラ12の各々は、それぞれインターネットやローカルエリアネットワークなどを含む情報通信網500に接続され、相互にデータの送受信を行う。学習サーバ11は、建物内に設置されたオンプレミス(on-premises)によるサーバ装置であってもよいし、情報通信網500に接続された外部のクラウドコンピューティングによるサーバ装置であってもよい。
Hereinafter, a position detection device, a position detection system, and a position detection method according to embodiments of the present invention will be described.
FIG. 1 is a block diagram illustrating a configuration example of a position detection system 1 according to the embodiment. The position detection system 1 includes a position detection device 10, a learning server 11, and a camera 12. In the present embodiment, the case where the position detection system 1 includes a plurality of cameras 12 is illustrated, but the position detection system 1 only needs to include at least one camera 12.
Each of the position detection device 10, the learning server 11, and the camera 12 is connected to an information communication network 500 including the Internet and a local area network, and transmits and receives data to and from each other. The learning server 11 may be an on-premises server device installed in a building, or an external cloud computing server device connected to the information communication network 500.

本実施形態では、カメラ12の各々は、建物内を移動することが可能なカメラである。カメラ12は、例えば、建物内にいる人間が携帯する携帯機器(スマートフォンなど含む)に備えられた撮像装置である。或いは、カメラ12は、移動体(例えば、移動ロボットや人間)に搭載されて移動する撮像装置である。
カメラ12は、例えば、建物内を巡回する巡回ロボットに備え付けられた360度カメラや、警備員の肩あるいは頭部などに備えられた撮像装置であってもよい。カメラ12は、巡回ロボットや警備員がいる位置から撮像された建物内の風景を示す撮像画像を、巡回ロボットや警備員の撮像装置に備えられた通信機能を介して位置検出装置10や学習サーバ11に送信する。
In the present embodiment, each of the cameras 12 is a camera that can move in a building. The camera 12 is, for example, an imaging device provided in a portable device (including a smartphone) carried by a person in a building. Alternatively, the camera 12 is an imaging device that is mounted on a moving body (for example, a mobile robot or a human) and moves.
The camera 12 may be, for example, a 360-degree camera provided in a patrol robot that patrols a building, or an imaging device provided in a guard's shoulder or head. The camera 12 captures a captured image showing the scenery in the building imaged from the position where the patrol robot and the security guard are located, via the communication function provided in the imaging device of the patrol robot and the security guard, and the position detection device 10 and the learning server. 11 to send.

位置検出装置10は、撮像画像取得部101、位置検出部102、撮像画像記憶部103、及び位置情報記憶部104の各々を備えている。
撮像画像取得部101は、建物内においてカメラ12の各々が撮像する撮像画像を、それぞれのカメラ12から情報通信網500を介して取得する。ここで、撮像画像取得部101は、「画像取得部」の一例である。また、撮像画像取得部101により取得される撮像画像は、撮像位置を検出する対象となる画像であり、「対象画像」の一例である。
The position detection device 10 includes a captured image acquisition unit 101, a position detection unit 102, a captured image storage unit 103, and a position information storage unit 104.
The captured image acquisition unit 101 acquires captured images captured by the cameras 12 in the building from the respective cameras 12 via the information communication network 500. Here, the captured image acquisition unit 101 is an example of an “image acquisition unit”. The captured image acquired by the captured image acquisition unit 101 is an image that is a target for detecting the imaging position, and is an example of a “target image”.

撮像画像取得部101は、カメラ12の各々から取得した撮像画像を、位置検出部102に対して出力するともに、撮像画像記憶部103に対して、カメラ12のカメラ識別情報とタイムスタンプ(時刻情報)とを付加して書き込んで記憶させる。   The captured image acquisition unit 101 outputs the captured image acquired from each of the cameras 12 to the position detection unit 102, and also transmits the camera identification information and time stamp (time information) of the camera 12 to the captured image storage unit 103. ) Is added and stored.

位置検出部102は、撮像画像取得部101から供給される撮像画像における撮像位置を、位置検出モデルを用いて検出する。位置検出部102は、例えば、カメラ12が携帯端末装置に備えられた撮像装置である場合、建物内におけるその携帯端末の位置を、位置検出モデルを用いて検出する。位置検出モデルは、後述する学習サーバ11により生成される学習済みモデルである。位置検出モデルについては、後で詳しく説明する。
位置検出部102は、検出した撮像位置を示す情報を、位置情報記憶部104に対して、撮像画像を示す情報を付加して書き込んで記憶させる。
The position detection unit 102 detects the imaging position in the captured image supplied from the captured image acquisition unit 101 using a position detection model. For example, when the camera 12 is an imaging device provided in a mobile terminal device, the position detection unit 102 detects the position of the mobile terminal in a building using a position detection model. The position detection model is a learned model generated by the learning server 11 described later. The position detection model will be described in detail later.
The position detection unit 102 writes and stores information indicating the detected imaging position in the position information storage unit 104 by adding information indicating the captured image.

撮像画像記憶部103は、撮像画像取得部101により取得された撮像画像を、カメラ12のカメラ識別情報とタイムスタンプとを対応させた情報を記憶する。
位置情報記憶部104は、位置検出部102により検出された撮像位置を、撮像画像を示す情報とともに記憶する。
The captured image storage unit 103 stores information in which the captured image acquired by the captured image acquisition unit 101 is associated with camera identification information of the camera 12 and a time stamp.
The position information storage unit 104 stores the imaging position detected by the position detection unit 102 together with information indicating the captured image.

ここで、撮像画像取得部101により取得される画像について、図2、及び図3を用いて説明する。
図2は、実施形態のカメラ12が屋内を撮像する例を示すイメージ図である。
図3は、実施形態のカメラ12により撮像された屋内画像の一例を示す図である。
図2に示すように、建物にいる人間がスマートフォンのカメラ12により建物内の風景を撮像する。
Here, an image acquired by the captured image acquisition unit 101 will be described with reference to FIGS. 2 and 3.
FIG. 2 is an image diagram illustrating an example in which the camera 12 of the embodiment images indoors.
FIG. 3 is a diagram illustrating an example of an indoor image captured by the camera 12 according to the embodiment.
As shown in FIG. 2, a person in the building images a landscape in the building with the camera 12 of the smartphone.

図3に示すように、カメラ12により撮像された画像には、サインM1〜M4のように、部屋番号や床の模様などが含まれている。これらのサインMは、建物における位置を識別する識別子となり得る。つまり、これらのサインMが含まれる画像にその画像の撮像位置を付したものを学習データとし、この学習データを用いて機械学習を実行した学習済みモデルを作成すれば、作成したモデルが画像に基づいて撮像位置を推定することができるため、カメラ12の撮像位置の特定が可能である。この、カメラ12の撮像位置が、すなわち、カメラ12を持つ(カメラ12が搭載されたスマートフォンを所持する)人間の建物内における位置と推定される。   As illustrated in FIG. 3, the image captured by the camera 12 includes a room number, a floor pattern, and the like as in the signs M <b> 1 to M <b> 4. These signs M can be identifiers that identify locations in the building. In other words, if a learning model is created by performing machine learning using the learning data obtained by adding the imaging position of the image to the image including these signs M, the created model is added to the image. Since the imaging position can be estimated based on this, the imaging position of the camera 12 can be specified. The imaging position of the camera 12 is estimated as a position in a human building having a camera 12 (having a smartphone equipped with the camera 12).

図1に戻り、学習サーバ11は、位置検出装置10により位置検出に用いられる学習済みモデル(位置検出モデル)を、学習データに基づいて作成するサーバ装置である。学習データは、例えば位置検出システム1により位置検出が行われる前の段階で事前に取得され、学習データに基づいて学習済みモデル(位置検出モデル)が作成される。   Returning to FIG. 1, the learning server 11 is a server device that creates a learned model (position detection model) used for position detection by the position detection device 10 based on learning data. The learning data is acquired in advance before the position detection is performed by the position detection system 1, for example, and a learned model (position detection model) is created based on the learning data.

学習サーバ11は、学習データ取得部111、モデル作成部112、及び学習モデル記憶部113の各々を備える。
学習データ取得部111は、学習用のカメラ12Aが撮像する学習用の撮像画像を、学習用のカメラ12Aから情報通信網500を介して取得する。ここで、学習用のカメラ12Aにより撮像される学習用の撮像画像は、「学習用画像」の一例である。
The learning server 11 includes a learning data acquisition unit 111, a model creation unit 112, and a learning model storage unit 113.
The learning data acquisition unit 111 acquires a captured image for learning captured by the learning camera 12A from the learning camera 12A via the information communication network 500. Here, the captured image for learning captured by the learning camera 12A is an example of a “learning image”.

ここで、学習用のカメラ12Aは、位置検出モデルを作成する場合において学習データとして用いられる画像を撮像する撮像装置であり、例えば、360度カメラ付き巡回ロボットにより撮像された建物内の様々な風景を示す画像の各々を撮像する。学習用のカメラ12Aは、例えば、建物内を巡回しながら屋内の風景を撮像し、撮像した撮像画像を、学習サーバ11に送信する。   Here, the learning camera 12A is an imaging device that captures an image used as learning data when creating a position detection model. For example, various scenes in a building captured by a traveling robot with a 360-degree camera are used. Each of the images showing is taken. For example, the learning camera 12 </ b> A images an indoor landscape while traveling around a building, and transmits the captured image to the learning server 11.

また、学習データ取得部111は、学習用のカメラ12Aにより撮像された撮像画像の撮像位置を示す情報を取得する。撮像位置を示す情報は、例えば、緯度経度で示されるような世界測地系の座標情報であってもよいし、建物内の案内表示プレートのように建物内における位置を識別できるような情報であってもよい。   The learning data acquisition unit 111 acquires information indicating the imaging position of the captured image captured by the learning camera 12A. The information indicating the imaging position may be, for example, coordinate information of the world geodetic system as indicated by latitude and longitude, or information that can identify the position in the building such as a guidance display plate in the building. May be.

学習データ取得部111は、例えば、学習用の撮像画像を取得する360度カメラ付き巡回ロボットから撮像位置を示す情報を取得する。この場合、学習データ取得部111は、例えば、360度カメラ付き巡回ロボットに屋内GPS(Global Positioning System)を取り付けた状態で建物内を巡回させ、撮像画像が撮像される度にGPSから位置情報を取得させ、撮像画像とともに撮像位置を示す情報(GPS位置情報)を取得する。又は、学習データ取得部111は、建物の管理者などの入力操作により入力部(不図示)に入力された情報に基づいて、撮像位置を取得してもよい。   For example, the learning data acquisition unit 111 acquires information indicating the imaging position from a traveling robot with a 360-degree camera that acquires a captured image for learning. In this case, for example, the learning data acquisition unit 111 circulates the building with a 360 degree camera-equipped robot with an indoor GPS (Global Positioning System) attached, and obtains position information from the GPS every time a captured image is captured. The information (GPS position information) indicating the imaging position is acquired together with the captured image. Or the learning data acquisition part 111 may acquire an imaging position based on the information input into the input part (not shown) by input operation, such as a manager of a building.

モデル作成部112は、学習データ取得部111により取得された学習用の撮像画像、及びその撮像画像が撮像された撮像位置を示す情報を学習データとして用いて機械学習を実行することにより、画像における撮像位置を検出するための位置検出モデルを作成する。ここでの機械学習は、例えば、教師あり学習である。
学習モデル記憶部113は、モデル作成部112により作成された位置検出モデルを記憶する。
The model creation unit 112 performs machine learning using the learning captured image acquired by the learning data acquisition unit 111 and information indicating the imaging position where the captured image is captured as the learning data, so that A position detection model for detecting the imaging position is created. The machine learning here is, for example, supervised learning.
The learning model storage unit 113 stores the position detection model created by the model creation unit 112.

図4は、実施形態の学習サーバ11により用いられる学習データの一例を示す図である。図4(a)〜(e)は、建物内における看板、目印等の何らかの印を含むサイン、床、天井、壁、柱など建物内の位置を識別し得る識別子(例えば、サインM)が含まれる画像である。
図4(a)〜(e)に示す画像には当該撮像画像が撮像された撮像位置を示す情報が付されており、機械学習に用いられる学習データとして利用される。
FIG. 4 is a diagram illustrating an example of learning data used by the learning server 11 of the embodiment. 4A to 4E include an identifier (for example, sign M) that can identify a position in the building, such as a sign including a sign such as a signboard or a landmark in the building, a floor, a ceiling, a wall, or a pillar. This is an image.
The images shown in FIGS. 4A to 4E are attached with information indicating the imaging position where the captured image is captured, and are used as learning data used for machine learning.

例えば、図4(a)では、壁に「会議室2−A」と記されたプレートが掲げられ、その位置の床にはドット柄のカーペットが敷かれている様子が撮像されている。また、壁に「会議室2−B」と記されたプレートが掲げられ、その位置の床には斜線模様のカーペットが敷かれている様子が撮像されている。この場合、当該画像には、「会議室2−A」と「会議室2−B」が設けられたフロアの廊下側から「会議室2−A」と「会議室2−B」とのプレートを見渡せる位置が撮像位置を示す情報として付されている。或いは、当該画像には「会議室2−A」と「会議室2−B」が設けられたフロアの廊下の所定の位置座標を示す情報が付されている。   For example, in FIG. 4A, a plate marked “Meeting room 2-A” is placed on the wall, and a dot pattern carpet is laid on the floor at that position. In addition, a plate marked “Meeting room 2-B” is lifted on the wall, and an image of a hatched carpet on the floor at that position is captured. In this case, the image includes a plate of “conference room 2-A” and “conference room 2-B” from the corridor side of the floor where “conference room 2-A” and “conference room 2-B” are provided. A position overlooking can be attached as information indicating the imaging position. Or the information which shows the predetermined position coordinate of the corridor of the floor in which "Conference room 2-A" and "Conference room 2-B" were provided is attached to the said image.

また、例えば、図4(b)では「会議室2−A」と記されたプレートが撮像されている。当該画像には「会議室2−A」のプレートを、その正面の水平方向から撮像できる位置が撮像位置を示す情報として付されている。また、例えば、図4(c)では「会議室2−B」と記されたプレートが撮像されている。当該画像には「会議室2−B」のプレートを、その正面の水平方向から撮像できる位置が撮像位置を示す情報として付されている。また、例えば、図4(d)では斜線模様のカーペットが撮像されている。当該画像にはドット柄のカーペットを、その正面の鉛直方向から撮像できる位置が撮像位置を示す情報として付されている。また、例えば、図4(e)では斜線模様のカーペットが撮像されている。当該画像には斜線模様のカーペットを、その正面の鉛直方向から撮像できる位置が撮像位置を示す情報として付されている。   Further, for example, in FIG. 4B, the plate marked “Conference room 2-A” is imaged. The position where the plate of “conference room 2-A” can be imaged from the front in the horizontal direction is attached to the image as information indicating the imaging position. Further, for example, in FIG. 4C, the plate marked “Conference room 2-B” is imaged. The position where the plate of “conference room 2-B” can be imaged from the front in the horizontal direction is attached to the image as information indicating the imaging position. In addition, for example, in FIG. 4D, a diagonal carpet pattern is captured. In the image, a position where the dot-patterned carpet can be imaged from the vertical direction on the front is attached as information indicating the imaging position. Further, for example, in FIG. 4 (e), a hatched carpet is captured. In the image, a position where a diagonal carpet pattern can be imaged from the vertical direction in front of the carpet is attached as information indicating the imaging position.

すでに述べたように、モデル作成部112は、建物内を撮像した学習用画像に当該学習用画像を撮像した撮像位置を示す情報が付された学習データを用いて機械学習を実行することにより、前記屋内画像が撮像された撮像位置を検出するための学習モデルを作成する。   As already described, the model creation unit 112 executes machine learning using learning data in which information indicating the imaging position where the learning image is captured is added to the learning image captured within the building, A learning model for detecting an imaging position where the indoor image is captured is created.

位置検出モデルは、例えば、建物内の位置を特定する特定要因がモデル化されたものである。この位置検出モデルは、建物内の様々な場所ごとに、特定要因がモデル化されている。例えば、建物内の位置が「会議室2−A」である場合には、その特定要因は「会議室2−A」のプレートや、ドット柄のカーペットである。また、建物内の位置が「会議室2−B」である場合には、その特定要因は「会議室2−B」のプレートや、斜線模様のカーペットである。   The position detection model is obtained by modeling a specific factor for specifying a position in a building, for example. In this position detection model, specific factors are modeled for various places in the building. For example, when the position in the building is “conference room 2-A”, the specific factor is the plate of “conference room 2-A” or a carpet with a dot pattern. In addition, when the position in the building is “conference room 2-B”, the specific factor is the plate of “conference room 2-B” or the diagonally-patterned carpet.

図5は、実施形態の位置検出システム1が位置を検出する処理の流れについて説明するシーケンスチャートである。
まず、学習用のカメラ12Aは、学習用の撮像画像を撮像する(ステップS101)。学習用のカメラ12Aは、例えば、建物内を巡回し、建物内の様々な場所を撮像する。
次に、学習用のカメラ12Aは、撮像した撮像画像に撮像位置を示す情報を対応づける(ステップS102)。学習用のカメラ12Aは、撮像する度に屋内GPS等により位置情報を取得してもよいし、建物の管理者等による入力操作により指示された撮像画像に対応する位置情報を取得するようにしてもよい。
FIG. 5 is a sequence chart for explaining the flow of processing in which the position detection system 1 of the embodiment detects a position.
First, the learning camera 12A captures a captured image for learning (step S101). The learning camera 12A, for example, circulates in a building and images various places in the building.
Next, the learning camera 12A associates information indicating the imaging position with the captured image (step S102). The learning camera 12A may acquire position information using an indoor GPS or the like each time an image is captured, or acquire position information corresponding to a captured image instructed by an input operation by a building manager or the like. Also good.

次に、学習用のカメラ12Aは、撮像画像に撮像位置を対応付けた情報を、学習データとして学習サーバ11に送信する(ステップS103)。
学習データ取得部111は、学習データを取得する(ステップS104)。学習データ取得部111は、取得した学習データをモデル作成部112に出力する。
モデル作成部112は、学習データ取得部111から供給された学習データを用いて機械学習を実行することにより、位置検出モデルを作成する(ステップS105)。モデル作成部112は、作成した位置検出モデルを学習モデル記憶部113に記憶させる。
Next, the learning camera 12A transmits information associating the captured position with the captured image to the learning server 11 as learning data (step S103).
The learning data acquisition unit 111 acquires learning data (step S104). The learning data acquisition unit 111 outputs the acquired learning data to the model creation unit 112.
The model creation unit 112 creates a position detection model by performing machine learning using the learning data supplied from the learning data acquisition unit 111 (step S105). The model creation unit 112 stores the created position detection model in the learning model storage unit 113.

一方、カメラ12は、建物内において、建物内の風景を撮像する(ステップS106)。
カメラ12は、撮像した撮像画像を位置検出装置10に送信する(ステップS107)。
撮像画像取得部101は、カメラ12により撮像された撮像画像を取得する(ステップS108)。撮像画像取得部101は、取得した画像を位置検出部102に出力する。位置検出部102は、撮像画像取得部101から供給された撮像画像を学習サーバ11に送信する(ステップS109)。
On the other hand, the camera 12 images the landscape in the building (step S106).
The camera 12 transmits the captured image to the position detection device 10 (step S107).
The captured image acquisition unit 101 acquires a captured image captured by the camera 12 (step S108). The captured image acquisition unit 101 outputs the acquired image to the position detection unit 102. The position detection unit 102 transmits the captured image supplied from the captured image acquisition unit 101 to the learning server 11 (step S109).

学習サーバ11は、位置検出装置10から撮像画像を受信し(ステップS110)、モデル作成部112により作成された位置検出モデルに入力することにより、位置検出モデルから撮像位置を示す情報を取得する(ステップS111)。
学習サーバ11は、取得した撮像位置を示す情報を位置検出装置10に送信する(ステップS112)。
The learning server 11 receives the captured image from the position detection device 10 (step S110), and obtains information indicating the imaging position from the position detection model by inputting the captured image into the position detection model created by the model creation unit 112 ( Step S111).
The learning server 11 transmits information indicating the acquired imaging position to the position detection device 10 (step S112).

位置検出部102は、学習サーバ11から受信した撮像位置を示す情報を、撮像画像の撮像位置として検出する(ステップS113)。
位置検出部102は、検出した撮像位置を、撮像画像を識別する情報とともに位置情報記憶部104に記憶させる(ステップS114)。
The position detection unit 102 detects information indicating the imaging position received from the learning server 11 as the imaging position of the captured image (step S113).
The position detection unit 102 stores the detected imaging position in the position information storage unit 104 together with information for identifying the captured image (step S114).

なお、上述した例では、位置検出部102は、学習サーバ11に撮像画像を送信することにより、学習サーバ11から撮像位置を示す情報を取得する場合を例示して説明したが、これに限定されない。   In the above-described example, the position detection unit 102 has exemplified and described the case where the information indicating the imaging position is acquired from the learning server 11 by transmitting the captured image to the learning server 11, but is not limited thereto. .

例えば、位置検出装置10は、学習サーバ11のモデル作成部112により作成された位置検出モデルを取得するようにしてもよい。この場合、位置検出装置10は、位置検出モデルを記憶する記憶部(不図示)を備え、学習サーバ11から受信した位置検出モデルを記憶する。   For example, the position detection device 10 may acquire the position detection model created by the model creation unit 112 of the learning server 11. In this case, the position detection device 10 includes a storage unit (not shown) that stores the position detection model, and stores the position detection model received from the learning server 11.

そして、位置検出装置10は、位置検出装置10の図示しない記憶部に記憶された位置検出モデルに、撮像画像取得部101から供給された撮像画像を入力することで、撮像位置を検出する。これにより、位置検出装置10は、情報通信網500を介さずに撮像位置を検出することができるため、通信負担の低減を図ることが可能である。   And the position detection apparatus 10 detects an imaging position by inputting the captured image supplied from the captured image acquisition part 101 to the position detection model memorize | stored in the memory | storage part which is not illustrated of the position detection apparatus 10. FIG. Thereby, since the position detection apparatus 10 can detect an imaging position without going through the information communication network 500, it is possible to reduce a communication burden.

以上説明したように、実施形態の位置検出装置10は、位置検出モデルを用いて、位置検出部102により撮像位置を検出することができる。このため、ビーコン、無線タグ、wifi電波、地磁気、IMES、PHS等の位置を検出するための専用機器を用いることなく、屋内にいる人間が屋内の様子を撮像するだけでその人間のいる位置を検出することができる。また、位置検出モデルは、機械学習を実行することにより作成された学習モデルであるため、撮像位置を特定するために撮像画像を画像解析するような複雑な処理を行う必要がなく、撮像画像と撮像位置とを対応付けた学習データで事前に機械学習を実行するだけで容易に撮像位置を検出することが可能である。   As described above, the position detection apparatus 10 according to the embodiment can detect the imaging position by the position detection unit 102 using the position detection model. For this reason, without using a dedicated device for detecting the position of a beacon, wireless tag, wifi radio wave, geomagnetism, IMES, PHS or the like, the person who is indoors can simply determine the position where the person is located Can be detected. In addition, since the position detection model is a learning model created by executing machine learning, it is not necessary to perform complicated processing such as image analysis of the captured image in order to specify the captured position. It is possible to easily detect the imaging position only by executing machine learning in advance with learning data in which the imaging position is associated.

また、実施形態の位置検出装置10は、撮像位置を示す情報を撮像画像と対応づけて記憶する位置情報記憶部104を備える。これにより、同じカメラ12により撮像された撮像画像とその撮像位置を時系列に並べることで、特定のカメラ12(を携帯する人間)の移動履歴を把握することが可能である。   In addition, the position detection device 10 according to the embodiment includes a position information storage unit 104 that stores information indicating an imaging position in association with a captured image. Thereby, it is possible to grasp the movement history of a specific camera 12 (the person carrying it) by arranging the captured images captured by the same camera 12 and their imaging positions in time series.

また、図1における位置検出システム1、及び位置検出装置10の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、カメラ12の撮像位置を検出する制御を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。   Further, the program for realizing the functions of the position detection system 1 and the position detection apparatus 10 in FIG. 1 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read by the computer system. By executing the control, the control of detecting the imaging position of the camera 12 may be performed. Here, the “computer system” includes an OS and hardware such as peripheral devices.

また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

1…位置検出システム
10…位置検出装置
11…学習サーバ
12…カメラ
101…撮像画像取得部
102…位置検出部
103…撮像画像記憶部
104…位置情報記憶部
111…学習データ取得部
112…モデル作成部
DESCRIPTION OF SYMBOLS 1 ... Position detection system 10 ... Position detection apparatus 11 ... Learning server 12 ... Camera 101 ... Captured image acquisition part 102 ... Position detection part 103 ... Captured image storage part 104 ... Position information storage part 111 ... Learning data acquisition part 112 ... Model creation Part

Claims (5)

建物内で撮像された画像を、撮像位置を検出する対象を示す対象画像として取得する画像取得部と、
前記対象画像が撮像された撮像位置を、前記対象画像から前記撮像位置を推定する位置検出モデルを用いて検出する位置検出部と
を備える
ことを特徴とする位置検出装置。
An image acquisition unit that acquires an image captured in a building as a target image indicating a target for detecting an imaging position;
A position detection device comprising: a position detection unit that detects an image pickup position at which the target image is picked up using a position detection model that estimates the image pickup position from the target image.
前記位置検出モデルは、建物内を撮像した学習用画像に当該学習用画像を撮像した撮像位置を示す情報が付された学習データを用いて機械学習を実行することにより作成された学習モデルである
ことを特徴とする請求項1に記載の位置検出装置。
The position detection model is a learning model created by performing machine learning using learning data in which information indicating the imaging position where the learning image is captured is added to the learning image capturing the inside of the building. The position detection device according to claim 1.
前記位置検出部により検出された撮像位置を示す情報を、前記対象画像を識別する情報とともに記憶する位置情報記憶部
を更に備える
ことを特徴とする請求項1又は請求項2に記載の位置検出装置。
The position detection device according to claim 1, further comprising a position information storage unit that stores information indicating the imaging position detected by the position detection unit together with information for identifying the target image. .
請求項1又は請求項2に記載の位置検出装置と、
建物内を撮像した学習用画像に、当該学習用画像を撮像した撮像位置を示す情報が付された学習データを用いて機械学習を実行することにより、画像が撮像された撮像位置を検出するための位置検出モデルを作成する学習サーバと
を備える
ことを特徴とする位置検出システム。
The position detection device according to claim 1 or 2,
In order to detect the imaging position where the image was captured by performing machine learning using learning data in which information indicating the imaging position where the learning image was captured is added to the learning image captured within the building A position detection system comprising: a learning server that creates a position detection model of
画像取得部が、建物内で撮像された画像を、撮像位置を検出する対象を示す対象画像として取得し、
位置検出部が、前記対象画像が撮像された撮像位置を、前記対象画像から前記撮像位置を推定する位置検出モデルを用いて検出する
ことを特徴とする位置検出方法。
An image acquisition unit acquires an image captured in a building as a target image indicating a target for detecting an imaging position,
A position detection method, wherein a position detection unit detects an imaging position where the target image is captured using a position detection model that estimates the imaging position from the target image.
JP2018024264A 2018-02-14 2018-02-14 Device, system, and method for detecting locations Pending JP2019139642A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018024264A JP2019139642A (en) 2018-02-14 2018-02-14 Device, system, and method for detecting locations

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018024264A JP2019139642A (en) 2018-02-14 2018-02-14 Device, system, and method for detecting locations

Publications (1)

Publication Number Publication Date
JP2019139642A true JP2019139642A (en) 2019-08-22

Family

ID=67695384

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018024264A Pending JP2019139642A (en) 2018-02-14 2018-02-14 Device, system, and method for detecting locations

Country Status (1)

Country Link
JP (1) JP2019139642A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7425406B2 (en) 2020-03-23 2024-01-31 東京電力ホールディングス株式会社 Image inspection device, learned model generation device, image inspection system, image inspection program, learned model generation program, and learned model

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004012429A (en) * 2002-06-11 2004-01-15 Mitsubishi Heavy Ind Ltd Self-position/attitude identification device and self-position/attitude identification method
JP2011053823A (en) * 2009-08-31 2011-03-17 Tokyo Institute Of Technology Featured value extraction device and method and position estimation device and method
WO2013146582A1 (en) * 2012-03-29 2013-10-03 日本電気株式会社 Position determination system, position determination method, computer program, and position determination device
WO2015049717A1 (en) * 2013-10-01 2015-04-09 株式会社日立製作所 Device for estimating position of moving body and method for estimating position of moving body

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004012429A (en) * 2002-06-11 2004-01-15 Mitsubishi Heavy Ind Ltd Self-position/attitude identification device and self-position/attitude identification method
JP2011053823A (en) * 2009-08-31 2011-03-17 Tokyo Institute Of Technology Featured value extraction device and method and position estimation device and method
WO2013146582A1 (en) * 2012-03-29 2013-10-03 日本電気株式会社 Position determination system, position determination method, computer program, and position determination device
WO2015049717A1 (en) * 2013-10-01 2015-04-09 株式会社日立製作所 Device for estimating position of moving body and method for estimating position of moving body

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
杉中 出帆 IZUHO SUGINAKA: "畳み込みニューラルネットワークを用いた一人称視点画像による自己位置推定", FIT2016 第15回情報科学技術フォーラム 講演論文集 第3分冊 査読付き論文・一般論文 画像認, JPN6022029806, 23 August 2016 (2016-08-23), JP, pages 57 - 58, ISSN: 0004955250 *
杉中 出帆, 飯塚 博幸, 山本 雅人: "Recurrent Convolutional Neural Networkに基づく一人称視点画像か", ロボティクスメカトロニクス講演会2017講演会論文集 2017 JSME CONFERENCE ON ROBOTICS AND MECHATRON, JPN6022029805, 9 May 2017 (2017-05-09), JP, pages 2 - 02, ISSN: 0004955249 *
石伏 智 SATOSHI ISHIBUSHI: "Convolutional Neural Networkによる物体認識の自己位置推定への統計的活用", 一般社団法人 人工知能学会 第29回全国大会論文集CD−ROM [CD−ROM] 2015年度 人工, vol. p.1−p.4, JPN6022029807, 2 June 2015 (2015-06-02), ISSN: 0004827050 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7425406B2 (en) 2020-03-23 2024-01-31 東京電力ホールディングス株式会社 Image inspection device, learned model generation device, image inspection system, image inspection program, learned model generation program, and learned model

Similar Documents

Publication Publication Date Title
EP3213031B1 (en) Simultaneous localization and mapping by using earth&#39;s magnetic fields
Constandache et al. Did you see Bob? Human localization using mobile phones
US9373014B1 (en) Systems and methods for event monitoring using aerial drones
CN103827634B (en) Logo detection for indoor positioning
JP6340538B2 (en) Biological search system
WO2015014018A1 (en) Indoor positioning and navigation method for mobile terminal based on image recognition technology
JP5674307B2 (en) Subject detection system and subject detection method
CN109416536A (en) System and method for automatically tracking and navigating
JP2007219948A (en) User abnormality detection equipment and user abnormality detection method
JP2007149053A (en) Route guidance system and method
JP2009139250A (en) Detection object detection server
US20220377285A1 (en) Enhanced video system
US20170221219A1 (en) Method and apparatus for surveillance using location-tracking imaging devices
JP2019139642A (en) Device, system, and method for detecting locations
JP2014139745A (en) Equipment management system, equipment management device, equipment management method and program
JP6725736B1 (en) Image specifying system and image specifying method
JP2010098550A (en) Camera management apparatus, and camera management method
KR101700933B1 (en) Providing location information system in video display using rfid system
JP2009124539A (en) Photographic image providing server, photographic image providing system and method
JP7448748B2 (en) Position detection system and position detection method
JP2022092365A (en) Position management system
JP6390015B2 (en) Biological search system
CN114071003B (en) Shooting method and system based on optical communication device
WO2022121606A1 (en) Method and system for obtaining identification information of device or user thereof in scenario
US11710285B1 (en) Systems and methods for collaborative location tracking and sharing using augmented reality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220920

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230104