JP2019139642A - Device, system, and method for detecting locations - Google Patents
Device, system, and method for detecting locations Download PDFInfo
- Publication number
- JP2019139642A JP2019139642A JP2018024264A JP2018024264A JP2019139642A JP 2019139642 A JP2019139642 A JP 2019139642A JP 2018024264 A JP2018024264 A JP 2018024264A JP 2018024264 A JP2018024264 A JP 2018024264A JP 2019139642 A JP2019139642 A JP 2019139642A
- Authority
- JP
- Japan
- Prior art keywords
- position detection
- image
- learning
- captured
- building
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title description 3
- 238000001514 detection method Methods 0.000 claims abstract description 103
- 238000003384 imaging method Methods 0.000 claims description 63
- 238000010801 machine learning Methods 0.000 claims description 11
- 238000004891 communication Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
Images
Abstract
Description
本発明は、撮像位置を検出する位置検出装置、位置検出システム、及び位置検出方法に関する。 The present invention relates to a position detection device, a position detection system, and a position detection method for detecting an imaging position.
従来、建物内などにおいて、人間の位置を検出する方法は、各種検討されている。例えば、ビーコン、無線タグ、wifi(ワイファイ)電波、地磁気、IMES(Indoor MESsaging System)、PHS(Personal Handy-phone System)等の通信端末技術や、この組合せでの構成が多い(例えば、特許文献1参照)。 Conventionally, various methods for detecting a human position in a building or the like have been studied. For example, there are many configurations of communication terminal technologies such as beacons, wireless tags, wifi radio waves, geomagnetism, IMES (Indoor MESsaging System), PHS (Personal Handy-phone System), and combinations thereof (for example, Patent Document 1). reference).
しかしながら、上述した人間の位置を検出する方法には、共通する欠点として、人間の各々が携帯する自身の位置を示す専用機器を常時携帯する必要があり、又は電波あるいは光学的に位置検出を行う位置検出センサなどの専用機器を建物内に配置する必要があり、装置コストがかかるという問題がある。 However, the above-described methods for detecting the position of a person need to always carry a dedicated device that indicates the position of each person carried by each person, or perform position detection by radio waves or optically. There is a problem that it is necessary to arrange dedicated equipment such as a position detection sensor in the building, which increases the device cost.
上述の課題を鑑み、本発明は、位置を検出するための専用機器を用いることなく、屋内にいる人間の位置を検出することができる位置検出装置、位置検出システム、及び位置検出方法を提供することを目的とする。 In view of the above-described problems, the present invention provides a position detection device, a position detection system, and a position detection method capable of detecting the position of a person indoors without using a dedicated device for detecting the position. For the purpose.
上述の課題を解決するために、本発明の一態様に係る位置検出装置は、建物内で撮像された画像を、撮像位置を検出する対象を示す対象画像として取得する画像取得部と、前記対象画像が撮像された撮像位置を、前記対象画像から前記撮像位置を推定する位置検出モデルを用いて検出する位置検出部とを備えることを特徴とする。 In order to solve the above-described problem, a position detection device according to an aspect of the present invention includes an image acquisition unit that acquires an image captured in a building as a target image that indicates a target for detecting an imaging position; And a position detection unit that detects an imaging position where the image is captured using a position detection model that estimates the imaging position from the target image.
また、本発明の一態様の位置検出装置では、前記位置検出モデルは、建物内を撮像した学習用画像に当該学習用画像を撮像した撮像位置を示す情報が付された学習データを用いて機械学習を実行することにより作成された学習モデルであることを特徴とする。 In the position detection device according to one aspect of the present invention, the position detection model is a machine that uses learning data in which information indicating the imaging position at which the learning image is captured is added to the learning image that is captured inside the building. It is a learning model created by executing learning.
また、本発明の一態様の位置検出装置では、前記対象画像を識別する情報とともに記憶する位置情報記憶部を更に備えることを特徴とする。 The position detection device according to one aspect of the present invention further includes a position information storage unit that stores information that identifies the target image.
また、本発明の一態様の位置検出システムでは、上述した位置検出装置と、建物内を撮像した学習用画像に、当該学習用画像を撮像した撮像位置を示す情報が付された学習データを用いて機械学習を実行することにより、画像が撮像された撮像位置を検出するための撮像位置検出モデルを作成する学習サーバとを備えることを特徴とする。 In the position detection system of one embodiment of the present invention, the above-described position detection device and learning data in which information indicating the imaging position at which the learning image is captured are attached to the learning image in which the inside of the building is captured are used. And a learning server that creates an imaging position detection model for detecting an imaging position at which an image is captured by executing machine learning.
また、本発明の一態様の位置検出方法では、画像取得部が、建物内で撮像された画像を、撮像位置を検出する対象を示す対象画像として取得し、位置検出部が、前記対象画像が撮像された撮像位置を、前記対象画像から前記撮像位置を推定する位置検出モデルを用いて検出することを特徴とする。 In the position detection method of one embodiment of the present invention, the image acquisition unit acquires an image captured in the building as a target image indicating a target for detecting the imaging position, and the position detection unit detects that the target image is An imaged imaging position is detected using a position detection model that estimates the imaging position from the target image.
本発明によれば、位置を検出するための専用機器を用いることなく、屋内にいる人間の位置を検出することができる。 According to the present invention, it is possible to detect the position of a person indoors without using a dedicated device for detecting the position.
以下、本発明の実施形態による位置検出装置、位置検出システム、及び位置検出方法を説明する。
図1は、実施形態の位置検出システム1の構成例を示すブロック図である。位置検出システム1は、位置検出装置10、学習サーバ11、及びカメラ12の各々を備えている。本実施形態においては、位置検出システム1にはカメラ12が複数台備えられている場合を例示したが、位置検出システム1には少なくとも一台のカメラ12が備えられていればよい。
また、位置検出装置10、学習サーバ11、及びカメラ12の各々は、それぞれインターネットやローカルエリアネットワークなどを含む情報通信網500に接続され、相互にデータの送受信を行う。学習サーバ11は、建物内に設置されたオンプレミス(on-premises)によるサーバ装置であってもよいし、情報通信網500に接続された外部のクラウドコンピューティングによるサーバ装置であってもよい。
Hereinafter, a position detection device, a position detection system, and a position detection method according to embodiments of the present invention will be described.
FIG. 1 is a block diagram illustrating a configuration example of a
Each of the
本実施形態では、カメラ12の各々は、建物内を移動することが可能なカメラである。カメラ12は、例えば、建物内にいる人間が携帯する携帯機器(スマートフォンなど含む)に備えられた撮像装置である。或いは、カメラ12は、移動体(例えば、移動ロボットや人間)に搭載されて移動する撮像装置である。
カメラ12は、例えば、建物内を巡回する巡回ロボットに備え付けられた360度カメラや、警備員の肩あるいは頭部などに備えられた撮像装置であってもよい。カメラ12は、巡回ロボットや警備員がいる位置から撮像された建物内の風景を示す撮像画像を、巡回ロボットや警備員の撮像装置に備えられた通信機能を介して位置検出装置10や学習サーバ11に送信する。
In the present embodiment, each of the
The
位置検出装置10は、撮像画像取得部101、位置検出部102、撮像画像記憶部103、及び位置情報記憶部104の各々を備えている。
撮像画像取得部101は、建物内においてカメラ12の各々が撮像する撮像画像を、それぞれのカメラ12から情報通信網500を介して取得する。ここで、撮像画像取得部101は、「画像取得部」の一例である。また、撮像画像取得部101により取得される撮像画像は、撮像位置を検出する対象となる画像であり、「対象画像」の一例である。
The
The captured
撮像画像取得部101は、カメラ12の各々から取得した撮像画像を、位置検出部102に対して出力するともに、撮像画像記憶部103に対して、カメラ12のカメラ識別情報とタイムスタンプ(時刻情報)とを付加して書き込んで記憶させる。
The captured
位置検出部102は、撮像画像取得部101から供給される撮像画像における撮像位置を、位置検出モデルを用いて検出する。位置検出部102は、例えば、カメラ12が携帯端末装置に備えられた撮像装置である場合、建物内におけるその携帯端末の位置を、位置検出モデルを用いて検出する。位置検出モデルは、後述する学習サーバ11により生成される学習済みモデルである。位置検出モデルについては、後で詳しく説明する。
位置検出部102は、検出した撮像位置を示す情報を、位置情報記憶部104に対して、撮像画像を示す情報を付加して書き込んで記憶させる。
The
The
撮像画像記憶部103は、撮像画像取得部101により取得された撮像画像を、カメラ12のカメラ識別情報とタイムスタンプとを対応させた情報を記憶する。
位置情報記憶部104は、位置検出部102により検出された撮像位置を、撮像画像を示す情報とともに記憶する。
The captured
The position
ここで、撮像画像取得部101により取得される画像について、図2、及び図3を用いて説明する。
図2は、実施形態のカメラ12が屋内を撮像する例を示すイメージ図である。
図3は、実施形態のカメラ12により撮像された屋内画像の一例を示す図である。
図2に示すように、建物にいる人間がスマートフォンのカメラ12により建物内の風景を撮像する。
Here, an image acquired by the captured
FIG. 2 is an image diagram illustrating an example in which the
FIG. 3 is a diagram illustrating an example of an indoor image captured by the
As shown in FIG. 2, a person in the building images a landscape in the building with the
図3に示すように、カメラ12により撮像された画像には、サインM1〜M4のように、部屋番号や床の模様などが含まれている。これらのサインMは、建物における位置を識別する識別子となり得る。つまり、これらのサインMが含まれる画像にその画像の撮像位置を付したものを学習データとし、この学習データを用いて機械学習を実行した学習済みモデルを作成すれば、作成したモデルが画像に基づいて撮像位置を推定することができるため、カメラ12の撮像位置の特定が可能である。この、カメラ12の撮像位置が、すなわち、カメラ12を持つ(カメラ12が搭載されたスマートフォンを所持する)人間の建物内における位置と推定される。
As illustrated in FIG. 3, the image captured by the
図1に戻り、学習サーバ11は、位置検出装置10により位置検出に用いられる学習済みモデル(位置検出モデル)を、学習データに基づいて作成するサーバ装置である。学習データは、例えば位置検出システム1により位置検出が行われる前の段階で事前に取得され、学習データに基づいて学習済みモデル(位置検出モデル)が作成される。
Returning to FIG. 1, the
学習サーバ11は、学習データ取得部111、モデル作成部112、及び学習モデル記憶部113の各々を備える。
学習データ取得部111は、学習用のカメラ12Aが撮像する学習用の撮像画像を、学習用のカメラ12Aから情報通信網500を介して取得する。ここで、学習用のカメラ12Aにより撮像される学習用の撮像画像は、「学習用画像」の一例である。
The
The learning
ここで、学習用のカメラ12Aは、位置検出モデルを作成する場合において学習データとして用いられる画像を撮像する撮像装置であり、例えば、360度カメラ付き巡回ロボットにより撮像された建物内の様々な風景を示す画像の各々を撮像する。学習用のカメラ12Aは、例えば、建物内を巡回しながら屋内の風景を撮像し、撮像した撮像画像を、学習サーバ11に送信する。
Here, the
また、学習データ取得部111は、学習用のカメラ12Aにより撮像された撮像画像の撮像位置を示す情報を取得する。撮像位置を示す情報は、例えば、緯度経度で示されるような世界測地系の座標情報であってもよいし、建物内の案内表示プレートのように建物内における位置を識別できるような情報であってもよい。
The learning
学習データ取得部111は、例えば、学習用の撮像画像を取得する360度カメラ付き巡回ロボットから撮像位置を示す情報を取得する。この場合、学習データ取得部111は、例えば、360度カメラ付き巡回ロボットに屋内GPS(Global Positioning System)を取り付けた状態で建物内を巡回させ、撮像画像が撮像される度にGPSから位置情報を取得させ、撮像画像とともに撮像位置を示す情報(GPS位置情報)を取得する。又は、学習データ取得部111は、建物の管理者などの入力操作により入力部(不図示)に入力された情報に基づいて、撮像位置を取得してもよい。
For example, the learning
モデル作成部112は、学習データ取得部111により取得された学習用の撮像画像、及びその撮像画像が撮像された撮像位置を示す情報を学習データとして用いて機械学習を実行することにより、画像における撮像位置を検出するための位置検出モデルを作成する。ここでの機械学習は、例えば、教師あり学習である。
学習モデル記憶部113は、モデル作成部112により作成された位置検出モデルを記憶する。
The
The learning
図4は、実施形態の学習サーバ11により用いられる学習データの一例を示す図である。図4(a)〜(e)は、建物内における看板、目印等の何らかの印を含むサイン、床、天井、壁、柱など建物内の位置を識別し得る識別子(例えば、サインM)が含まれる画像である。
図4(a)〜(e)に示す画像には当該撮像画像が撮像された撮像位置を示す情報が付されており、機械学習に用いられる学習データとして利用される。
FIG. 4 is a diagram illustrating an example of learning data used by the learning
The images shown in FIGS. 4A to 4E are attached with information indicating the imaging position where the captured image is captured, and are used as learning data used for machine learning.
例えば、図4(a)では、壁に「会議室2−A」と記されたプレートが掲げられ、その位置の床にはドット柄のカーペットが敷かれている様子が撮像されている。また、壁に「会議室2−B」と記されたプレートが掲げられ、その位置の床には斜線模様のカーペットが敷かれている様子が撮像されている。この場合、当該画像には、「会議室2−A」と「会議室2−B」が設けられたフロアの廊下側から「会議室2−A」と「会議室2−B」とのプレートを見渡せる位置が撮像位置を示す情報として付されている。或いは、当該画像には「会議室2−A」と「会議室2−B」が設けられたフロアの廊下の所定の位置座標を示す情報が付されている。 For example, in FIG. 4A, a plate marked “Meeting room 2-A” is placed on the wall, and a dot pattern carpet is laid on the floor at that position. In addition, a plate marked “Meeting room 2-B” is lifted on the wall, and an image of a hatched carpet on the floor at that position is captured. In this case, the image includes a plate of “conference room 2-A” and “conference room 2-B” from the corridor side of the floor where “conference room 2-A” and “conference room 2-B” are provided. A position overlooking can be attached as information indicating the imaging position. Or the information which shows the predetermined position coordinate of the corridor of the floor in which "Conference room 2-A" and "Conference room 2-B" were provided is attached to the said image.
また、例えば、図4(b)では「会議室2−A」と記されたプレートが撮像されている。当該画像には「会議室2−A」のプレートを、その正面の水平方向から撮像できる位置が撮像位置を示す情報として付されている。また、例えば、図4(c)では「会議室2−B」と記されたプレートが撮像されている。当該画像には「会議室2−B」のプレートを、その正面の水平方向から撮像できる位置が撮像位置を示す情報として付されている。また、例えば、図4(d)では斜線模様のカーペットが撮像されている。当該画像にはドット柄のカーペットを、その正面の鉛直方向から撮像できる位置が撮像位置を示す情報として付されている。また、例えば、図4(e)では斜線模様のカーペットが撮像されている。当該画像には斜線模様のカーペットを、その正面の鉛直方向から撮像できる位置が撮像位置を示す情報として付されている。 Further, for example, in FIG. 4B, the plate marked “Conference room 2-A” is imaged. The position where the plate of “conference room 2-A” can be imaged from the front in the horizontal direction is attached to the image as information indicating the imaging position. Further, for example, in FIG. 4C, the plate marked “Conference room 2-B” is imaged. The position where the plate of “conference room 2-B” can be imaged from the front in the horizontal direction is attached to the image as information indicating the imaging position. In addition, for example, in FIG. 4D, a diagonal carpet pattern is captured. In the image, a position where the dot-patterned carpet can be imaged from the vertical direction on the front is attached as information indicating the imaging position. Further, for example, in FIG. 4 (e), a hatched carpet is captured. In the image, a position where a diagonal carpet pattern can be imaged from the vertical direction in front of the carpet is attached as information indicating the imaging position.
すでに述べたように、モデル作成部112は、建物内を撮像した学習用画像に当該学習用画像を撮像した撮像位置を示す情報が付された学習データを用いて機械学習を実行することにより、前記屋内画像が撮像された撮像位置を検出するための学習モデルを作成する。
As already described, the
位置検出モデルは、例えば、建物内の位置を特定する特定要因がモデル化されたものである。この位置検出モデルは、建物内の様々な場所ごとに、特定要因がモデル化されている。例えば、建物内の位置が「会議室2−A」である場合には、その特定要因は「会議室2−A」のプレートや、ドット柄のカーペットである。また、建物内の位置が「会議室2−B」である場合には、その特定要因は「会議室2−B」のプレートや、斜線模様のカーペットである。 The position detection model is obtained by modeling a specific factor for specifying a position in a building, for example. In this position detection model, specific factors are modeled for various places in the building. For example, when the position in the building is “conference room 2-A”, the specific factor is the plate of “conference room 2-A” or a carpet with a dot pattern. In addition, when the position in the building is “conference room 2-B”, the specific factor is the plate of “conference room 2-B” or the diagonally-patterned carpet.
図5は、実施形態の位置検出システム1が位置を検出する処理の流れについて説明するシーケンスチャートである。
まず、学習用のカメラ12Aは、学習用の撮像画像を撮像する(ステップS101)。学習用のカメラ12Aは、例えば、建物内を巡回し、建物内の様々な場所を撮像する。
次に、学習用のカメラ12Aは、撮像した撮像画像に撮像位置を示す情報を対応づける(ステップS102)。学習用のカメラ12Aは、撮像する度に屋内GPS等により位置情報を取得してもよいし、建物の管理者等による入力操作により指示された撮像画像に対応する位置情報を取得するようにしてもよい。
FIG. 5 is a sequence chart for explaining the flow of processing in which the
First, the learning
Next, the learning
次に、学習用のカメラ12Aは、撮像画像に撮像位置を対応付けた情報を、学習データとして学習サーバ11に送信する(ステップS103)。
学習データ取得部111は、学習データを取得する(ステップS104)。学習データ取得部111は、取得した学習データをモデル作成部112に出力する。
モデル作成部112は、学習データ取得部111から供給された学習データを用いて機械学習を実行することにより、位置検出モデルを作成する(ステップS105)。モデル作成部112は、作成した位置検出モデルを学習モデル記憶部113に記憶させる。
Next, the learning
The learning
The
一方、カメラ12は、建物内において、建物内の風景を撮像する(ステップS106)。
カメラ12は、撮像した撮像画像を位置検出装置10に送信する(ステップS107)。
撮像画像取得部101は、カメラ12により撮像された撮像画像を取得する(ステップS108)。撮像画像取得部101は、取得した画像を位置検出部102に出力する。位置検出部102は、撮像画像取得部101から供給された撮像画像を学習サーバ11に送信する(ステップS109)。
On the other hand, the
The
The captured
学習サーバ11は、位置検出装置10から撮像画像を受信し(ステップS110)、モデル作成部112により作成された位置検出モデルに入力することにより、位置検出モデルから撮像位置を示す情報を取得する(ステップS111)。
学習サーバ11は、取得した撮像位置を示す情報を位置検出装置10に送信する(ステップS112)。
The learning
The learning
位置検出部102は、学習サーバ11から受信した撮像位置を示す情報を、撮像画像の撮像位置として検出する(ステップS113)。
位置検出部102は、検出した撮像位置を、撮像画像を識別する情報とともに位置情報記憶部104に記憶させる(ステップS114)。
The
The
なお、上述した例では、位置検出部102は、学習サーバ11に撮像画像を送信することにより、学習サーバ11から撮像位置を示す情報を取得する場合を例示して説明したが、これに限定されない。
In the above-described example, the
例えば、位置検出装置10は、学習サーバ11のモデル作成部112により作成された位置検出モデルを取得するようにしてもよい。この場合、位置検出装置10は、位置検出モデルを記憶する記憶部(不図示)を備え、学習サーバ11から受信した位置検出モデルを記憶する。
For example, the
そして、位置検出装置10は、位置検出装置10の図示しない記憶部に記憶された位置検出モデルに、撮像画像取得部101から供給された撮像画像を入力することで、撮像位置を検出する。これにより、位置検出装置10は、情報通信網500を介さずに撮像位置を検出することができるため、通信負担の低減を図ることが可能である。
And the
以上説明したように、実施形態の位置検出装置10は、位置検出モデルを用いて、位置検出部102により撮像位置を検出することができる。このため、ビーコン、無線タグ、wifi電波、地磁気、IMES、PHS等の位置を検出するための専用機器を用いることなく、屋内にいる人間が屋内の様子を撮像するだけでその人間のいる位置を検出することができる。また、位置検出モデルは、機械学習を実行することにより作成された学習モデルであるため、撮像位置を特定するために撮像画像を画像解析するような複雑な処理を行う必要がなく、撮像画像と撮像位置とを対応付けた学習データで事前に機械学習を実行するだけで容易に撮像位置を検出することが可能である。
As described above, the
また、実施形態の位置検出装置10は、撮像位置を示す情報を撮像画像と対応づけて記憶する位置情報記憶部104を備える。これにより、同じカメラ12により撮像された撮像画像とその撮像位置を時系列に並べることで、特定のカメラ12(を携帯する人間)の移動履歴を把握することが可能である。
In addition, the
また、図1における位置検出システム1、及び位置検出装置10の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、カメラ12の撮像位置を検出する制御を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
Further, the program for realizing the functions of the
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.
1…位置検出システム
10…位置検出装置
11…学習サーバ
12…カメラ
101…撮像画像取得部
102…位置検出部
103…撮像画像記憶部
104…位置情報記憶部
111…学習データ取得部
112…モデル作成部
DESCRIPTION OF
Claims (5)
前記対象画像が撮像された撮像位置を、前記対象画像から前記撮像位置を推定する位置検出モデルを用いて検出する位置検出部と
を備える
ことを特徴とする位置検出装置。 An image acquisition unit that acquires an image captured in a building as a target image indicating a target for detecting an imaging position;
A position detection device comprising: a position detection unit that detects an image pickup position at which the target image is picked up using a position detection model that estimates the image pickup position from the target image.
ことを特徴とする請求項1に記載の位置検出装置。 The position detection model is a learning model created by performing machine learning using learning data in which information indicating the imaging position where the learning image is captured is added to the learning image capturing the inside of the building. The position detection device according to claim 1.
を更に備える
ことを特徴とする請求項1又は請求項2に記載の位置検出装置。 The position detection device according to claim 1, further comprising a position information storage unit that stores information indicating the imaging position detected by the position detection unit together with information for identifying the target image. .
建物内を撮像した学習用画像に、当該学習用画像を撮像した撮像位置を示す情報が付された学習データを用いて機械学習を実行することにより、画像が撮像された撮像位置を検出するための位置検出モデルを作成する学習サーバと
を備える
ことを特徴とする位置検出システム。 The position detection device according to claim 1 or 2,
In order to detect the imaging position where the image was captured by performing machine learning using learning data in which information indicating the imaging position where the learning image was captured is added to the learning image captured within the building A position detection system comprising: a learning server that creates a position detection model of
位置検出部が、前記対象画像が撮像された撮像位置を、前記対象画像から前記撮像位置を推定する位置検出モデルを用いて検出する
ことを特徴とする位置検出方法。 An image acquisition unit acquires an image captured in a building as a target image indicating a target for detecting an imaging position,
A position detection method, wherein a position detection unit detects an imaging position where the target image is captured using a position detection model that estimates the imaging position from the target image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018024264A JP2019139642A (en) | 2018-02-14 | 2018-02-14 | Device, system, and method for detecting locations |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018024264A JP2019139642A (en) | 2018-02-14 | 2018-02-14 | Device, system, and method for detecting locations |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019139642A true JP2019139642A (en) | 2019-08-22 |
Family
ID=67695384
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018024264A Pending JP2019139642A (en) | 2018-02-14 | 2018-02-14 | Device, system, and method for detecting locations |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019139642A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7425406B2 (en) | 2020-03-23 | 2024-01-31 | 東京電力ホールディングス株式会社 | Image inspection device, learned model generation device, image inspection system, image inspection program, learned model generation program, and learned model |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004012429A (en) * | 2002-06-11 | 2004-01-15 | Mitsubishi Heavy Ind Ltd | Self-position/attitude identification device and self-position/attitude identification method |
JP2011053823A (en) * | 2009-08-31 | 2011-03-17 | Tokyo Institute Of Technology | Featured value extraction device and method and position estimation device and method |
WO2013146582A1 (en) * | 2012-03-29 | 2013-10-03 | 日本電気株式会社 | Position determination system, position determination method, computer program, and position determination device |
WO2015049717A1 (en) * | 2013-10-01 | 2015-04-09 | 株式会社日立製作所 | Device for estimating position of moving body and method for estimating position of moving body |
-
2018
- 2018-02-14 JP JP2018024264A patent/JP2019139642A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004012429A (en) * | 2002-06-11 | 2004-01-15 | Mitsubishi Heavy Ind Ltd | Self-position/attitude identification device and self-position/attitude identification method |
JP2011053823A (en) * | 2009-08-31 | 2011-03-17 | Tokyo Institute Of Technology | Featured value extraction device and method and position estimation device and method |
WO2013146582A1 (en) * | 2012-03-29 | 2013-10-03 | 日本電気株式会社 | Position determination system, position determination method, computer program, and position determination device |
WO2015049717A1 (en) * | 2013-10-01 | 2015-04-09 | 株式会社日立製作所 | Device for estimating position of moving body and method for estimating position of moving body |
Non-Patent Citations (3)
Title |
---|
杉中 出帆 IZUHO SUGINAKA: "畳み込みニューラルネットワークを用いた一人称視点画像による自己位置推定", FIT2016 第15回情報科学技術フォーラム 講演論文集 第3分冊 査読付き論文・一般論文 画像認, JPN6022029806, 23 August 2016 (2016-08-23), JP, pages 57 - 58, ISSN: 0004955250 * |
杉中 出帆, 飯塚 博幸, 山本 雅人: "Recurrent Convolutional Neural Networkに基づく一人称視点画像か", ロボティクスメカトロニクス講演会2017講演会論文集 2017 JSME CONFERENCE ON ROBOTICS AND MECHATRON, JPN6022029805, 9 May 2017 (2017-05-09), JP, pages 2 - 02, ISSN: 0004955249 * |
石伏 智 SATOSHI ISHIBUSHI: "Convolutional Neural Networkによる物体認識の自己位置推定への統計的活用", 一般社団法人 人工知能学会 第29回全国大会論文集CD−ROM [CD−ROM] 2015年度 人工, vol. p.1−p.4, JPN6022029807, 2 June 2015 (2015-06-02), ISSN: 0004827050 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7425406B2 (en) | 2020-03-23 | 2024-01-31 | 東京電力ホールディングス株式会社 | Image inspection device, learned model generation device, image inspection system, image inspection program, learned model generation program, and learned model |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3213031B1 (en) | Simultaneous localization and mapping by using earth's magnetic fields | |
Constandache et al. | Did you see Bob? Human localization using mobile phones | |
US9373014B1 (en) | Systems and methods for event monitoring using aerial drones | |
CN103827634B (en) | Logo detection for indoor positioning | |
JP6340538B2 (en) | Biological search system | |
WO2015014018A1 (en) | Indoor positioning and navigation method for mobile terminal based on image recognition technology | |
JP5674307B2 (en) | Subject detection system and subject detection method | |
CN109416536A (en) | System and method for automatically tracking and navigating | |
JP2007219948A (en) | User abnormality detection equipment and user abnormality detection method | |
JP2007149053A (en) | Route guidance system and method | |
JP2009139250A (en) | Detection object detection server | |
US20220377285A1 (en) | Enhanced video system | |
US20170221219A1 (en) | Method and apparatus for surveillance using location-tracking imaging devices | |
JP2019139642A (en) | Device, system, and method for detecting locations | |
JP2014139745A (en) | Equipment management system, equipment management device, equipment management method and program | |
JP6725736B1 (en) | Image specifying system and image specifying method | |
JP2010098550A (en) | Camera management apparatus, and camera management method | |
KR101700933B1 (en) | Providing location information system in video display using rfid system | |
JP2009124539A (en) | Photographic image providing server, photographic image providing system and method | |
JP7448748B2 (en) | Position detection system and position detection method | |
JP2022092365A (en) | Position management system | |
JP6390015B2 (en) | Biological search system | |
CN114071003B (en) | Shooting method and system based on optical communication device | |
WO2022121606A1 (en) | Method and system for obtaining identification information of device or user thereof in scenario | |
US11710285B1 (en) | Systems and methods for collaborative location tracking and sharing using augmented reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201217 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211213 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220719 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220920 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230104 |