JP2019203770A - Positioning device and method, and computer program - Google Patents

Positioning device and method, and computer program Download PDF

Info

Publication number
JP2019203770A
JP2019203770A JP2018098588A JP2018098588A JP2019203770A JP 2019203770 A JP2019203770 A JP 2019203770A JP 2018098588 A JP2018098588 A JP 2018098588A JP 2018098588 A JP2018098588 A JP 2018098588A JP 2019203770 A JP2019203770 A JP 2019203770A
Authority
JP
Japan
Prior art keywords
moving body
cameras
information
target moving
position information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018098588A
Other languages
Japanese (ja)
Inventor
貴弘 大畑
Takahiro Ohata
貴弘 大畑
高 奥西
Ko Okunishi
高 奥西
慎吉 沼田
Shinkichi Numata
慎吉 沼田
翔治郎 奥
Shojiro Oku
翔治郎 奥
大輔 福地
Daisuke Fukuchi
大輔 福地
遥 藤
Haruka Fuji
遥 藤
志郎 野原
Shiro Nohara
志郎 野原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Realglobe Inc
Original Assignee
Realglobe Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Realglobe Inc filed Critical Realglobe Inc
Priority to JP2018098588A priority Critical patent/JP2019203770A/en
Publication of JP2019203770A publication Critical patent/JP2019203770A/en
Pending legal-status Critical Current

Links

Images

Abstract

To accurately measure the position of a moving body while suppressing the cost of the moving body.SOLUTION: A positioning device (1) comprises: first acquisition means (12) for acquiring moving body position information from a target moving body (2) having beacon reception means and/or GPS reception means; selection means (14) for selecting two or more cameras, from among a plurality of cameras, that are imaging the target moving body, on the basis of camera position information that pertains to the position of each of a plurality of cameras (30) installed at mutually different positions and the moving body position information; second acquisition means (13) for acquiring video information imaged by each of the two or more cameras; and measurement means (16) for (i) measuring the distance to the target moving body from each of the two or more cameras on the basis of the position of each of the two or more cameras based on the camera position information and the video information, (ii) measuring the position of the target moving body on the basis of the distance and the physical relationship between the two or more cameras based on the camera position information.SELECTED DRAWING: Figure 1

Description

本発明は、例えば自走式ロボット等である移動体の位置を測定する測位装置及び方法、並びに、コンピュータプログラムの技術分野に関する。   The present invention relates to a positioning apparatus and method for measuring the position of a moving body such as a self-propelled robot, and a technical field of a computer program.

この種の装置として、例えば、案内用ロボットに搭載されたカメラにより撮像された建造物の天井の画像にマーカが映っている場合、該マーカのマーカ位置情報を取得して、自己位置情報を推定する装置が提案されている(特許文献1参照)。或いは、ロボットに搭載されたカメラにより撮像された屋内天井のORB(Oriented Fast and Rotated Brief)特徴点を計算・追跡した特徴情報に基づいて、ロボットの周囲環境の地図を作成することにより、ロボットの自己位置を推定する装置が提案されている(特許文献2参照)。或いは、自律航法によりロボットの現在位置を求め、例えば建物の壁面に設置された拠点局から発信される、拠点局情報を含む電波信号、光信号又は音波信号を受信して、該現在位置を補正する装置が提案されている(特許文献3参照)。その他、本願発明に関連する技術文献として、特許文献4乃至8が挙げられる。   As a device of this type, for example, when a marker is reflected in a ceiling image of a building imaged by a camera mounted on a guidance robot, the marker position information of the marker is acquired and self-position information is estimated. An apparatus has been proposed (see Patent Document 1). Alternatively, by creating a map of the surrounding environment of the robot based on feature information obtained by calculating and tracking an ORB (Oriented Fast and Rotated Brief) feature point of an indoor ceiling imaged by a camera mounted on the robot, An apparatus for estimating the self-position has been proposed (see Patent Document 2). Alternatively, the current position of the robot is obtained by autonomous navigation, and for example, a radio wave signal, an optical signal or a sound wave signal including base station information transmitted from a base station installed on the wall surface of the building is received and the current position is corrected. An apparatus has been proposed (see Patent Document 3). In addition, Patent Documents 4 to 8 are cited as technical documents related to the present invention.

特開2017−21570号公報JP 2017-21570 A 特開2017−224280号公報JP 2017-224280 A 特開2017−117094号公報JP 2017-1117094 A 特開2015−16549号公報JP2015-16549A 特開2017−49694号公報JP 2017-49694 A 特開2017−182692号公報JP 2017-182692 A 特開2016−157464号公報Japanese Patent Laid-Open No. 2006-157464 特開2007−229814号公報JP 2007-229814 A

上述した背景技術では、自走式ロボット等である移動体のコストが比較的高くなってしまうという技術的問題点がある。   The background art described above has a technical problem that the cost of a mobile object such as a self-propelled robot becomes relatively high.

本発明は、例えば上記問題点に鑑みてなされたものであり、移動体のコストを抑制しつつ、該移動体の位置を精度良く測定することができる測位装置及び方法、並びに、コンピュータプログラムを提供することを課題とする。   The present invention has been made in view of the above problems, for example, and provides a positioning apparatus and method, and a computer program capable of accurately measuring the position of the moving body while suppressing the cost of the moving body. The task is to do.

本発明に係る測位装置は、上記課題を解決するために、ビーコン受信手段及びGPS(Global Positioning System)受信手段の少なくとも一方の手段を有する対象移動体から、前記少なくとも一方の手段により受信された信号から特定された前記対象移動体の位置に係る情報である移動体位置情報を取得する第1取得手段と、相互に異なる位置に配置された複数のカメラ各々の位置に係る情報であるカメラ位置情報と、前記移動体位置情報とに基づいて、前記複数のカメラから前記対象移動体を撮像している2以上のカメラを選択する選択手段と、前記2以上のカメラ各々により撮像された映像情報を取得する第2取得手段と、(i)前記カメラ位置情報に基づく前記2以上のカメラ各々の位置と、前記映像情報とに基づいて、前記2以上のカメラ各々から前記対象移動体までの距離を測定し、(ii)前記距離と、前記カメラ位置情報に基づく前記2以上のカメラ相互間の位置関係とに基づいて、前記対象移動体の位置を測定する測定手段と、を備える。   In order to solve the above-described problem, the positioning apparatus according to the present invention is a signal received by a target mobile unit having at least one of a beacon receiving unit and a GPS (Global Positioning System) receiving unit by the at least one unit. Camera position information that is information relating to the position of each of a plurality of cameras arranged at mutually different positions, and first acquisition means for acquiring mobile object position information that is information relating to the position of the target moving object specified from Selection means for selecting two or more cameras that are imaging the target moving body from the plurality of cameras based on the moving body position information, and video information captured by each of the two or more cameras. Second acquisition means for acquiring; (i) the position of each of the two or more cameras based on the camera position information; and the video information; And (ii) based on the distance and the positional relationship between the two or more cameras based on the camera position information, and measuring the distance from each of the two or more cameras to the target moving body, Measuring means for measuring the position of the target moving body.

「移動体位置情報」は、対象移動体の位置そのものを示してなくてよく、例えばビーコン発信装置に係る識別情報や、該識別情報から求められるビーコン発信装置の位置であってもよい。   The “moving body position information” does not have to indicate the position of the target moving body itself, and may be, for example, identification information related to the beacon transmission apparatus or a position of the beacon transmission apparatus obtained from the identification information.

「移動体位置情報」は、対象移動体を撮像可能なカメラを選択するために用いられる。ここで、一のビーコン発信装置から発信された信号を受信可能な範囲は、(ビーコン発信装置の設置や発信出力、ビーコン発信装置が設置されている空間の状況等によって変化するが、)例えば数メートルから十数メートル等比較的狭い。一のビーコン発信装置からの信号を受信可能な範囲に対象移動体が存在するということがわかれば、対象移動体を撮像可能なカメラを選択することが可能である(なぜなら、カメラは、数十メートルの範囲にわたって、対象移動体を認識可能な態様で撮像可能だからである)。このため、当該測位装置では、ビーコン発信装置に係る識別情報や、該識別情報から求められるビーコン発信装置の位置も、「移動体位置情報」として扱うことが可能である。   “Moving body position information” is used to select a camera capable of capturing an image of the target moving body. Here, the range in which a signal transmitted from one beacon transmission device can be received varies depending on, for example, the number of beacon transmission devices installed and output, the situation of the space where the beacon transmission device is installed, etc. It is relatively narrow, such as meters to a few dozen meters. If it is found that the target moving body exists within a range in which a signal from one beacon transmission device can be received, it is possible to select a camera that can image the target moving body (because the camera is several tens of times). This is because the target moving body can be imaged in a recognizable manner over a range of meters). Therefore, in the positioning device, the identification information related to the beacon transmission device and the position of the beacon transmission device obtained from the identification information can also be handled as “moving body position information”.

対象移動体を撮像しているカメラの位置と映像情報とに基づいて、該カメラから対象移動体までの距離を測定する方法には既存技術を適用可能であるので、その詳細な説明は省略する。同様に、対象移動体を撮像している2以上のカメラ各々から対象移動体までの距離と、該2以上のカメラ相互間の位置関係とに基づいて、対象移動体の位置を測定する方法にも既存技術(例えば三角測量等)を適用可能であるので、その詳細な説明は省略する。   Since the existing technology can be applied to the method of measuring the distance from the camera to the target moving body based on the position of the camera that captures the target moving body and the video information, detailed description thereof is omitted. . Similarly, a method for measuring the position of a target moving body based on the distance from each of the two or more cameras capturing the target moving body to the target moving body and the positional relationship between the two or more cameras. Since the existing technology (for example, triangulation etc.) is applicable, the detailed description is omitted.

尚、対象移動体を撮像している2以上のカメラ各々から対象移動体までの距離と、該2以上のカメラ相互間の位置関係とに基づいて測定された対象移動体の位置の精度は、ビーコン受信手段やGPS受信手段により受信された信号から特定された対象移動体の位置の精度よりも良い。   Note that the accuracy of the position of the target moving body measured based on the distance from each of the two or more cameras capturing the target moving body to the target moving body and the positional relationship between the two or more cameras is as follows: It is better than the accuracy of the position of the target moving body specified from the signal received by the beacon receiving means or the GPS receiving means.

当該測位装置では、対象移動体が、該対象移動体の位置を比較的精度良く測定可能な装置を有する必要がない。ビーコン受信手段やGPS受信手段は、比較的安価に入手可能である。また、対象移動体が自己の位置を求める比較例と比べて、対象移動体の情報処理負荷を軽減することができる。このため、対象移動体が有するプロセッサ等の性能を抑制することができる。従って、当該測位装置によれば、対象移動体のコストを抑制しつつ、該対象移動体の位置を精度良く測定することができる。   In the positioning device, the target moving body does not need to have a device capable of measuring the position of the target moving body with relatively high accuracy. Beacon receiving means and GPS receiving means are available at a relatively low cost. In addition, the information processing load on the target moving body can be reduced compared to the comparative example in which the target moving body obtains its own position. For this reason, the performance of the processor or the like included in the target moving body can be suppressed. Therefore, according to the positioning device, the position of the target moving body can be measured with high accuracy while suppressing the cost of the target moving body.

当該測位装置の一態様では、前記第1取得手段は、前記対象移動体から前記対象移動体の移動方向に係る情報である活動情報を取得し、当該測位装置は、前記活動情報に基づいて前記映像情報から前記対象移動体を特定する特定手段を備える。この態様によれば、映像情報から対象移動体を比較的容易に特定することができる。尚、映像情報に映っている物体の移動方向を求める方法には、既存技術を適用可能であるので、その詳細な説明は省略する。   In one mode of the positioning device, the first acquisition unit acquires activity information that is information related to a moving direction of the target moving body from the target moving body, and the positioning device is configured to acquire the activity information based on the activity information. A specifying means for specifying the target moving body from video information is provided. According to this aspect, the target moving body can be identified relatively easily from the video information. In addition, since the existing technique can be applied to the method for obtaining the moving direction of the object shown in the video information, detailed description thereof is omitted.

本発明の測位方法は、上記課題を解決するために、ビーコン受信手段及びGPS受信手段の少なくとも一方の手段を有する対象移動体から、前記少なくとも一方の手段により受信された信号から特定された前記対象移動体の位置に係る情報である移動体位置情報を取得する第1取得工程と、相互に異なる位置に配置された複数のカメラ各々の位置に係る情報であるカメラ位置情報と、前記移動体位置情報とに基づいて、前記複数のカメラから前記対象移動体を撮像している2以上のカメラを選択する選択工程と、前記2以上のカメラ各々により撮像された映像情報を取得する第2取得工程と、(i)前記カメラ位置情報に基づく前記2以上のカメラ各々の位置と、前記映像情報とに基づいて、前記2以上のカメラ各々から前記対象移動体までの距離を測定し、(ii)前記距離と、前記カメラ位置情報に基づく前記2以上のカメラ相互間の位置関係とに基づいて、前記対象移動体の位置を測定する測定工程と、を備える。   In order to solve the above-described problem, the positioning method of the present invention provides the target specified from the signal received by the at least one means from the target moving body having at least one of the beacon receiving means and the GPS receiving means. A first acquisition step of acquiring mobile body position information that is information related to the position of the mobile body, camera position information that is information related to the position of each of a plurality of cameras arranged at different positions, and the mobile body position A selection step of selecting two or more cameras imaging the target moving body from the plurality of cameras based on the information, and a second acquisition step of acquiring video information captured by each of the two or more cameras And (i) from each of the two or more cameras to the target moving body based on the position of each of the two or more cameras based on the camera position information and the video information. Provided the distance measured, and (ii) the distance, based on the positional relationship between the two or more cameras mutually based on the camera position information, and a measurement step of measuring a position of the target moving object.

当該測位方法によれば、上述した本発明の測位装置と同様に、対象移動体のコストを抑制しつつ、該対象移動体の位置を精度良く測定することができる。尚、当該測位方法においても、上述した本発明の測位装置に係る各種態様と同様の各種態様を採ることができる。   According to the positioning method, similarly to the positioning device of the present invention described above, the position of the target moving body can be accurately measured while suppressing the cost of the target moving body. In this positioning method, various aspects similar to the various aspects related to the positioning device of the present invention described above can be adopted.

本発明のコンピュータプログラムは、上記課題を解決するために、測位装置に搭載されたコンピュータを、ビーコン受信手段及びGPS受信手段の少なくとも一方の手段を有する対象移動体から、前記少なくとも一方の手段により受信された信号から特定された前記対象移動体の位置に係る情報である移動体位置情報を取得する第1取得手段と、相互に異なる位置に配置された複数のカメラ各々の位置に係る情報であるカメラ位置情報と、前記移動体位置情報とに基づいて、前記複数のカメラから前記対象移動体を撮像している2以上のカメラを選択する選択手段と、前記2以上のカメラ各々により撮像された映像情報を取得する第2取得手段と、(i)前記カメラ位置情報に基づく前記2以上のカメラ各々の位置と、前記映像情報とに基づいて、前記2以上のカメラ各々から前記対象移動体までの距離を測定し、(ii)前記距離と、前記カメラ位置情報に基づく前記2以上のカメラ相互間の位置関係とに基づいて、前記対象移動体の位置を測定する測定手段と、として機能させる。   In order to solve the above problems, a computer program according to the present invention receives a computer mounted on a positioning device from a target mobile body having at least one of a beacon receiving unit and a GPS receiving unit by the at least one unit. Information relating to the position of each of a plurality of cameras arranged at different positions from the first obtaining means for obtaining the moving body position information, which is information relating to the position of the target moving body identified from the signal obtained. Based on the camera position information and the moving body position information, the selecting means for selecting two or more cameras that are capturing the target moving body from the plurality of cameras, and each of the two or more cameras. Second acquisition means for acquiring video information; (i) based on the position of each of the two or more cameras based on the camera position information and the video information. Measuring the distance from each of the two or more cameras to the target moving body, and (ii) based on the distance and the positional relationship between the two or more cameras based on the camera position information. It functions as a measuring means for measuring the position of the moving body.

当該コンピュータプログラムによれば、当該コンピュータプログラムを格納するRAM(Random Access Memory)、CD−ROM(Compact Disc Read Only Memory)、DVD−ROM(DVD Read Only Memory)等の記録媒体から、当該コンピュータプログラムを、測位装置に備えられたコンピュータに読み込んで実行させれば、或いは、当該コンピュータプログラムを、通信手段を介してダウンロードさせた後に実行させれば、上述した本発明の測位装置を比較的容易にして実現できる。これにより、上述した本発明の測位装置と同様に、対象移動体のコストを抑制しつつ、該対象移動体の位置を精度良く測定することができる。尚、当該コンピュータプログラムにおいても、上述した本発明の測位装置に係る各種態様と同様の各種態様を採ることができる。   According to the computer program, the computer program is stored from a recording medium such as a RAM (Random Access Memory), a CD-ROM (Compact Disc Read Only Memory), or a DVD-ROM (DVD Read Only Memory) that stores the computer program. If the computer provided in the positioning device is read and executed, or if the computer program is downloaded after being transmitted via the communication means, the positioning device of the present invention described above can be made relatively easy. realizable. Thereby, like the positioning device of the present invention described above, it is possible to accurately measure the position of the target moving body while suppressing the cost of the target moving body. The computer program can also adopt various aspects similar to the various aspects related to the positioning device of the present invention described above.

本発明の作用及び他の利得は次に説明する実施するための形態から明らかにされる。   The effect | action and other gain of this invention are clarified from the form for implementing demonstrated below.

実施形態に係る測位装置の構成を示すブロック図である。It is a block diagram which shows the structure of the positioning apparatus which concerns on embodiment. 実施形態に係る測位の概念を示すブロック図である。It is a block diagram which shows the concept of the positioning which concerns on embodiment. 実施形態に係る測位処理を示すフローチャートである。It is a flowchart which shows the positioning process which concerns on embodiment.

測位装置に係る実施形態について図1乃至図3を参照して説明する。   An embodiment according to a positioning device will be described with reference to FIGS. 1 to 3.

(構成)
実施形態に係る測位装置の構成について図1を参照して説明する。図1は、実施形態に係る測位装置の構成を示すブロック図である。
(Constitution)
The configuration of the positioning device according to the embodiment will be described with reference to FIG. FIG. 1 is a block diagram illustrating a configuration of a positioning device according to an embodiment.

図1において、測位装置1は、通信部11、情報取得部12、映像取得部13、選択部14、特定部15、位置測定部16及びデータベース17を備えて構成されている。当該測位装置1が対象とするロボット2は、通信部21、受信部22、制御部23及びメモリ24を備えて構成されている。本実施形態に係るロボット2は、自走式のロボットである。本実施形態では、ロボット2は、複数のカメラ30a、30b、30c、…(以降、適宜“複数のカメラ30”と称する)のうち2台以上のカメラにより撮像可能な位置に存在しているものとする。   In FIG. 1, the positioning device 1 includes a communication unit 11, an information acquisition unit 12, a video acquisition unit 13, a selection unit 14, a specification unit 15, a position measurement unit 16, and a database 17. The robot 2 targeted by the positioning device 1 includes a communication unit 21, a receiving unit 22, a control unit 23, and a memory 24. The robot 2 according to the present embodiment is a self-propelled robot. In the present embodiment, the robot 2 is present at a position where it can be imaged by two or more cameras among a plurality of cameras 30a, 30b, 30c,... (Hereinafter referred to as “multiple cameras 30” as appropriate). And

通信部11及び21は、相互通信可能に構成されている。通信部11及び21は直接通信に限らず、例えばアクセスポイント等、他の機器を介した通信を行ってもよい。情報取得部12は、通信部11を介して、ロボット2に係る情報を取得する(詳細については後述する)。映像取得部13は、複数のカメラ30a、30b、30c、…各々から出力された映像情報を取得する。データベース17には、例えば複数のカメラ30a、30b、30c、…各々の設置位置や撮像可能エリア等を示すカメラ位置情報が格納されている。選択部14、特定部15及び位置測定部16については後述する。   The communication units 11 and 21 are configured to be able to communicate with each other. The communication units 11 and 21 are not limited to direct communication, and may perform communication via other devices such as an access point. The information acquisition unit 12 acquires information related to the robot 2 via the communication unit 11 (details will be described later). The video acquisition unit 13 acquires video information output from each of the plurality of cameras 30a, 30b, 30c,. The database 17 stores camera position information indicating, for example, the installation positions and the imageable areas of the plurality of cameras 30a, 30b, 30c,. The selection unit 14, the specification unit 15, and the position measurement unit 16 will be described later.

尚、映像取得部13は、複数のカメラ30各々から直接映像情報を取得してもよいし、例えばネットワーク等を介して映像情報を取得してもよい(即ち、複数のカメラ30の少なくとも一部がネットワークカメラとして構成されていてもよい)。複数のカメラ30は、典型的には単眼カメラであるが、これに限定されない。   Note that the video acquisition unit 13 may acquire video information directly from each of the plurality of cameras 30, or may acquire video information via, for example, a network (that is, at least a part of the plurality of cameras 30). May be configured as a network camera). The plurality of cameras 30 are typically monocular cameras, but are not limited thereto.

受信部22は、ビーコン発信装置(図示せず)から発信された信号、及び、GPS衛星(図示せず)から発信された信号の少なくとも一方を受信可能に構成されている。制御部23は、ロボット2を統括制御する。制御部23は特に、受信部22により受信された信号から、ロボット2の位置に係るロボット位置情報を生成する。メモリ24には、例えばロボット2に係る自動運転プログラム等が格納されている。   The receiving unit 22 is configured to receive at least one of a signal transmitted from a beacon transmitting device (not shown) and a signal transmitted from a GPS satellite (not shown). The control unit 23 performs overall control of the robot 2. In particular, the control unit 23 generates robot position information related to the position of the robot 2 from the signal received by the receiving unit 22. The memory 24 stores, for example, an automatic operation program related to the robot 2.

(測位の概要)
次に、本実施形態に係る測位の概要について図2を参照して説明する。図2は、実施形態に係る測位の概念を示すブロック図である。ここでは、ビーコン発信装置3が設置された屋内に存在するロボット2の測位を一例に挙げる。尚、図2の点線は、カメラ30a、30b及び30c各々の撮像可能エリアを示している。
(Outline of positioning)
Next, an outline of positioning according to the present embodiment will be described with reference to FIG. FIG. 2 is a block diagram illustrating the concept of positioning according to the embodiment. Here, the positioning of the robot 2 existing indoors where the beacon transmission device 3 is installed is taken as an example. The dotted lines in FIG. 2 indicate the imageable areas of the cameras 30a, 30b, and 30c.

ビーコン発信装置3から発信される信号(以降、適宜“ビーコン信号”と称する)には、ビーコン発信装置3を特定するための識別情報が少なくとも含まれている。ビーコン信号には、ビーコン発信装置3の設置位置を示す情報が含まれてもよい。或いは、ビーコン発信装置3の設置位置を示す情報は、ビーコン信号に含まれる識別情報に基づいてネットワーク上に存在するサーバ(図示せず)から取得されてもよい。   The signal transmitted from the beacon transmission device 3 (hereinafter referred to as “beacon signal” as appropriate) includes at least identification information for specifying the beacon transmission device 3. The beacon signal may include information indicating the installation position of the beacon transmission device 3. Or the information which shows the installation position of the beacon transmission apparatus 3 may be acquired from the server (not shown) which exists on a network based on the identification information contained in a beacon signal.

ロボット2の制御部23は、受信部22が受信したビーコン信号に含まれる情報(即ち、識別情報等)から、ロボット位置情報を生成する。ここで、ロボット位置情報は、ロボット2の位置そのものを示す情報に限らず、例えばビーコン発信装置3に係る識別情報や、ビーコン発信装置3の設置位置を示す情報等であってよい。   The control unit 23 of the robot 2 generates robot position information from information (that is, identification information or the like) included in the beacon signal received by the receiving unit 22. Here, the robot position information is not limited to information indicating the position of the robot 2 itself, but may be, for example, identification information related to the beacon transmission device 3, information indicating the installation position of the beacon transmission device 3, or the like.

測位装置1の情報取得部11は、通信部11を介してロボット2からロボット位置情報を取得する。選択部14は、ロボット位置情報と、データベース17に格納されているカメラ位置情報とに基づいて、複数のカメラ30からロボット2が存在するエリアを撮像している2台以上のカメラを選択する。ここでは、カメラ30a及び30bが選択されたものとする。尚、上記2台以上のカメラを選択する際に参照されるカメラ位置情報は、その情報からロボット2を撮像しているカメラを選択可能であれば、カメラの位置そのものを示す情報に限らず、例えば各カメラの撮像可能エリアを示す情報等のカメラの位置に関連する情報であってもよい。   The information acquisition unit 11 of the positioning device 1 acquires robot position information from the robot 2 via the communication unit 11. Based on the robot position information and the camera position information stored in the database 17, the selection unit 14 selects two or more cameras that capture an area where the robot 2 exists from the plurality of cameras 30. Here, it is assumed that the cameras 30a and 30b are selected. Note that the camera position information referred to when selecting the two or more cameras is not limited to information indicating the position of the camera as long as the camera imaging the robot 2 can be selected from the information. For example, it may be information related to the position of the camera, such as information indicating an imageable area of each camera.

情報取得部11は更に、通信部11を介してロボット2から、例えばロボット2の自動運転プログラム等から予測されるロボット2の移動方向(図2の実線矢印参照)に係る情報である事前活動情報を取得する。特定部15は、ロボット位置情報及び事前活動情報に基づいて、カメラ30a及び30b各々により撮像された映像情報からロボット2を特定する。   The information acquisition unit 11 further includes advance activity information that is information related to the movement direction of the robot 2 (see the solid arrow in FIG. 2) predicted from the robot 2 via the communication unit 11, for example, from an automatic operation program of the robot 2. To get. The specifying unit 15 specifies the robot 2 from video information captured by the cameras 30a and 30b based on the robot position information and the pre-activity information.

位置測定部16は、カメラ30a及び30b各々の詳細位置情報を取得する。詳細位置情報は、データベース17に格納されているカメラ位置情報に含まれており、該カメラ位置情報から取得されてもよいし、複数のカメラ30各々から取得されてもよい。詳細位置情報には、カメラの設置位置(例えば座標)に加えて、例えばカメラの光学系に係る情報(例えば光軸方向)、カメラと床との間の距離、等が含まれている。つまり、詳細位置情報は、後述する映像情報からロボット2の位置を測定するための情報を含んでいる。   The position measurement unit 16 acquires detailed position information of each of the cameras 30a and 30b. The detailed position information is included in the camera position information stored in the database 17, and may be acquired from the camera position information or may be acquired from each of the plurality of cameras 30. In addition to the installation position (for example, coordinates) of the camera, the detailed position information includes, for example, information related to the optical system of the camera (for example, the optical axis direction), the distance between the camera and the floor, and the like. That is, the detailed position information includes information for measuring the position of the robot 2 from video information described later.

位置測定部16は、カメラ30aの詳細位置情報と、該カメラ30aにより撮像された映像情報とからカメラ30aからロボット2までの距離d1を測定する。同様に、位置測定部16は、カメラ30bの詳細位置情報と、該カメラ30bにより撮像された映像情報とからカメラ30bからロボット2までの距離d2を測定する。   The position measurement unit 16 measures the distance d1 from the camera 30a to the robot 2 from the detailed position information of the camera 30a and the video information captured by the camera 30a. Similarly, the position measurement unit 16 measures the distance d2 from the camera 30b to the robot 2 from the detailed position information of the camera 30b and the video information captured by the camera 30b.

位置測定部16は、例えばカメラ30a及び30b各々の詳細位置情報に基づくカメラ30a及び30b間の位置関係と、距離d1及びd2とに基づいて、ロボット2の位置を測定する。   The position measuring unit 16 measures the position of the robot 2 based on the positional relationship between the cameras 30a and 30b based on the detailed position information of each of the cameras 30a and 30b and the distances d1 and d2, for example.

尚、距離d1及びd2の測定方法には、既存技術を適用可能であるので、その詳細な説明は省略する。同様に、カメラ30a及び30b間の位置関係、並びに、距離d1及びd2に基づくロボット2の位置の測定方法についても、既存技術を適用可能であるので、その詳細な説明は省略する。   In addition, since the existing technique can be applied to the measuring method of the distances d1 and d2, detailed description thereof is omitted. Similarly, since the existing technology can be applied to the positional relationship between the cameras 30a and 30b and the method of measuring the position of the robot 2 based on the distances d1 and d2, detailed description thereof is omitted.

ここでは、当該測位装置1により屋内に存在するロボット2の位置が測定される例を挙げたが、当該測位装置1は、屋外に存在するロボット2の位置も測定可能である。ロボット2が屋外に存在する場合、ロボット位置情報は、ビーコン信号に代えて、GPS衛星から発信される信号(即ち、GPS信号)に基づいて生成すればよい。   Here, an example in which the position of the robot 2 existing indoors is measured by the positioning device 1 is described, but the positioning device 1 can also measure the position of the robot 2 existing outdoors. When the robot 2 is present outdoors, the robot position information may be generated based on a signal transmitted from a GPS satellite (that is, a GPS signal) instead of a beacon signal.

(測位処理)
次に、測位装置1により実施される測位処理について図3のフローチャートを参照して説明する。
(Positioning process)
Next, the positioning process performed by the positioning device 1 will be described with reference to the flowchart of FIG.

図3において、測位装置1の情報取得部12は、通信部11を介してロボット2(即ち、測位対象のロボット)から事前活動情報を取得する(ステップS101)。ステップS101の処理と並行して又は相前後して、情報取得部12は、通信部11を介してロボット2からロボット位置情報を取得する(ステップS102)。   In FIG. 3, the information acquisition unit 12 of the positioning device 1 acquires the pre-activity information from the robot 2 (that is, the positioning target robot) via the communication unit 11 (step S101). In parallel with or in parallel with the processing of step S101, the information acquisition unit 12 acquires robot position information from the robot 2 via the communication unit 11 (step S102).

次に、選択部14は、ロボット位置情報と、データベース17に格納されているカメラ位置情報とに基づいて、複数のカメラ30からロボット2が存在するエリアを撮像している2台以上のカメラ(即ち、ロボット2の測位に使用するカメラ)を選択する(ステップS103)。   Next, based on the robot position information and the camera position information stored in the database 17, the selecting unit 14 captures an area where the robot 2 is present from a plurality of cameras 30 (two or more cameras ( That is, the camera used for positioning of the robot 2 is selected (step S103).

映像取得部13は、上記選択された2台以上のカメラ各々により撮像された映像情報を取得する(ステップS104)。続いて、特定部15は、ロボット位置情報及び事前活動情報に基づいて、取得された映像情報からロボット2を特定する(ステップS105)。   The video acquisition unit 13 acquires video information captured by each of the two or more selected cameras (step S104). Subsequently, the specifying unit 15 specifies the robot 2 from the acquired video information based on the robot position information and the prior activity information (step S105).

次に、位置測定部16は、上記選択された2台以上のカメラ各々の詳細位置情報を取得する。そして、位置測定部16は、詳細位置情報と映像情報とから各カメラからロボット2までの距離を測定する(ステップS106)。続いて、位置測定部16は、ステップS106の処理において測定された距離と、詳細位置情報に基づく上記選択された2台以上のカメラ相互間の位置関係とに基づいて、ロボット2の位置を測定する(ステップS107)。   Next, the position measurement unit 16 acquires detailed position information of each of the selected two or more cameras. Then, the position measurement unit 16 measures the distance from each camera to the robot 2 from the detailed position information and the video information (step S106). Subsequently, the position measurement unit 16 measures the position of the robot 2 based on the distance measured in the process of step S106 and the positional relationship between the two or more selected cameras based on the detailed position information. (Step S107).

位置測定部16は、ステップS107の処理において測定されたロボット2の位置を、例えばディスプレイ(図示せず)上に表示された地図(即ち、ロボット2の現在位置周辺を示す地図)に表示すること等により、当該測位処理の結果を出力する(ステップS108)。この結果、例えば自動運転プログラム等に従って動作しているロボット2の挙動が期待通りのものであるか否かを、ユーザが比較的容易に確認することができる。   The position measuring unit 16 displays the position of the robot 2 measured in the process of step S107 on, for example, a map displayed on a display (not shown) (that is, a map showing the vicinity of the current position of the robot 2). For example, the result of the positioning process is output (step S108). As a result, for example, the user can relatively easily check whether or not the behavior of the robot 2 operating according to the automatic driving program or the like is as expected.

尚、位置測定部16は、ステップS108の出力処理として、ステップS107の処理において測定されたロボット2の位置を、通信部11を介してロボット2や他の装置に送信してもよい。   Note that the position measurement unit 16 may transmit the position of the robot 2 measured in the process of step S107 to the robot 2 or another device via the communication unit 11 as the output process of step S108.

(技術的効果)
本実施形態では、測位対象のロボット2が、どのあたりに存在するかを特定するために(即ち、ロボット2を撮像可能なカメラを選択するために)、ロボット2のおおよその位置を示す情報(上述の“ロボット位置情報”)がロボット2から得られればよく、ロボット2が比較的高精度の測位手段を備える必要がない。ロボット2のおおよその位置を示す情報は、ビーコン信号及びGPS信号の少なくとも一方を受信部22により受信することにより取得可能である。受信部22の一例としての、ビーコン受信機やGPS受信機は、比較的安価に入手可能である。
(Technical effect)
In this embodiment, in order to specify where the positioning target robot 2 exists (that is, to select a camera that can image the robot 2), information indicating the approximate position of the robot 2 ( The above-mentioned “robot position information”) only needs to be obtained from the robot 2, and the robot 2 does not have to have a relatively high-precision positioning means. Information indicating the approximate position of the robot 2 can be acquired by receiving at least one of a beacon signal and a GPS signal by the receiving unit 22. A beacon receiver and a GPS receiver as an example of the receiving unit 22 are available at a relatively low cost.

当該測位装置1では、複数のカメラ30のうち、測位対象のロボット2を撮像している2台以上のカメラの映像情報と、該2台以上のカメラ相互間の位置関係とに基づいて、ロボット2の位置が測定される。映像情報から求められた、該映像情報を撮像したカメラとロボット2との間の距離の精度は比較的高い。また、カメラ相互間の位置関係も比較的高い精度で決定される。このため、当該測位装置1により測定されたロボット2の位置の精度も比較的高いと言える。   In the positioning device 1, the robot is based on the video information of two or more cameras that are imaging the positioning target robot 2 among the plurality of cameras 30 and the positional relationship between the two or more cameras. Two positions are measured. The accuracy of the distance between the camera that captured the video information and the robot 2 obtained from the video information is relatively high. Also, the positional relationship between the cameras is determined with relatively high accuracy. For this reason, it can be said that the accuracy of the position of the robot 2 measured by the positioning device 1 is relatively high.

従って、当該測位装置1によれば、ロボット2のコストを抑制しつつ、該ロボット2の位置を比較的精度良く測定することができる。当該測位装置1によるロボット2のコスト抑制効果は、測位対象のロボット2が増えるほど大きくなる。仮に測位対象のロボット2が増えたことによりロボット2の存在範囲が広がったとしても、各ロボット2に比較的高精度の測位手段を設けるよりもカメラを増設するほうが安価である。   Therefore, according to the positioning device 1, the position of the robot 2 can be measured with relatively high accuracy while suppressing the cost of the robot 2. The cost reduction effect of the robot 2 by the positioning device 1 increases as the number of positioning target robots 2 increases. Even if the presence range of the robot 2 is expanded due to an increase in the number of positioning target robots 2, it is cheaper to add more cameras than providing each robot 2 with relatively high-precision positioning means.

加えて、当該測位装置1では、測位対象のロボット2の事前活動情報(即ち、自動運転プログラム等から予測されるロボット2の移動方向に係る情報)に基づいて、各カメラにより撮像された映像情報からロボット2が特定される。このため、当該測位装置1によれば、測位対象のロボット2の誤認識を抑制することができる。   In addition, in the positioning device 1, image information captured by each camera based on the prior activity information of the positioning target robot 2 (that is, information related to the moving direction of the robot 2 predicted from an automatic driving program or the like). Thus, the robot 2 is identified. For this reason, according to the positioning device 1, erroneous recognition of the positioning target robot 2 can be suppressed.

尚、実施形態に係る「ロボット2」、「情報取得部12」、「映像取得部13」、「選択部14」、「特定部15」及び「位置測定部16」は、夫々、本発明に係る「対象移動体」、「第1取得手段」、「第2取得手段」、「選択手段」、「特定手段」及び「測定手段」の一例である。実施形態に係る「ロボット位置情報」は、本発明に係る「移動体位置情報」の一例である。実施形態に係る「カメラ位置情報」及び「詳細位置情報」は、本発明に係る「カメラ位置情報」の一例である。   The “robot 2”, “information acquisition unit 12”, “video acquisition unit 13”, “selection unit 14”, “specification unit 15”, and “position measurement unit 16” according to the embodiment are respectively included in the present invention. This is an example of the “target moving body”, “first acquisition unit”, “second acquisition unit”, “selection unit”, “specification unit”, and “measurement unit”. The “robot position information” according to the embodiment is an example of the “moving body position information” according to the present invention. “Camera position information” and “detailed position information” according to the embodiment are examples of “camera position information” according to the present invention.

本発明は、上述した実施形態に限られるものではなく、特許請求の範囲及び明細書全体から読み取れる発明の要旨或いは思想に反しない範囲で適宜変更可能であり、そのような変更を伴う測位装置及び方法、並びに、コンピュータプログラムもまた本発明の技術的範囲に含まれるものである。   The present invention is not limited to the above-described embodiments, and can be appropriately changed without departing from the gist or concept of the invention that can be read from the claims and the entire specification. A method and a computer program are also included in the technical scope of the present invention.

1…測位装置、2…ロボット、3…ビーコン発信装置、11、21…通信部、12…情報取得部、13…映像取得部、14…選択部、15…特定部、16…位置測定部、17…データベース、22…受信部、23…制御部、24…メモリ、30、30a、30b、30c…カメラ   DESCRIPTION OF SYMBOLS 1 ... Positioning device, 2 ... Robot, 3 ... Beacon transmission device 11, 21 ... Communication part, 12 ... Information acquisition part, 13 ... Image | video acquisition part, 14 ... Selection part, 15 ... Identification part, 16 ... Position measurement part, 17 ... Database, 22 ... Receiver, 23 ... Controller, 24 ... Memory, 30, 30a, 30b, 30c ... Camera

Claims (4)

ビーコン受信手段及びGPS受信手段の少なくとも一方の手段を有する対象移動体から、前記少なくとも一方の手段により受信された信号から特定された前記対象移動体の位置に係る情報である移動体位置情報を取得する第1取得手段と、
相互に異なる位置に配置された複数のカメラ各々の位置に係る情報であるカメラ位置情報と、前記移動体位置情報とに基づいて、前記複数のカメラから前記対象移動体を撮像している2以上のカメラを選択する選択手段と、
前記2以上のカメラ各々により撮像された映像情報を取得する第2取得手段と、
(i)前記カメラ位置情報に基づく前記2以上のカメラ各々の位置と、前記映像情報とに基づいて、前記2以上のカメラ各々から前記対象移動体までの距離を測定し、(ii)前記距離と、前記カメラ位置情報に基づく前記2以上のカメラ相互間の位置関係とに基づいて、前記対象移動体の位置を測定する測定手段と、
を備えることを特徴とする測位装置。
Acquisition of moving body position information, which is information relating to the position of the target moving body specified from the signal received by the at least one means, from the target moving body having at least one of beacon receiving means and GPS receiving means. First acquisition means for
Two or more images of the target moving body are captured from the plurality of cameras based on the camera position information, which is information relating to the positions of the plurality of cameras arranged at different positions, and the moving body position information. A selection means for selecting a camera,
Second acquisition means for acquiring video information captured by each of the two or more cameras;
(I) measuring a distance from each of the two or more cameras to the target moving body based on the position of each of the two or more cameras based on the camera position information and the video information; and (ii) the distance Measuring means for measuring the position of the target moving body based on the positional relationship between the two or more cameras based on the camera position information;
A positioning device comprising:
前記第1取得手段は、前記対象移動体から前記対象移動体の移動方向に係る情報である活動情報を取得し、
当該測位装置は、前記活動情報に基づいて前記映像情報から前記対象移動体を特定する特定手段を備える
ことを特徴とする請求項1に記載の測位装置。
The first acquisition means acquires activity information that is information related to a moving direction of the target moving body from the target moving body,
The positioning device according to claim 1, further comprising a specifying unit that specifies the target moving body from the video information based on the activity information.
ビーコン受信手段及びGPS受信手段の少なくとも一方の手段を有する対象移動体から、前記少なくとも一方の手段により受信された信号から特定された前記対象移動体の位置に係る情報である移動体位置情報を取得する第1取得工程と、
相互に異なる位置に配置された複数のカメラ各々の位置に係る情報であるカメラ位置情報と、前記移動体位置情報とに基づいて、前記複数のカメラから前記対象移動体を撮像している2以上のカメラを選択する選択工程と、
前記2以上のカメラ各々により撮像された映像情報を取得する第2取得工程と、
(i)前記カメラ位置情報に基づく前記2以上のカメラ各々の位置と、前記映像情報とに基づいて、前記2以上のカメラ各々から前記対象移動体までの距離を測定し、(ii)前記距離と、前記カメラ位置情報に基づく前記2以上のカメラ相互間の位置関係とに基づいて、前記対象移動体の位置を測定する測定工程と、
を備えることを特徴とする測位装置。
Acquisition of moving body position information, which is information relating to the position of the target moving body specified from the signal received by the at least one means, from the target moving body having at least one of beacon receiving means and GPS receiving means. A first acquisition step,
Two or more images of the target moving body are captured from the plurality of cameras based on the camera position information, which is information relating to the positions of the plurality of cameras arranged at different positions, and the moving body position information. A selection process for selecting a camera of
A second acquisition step of acquiring video information captured by each of the two or more cameras;
(I) measuring a distance from each of the two or more cameras to the target moving body based on the position of each of the two or more cameras based on the camera position information and the video information; and (ii) the distance And a measuring step for measuring the position of the target moving body based on the positional relationship between the two or more cameras based on the camera position information;
A positioning device comprising:
測位装置に搭載されたコンピュータを、
ビーコン受信手段及びGPS受信手段の少なくとも一方の手段を有する対象移動体から、前記少なくとも一方の手段により受信された信号から特定された前記対象移動体の位置に係る情報である移動体位置情報を取得する第1取得手段と、
相互に異なる位置に配置された複数のカメラ各々の位置に係る情報であるカメラ位置情報と、前記移動体位置情報とに基づいて、前記複数のカメラから前記対象移動体を撮像している2以上のカメラを選択する選択手段と、
前記2以上のカメラ各々により撮像された映像情報を取得する第2取得手段と、
(i)前記カメラ位置情報に基づく前記2以上のカメラ各々の位置と、前記映像情報とに基づいて、前記2以上のカメラ各々から前記対象移動体までの距離を測定し、(ii)前記距離と、前記カメラ位置情報に基づく前記2以上のカメラ相互間の位置関係とに基づいて、前記対象移動体の位置を測定する測定手段と、
として機能させることを特徴とするコンピュータプログラム。
The computer installed in the positioning device
Acquisition of mobile body position information, which is information relating to the position of the target mobile body identified from the signal received by the at least one means, from the target mobile body having at least one of a beacon receiving means and a GPS receiving means. First acquisition means for
Two or more images of the target moving body are captured from the plurality of cameras based on the camera position information, which is information relating to the positions of the plurality of cameras arranged at different positions, and the moving body position information. A selection means for selecting a camera,
Second acquisition means for acquiring video information captured by each of the two or more cameras;
(I) measuring a distance from each of the two or more cameras to the target moving body based on the position of each of the two or more cameras based on the camera position information and the video information; and (ii) the distance Measuring means for measuring the position of the target moving body based on the positional relationship between the two or more cameras based on the camera position information;
A computer program that functions as a computer program.
JP2018098588A 2018-05-23 2018-05-23 Positioning device and method, and computer program Pending JP2019203770A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018098588A JP2019203770A (en) 2018-05-23 2018-05-23 Positioning device and method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018098588A JP2019203770A (en) 2018-05-23 2018-05-23 Positioning device and method, and computer program

Publications (1)

Publication Number Publication Date
JP2019203770A true JP2019203770A (en) 2019-11-28

Family

ID=68726694

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018098588A Pending JP2019203770A (en) 2018-05-23 2018-05-23 Positioning device and method, and computer program

Country Status (1)

Country Link
JP (1) JP2019203770A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112731456A (en) * 2020-12-30 2021-04-30 上海同陆云交通科技有限公司 Method for accurately calculating road pile number in reverse mode according to GNSS coordinates

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0966900A (en) * 1995-09-01 1997-03-11 Hitachi Ltd Flight condition monitoring method and device
JP2002008040A (en) * 2000-06-16 2002-01-11 Matsushita Electric Ind Co Ltd Three-dimensional information detecting device and three-dimensional information detecting method
WO2016006287A1 (en) * 2014-07-09 2016-01-14 ソニー株式会社 Information processing device, storage medium, and control method
JP2016125956A (en) * 2015-01-07 2016-07-11 ソニー株式会社 Information processor, information processing method and information processing system
WO2016147581A1 (en) * 2015-03-17 2016-09-22 日本電気株式会社 Monitoring device, monitoring method, monitoring program, and monitoring system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0966900A (en) * 1995-09-01 1997-03-11 Hitachi Ltd Flight condition monitoring method and device
JP2002008040A (en) * 2000-06-16 2002-01-11 Matsushita Electric Ind Co Ltd Three-dimensional information detecting device and three-dimensional information detecting method
WO2016006287A1 (en) * 2014-07-09 2016-01-14 ソニー株式会社 Information processing device, storage medium, and control method
JP2016125956A (en) * 2015-01-07 2016-07-11 ソニー株式会社 Information processor, information processing method and information processing system
WO2016147581A1 (en) * 2015-03-17 2016-09-22 日本電気株式会社 Monitoring device, monitoring method, monitoring program, and monitoring system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
岩本 健嗣,他3名: ""環境カメラと携帯端末を用いた位置特定手法"", 情報処理学会研究報告, vol. 2006巻121号, JPN6022019476, 17 November 2006 (2006-11-17), JP, pages 71 - 76, ISSN: 0004778515 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112731456A (en) * 2020-12-30 2021-04-30 上海同陆云交通科技有限公司 Method for accurately calculating road pile number in reverse mode according to GNSS coordinates
CN112731456B (en) * 2020-12-30 2021-08-31 上海同陆云交通科技有限公司 Method for accurately calculating road pile number in reverse mode according to GNSS coordinates

Similar Documents

Publication Publication Date Title
JP6187592B2 (en) Sensor installation position specifying support system and sensor installation position specifying support method
US9103917B2 (en) Method and system for determining location within a building based on historical location information
KR20150018827A (en) Method and apparatus for determining locations of access points
JP6171944B2 (en) Information processing apparatus, information processing method, and program
US11940285B2 (en) Techniques for route selection
US20200128369A1 (en) Controlling radio fingerprint observation report collection
US20220128709A1 (en) Position locating system, position locating method, and position locating program
WO2014020949A1 (en) Communication apparatus, communication device, communication system, communication method, position determining method and recording medium
KR20190028700A (en) Object tracking method and system
CN108513353B (en) Method for realizing mobile robot positioning based on double beacon nodes
KR20160090199A (en) Apparatus and method for measuring indoor position using wireless signal
KR101283749B1 (en) Positionong apparatus by using location of ap
JP2019203770A (en) Positioning device and method, and computer program
JP2014209680A (en) Land boundary display program, method, and terminal device
JP2019109772A (en) Moving body
JP6652400B2 (en) Position output device and position output method
JP6511890B2 (en) Direction estimation system and direction estimation apparatus
US20210080280A1 (en) Positioning system and positioning method
JP6521853B2 (en) INFORMATION PROCESSING APPARATUS, POSITIONING SYSTEM, INFORMATION PROCESSING METHOD, AND COMPUTER PROGRAM
JP2014143477A (en) Imaging system
JP7432478B2 (en) Position conversion method, program and moving device
US20240125943A1 (en) Vehicle and Node Positioning Method
JP2018018086A (en) Land boundary display program, method, and device
JP6923455B2 (en) Position detection system
JP2017111103A (en) Information processing device, recording method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210512

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220722

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221108