JP2018163532A - Control device, program, and control method - Google Patents

Control device, program, and control method Download PDF

Info

Publication number
JP2018163532A
JP2018163532A JP2017060472A JP2017060472A JP2018163532A JP 2018163532 A JP2018163532 A JP 2018163532A JP 2017060472 A JP2017060472 A JP 2017060472A JP 2017060472 A JP2017060472 A JP 2017060472A JP 2018163532 A JP2018163532 A JP 2018163532A
Authority
JP
Japan
Prior art keywords
movement
unit
information
real space
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017060472A
Other languages
Japanese (ja)
Other versions
JP6760876B2 (en
Inventor
智士 水溜
Satoshi Mizutame
智士 水溜
裕樹 田門
Hiroki Tamon
裕樹 田門
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2017060472A priority Critical patent/JP6760876B2/en
Publication of JP2018163532A publication Critical patent/JP2018163532A/en
Priority to JP2020147747A priority patent/JP6978566B2/en
Application granted granted Critical
Publication of JP6760876B2 publication Critical patent/JP6760876B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a mechanism to control a moving body which moves indoor.SOLUTION: A control device comprises: a storage unit that stores three-dimensional space information of a real space inside a building; an imaging unit that images the real space; a distance measuring unit for measuring a distance to an object; a movement control unit that controls a movement on the basis of the three-dimensional space information, a moving route associated with the three-dimensional space information and the distance to the object in the real space measured by the distance measuring unit; a three-dimensional space information acquisition unit that acquires three-dimensional space information of the real space imaged by the imaging unit during movement by control of the movement control unit; and an information updating unit that updates the three-dimensional space information stored in the storage unit on the basis of the three-dimensional space information acquired by the three-dimensional space information acquisition unit.SELECTED DRAWING: Figure 1

Description

本発明は、制御装置、プログラム、及び制御方法に関する。   The present invention relates to a control device, a program, and a control method.

従来、無人飛行体(例えば、ドローン)がGPS(Global Positioning System)などの全地球航法衛星システム(Global Navigation Satellite System(s):以下、GNSS)を利用した測位方法によって自律飛行し、送電線の点検箇所まで飛行することにより、送電線の近傍から撮像した画像を用いて送電線を点検する技術が知られている(例えば、特許文献1)。   Conventionally, an unmanned air vehicle (for example, a drone) autonomously flies by a positioning method using a global navigation satellite system (Global Navigation System (s): GNSS) such as GPS (Global Positioning System). A technique for inspecting a power transmission line using an image captured from the vicinity of the power transmission line by flying to an inspection location is known (for example, Patent Document 1).

特開2001−39397号公報JP 2001-39397 A

しかしながら、従来の技術では、屋外に設置される対象物を撮像するように無人飛行体を制御することが可能であっても、GNSS等の測位方法の使用が困難な屋内に設置される対象物を撮像するように無人飛行体を制御することまでは困難である場合があった。
本発明は、上記問題に鑑みて為されたものであり、屋内を移動する移動体を制御する仕組みを提供することを目的とする。
However, in the conventional technology, even if it is possible to control an unmanned aerial vehicle so as to image an object installed outdoors, an object installed indoors where it is difficult to use a positioning method such as GNSS. In some cases, it was difficult to control the unmanned air vehicle so as to capture the image.
The present invention has been made in view of the above problems, and an object thereof is to provide a mechanism for controlling a moving body that moves indoors.

(1)本発明の一態様は、建物内部の実空間の三次元空間情報を記憶する記憶部と、前記実空間を撮像する撮像部と、物体までの距離を測定する測距部と、前記三次元空間情報と、前記三次元空間情報に対応付けられた移動経路と、前記測距部が測定する前記実空間内の物体との前記距離とに基づいて移動を制御する移動制御部と、前記移動制御部の制御による移動中に、前記撮像部が撮像した前記実空間の三次元空間情報を取得する三次元空間情報取得部と、前記三次元空間情報取得部が取得する前記三次元空間情報に基づいて、前記記憶部に記憶されている前記三次元空間情報を更新する情報更新部と、を備える移動体の制御装置である。   (1) One aspect of the present invention is a storage unit that stores three-dimensional space information of a real space inside a building, an imaging unit that captures the real space, a distance measurement unit that measures a distance to an object, A movement control unit that controls movement based on three-dimensional space information, a movement path associated with the three-dimensional space information, and the distance from the object in the real space measured by the distance measurement unit; The three-dimensional space information acquisition unit that acquires the three-dimensional space information of the real space imaged by the imaging unit and the three-dimensional space that the three-dimensional space information acquisition unit acquires during movement under the control of the movement control unit An information update unit that updates the three-dimensional spatial information stored in the storage unit based on information.

(2)本発明の一態様は、上記(1)に記載の制御装置において、前記移動体が移動した移動軌跡を取得する移動軌跡取得部を更に備え、前記記憶部には、前記移動軌跡取得部が取得する前記移動軌跡と、当該移動軌跡を取得した時刻とを対応付けて記憶する。   (2) One aspect of the present invention is the control device according to (1), further including a movement trajectory acquisition unit that acquires a movement trajectory that the moving body has moved, and the storage unit acquires the movement trajectory acquisition. The movement trajectory acquired by the unit is stored in association with the time when the movement trajectory is acquired.

(3)本発明の一態様は、上記(1)又は(2)に記載の制御装置は、前記移動軌跡と、当該移動軌跡を取得した時刻とを対応付けて、サーバ装置に送信する送信部を更に備える。   (3) According to one aspect of the present invention, the control device according to the above (1) or (2) associates the movement trajectory with the time at which the movement trajectory is acquired, and transmits to the server device Is further provided.

(4)本発明の一態様は、上記(1)から(3)に記載の制御装置において、前記測距部は、前記移動経路上、又は前記移動経路の周辺に物体があるか否かを検知し、前記移動制御部は、前記測距部の測定結果に基づいて、前記三次元空間情報に対応付けられた前記移動経路を変更して移動させる。   (4) According to one aspect of the present invention, in the control device according to (1) to (3), the distance measuring unit determines whether or not there is an object on the movement route or around the movement route. The movement control unit detects and moves the movement route associated with the three-dimensional spatial information based on the measurement result of the distance measuring unit.

(5)本発明の一態様は、上記(1)から(4)に記載の制御装置において、前記移動制御部は、サーバ装置から受信する情報であって、前記移動体の移動時刻を指示する指示情報に基づいて、前記移動体の移動を制御する。   (5) According to one aspect of the present invention, in the control device according to (1) to (4), the movement control unit is information received from a server device, and indicates a movement time of the moving body. Based on the instruction information, the movement of the moving body is controlled.

(6)本発明の一態様は、上記(1)から(5)に記載の制御装置において、前記撮像部は、前記実空間のうち、前記三次元空間情報に対応付けられた位置を撮像する。   (6) According to one aspect of the present invention, in the control device according to (1) to (5), the imaging unit images a position associated with the three-dimensional space information in the real space. .

(7)本発明の一態様は、上記(1)から(6)に記載の制御装置において、前記移動体とは、無人飛行体である。   (7) According to one aspect of the present invention, in the control device according to (1) to (6), the moving body is an unmanned flying body.

(8)本発明の一態様は、建物内部の実空間の三次元空間情報を記憶する記憶部を備えるコンピュータに、前記実空間を撮像する撮像ステップと、物体までの距離を測定する測距ステップと、前記三次元空間情報と、前記三次元空間情報に対応付けられた移動経路と、前記測距ステップが測定する前記実空間内の物体との前記距離とに基づいて移動を制御する移動制御ステップと、前記移動制御ステップの制御による移動中に、前記撮像ステップが撮像した前記実空間の三次元空間情報を取得する三次元空間情報取得ステップと、前記三次元空間情報取得ステップが取得する前記三次元空間情報に基づいて、前記記憶部に記憶されている前記三次元空間情報を更新する情報更新ステップと、を実行させるためのプログラムである。   (8) According to one aspect of the present invention, an imaging step of imaging the real space and a distance measuring step of measuring a distance to the object in a computer including a storage unit that stores three-dimensional space information of the real space inside the building Movement control that controls movement based on the three-dimensional space information, a movement path associated with the three-dimensional space information, and the distance from the object in the real space measured by the ranging step A three-dimensional spatial information acquisition step for acquiring three-dimensional spatial information of the real space imaged by the imaging step, and the three-dimensional spatial information acquisition step acquired during movement under the control of the movement control step An information update step of updating the three-dimensional spatial information stored in the storage unit based on three-dimensional spatial information.

(9)本発明の一態様は、実空間を撮像する撮像手順と、物体までの距離を測定する測距手順と、建物内部の実空間の三次元空間情報と、前記三次元空間情報に対応付けられた移動経路と、前記測距手順が測定する前記実空間内の物体との前記距離とに基づいて移動体の移動を制御する移動制御手順と、前記移動制御手順において制御される移動体の移動中に、前記撮像手順が撮像した前記実空間の三次元空間情報を取得する三次元空間情報取得手順と、前記三次元空間情報取得手順において取得される前記三次元空間情報に基づいて、前記三次元空間情報を更新する情報更新手順と、を備える制御方法である。   (9) One aspect of the present invention corresponds to an imaging procedure for imaging a real space, a ranging procedure for measuring a distance to an object, three-dimensional spatial information of a real space inside a building, and the three-dimensional spatial information A movement control procedure for controlling the movement of the moving body based on the attached movement path and the distance between the object in the real space measured by the ranging procedure, and the moving body controlled in the movement control procedure Based on the 3D spatial information acquisition procedure for acquiring the 3D spatial information of the real space imaged by the imaging procedure, and the 3D spatial information acquired in the 3D spatial information acquisition procedure An information update procedure for updating the three-dimensional spatial information.

本発明によれば、屋内を移動する移動体を制御する仕組みを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the mechanism which controls the mobile body which moves indoors can be provided.

第1実施形態に係る制御装置の概要を示す図である。It is a figure which shows the outline | summary of the control apparatus which concerns on 1st Embodiment. 第1実施形態に係るドローンの移動経路の一例を示す第1の図である。It is a 1st figure which shows an example of the moving path | route of the drone concerning 1st Embodiment. 第1実施形態に係るドローンの移動経路の一例を示す第2の図である。It is a 2nd figure which shows an example of the moving path | route of the drone concerning 1st Embodiment. 第1実施形態に係る制御装置の構成の一例を示す図である。It is a figure which shows an example of a structure of the control apparatus which concerns on 1st Embodiment. 第1実施形態に係る制御装置の動作の一例を示す流れ図である。It is a flowchart which shows an example of operation | movement of the control apparatus which concerns on 1st Embodiment. 第1実施形態に係る制御装置の動作の一例を示す流れ図である。It is a flowchart which shows an example of operation | movement of the control apparatus which concerns on 1st Embodiment. 第2実施形態に係る制御装置の一例を示す図である。It is a figure which shows an example of the control apparatus which concerns on 2nd Embodiment.

[第1実施形態]
以下、図を参照して本発明の実施形態について説明する。
[First Embodiment]
Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<制御装置の概要>
図1は、第1実施形態に係る制御装置10の概要を示す図である。
図1に示す通り、制御装置10は、移動体に搭載され、当該移動体の移動を制御する。移動体とは、例えば、飛行体や、自動車等である。本実施形態の一例では、移動体が無人飛行体(以下、ドローンD)である場合について説明する。ドローンDは、制御装置10の制御に基づいて、自律飛行する。制御装置10は、ドローンDの飛行を制御し、ドローンDが飛行する建物内部の空間(以下、実空間)の情報を取得する。
<Outline of control device>
FIG. 1 is a diagram illustrating an overview of a control device 10 according to the first embodiment.
As shown in FIG. 1, the control device 10 is mounted on a moving body and controls the movement of the moving body. The moving body is, for example, a flying body or an automobile. As an example of the present embodiment, a case where the moving body is an unmanned flying body (hereinafter, drone D) will be described. The drone D flies autonomously based on the control of the control device 10. The control device 10 controls the flight of the drone D, and acquires information on the space inside the building where the drone D flies (hereinafter, real space).

制御装置10は、測定装置110と、制御部120とを備える。測定装置110は、撮像部101と、測距部102とを備える。撮像部101は、実空間内を撮像し、画像(以下、画像IM)を生成する。測距部102は、制御装置10(ドローンD)から、実空間内に設置される物体や、実空間を構成する物体(以下、物体OB)までの距離(以下、距離DT)を測定する。実空間を構成する物体とは、例えば、壁、天井、及び床等である。測距部102とは、例えば、ステレオカメラや赤外線センサである。
制御装置10は、画像IM、及び距離DTに基づいてドローンDの移動を制御し、ドローンDを移動させる。ドローンDが移動する実空間とは、例えば、監視対象の設備等が設置される空間である。この場合、物体OBには、監視対象の設備が含まれる。
The control device 10 includes a measurement device 110 and a control unit 120. The measuring apparatus 110 includes an imaging unit 101 and a distance measuring unit 102. The imaging unit 101 captures an image in real space and generates an image (hereinafter referred to as an image IM). The distance measuring unit 102 measures a distance (hereinafter, distance DT) from the control device 10 (drone D) to an object installed in the real space or an object (hereinafter, object OB) constituting the real space. Examples of the object constituting the real space are a wall, a ceiling, and a floor. The distance measuring unit 102 is, for example, a stereo camera or an infrared sensor.
The control device 10 controls the movement of the drone D based on the image IM and the distance DT, and moves the drone D. The real space in which the drone D moves is, for example, a space in which equipment to be monitored is installed. In this case, the object OB includes equipment to be monitored.

<実空間内の移動について>
以下、図を参照して、実空間におけるドローンDの移動について説明する。
図2は、第1実施形態に係るドローンDの移動経路の一例を示す第1の図である。
制御装置10は、予め定められた移動経路を示す情報(以下、移動経路情報RT)に基づいて、ドローンDを制御し、ドローンDに実空間内を移動させる。移動経路情報RTとは、予め定められた経路であって、実空間の三次元空間情報SPに対応付けられた移動経路である。
三次元空間情報SPとは、例えば、実空間に存在する物体OBの特徴点の点群と、当該特徴点を撮影した実空間における相対位置や撮影の向きとが対応付けられた情報である。本実施形態の一例では、実空間における相対位置が、XYZ直交座標系によって示される。移動経路は、三次元空間情報SPに基づく実空間の座標によって示される。
<About movement in real space>
Hereinafter, the movement of the drone D in the real space will be described with reference to the drawings.
FIG. 2 is a first diagram illustrating an example of a travel route of the drone D according to the first embodiment.
The control device 10 controls the drone D based on information indicating a predetermined movement route (hereinafter, movement route information RT), and causes the drone D to move in the real space. The movement route information RT is a predetermined route, and is a movement route associated with the real space three-dimensional space information SP.
The three-dimensional space information SP is, for example, information in which a point group of feature points of an object OB existing in the real space is associated with a relative position and a shooting direction in the real space where the feature points are shot. In an example of the present embodiment, the relative position in the real space is indicated by an XYZ orthogonal coordinate system. The movement path is indicated by real space coordinates based on the three-dimensional space information SP.

移動経路情報RTとは、例えば、移動経路を所定の距離毎の座標によって示す情報であってもよく、実空間内のある位置の座標を示す情報であってもよい。移動経路情報RTが実空間のある位置の座標を示す情報である場合、制御装置10は、当該座標、又は当該座標の近傍を通過するようにドローンDを制御する。   The movement route information RT may be information indicating the movement route by coordinates for each predetermined distance, or information indicating coordinates of a certain position in the real space, for example. When the movement route information RT is information indicating the coordinates of a certain position in the real space, the control device 10 controls the drone D so as to pass through the coordinates or the vicinity of the coordinates.

図2に示す通り、本実施形態の一例では、移動経路情報RTが示す移動経路が、実空間内に設置される物体OB1と、物体OB2との周囲をドローンDが移動する移動経路である。より具体的には、移動経路情報RTが示す移動経路は、実空間のある位置(図示する一例では、位置P0)から移動を開始し、実空間の角に応じた位置(図示する一例では、位置P1、位置P2、及び位置P3)において方向転換し、物体OB1、及び物体OB2を中心として実空間を一周したのち、位置P0において移動を終了する移動経路である。この場合、ドローンDが移動した軌跡(以下、移動軌跡TJ)と、移動経路情報RTが示す移動経路とは合致する。   As shown in FIG. 2, in one example of the present embodiment, the movement path indicated by the movement path information RT is a movement path along which the drone D moves around the object OB1 and the object OB2 installed in the real space. More specifically, the movement route indicated by the movement route information RT starts moving from a certain position in the real space (in the illustrated example, the position P0), and the position corresponding to the corner of the real space (in the illustrated example, This is a movement path that changes direction at the position P1, the position P2, and the position P3), makes a round around the real space around the object OB1 and the object OB2, and then ends the movement at the position P0. In this case, the trajectory that the drone D has moved (hereinafter referred to as the movement trajectory TJ) matches the movement path indicated by the movement path information RT.

以下、図を参照して、実空間におけるドローンDの移動の移動経路の変化について説明する。
図3は、第1実施形態に係るドローンDの移動経路の一例を示す第2の図である。
ここで、実空間には、新たな監視対象の設備が配置される場合がある。図3に示す実空間には、図2に示す実空間に対して物体OB3が新たに設置されている。
この場合、制御装置10が、移動経路情報RTに基づいてドローンDの移動を制御すると、位置P2付近において物体OB3と、ドローンDとが接触する。このため、制御装置10は、三次元空間情報SPと、距離DTとに基づいて、ドローンDの移動経路を変更する。制御装置10は、例えば、位置P21において方向転換し、物体OB3の側面に沿うように移動し、かつ位置P31において方向転換し、位置P0に戻るように移動する。この場合、ドローンDの移動軌跡TJは、移動経路情報RTが示す移動経路から変更された位置(図示する移動経路情報RT23の位置、移動軌跡TJ23の位置)である。
Hereinafter, changes in the movement path of the movement of the drone D in the real space will be described with reference to the drawings.
FIG. 3 is a second diagram illustrating an example of a travel route of the drone D according to the first embodiment.
Here, a new monitoring target facility may be arranged in the real space. In the real space shown in FIG. 3, an object OB3 is newly installed with respect to the real space shown in FIG.
In this case, when the control device 10 controls the movement of the drone D based on the movement route information RT, the object OB3 and the drone D come into contact with each other in the vicinity of the position P2. For this reason, the control apparatus 10 changes the moving route of the drone D based on the three-dimensional space information SP and the distance DT. For example, the control device 10 changes direction at the position P21, moves along the side surface of the object OB3, changes direction at the position P31, and moves back to the position P0. In this case, the movement trajectory TJ of the drone D is a position changed from the movement path indicated by the movement path information RT (the position of the movement path information RT23 illustrated, the position of the movement trajectory TJ23).

制御装置10は、ドローンDに上述したような移動をさせ、実空間に関する情報(例えば、三次元空間情報SP、及び移動軌跡TJ)を取得する装置である。
以下、制御装置10の具体的な構成について説明する。
The control device 10 is a device that causes the drone D to move as described above and acquires information about the real space (for example, the three-dimensional space information SP and the movement trajectory TJ).
Hereinafter, a specific configuration of the control device 10 will be described.

<制御装置の構成>
以下、図4を参照して制御装置10の構成について説明する。
図4は、第1実施形態に係る制御装置10の構成の一例を示す図である。
制御装置10は、測定装置110と、制御部120と、記憶部500と備える。
記憶部500には、三次元空間情報SPと、移動経路情報RTとが記憶される。
<Configuration of control device>
Hereinafter, the configuration of the control device 10 will be described with reference to FIG.
FIG. 4 is a diagram illustrating an example of the configuration of the control device 10 according to the first embodiment.
The control device 10 includes a measurement device 110, a control unit 120, and a storage unit 500.
The storage unit 500 stores three-dimensional space information SP and movement route information RT.

<測定装置について>
測定装置110は、撮像部101と、測距部102と、特徴点検出部103と、相対位置検出部104と、位置特定部105をその機能部として備える。
撮像部101は、ドローンDの移動に伴い、実空間内を撮像し、画像IMを生成する。撮像部101は、例えば、常時、又は所定の時間間隔において実空間を撮影し、画像IMを生成する。
なお、撮像部101は、制御装置10の制御に基づいて、実空間内の所定の位置において画像IMを生成する構成であってもよい。この場合、所定の位置は、三次元空間情報SPに対応付けられた位置であって、三次元空間情報SPの座標によって示される位置である。なお、所定の位置は、移動経路情報RTによって示される座標でも良い。撮像部101は、例えば、三次元空間情報SPの座標によって示される位置P0〜位置P3の各位置において物体OBを撮像し、画像IMを生成する。
測距部102は、距離DTを測定し、制御部120に供給する。測距部102は、例えば、常時、又は所定の時間間隔に置いて距離DTを測定する。
<About measuring equipment>
The measuring apparatus 110 includes an imaging unit 101, a distance measuring unit 102, a feature point detecting unit 103, a relative position detecting unit 104, and a position specifying unit 105 as functional units.
As the drone D moves, the imaging unit 101 captures an image in the real space and generates an image IM. The imaging unit 101 shoots a real space at all times or at predetermined time intervals, for example, and generates an image IM.
Note that the imaging unit 101 may be configured to generate the image IM at a predetermined position in the real space based on the control of the control device 10. In this case, the predetermined position is a position associated with the three-dimensional space information SP and is a position indicated by the coordinates of the three-dimensional space information SP. The predetermined position may be a coordinate indicated by the movement route information RT. For example, the imaging unit 101 images the object OB at each of the positions P0 to P3 indicated by the coordinates of the three-dimensional spatial information SP, and generates an image IM.
The distance measuring unit 102 measures the distance DT and supplies it to the control unit 120. The distance measuring unit 102 measures the distance DT at all times or at a predetermined time interval, for example.

特徴点検出部103は、実空間を撮像部101が撮像して得られた画像IMに基づき、当該画像IMに撮像される物体OBの特徴点を検出する。特徴点を点群として表した画像でも良い。
相対位置検出部104は、特徴点検出部103が検出した特徴点と、特徴点を撮像した際の制御装置10(ドローンD)の位置と、向きとを複数記憶し、制御装置10の位置から特定可能な周辺三次元空間情報ASPを生成する。相対位置検出部104は、生成した周辺三次元空間情報ASPを制御部120に供給する。特徴点を撮像した位置は、実空間を模した仮想的な三次元空間の座標(x、y、z)で表される。
The feature point detection unit 103 detects a feature point of the object OB imaged in the image IM based on the image IM obtained by imaging the real space by the imaging unit 101. An image representing feature points as a point cloud may be used.
The relative position detection unit 104 stores a plurality of feature points detected by the feature point detection unit 103, the position of the control device 10 (drone D) when the feature points are imaged, and a plurality of orientations. An identifiable peripheral three-dimensional spatial information ASP is generated. The relative position detection unit 104 supplies the generated surrounding 3D spatial information ASP to the control unit 120. The position where the feature point is imaged is represented by coordinates (x, y, z) of a virtual three-dimensional space that imitates real space.

位置特定部105は、三次元空間情報SPに基づいて、制御装置10(ドローンD)の現在位置(以下、現在位置CP)を特定する。具体的には、位置特定部105は、特徴点検出部103が画像IMに基づいて検出する特徴点と、三次元空間情報SPが示す特徴点とのマッチングを行い、三次元空間情報SPが示す実空間の座標のうち、制御装置10(ドローンD)がどの位置(座標)にいるかを特定する。これにより、位置特定部105は、制御装置10の現在位置CPを特定した後は、制御装置10が移動しても、加速度センサ、ジャイロセンサ、及び地磁気センサの検出結果に基づいて、三次元空間情報SP上の座標を特定可能である。位置特定部105は、現在位置CPを示す情報を制御部120に供給する。
なお、位置特定部105は、撮像部101が撮像して得られた画像IMに基づいて、エリアラーニングにより、モーショントラッキングでのずれの累積を補正してもよい。
The position specifying unit 105 specifies the current position (hereinafter, current position CP) of the control device 10 (drone D) based on the three-dimensional spatial information SP. Specifically, the position specifying unit 105 performs matching between the feature point detected by the feature point detection unit 103 based on the image IM and the feature point indicated by the three-dimensional spatial information SP, and the three-dimensional spatial information SP indicates Among the coordinates in the real space, the position (coordinate) where the control device 10 (drone D) is located is specified. Thus, after the position specifying unit 105 specifies the current position CP of the control device 10, even if the control device 10 moves, the position specifying unit 105 is based on the detection results of the acceleration sensor, the gyro sensor, and the geomagnetic sensor. The coordinates on the information SP can be specified. The position specifying unit 105 supplies information indicating the current position CP to the control unit 120.
Note that the position specifying unit 105 may correct the accumulation of shifts in motion tracking by area learning based on the image IM obtained by the imaging unit 101.

<制御部について>
制御部120は、CPU(Central Processing Unit)を備えており、移動軌跡取得部201と、送信部202と、移動制御部203と、三次元空間情報取得部204と、情報更新部205とをその機能部として備える。
移動軌跡取得部201は、測定装置110から現在位置CPを常時、又は所定の時間間隔において取得する。移動軌跡取得部201は、ドローンDの移動開始から移動終了までに取得した現在位置CPを移動軌跡TJとして送信部202に供給する。
<About the control unit>
The control unit 120 includes a CPU (Central Processing Unit), and includes a movement trajectory acquisition unit 201, a transmission unit 202, a movement control unit 203, a three-dimensional spatial information acquisition unit 204, and an information update unit 205. Provided as a functional unit.
The movement trajectory acquisition unit 201 acquires the current position CP from the measurement device 110 at all times or at predetermined time intervals. The movement trajectory acquisition unit 201 supplies the current position CP acquired from the start of movement of the drone D to the end of movement as the movement trajectory TJ to the transmission unit 202.

移動制御部203は、現在位置CPと、三次元空間情報SPと、移動経路情報RTと、距離DTと、加速度センサと、ジャイロセンサと、地磁気センサに基づいて、ドローンDの移動を制御する。具体的には、移動制御部203は、ドローンDの飛行開始時に現在位置CPを取得する。移動制御部203は、現在位置CPが示す位置(座標)から三次元空間情報SPにおける移動経路情報RTの位置(座標)を移動するように、加速度センサ、ジャイロセンサ、及び地磁気センサの検出結果に基づいて、ドローンDの移動を制御する。
また、移動制御部203は、距離DTが、ドローンD(制御装置10)から物体OBまでの距離が所定の距離となるようにドローンDの移動を制御する。移動制御部203は、例えば、距離DTがドローンDと、物体OBまでの距離が所定の距離より短い(近い)距離であることを示す場合、ドローンDが物体OBから離れるように制御する。
The movement control unit 203 controls the movement of the drone D based on the current position CP, the three-dimensional space information SP, the movement path information RT, the distance DT, the acceleration sensor, the gyro sensor, and the geomagnetic sensor. Specifically, the movement control unit 203 acquires the current position CP when the drone D starts to fly. The movement control unit 203 uses the detection results of the acceleration sensor, the gyro sensor, and the geomagnetic sensor so as to move the position (coordinates) of the movement route information RT in the three-dimensional space information SP from the position (coordinates) indicated by the current position CP. Based on this, the movement of the drone D is controlled.
In addition, the movement control unit 203 controls the movement of the drone D so that the distance DT is a predetermined distance from the drone D (control device 10) to the object OB. For example, when the distance DT indicates that the drone D and the distance to the object OB are shorter (closer) than the predetermined distance, the movement control unit 203 controls the drone D to leave the object OB.

三次元空間情報取得部204は、測定装置110から常時、又は所定の時間間隔において周辺三次元空間情報ASPを取得する。三次元空間情報取得部204は、ドローンDの移動開始から移動終了までに取得した周辺三次元空間情報ASPに基づいて、三次元空間情報SPを生成する。また、三次元空間情報取得部204は、生成した三次元空間情報SPを情報更新部205に供給する。
情報更新部205は、記憶部500に記憶される三次元空間情報SPを、三次元空間情報取得部204から取得した三次元空間情報SPに更新する。
The three-dimensional spatial information acquisition unit 204 acquires the peripheral three-dimensional spatial information ASP from the measuring apparatus 110 at all times or at predetermined time intervals. The three-dimensional space information acquisition unit 204 generates three-dimensional space information SP based on the surrounding three-dimensional space information ASP acquired from the start of movement of the drone D to the end of movement. Further, the three-dimensional space information acquisition unit 204 supplies the generated three-dimensional space information SP to the information update unit 205.
The information update unit 205 updates the three-dimensional spatial information SP stored in the storage unit 500 to the three-dimensional spatial information SP acquired from the three-dimensional spatial information acquisition unit 204.

送信部202は、移動軌跡TJを示す情報と、当該移動軌跡TJによってドローンDが移動した実空間の三次元空間情報SPと、当該移動軌跡TJを取得した日時とを対応付けて、サーバ装置に送信する。具体的には、送信部202は、移動軌跡取得部201が取得する移動軌跡TJと、三次元空間情報取得部204が生成する三次元空間情報SPと、移動軌跡TJを取得した日時とを対応付けてサーバ装置に送信する。サーバ装置とは、実空間を監視する監視者が使用する装置である。監視者は、サーバ装置、又はサーバ装置と情報の送受信可能な端末装置を用いて、サーバ装置が受信する情報(この一例では、移動軌跡TJ)を参照する。   The transmission unit 202 associates the information indicating the movement trajectory TJ with the three-dimensional space information SP of the real space in which the drone D has moved according to the movement trajectory TJ, and the date and time when the movement trajectory TJ is acquired. Send. Specifically, the transmission unit 202 associates the movement trajectory TJ acquired by the movement trajectory acquisition unit 201, the 3D spatial information SP generated by the 3D spatial information acquisition unit 204, and the date and time when the movement trajectory TJ was acquired. And send it to the server device. The server device is a device used by a supervisor who monitors the real space. The monitor refers to the information received by the server device (in this example, the movement trajectory TJ) using the server device or a terminal device capable of transmitting and receiving information to and from the server device.

なお、上述では、情報更新部205が周辺三次元空間情報ASPに基づいて、記憶部500に記憶される三次元空間情報SPを更新する場合について説明したが、これに限られない。情報更新部205は、周辺三次元空間情報ASPに基づいて生成した三次元空間情報SPと、生成した日時とを対応付けて記憶部500に記憶させる構成であってもよい。   In the above description, the case where the information updating unit 205 updates the three-dimensional spatial information SP stored in the storage unit 500 based on the surrounding three-dimensional spatial information ASP has been described, but the present invention is not limited thereto. The information updating unit 205 may be configured to store the three-dimensional spatial information SP generated based on the surrounding three-dimensional spatial information ASP in the storage unit 500 in association with the generated date and time.

<制御部の動作について:移動開始時の動作>
以下、図5を参照して制御装置10の移動開始時の動作の詳細について説明する。
図5は、第1実施形態に係る制御装置10の動作の一例を示す第1の流れ図である。
移動制御部203は、ドローンDの移動を開始させる際、ドローンDの移動開始位置(この一例では、位置P0)において、ドローンDを旋回させる(ステップS10)。撮像部101は、ドローンDが旋回している(ステップS10)間、画像IMを取得する(ステップS20)。位置特定部105は、特徴点検出部103が画像IMに基づいて検出する特徴点と、三次元空間情報SPが示す特徴点とのマッチングを行い、三次元空間情報SPが示す実空間の座標のうち、制御装置10(ドローンD)の現在位置CPを特定する(ステップS30)。
<Operation of control unit: Operation at the start of movement>
Hereinafter, the details of the operation of the control device 10 when starting to move will be described with reference to FIG.
FIG. 5 is a first flowchart showing an example of the operation of the control device 10 according to the first embodiment.
When starting the movement of the drone D, the movement control unit 203 turns the drone D at the movement start position of the drone D (in this example, the position P0) (step S10). The imaging unit 101 acquires the image IM while the drone D is turning (step S10) (step S20). The position specifying unit 105 performs matching between the feature points detected by the feature point detection unit 103 based on the image IM and the feature points indicated by the three-dimensional space information SP, and the coordinates of the real space indicated by the three-dimensional space information SP. Among them, the current position CP of the control device 10 (drone D) is specified (step S30).

<制御部の動作について:移動中の動作>
以下、図6を参照して制御装置10の移動中の動作の詳細について説明する。
図6は、第1実施形態に係る制御装置10の動作の一例を示す流れ図である。
図6に示す制御装置10の動作は、図5に示す制御装置10の移動開始時の動作によって、制御装置10(ドローンD)の現在位置CPが特定された後の動作である。
ドローンDが移動経路情報RTに基づいて移動を開始してから終了するまでの間(図示するステップS115〜ステップS140の間)、三次元空間情報取得部204は、測定装置110から周辺三次元空間情報ASPを取得し、位置特定部105は、現在位置CPを取得する(ステップS110)。
移動制御部203は、現在位置CPと、三次元空間情報SPと、移動経路情報RTと、距離DTと、加速度センサと、ジャイロセンサと、と地磁気センサに基づいて、ドローンDの移動を制御する(ステップS115)。具体的には、移動制御部203は、図5に示す移動開始時の動作によって特定された現在位置CPが示す位置(座標)から三次元空間情報SPにおける移動経路情報RTの位置(座標)を移動するように、加速度センサ、ジャイロセンサ、及び地磁気センサの検出結果に基づいて、ドローンDの移動を制御する。
<Operation of control unit: Operation during movement>
Hereinafter, the details of the operation of the control device 10 during the movement will be described with reference to FIG.
FIG. 6 is a flowchart illustrating an example of the operation of the control device 10 according to the first embodiment.
The operation of the control device 10 shown in FIG. 6 is an operation after the current position CP of the control device 10 (drone D) is specified by the operation at the start of movement of the control device 10 shown in FIG.
During the period from when the drone D starts to move based on the movement route information RT to when it ends (between steps S115 to S140 shown in the figure), the three-dimensional space information acquisition unit 204 sends the information from the measuring device 110 to the surrounding three-dimensional space. The information ASP is acquired, and the position specifying unit 105 acquires the current position CP (step S110).
The movement control unit 203 controls the movement of the drone D based on the current position CP, the three-dimensional space information SP, the movement path information RT, the distance DT, the acceleration sensor, the gyro sensor, and the geomagnetic sensor. (Step S115). Specifically, the movement control unit 203 obtains the position (coordinates) of the movement route information RT in the three-dimensional space information SP from the position (coordinates) indicated by the current position CP specified by the movement start operation shown in FIG. The movement of the drone D is controlled based on the detection results of the acceleration sensor, the gyro sensor, and the geomagnetic sensor so as to move.

次に、移動制御部203は、測定装置110から距離DTを取得する(ステップS120)。移動制御部203は、移動経路情報RTに基づいてドローンDの移動を制御しつつ、取得した距離DTと、所定の距離とを比較する(ステップS130)。移動制御部203は、距離DTが、ドローンDと、物体OBとが所定の距離より離れていることを示す場合(ステップS130;NO)、移動経路情報RTが示す移動距離に基づいてドローンDを移動(飛行)させる(ステップS115)。また、移動制御部203は、距離DTが、ドローンDと、物体OBとが所定の距離より近いことを示す場合(ステップS130;YES)、移動経路情報RTが示す移動経路を変更し、ドローンDを移動(飛行)させる(ステップS140)。具体的には、移動制御部203は、距離DTが、ドローンDと、物体OBとが所定の距離より近いことを示す場合、物体OBから離れるように移動経路を変更し、ドローンDを移動させる。   Next, the movement control unit 203 acquires the distance DT from the measurement device 110 (step S120). The movement control unit 203 controls the movement of the drone D based on the movement route information RT, and compares the acquired distance DT with a predetermined distance (step S130). When the distance DT indicates that the drone D and the object OB are separated from each other by a predetermined distance (step S130; NO), the movement control unit 203 determines the drone D based on the movement distance indicated by the movement route information RT. Move (fly) (step S115). If the distance DT indicates that the drone D and the object OB are closer than the predetermined distance (step S130; YES), the movement control unit 203 changes the movement path indicated by the movement path information RT, and the drone D Is moved (flyed) (step S140). Specifically, when the distance DT indicates that the drone D and the object OB are closer than a predetermined distance, the movement control unit 203 changes the movement path so as to move away from the object OB, and moves the drone D. .

三次元空間情報取得部204は、ドローンDの移動開始から移動終了までに取得した周辺三次元空間情報ASPに基づいて、三次元空間情報SPを生成する(ステップS145)。情報更新部205は、三次元空間情報取得部204が生成した三次元空間情報SPを取得し、記憶部500に記憶される三次元空間情報SPを更新する(ステップS150)。送信部202は、移動軌跡取得部201が取得した移動軌跡TJと、三次元空間情報取得部204が生成した三次元空間情報SPと、当該移動軌跡TJを取得した日時とを対応付けて、サーバ装置に送信する(ステップS160)。   The three-dimensional space information acquisition unit 204 generates the three-dimensional space information SP based on the surrounding three-dimensional space information ASP acquired from the start of movement of the drone D to the end of movement (step S145). The information update unit 205 acquires the three-dimensional space information SP generated by the three-dimensional space information acquisition unit 204, and updates the three-dimensional space information SP stored in the storage unit 500 (step S150). The transmission unit 202 associates the movement trajectory TJ acquired by the movement trajectory acquisition unit 201 with the three-dimensional spatial information SP generated by the three-dimensional spatial information acquisition unit 204 and the date and time when the movement trajectory TJ is acquired. The data is transmitted to the device (step S160).

なお、上述では、移動制御部203は、距離DTが、ドローンDと、物体OBとが所定の距離より近いことを示す場合、物体OBから離れるように移動経路を変更し、ドローンDを移動させる場合について説明したがこれに限られない。移動制御部203は、距離DTが、ドローンDと、物体OBとが所定の距離より近いことを示す場合、又は移動経路を変更した場合に移動経路情報RTに示された移動経路に戻れないと判断し、ドローンDが移動を開始した位置まで、ドローンDを移動させる(戻らせる)制御を行ってもよい。   In the above description, when the distance DT indicates that the drone D and the object OB are closer than the predetermined distance, the movement control unit 203 changes the movement path so as to move away from the object OB, and moves the drone D. Although the case has been described, the present invention is not limited to this. If the distance DT indicates that the drone D and the object OB are closer than the predetermined distance, or if the movement path is changed, the movement control unit 203 cannot return to the movement path indicated in the movement path information RT. Control may be performed to move (return) the drone D to the position where the drone D starts to move.

<第1実施形態のまとめ>
以上説明したように、本実施形態の制御装置10は、測定装置110と、制御部120とを備え、制御部120は、三次元空間情報SPに基づいて、移動体(本実施形態の一例では、ドローンD)の移動を制御する。
ここで、ドローンDの移動を制御する場合、GPS(Global Positioning System)などの全地球航法衛星システム(Global Navigation Satellite System(s):以下、GNSS)を利用した方法によってドローンD(制御装置10)の位置を検出する方法が一般的であった。この点、ドローンDが屋内等においてGNSSの電波を受信が困難である場合、ドローンDの位置を検出することができず、ドローンDの移動を制御することが困難である場合があった。
<Summary of First Embodiment>
As described above, the control device 10 of the present embodiment includes the measurement device 110 and the control unit 120, and the control unit 120 is based on the three-dimensional space information SP (in the example of the present embodiment). , Control the movement of the drone D).
Here, when controlling the movement of the drone D, the drone D (control device 10) is controlled by a method using a global navigation satellite system (Global Navigation System (s): GNSS) such as GPS (Global Positioning System). The method of detecting the position of the is common. In this regard, when it is difficult for the drone D to receive GNSS radio waves indoors or the like, the position of the drone D cannot be detected, and it may be difficult to control the movement of the drone D.

本実施形態の制御装置10は、ドローンDが移動する実空間内の三次元空間情報SPに基づいて、屋内におけるドローンDの位置を検出する。これにより、本実施形態の制御装置10は、実空間におけるドローンDの制御し、屋内を移動するドローンDの移動を制御することができる。   The control apparatus 10 of this embodiment detects the position of the drone D indoors based on the three-dimensional space information SP in the real space where the drone D moves. Thereby, the control apparatus 10 of this embodiment can control the drone D in real space, and can control the movement of the drone D which moves indoors.

また、本実施形態の制御装置10は、ドローンDが移動することに伴って、測定する周辺三次元空間情報ASPに基づいて、三次元空間情報SPを生成し、生成した三次元空間情報SPに記憶部500の三次元空間情報SPを更新する。
上述したように、ドローンDが移動する実空間には、監視者の監視対象の設備等が設置される場合がある。ここで、実空間の三次元空間情報SPは、監視対象の設備の新設、及び撤去に応じて更新されることが好ましい。
本実施形態の制御装置10によれば、ドローンDの移動により、実空間の三次元空間情報SPの取得、及び更新が自動化されるため、監視者等が実空間を計測し、三次元空間情報SPを更新する手間を低減することができる。
Moreover, the control apparatus 10 of this embodiment produces | generates three-dimensional spatial information SP based on the surrounding three-dimensional spatial information ASP to measure as the drone D moves, and it produces | generates to the produced | generated three-dimensional spatial information SP. The three-dimensional spatial information SP in the storage unit 500 is updated.
As described above, in the real space in which the drone D moves, equipment or the like that is monitored by the supervisor may be installed. Here, it is preferable that the three-dimensional space information SP of the real space is updated in accordance with the establishment and removal of the monitoring target equipment.
According to the control apparatus 10 of the present embodiment, since the acquisition and update of the three-dimensional space information SP of the real space is automated by the movement of the drone D, the monitor or the like measures the real space, and the three-dimensional space information The trouble of updating the SP can be reduced.

また、本実施形態の制御装置10は、取得した移動軌跡TJと、当該移動軌跡TJを取得した日時とを対応付けて記憶部500に記憶する。ここで、移動経路情報RTが示す移動経路上に物体OBが設置されることに伴い、ドローンDの移動が困難である場合がある。本実施形態の制御装置10は、制御部120が記憶部500に記憶される移動軌跡TJのうち、最新の日付が対応付けられた移動軌跡TJに基づいてドローンDを移動させることにより、最新の実空間の状態に基づいてドローンDを移動させることができる。
制御装置10は、例えば、移動軌跡取得部201が取得した移動軌跡TJが、記憶部500に記憶される移動軌跡TJから変化したことを示す場合、取得した移動軌跡TJに移動経路情報RTの移動経路を更新する移動経路更新部を備えていてもよい。
Further, the control device 10 of the present embodiment stores the acquired movement trajectory TJ and the date and time when the movement trajectory TJ is acquired in the storage unit 500 in association with each other. Here, the movement of the drone D may be difficult as the object OB is placed on the movement route indicated by the movement route information RT. The control device 10 according to the present embodiment causes the control unit 120 to move the drone D based on the movement trajectory TJ associated with the latest date among the movement trajectories TJ stored in the storage unit 500. The drone D can be moved based on the state of the real space.
For example, when the movement trajectory TJ acquired by the movement trajectory acquisition unit 201 indicates that the movement trajectory TJ has changed from the movement trajectory TJ stored in the storage unit 500, the control device 10 moves the movement route information RT to the acquired movement trajectory TJ. You may provide the movement path | route update part which updates a path | route.

また、本実施形態の制御装置10は、移動軌跡TJを取得し、取得した移動軌跡TJと取得した日時とを対応付けてサーバ装置に移動軌跡TJを示す情報を送信する。
本実施形態の制御装置10によれば、サーバ装置が受信する移動軌跡TJを監視者が確認することができる。また、監視者は、異なる時間に取得された移動軌跡TJを確認することにより、実空間に新たな物体OBが設置されたことを確認することができる。具体的には、監視者は、2つの移動軌跡TJが、異なる移動経路によって移動したことを示す場合、実空間に新たな物体OBが設置されたこと、又は物体OBが撤去されたことを確認することができる。
In addition, the control device 10 of the present embodiment acquires the movement trajectory TJ, and transmits information indicating the movement trajectory TJ to the server device in association with the acquired movement trajectory TJ and the acquired date and time.
According to the control device 10 of the present embodiment, the supervisor can confirm the movement trajectory TJ received by the server device. In addition, the supervisor can confirm that a new object OB has been installed in the real space by confirming the movement trajectory TJ acquired at different times. Specifically, the monitor confirms that a new object OB has been installed in the real space or that the object OB has been removed when the two movement trajectories TJ indicate that they have moved along different movement paths. can do.

また、本実施形態の制御装置10は、移動制御部203は、距離DTが、ドローンDと物体OBとが所定の距離より近いことを示す場合、移動経路情報RTの移動経路に基づいてドローンDを移動させ、距離DTが、ドローンDと物体OBとが所定の距離より離れていることを示す場合、移動経路情報RTの移動経路に基づいてドローンDを移動させる。
換言すると、本実施形態の制御装置10において、測距部102は、ドローンDが移動する移動経路上、又は移動経路の周辺に物体OBがあるか否かを検知し、移動制御部203は、測距部102の測定結果に基づいて、移動経路情報RTの移動経路を変更してドローンDを移動させる。
本実施形態の制御装置10によれば、移動経路上、又は移動経路の周辺に物体OBが存在する場合、ドローンDが物体OBに衝突しないように当該ドローンDの移動を制御することができる。
Further, in the control device 10 of the present embodiment, the movement control unit 203, when the distance DT indicates that the drone D and the object OB are closer than a predetermined distance, the drone D based on the movement path of the movement path information RT. When the distance DT indicates that the drone D and the object OB are separated from each other by a predetermined distance, the drone D is moved based on the movement route of the movement route information RT.
In other words, in the control device 10 of the present embodiment, the distance measurement unit 102 detects whether or not the object OB is on or around the movement path on which the drone D moves, and the movement control unit 203 Based on the measurement result of the distance measuring unit 102, the moving route of the moving route information RT is changed to move the drone D.
According to the control device 10 of the present embodiment, when the object OB exists on or around the movement route, the movement of the drone D can be controlled so that the drone D does not collide with the object OB.

また、本実施形態の制御装置10は、撮像部101が実空間のうち、三次元空間情報SPに対応付けられた位置において画像IMを撮像する。
本実施形態の制御装置10によれば、予め定められた位置において実空間を撮像させ、撮像された画像IMを監視者等が確認することができる。予め定められた位置が、例えば、物体OBのインジケータランプや表示を確認可能な位置である場合、監視者は、画像IMに基づいて物体OBの状態を詳細に把握することができる。
In the control device 10 of the present embodiment, the imaging unit 101 captures the image IM at a position in the real space that is associated with the three-dimensional space information SP.
According to the control device 10 of the present embodiment, a real space can be imaged at a predetermined position, and a monitor or the like can confirm the captured image IM. When the predetermined position is, for example, a position where the indicator lamp and display of the object OB can be confirmed, the monitor can grasp the state of the object OB in detail based on the image IM.

なお、制御装置10は、実空間の特徴点を検出するための画像を生成する撮像部(以下、実空間撮像部)と、実空間を撮像し画像IMを生成する撮像部(以下、特徴点撮像部)とを備える構成であってもよい。実空間撮像部は、例えば、特徴点撮像部よりも高解像度の画像(画像IM)を生成することができる撮像部である。したがって、制御装置10によれば、監視者は、高解像度の画像IMに基づいて、より詳細に物体OBの状態を把握することができる。
また、監視者は、実空間の特徴点を検出するための画像を生成しつつ、所望の方向や所望の位置から物体OBを撮像したい場合がある。ここで、実空間撮像部と、特徴点撮像部とが別体である場合、制御装置10は、実空間撮像部の方向や画角を制御することにより、所望の方向や所望の位置から物体OBを撮像しつつ、かつ特徴点を検出するための画像を生成することができる。この場合、実空間撮像部は、三次元空間情報SPの座標によって示された位置、及び方向であって、物体OBを撮像する所定の位置、及び所定の方向において実空間を撮像し、画像IMを生成する構成であってもよい。
The control device 10 includes an imaging unit (hereinafter referred to as a real space imaging unit) that generates an image for detecting feature points in the real space, and an imaging unit (hereinafter referred to as a feature point) that captures the real space and generates an image IM. (Imaging part) may be provided. The real space imaging unit is, for example, an imaging unit that can generate an image (image IM) having a higher resolution than the feature point imaging unit. Therefore, according to the control device 10, the supervisor can grasp the state of the object OB in more detail based on the high-resolution image IM.
In addition, the supervisor may want to capture an image of the object OB from a desired direction or a desired position while generating an image for detecting a feature point in the real space. When the real space imaging unit and the feature point imaging unit are separate from each other, the control device 10 controls the direction and the angle of view of the real space imaging unit so that an object from a desired direction and a desired position can be obtained. An image for detecting a feature point can be generated while imaging an OB. In this case, the real space imaging unit captures the real space at the position and direction indicated by the coordinates of the three-dimensional space information SP and captures the object OB at the predetermined position and the predetermined direction. The structure which produces | generates may be sufficient.

[第2実施形態]
以下、図を参照して本発明の第2実施形態について説明する。
第1実施形態では、ドローンDの移動を制御する構成について説明した。
第2実施形態では、ドローンDを移動に関する指示に基づいて、ドローンDの移動を制御する場合について説明する。
なお、上述した実施形態と同様の構成については、同一の符号を付して説明を省略する。
[Second Embodiment]
The second embodiment of the present invention will be described below with reference to the drawings.
In the first embodiment, the configuration for controlling the movement of the drone D has been described.
2nd Embodiment demonstrates the case where the movement of the drone D is controlled based on the instruction | indication regarding movement of the drone D. FIG.
In addition, about the structure similar to embodiment mentioned above, the same code | symbol is attached | subjected and description is abbreviate | omitted.

図7は、第2実施形態に係る制御装置11の一例を示す図である。
図7に示す通り、本実施形態の制御装置11は、測定装置110と、制御部121とを備える。制御部121は、CPUを備えており、移動軌跡取得部201と、送信部202と、移動制御部203と、三次元空間情報取得部204と、情報更新部205と、受信部206とをその機能部として備える。
受信部206は、サーバ装置から指示情報DCを受信する。指示情報DCとは、ドローンDの移動開始時刻を指示する情報である。受信部206は、受信した指示情報DCを移動制御部203に供給する。
移動制御部203は、指示情報DCに基づいて、ドローンDの移動を制御する。具体的には、移動制御部203は、指示情報DCが示す時刻にドローンDの移動を開始させる。
以降の構成については、上述した実施形態と同様であるため、説明を省略する。
FIG. 7 is a diagram illustrating an example of the control device 11 according to the second embodiment.
As shown in FIG. 7, the control device 11 of this embodiment includes a measurement device 110 and a control unit 121. The control unit 121 includes a CPU, and includes a movement locus acquisition unit 201, a transmission unit 202, a movement control unit 203, a three-dimensional spatial information acquisition unit 204, an information update unit 205, and a reception unit 206. Provided as a functional unit.
The receiving unit 206 receives instruction information DC from the server device. The instruction information DC is information that instructs the movement start time of the drone D. The receiving unit 206 supplies the received instruction information DC to the movement control unit 203.
The movement control unit 203 controls the movement of the drone D based on the instruction information DC. Specifically, the movement control unit 203 starts the movement of the drone D at the time indicated by the instruction information DC.
Since the subsequent configuration is the same as that of the above-described embodiment, the description thereof is omitted.

なお、移動制御部203は、指示情報DCに基づいて、ドローンDの移動を開始させる構成に変えて、指示情報DCが示す時刻に予め定められた位置に移動するようにドローンDを制御する構成であってもよい。予め定められた位置とは、例えば、撮像部101が物体OBを撮像することが予め定められた位置であって、三次元空間情報SPに対応付けられた位置である。   The movement control unit 203 is configured to control the drone D so as to move to a predetermined position at the time indicated by the instruction information DC, instead of the structure that starts the movement of the drone D based on the instruction information DC. It may be. The predetermined position is, for example, a predetermined position at which the imaging unit 101 images the object OB and is a position associated with the three-dimensional spatial information SP.

<第2実施形態のまとめ>
以上説明したように、本実施形態の制御装置11は、受信部206がサーバ装置から受信した指示情報DCに基づいて、移動体(本実施形態の一例では、ドローンD)の移動を制御する。
ここで、監視者は、所望の時刻における実空間の状態、及び物体OBの状態を把握したい場合がある。具体的には、監視者は、日中と、夜間とにおいて、実空間の状態、及び物体OBの状態を把握したい場合がある。また、監視者は、1か月毎に実空間の三次元空間情報SPを更新したいと考える場合がある。
本実施形態の制御装置11によれば、指示情報DCが示す時刻においてドローンDを移動し、実空間の状態、及び物体OBの状態を取得することができる。
<Summary of Second Embodiment>
As described above, the control device 11 according to the present embodiment controls the movement of the moving body (in the example of the present embodiment, the drone D) based on the instruction information DC received by the receiving unit 206 from the server device.
Here, the supervisor may want to know the state of the real space and the state of the object OB at a desired time. Specifically, the supervisor may want to grasp the state of the real space and the state of the object OB during the day and at night. In addition, the supervisor may want to update the three-dimensional spatial information SP of the real space every month.
According to the control device 11 of the present embodiment, the drone D can be moved at the time indicated by the instruction information DC, and the state of the real space and the state of the object OB can be acquired.

なお、上述では、移動体がドローンDである場合について説明したが、これに限られない。例えば、移動体は、運転者の操縦を必要としない自動運転車であってもよい。また、移動体には、搭乗者が搭乗していてもよい。この場合、制御装置10は、搭乗者に代わって、移動体の移動を制御してもよく、搭乗者が移動体の移動を制御する支援を行ってもよい。   In addition, although the case where the mobile body is the drone D was demonstrated above, it is not restricted to this. For example, the mobile body may be an automatic driving vehicle that does not require driver's control. Moreover, the passenger may board the mobile body. In this case, the control device 10 may control the movement of the moving body on behalf of the passenger, or may support the passenger to control the movement of the moving body.

なお、記憶部500には、予め三次元空間情報SPが記憶される場合について説明したが、これに限られない。制御装置10は、例えば、三次元空間情報SPが存在しない実空間を移動体の操縦者の操縦に基づいて、当該移動体を移動させ、三次元空間情報SPを生成する構成を有していていもよい。   Although the case where the storage unit 500 stores the three-dimensional spatial information SP in advance has been described, the present invention is not limited to this. For example, the control device 10 has a configuration in which a three-dimensional space information SP is generated by moving the moving body in a real space where the three-dimensional space information SP does not exist based on the maneuvering of the moving body operator. Also good.

また、送信部202は、画像IM、又は画像IMに基づいて実空間の特徴点が検出された画像(以下、特徴点画像)をサーバ装置に送信する構成であってもよい。この場合、サーバ装置から、画像IMの送信、又は特徴点画像の送信を指示し、送信部202は、当該指示に基づいて、画像IM、又は特徴点画像を送信する構成であってもよい。
また、送信部202は、移動経路情報RTから移動経路が変更された場合、当該変更が行われたタイミングで、当該変更を通知する情報をサーバ装置に送信する構成であってもよい。これにより、監視者は、移動経路情報RTの移動経路が変更されたことを把握することができる。
また、移動制御部203は、移動経路が変更された場合、当該変更された位置(上述した一例の場合、位置P2)においてドローンDを旋回させる構成であってもよい。この場合、撮像部101は、ドローンDが旋回することに伴って、実空間を撮像し、画像IMを生成する。また、送信部202は、撮像部101が生成した画像IMであって、移動経路が変更された位置における画像IMをサーバ装置に送信する。これにより、監視者は、移動経路が変更された位置の周囲の状態を確認することができる。
The transmission unit 202 may be configured to transmit an image IM or an image in which a feature point in real space is detected based on the image IM (hereinafter referred to as a feature point image) to the server device. In this case, the server device may instruct transmission of the image IM or feature point image, and the transmission unit 202 may be configured to transmit the image IM or feature point image based on the instruction.
Further, when the movement route is changed from the movement route information RT, the transmission unit 202 may be configured to transmit information for notifying the change to the server device at the timing when the change is made. Thereby, the supervisor can grasp that the movement route of movement route information RT was changed.
Further, when the movement route is changed, the movement control unit 203 may be configured to turn the drone D at the changed position (in the above example, the position P2). In this case, as the drone D turns, the imaging unit 101 captures the real space and generates an image IM. The transmission unit 202 transmits the image IM generated by the imaging unit 101 and the image IM at the position where the movement path is changed to the server device. Thereby, the supervisor can confirm the state around the position where the movement route is changed.

なお、上記の各実施形態における制御装置10、及び制御装置11が備える各部は、専用のハードウェアにより実現されるものであってもよく、また、メモリおよびマイクロプロセッサにより実現させるものであってもよい。   In addition, each part with which the control apparatus 10 in each said embodiment and the control apparatus 11 are provided may be implement | achieved by exclusive hardware, and may be implement | achieved by memory and a microprocessor. Good.

なお、制御装置10、及び制御装置11が備える各部は、メモリおよびCPU(中央演算装置)により構成され、制御装置10、及び制御装置11が備える各部の機能を実現するためのプログラムをメモリにロードして実行することによりその機能を実現させるものであってもよい。   Each unit included in the control device 10 and the control device 11 includes a memory and a CPU (central processing unit), and a program for realizing the function of each unit included in the control device 10 and the control device 11 is loaded into the memory. The function may be realized by executing as described above.

また、制御装置10、及び制御装置11が備える各部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。   Further, a program for realizing the function of each unit included in the control device 10 and the control device 11 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed. Depending on the situation, the processing may be performed. Here, the “computer system” includes an OS and hardware such as peripheral devices.

また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.

以上、本発明の実施形態を、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。上述した各実施形態に記載の構成を組み合わせてもよい。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and appropriate modifications may be made without departing from the spirit of the present invention. it can. You may combine the structure as described in each embodiment mentioned above.

10、11…制御装置、110…測定装置、120、121…制御部、101…撮像部、102…測距部、103…特徴点検出部、104…相対位置検出部、105…位置特定部、201…移動軌跡取得部、202…送信部、203…移動制御部、204…三次元空間情報取得部、205…情報更新部、206…受信部、500…記憶部、ASP…周辺三次元空間情報、D…ドローン、DT…距離、IM…画像、SP…三次元空間情報、RT、RT23…移動経路情報、TJ、TJ23…移動軌跡、DC…指示情報、OB、OB1、OB2、OB3…物体、CP…現在位置 DESCRIPTION OF SYMBOLS 10, 11 ... Control apparatus, 110 ... Measuring apparatus, 120, 121 ... Control part, 101 ... Imaging part, 102 ... Distance measuring part, 103 ... Feature point detection part, 104 ... Relative position detection part, 105 ... Position specification part, DESCRIPTION OF SYMBOLS 201 ... Movement locus | trajectory acquisition part, 202 ... Transmission part, 203 ... Movement control part, 204 ... Three-dimensional spatial information acquisition part, 205 ... Information update part, 206 ... Reception part, 500 ... Memory | storage part, ASP ... Peripheral three-dimensional spatial information D ... Drone, DT ... Distance, IM ... Image, SP ... Three-dimensional spatial information, RT, RT23 ... Movement path information, TJ, TJ23 ... Movement trajectory, DC ... Instruction information, OB, OB1, OB2, OB3 ... Object, CP: Current position

Claims (9)

建物内部の実空間の三次元空間情報を記憶する記憶部と、
前記実空間を撮像する撮像部と、
物体までの距離を測定する測距部と、
前記三次元空間情報と、前記三次元空間情報に対応付けられた移動経路と、前記測距部が測定する前記実空間内の物体との前記距離とに基づいて移動を制御する移動制御部と、
前記移動制御部の制御による移動中に、前記撮像部が撮像した前記実空間の三次元空間情報を取得する三次元空間情報取得部と、
前記三次元空間情報取得部が取得する前記三次元空間情報に基づいて、前記記憶部に記憶されている前記三次元空間情報を更新する情報更新部と、
を備える移動体の制御装置。
A storage unit for storing three-dimensional space information of the real space inside the building;
An imaging unit for imaging the real space;
A distance measuring unit for measuring the distance to the object;
A movement control unit that controls movement based on the three-dimensional space information, a movement path associated with the three-dimensional space information, and the distance from the object in the real space measured by the ranging unit; ,
A three-dimensional spatial information acquisition unit that acquires three-dimensional spatial information of the real space imaged by the imaging unit during movement under the control of the movement control unit;
An information update unit that updates the three-dimensional spatial information stored in the storage unit based on the three-dimensional spatial information acquired by the three-dimensional spatial information acquisition unit;
A control apparatus for a moving body.
前記移動体が移動した移動軌跡を取得する移動軌跡取得部
を更に備え、
前記記憶部には、
前記移動軌跡取得部が取得する前記移動軌跡と、当該移動軌跡を取得した時刻とを対応付けて記憶する
請求項1に記載の制御装置。
A movement trajectory acquisition unit that acquires a movement trajectory that the moving body has moved;
In the storage unit,
The control device according to claim 1, wherein the movement locus acquired by the movement locus acquisition unit is stored in association with the time when the movement locus is acquired.
前記移動軌跡と、当該移動軌跡を取得した時刻とを対応付けて、サーバ装置に送信する送信部
を更に備える請求項2に記載の制御装置。
The control device according to claim 2, further comprising: a transmission unit that associates the movement locus with the time when the movement locus is acquired and transmits the movement locus to the server device.
前記測距部は、
前記移動経路上、又は前記移動経路の周辺に物体があるか否かを検知し、
前記移動制御部は、
前記測距部の測定結果に基づいて、前記三次元空間情報に対応付けられた前記移動経路を変更して移動させる、
請求項1から請求項3のいずれか一項に記載の制御装置。
The distance measuring unit is
Detecting whether there is an object on the movement route or around the movement route,
The movement control unit
Based on the measurement result of the distance measuring unit, the movement route associated with the three-dimensional spatial information is changed and moved,
The control apparatus as described in any one of Claims 1-3.
前記移動制御部は、
サーバ装置から受信する情報であって、前記移動体の移動時刻を指示する指示情報に基づいて、前記移動体の移動を制御する
請求項1から請求項4のいずれか一項に記載の制御装置。
The movement control unit
The control device according to any one of claims 1 to 4, wherein the control device controls the movement of the moving body based on instruction information that is information received from a server device and indicates a moving time of the moving body. .
前記撮像部は、
前記実空間のうち、前記三次元空間情報に対応付けられた位置を撮像する
請求項1から請求項5のいずれか一項に記載の制御装置。
The imaging unit
The control device according to any one of claims 1 to 5, wherein a position associated with the three-dimensional space information in the real space is imaged.
前記移動体とは、無人飛行体である
請求項1から請求項6のいずれか一項に記載の制御装置。
The control device according to any one of claims 1 to 6, wherein the moving body is an unmanned flying body.
建物内部の実空間の三次元空間情報を記憶する記憶部を備えるコンピュータに、
前記実空間を撮像する撮像ステップと、
物体までの距離を測定する測距ステップと、
前記三次元空間情報と、前記三次元空間情報に対応付けられた移動経路と、前記測距ステップが測定する前記実空間内の物体との前記距離とに基づいて移動を制御する移動制御ステップと、
前記移動制御ステップの制御による移動中に、前記撮像ステップが撮像した前記実空間の三次元空間情報を取得する三次元空間情報取得ステップと、
前記三次元空間情報取得ステップが取得する前記三次元空間情報に基づいて、前記記憶部に記憶されている前記三次元空間情報を更新する情報更新ステップと、
を実行させるためのプログラム。
In a computer equipped with a storage unit that stores three-dimensional spatial information of the real space inside the building,
An imaging step of imaging the real space;
Ranging step to measure the distance to the object;
A movement control step for controlling movement based on the three-dimensional space information, a movement path associated with the three-dimensional space information, and the distance from the object in the real space measured by the ranging step; ,
A three-dimensional spatial information acquisition step of acquiring three-dimensional spatial information of the real space imaged by the imaging step during movement by the control of the movement control step;
An information updating step for updating the three-dimensional spatial information stored in the storage unit based on the three-dimensional spatial information acquired by the three-dimensional spatial information acquisition step;
A program for running
実空間を撮像する撮像手順と、
物体までの距離を測定する測距手順と、
建物内部の実空間の三次元空間情報と、前記三次元空間情報に対応付けられた移動経路と、前記測距手順が測定する前記実空間内の物体との前記距離とに基づいて移動体の移動を制御する移動制御手順と、
前記移動制御手順において制御される移動体の移動中に、前記撮像手順が撮像した前記実空間の三次元空間情報を取得する三次元空間情報取得手順と、
前記三次元空間情報取得手順において取得される前記三次元空間情報に基づいて、前記三次元空間情報を更新する情報更新手順と、
を備える制御方法。
An imaging procedure for imaging real space;
Ranging procedure to measure the distance to the object,
Based on the three-dimensional space information of the real space inside the building, the movement path associated with the three-dimensional space information, and the distance from the object in the real space measured by the distance measurement procedure, A movement control procedure for controlling movement;
A three-dimensional spatial information acquisition procedure for acquiring three-dimensional spatial information of the real space imaged by the imaging procedure during movement of the moving body controlled in the movement control procedure;
An information update procedure for updating the three-dimensional spatial information based on the three-dimensional spatial information acquired in the three-dimensional spatial information acquisition procedure;
A control method comprising:
JP2017060472A 2017-03-27 2017-03-27 Control devices, programs, and control methods Active JP6760876B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017060472A JP6760876B2 (en) 2017-03-27 2017-03-27 Control devices, programs, and control methods
JP2020147747A JP6978566B2 (en) 2017-03-27 2020-09-02 Controls, programs, and control methods

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017060472A JP6760876B2 (en) 2017-03-27 2017-03-27 Control devices, programs, and control methods

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020147747A Division JP6978566B2 (en) 2017-03-27 2020-09-02 Controls, programs, and control methods

Publications (2)

Publication Number Publication Date
JP2018163532A true JP2018163532A (en) 2018-10-18
JP6760876B2 JP6760876B2 (en) 2020-09-23

Family

ID=63860180

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017060472A Active JP6760876B2 (en) 2017-03-27 2017-03-27 Control devices, programs, and control methods

Country Status (1)

Country Link
JP (1) JP6760876B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020113134A (en) * 2019-01-15 2020-07-27 株式会社アトラックラボ Unmanned moving object, unmanned moving object control method and unmanned moving program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004102391A (en) * 2002-09-05 2004-04-02 Matsushita Electric Ind Co Ltd Autonomous traveling device
JP2014126919A (en) * 2012-12-25 2014-07-07 Hitachi Constr Mach Co Ltd Map creation support system
JP2016090864A (en) * 2014-11-06 2016-05-23 日立建機株式会社 Map generation device
JP2017501484A (en) * 2014-09-05 2017-01-12 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Method for controlling a movable object in an environment, system for controlling a movable object in an environment, method for controlling an unmanned aircraft in an environment, and system for controlling an unmanned aircraft in an environment

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004102391A (en) * 2002-09-05 2004-04-02 Matsushita Electric Ind Co Ltd Autonomous traveling device
JP2014126919A (en) * 2012-12-25 2014-07-07 Hitachi Constr Mach Co Ltd Map creation support system
JP2017501484A (en) * 2014-09-05 2017-01-12 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Method for controlling a movable object in an environment, system for controlling a movable object in an environment, method for controlling an unmanned aircraft in an environment, and system for controlling an unmanned aircraft in an environment
JP2016090864A (en) * 2014-11-06 2016-05-23 日立建機株式会社 Map generation device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020113134A (en) * 2019-01-15 2020-07-27 株式会社アトラックラボ Unmanned moving object, unmanned moving object control method and unmanned moving program

Also Published As

Publication number Publication date
JP6760876B2 (en) 2020-09-23

Similar Documents

Publication Publication Date Title
JP6601554B2 (en) Unmanned aerial vehicle, unmanned aircraft control system, flight control method, and computer program
CN109669468B (en) Measuring device, unmanned aerial vehicle, control device and control method thereof, and storage medium
JP6740170B2 (en) Mobile body control system, program, and control method
JP2017503246A (en) Aircraft flight control method and related apparatus
CN110300706B (en) Aircraft-ground vehicle coordination
JPWO2018158927A1 (en) Three-dimensional shape estimation method, flying object, mobile platform, program, and recording medium
JP6289750B1 (en) Mobile object, mobile object control method, mobile object control system, and mobile object control program
JP2014063411A (en) Remote control system, control method, and program
WO2021250914A1 (en) Information processing device, movement device, information processing system, method, and program
CN113795803B (en) Flight assisting method, device, chip, system and medium for unmanned aerial vehicle
US20210034052A1 (en) Information processing device, instruction method for prompting information, program, and recording medium
JP2013234946A (en) Target position identification device, target position identification system and target position identification method
JP6978566B2 (en) Controls, programs, and control methods
JP6760876B2 (en) Control devices, programs, and control methods
KR101954748B1 (en) System and method for extracting target coordinate
KR101911353B1 (en) Autonomic flight method when gnss signal loss and unmanned aerial vehicle for the same
WO2015107623A1 (en) Management system and position specification method
US20210055744A1 (en) Mobile device, mobile body control system, mobile body control method, and program
KR101763294B1 (en) Shooting Control System and Method Using Thereof
US11535396B2 (en) Flying object control system and flying object control method
KR102181809B1 (en) Apparatus and method for checking facility
JP6684012B1 (en) Information processing apparatus and information processing method
JP6600593B2 (en) Mobile system
JP2021169958A (en) Illumination communication system and method for controlling illumination communication system
JP4515884B2 (en) Camera stabilizer target position correction method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200903

R150 Certificate of patent or registration of utility model

Ref document number: 6760876

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150