JP2017134617A - Position estimation device, program and position estimation method - Google Patents
Position estimation device, program and position estimation method Download PDFInfo
- Publication number
- JP2017134617A JP2017134617A JP2016013860A JP2016013860A JP2017134617A JP 2017134617 A JP2017134617 A JP 2017134617A JP 2016013860 A JP2016013860 A JP 2016013860A JP 2016013860 A JP2016013860 A JP 2016013860A JP 2017134617 A JP2017134617 A JP 2017134617A
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature point
- motion
- unit
- moving body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 71
- 230000033001 locomotion Effects 0.000 claims abstract description 172
- 238000003384 imaging method Methods 0.000 claims abstract description 51
- 238000000605 extraction Methods 0.000 claims abstract description 20
- 238000001514 detection method Methods 0.000 claims abstract description 7
- 238000003860 storage Methods 0.000 claims description 30
- 239000000284 extract Substances 0.000 claims description 9
- 230000010365 information processing Effects 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 abstract description 3
- 238000005259 measurement Methods 0.000 description 60
- 230000008569 process Effects 0.000 description 43
- 239000011159 matrix material Substances 0.000 description 37
- 238000012545 processing Methods 0.000 description 20
- 238000013519 translation Methods 0.000 description 20
- 230000008859 change Effects 0.000 description 14
- 238000004364 calculation method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000012937 correction Methods 0.000 description 5
- 230000014509 gene expression Effects 0.000 description 5
- 230000007613 environmental effect Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000001174 ascending effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、位置推定装置、プログラム及び位置推定方法に関する。 The present invention relates to a position estimation device, a program, and a position estimation method.
運転者が移動体を操縦したり外部から操縦しなくても移動体が自立的に決められた経路に沿って移動したりする技術の開発が進められている。移動体が経路に沿って移動するには移動中も移動体が位置を正確に推定する必要がある。そして、移動体の位置や姿勢を移動体が備えるカメラを用いて推定するVisual−SLAM(Simultaneous Localization and Mapping;同時位置推定地図構築)が知られている。Visual−SLAMでは、時系列の映像から周囲の静止物体の三次元位置情報を含む環境地図の生成と、移動体の位置や姿勢の推定とを同時に行うことができる。 Development of a technique in which a moving body moves along a route determined autonomously without a driver maneuvering the moving body or maneuvering from the outside is underway. In order for the moving body to move along the route, it is necessary for the moving body to accurately estimate the position even during movement. Then, Visual-SLAM (Simultaneous Localization and Mapping; simultaneous position estimation map construction) that estimates the position and orientation of a moving body using a camera provided in the moving body is known. In Visual-SLAM, it is possible to simultaneously generate an environment map including three-dimensional position information of surrounding stationary objects from a time-series image and estimate the position and orientation of a moving object.
カメラを用いた位置と姿勢の検出では、時系列に撮像された画像から複数の特徴点とその三次元座標を求めておき、次のタイミングで撮像された画像の特徴点との対応付けを行う。次のタイミングの画像のうち追跡された特徴点の三次元座標が分かっているので、該三次元座標と画像内の特徴点との対応を利用して自己位置と姿勢の推定が行われる。 In the detection of position and orientation using a camera, a plurality of feature points and their three-dimensional coordinates are obtained from images taken in time series, and are associated with the feature points of the image taken at the next timing. . Since the three-dimensional coordinates of the tracked feature points in the next timing image are known, the self-position and orientation are estimated using the correspondence between the three-dimensional coordinates and the feature points in the image.
このようにカメラを用いて位置と姿勢が検出される場合、位置と姿勢の精度が撮像された映像の品質に大きく依存することが知られている。そこで、カメラによる映像の品質に対しロバストな位置推定技術が従来から考案されている(例えば、特許文献1参照。)。特許文献1には、異なるタイミングで撮像された複数の画像のそれぞれから対応した対応点を検索し、検索された対応点の全ての組から対応点の複数の組を繰り返し選択し、繰り返し選択された対応点の複数の組に基づいて自車両の運動推定候補を各々算出する運動推定装置が開示されている。 When the position and orientation are detected using the camera in this way, it is known that the accuracy of the position and orientation greatly depends on the quality of the captured image. In view of this, a position estimation technique that is robust with respect to the quality of images taken by a camera has been conventionally devised (see, for example, Patent Document 1). In Patent Document 1, corresponding points corresponding to each of a plurality of images captured at different timings are searched, and a plurality of sets of corresponding points are repeatedly selected from all the sets of corresponding points searched, and repeatedly selected. A motion estimation device that calculates motion estimation candidates for the host vehicle based on a plurality of sets of corresponding points is disclosed.
しかしながら、従来の技術では、特徴点の対応付けが困難なほど画像が大きく変化した場合に、推定される位置や姿勢の精度が低下するおそれがあるという問題がある。例えば、移動体は目的地に早く到着することが望ましいと考えられるが、移動体が早く移動するために位置や姿勢の変化が大きくなると異なるタイミングで撮像された画像内の特徴点の対応付けが困難になる場合がある。この場合、過去に対応付けが可能であった画像を用いて位置や姿勢が推定されるので、推定される位置や姿勢の精度が低下するおそれがある。 However, in the conventional technique, there is a problem that the accuracy of the estimated position and orientation may be reduced when the image changes so much that the feature points are difficult to be associated. For example, it is considered that it is desirable for the moving body to arrive at the destination early, but if the change in the position or posture becomes large because the moving body moves quickly, the feature points in the image captured at different timing may be associated with each other. It can be difficult. In this case, since the position and orientation are estimated using images that can be associated in the past, the accuracy of the estimated position and orientation may be reduced.
上術した課題に鑑み、本発明は、推定される位置の精度を向上できる位置推定装置を提供することを目的とする。 In view of the above-described problems, an object of the present invention is to provide a position estimation device that can improve the accuracy of an estimated position.
本発明は、被写体までの距離情報を検出可能な撮像装置が撮像した周囲の画像から移動体の位置を推定すると共に周囲の地図を作成する位置推定装置であって、前記撮像装置が撮像した前記画像から特徴点を抽出する画像特徴点抽出部と、前記画像の前記特徴点を前記撮像装置が撮像した前記画像において追跡する画像特徴点追跡部と、前記移動体の三次元座標、前記距離情報及び前記撮像装置のカメラパラメータを用いて、前記特徴点の三次元座標を含む前記地図を生成する環境地図生成部と、前記三次元座標を前記画像に投影した場合の投影座標と前記特徴点の座標の誤差、又は、前記特徴点の座標を前記三次元座標に変換した場合の変換座標と前記三次元座標の誤差がより小さくなる前記移動体の位置と姿勢を検出する位置検出部と、前記位置検出部が前記位置に基づき検出する前記移動体の移動速度又は前記姿勢に基づき検出する前記移動体の回転速度の少なくともいずれかと、前記画像の撮像条件に基づいて、前記特徴点を追跡可能な前記画像を撮像できる運動を定義する許容運動定義部と、を有する。 The present invention is a position estimation device that estimates a position of a moving body from a surrounding image captured by an imaging device capable of detecting distance information to a subject and creates a surrounding map, and the imaging device captures the image An image feature point extraction unit that extracts a feature point from an image, an image feature point tracking unit that tracks the feature point of the image in the image captured by the imaging device, three-dimensional coordinates of the moving object, and the distance information And an environment map generation unit that generates the map including the three-dimensional coordinates of the feature points using the camera parameters of the imaging device, and the projection coordinates and the feature points when the three-dimensional coordinates are projected onto the image. A position detection unit that detects a position error and a position of the moving body in which the error of the coordinates or the converted coordinates when the coordinates of the feature points are converted into the three-dimensional coordinates and the error of the three-dimensional coordinates becomes smaller; The feature point can be tracked based on at least one of the moving speed of the moving body detected based on the position or the rotational speed of the moving body detected based on the posture and the imaging condition of the image. And an allowable motion definition unit that defines a motion capable of capturing the image.
推定される位置の精度を向上できる位置推定装置を提供することができる。 A position estimation device capable of improving the accuracy of the estimated position can be provided.
以下、本発明を実施するための形態について図面を参照しながら説明する。
図1は、移動体の概略斜視図の一例である。図1の移動体はマルチコプターやドローンなどと呼ばれる飛行物体100である。この飛行物体100は放射状に配置される複数のロータ(回転翼)9を回転させることによって上昇・下降し、また、前後左右等に移動する。上昇時には4つのロータ9の回転数を増大させ、下降時には4つのロータ9の回転数を減少させる。また、前進時又は後退時には対称にあるロータ9の回転数に変化を付け機体を傾けることで前進又は後退する。
Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.
FIG. 1 is an example of a schematic perspective view of a moving body. The moving body in FIG. 1 is a
本実施形態の飛行物体100は、Visual−SLAM(Simultaneous Localization and Mapping;同時位置推定地図構築)を使用して、時系列の映像から周囲の静止物体(三次元点)の三次元座標を含む環境地図の生成と、自己位置や姿勢の推定とを同時に行う。
The
図1の飛行物体100は、位置を計測する位置計測部10及び移動に関する制御を行う移動体制御部30を有している。位置計測部10は飛行物体100の現在の位置と姿勢を推定、計測又は算出等するものであり、移動体制御部30は現在の位置を参考にしながら目的地まで飛行物体100を移動させる。また、飛行物体100はステレオカメラ50を有している。ステレオカメラ50は、被写体との距離を検出できるという特徴を有する。距離を検出可能な手段を別に設ければ単眼のカメラでもよいし、距離情報を取得できる単眼カメラでもよい。距離を検出可能な手段の一例としてレーザーレーダが挙げられる。
The
図2は、位置計測部10と移動体制御部30のハードウェア構成図の一例である。位置計測部10は、例えば、スマートフォン、タブレット端末、ノートPC、デジタルカメラ、又は、飛行物体100や車両、移動式ロボット等の各種移動体に設けられた制御装置を本体とすることができる。したがって、位置計測部10は情報処理装置としての機能を備える。
FIG. 2 is an example of a hardware configuration diagram of the
位置計測部10は、入力装置101と、出力装置102と、ドライブ装置103と、カメラI/F104と、位置計測装置105と、移動体制御部I/F106、補助記憶装置107と、主記憶装置108と、各種制御を行うCPU(Central Processing Unit)109と、ネットワーク接続装置110と、姿勢センサ111と、論理回路112とを有し、これらはシステムバスBで相互に接続されている。
The
入力装置101は、ユーザ等が操作するキーボード、マウス等のポインティングデバイスやマイク等の音声入力デバイス等を有し、ユーザ等からの各種操作信号の入力を受け付ける。また、入力装置101として出力装置102と一体のタッチパネルを備えていてもよい。
The
出力装置102は、位置計測部10の状態を示すLED、CUI(Character User Interface)やGUI(Graphical User Interface)などで各種の情報を表示するディスプレイなどであり、位置計測部10の処理結果や状態を外部に出力する。更に、音声を出力するスピーカの機能を備えていてよい。
The
ドライブ装置103には、例えば記録媒体103a等が着脱自在に装着され、CPU109からの制御で記録媒体103aに記録された各種情報を読み込んだり、各種情報を記録媒体103aに書き込んだりすることができる。位置計測部10が実行するプログラムは、例えば記録媒体103a等に記憶された状態で配布されたり、プログラムを配信したりするサーバから配布される。
For example, a
記録媒体103aは、各種のプログラムやデータ等を記憶するコンピュータで読み取り可能な媒体である。記録媒体103aは、例えばUSB(Universal Serial Bus)メモリやSDメモリ、CD−ROM等の可搬型である。
The
カメラI/F104はステレオカメラ50とのインタフェースである。カメラI/F104はステレオカメラ50にカメラパラメータ(主に内部パラメータをいい、例えば焦点距離、露光時間、画像中心、絞り値、ISO感度、アスペクト比、スキュー補正量、ゆがみ補正量、フレーム間隔など)を送信し、ステレオカメラ50から画像データやカメラパラメータを受信したりする。
The camera I / F 104 is an interface with the
位置計測装置105は、GPS(Global Positioning System;全地球測位システム)機能等を用いて、飛行物体100の位置情報(座標:緯度、経度、標高)を取得する。室内や地下ではIMES(Indoor Messaging System)やビーコンから位置情報を取得してもよい。
The position measuring
移動体制御部I/F106は、移動体制御部30と通信するためのインタフェースである。具体的にはUSBケーブル、I2C,SPI、MicroWireなどが接続される。
The mobile body control unit I /
補助記憶装置107は、例えばSSD(Solid State Drive)やHDD(Hard Disk Drive)等のストレージ装置等である。補助記憶装置107は、CPU109が図2の各ブロックへ出力する制御信号を生成するためのプログラム、オペレーティングシステム等が記憶されている。
The
主記憶装置108には、補助記憶装置107から読み出されたプログラム等を展開され、CPU109により実行される。主記憶装置108は、例えばRAM(Random Access Memory)等であるが、これに限定されるものではない。
A program read from the
CPU109は、オペレーティングシステムやプログラムに基づいて、各種演算や図2の各部に対し制御信号を出力し、位置計測部10の全体の処理を制御する。プログラムの実行結果等を補助記憶装置107に格納することができる。
The
ネットワーク接続装置110は、CPU109からの制御信号に基づき、各種のネットワークに接続する通信装置である。例えば、無線LAN(Local Area Network)や3G、4Gの公共無線通信網に接続する。あるいは有線LANに接続してもよい。これにより、ネットワーク接続装置110は、プログラムや設定情報等をネットワークに接続されている外部装置等から取得できる。また、ネットワーク接続装置110は、プログラムを実行することで得られた実行結果等を外部装置等に提供することができる。
The
姿勢センサ111は、飛行物体100の姿勢を検出するための各種のセンサである。例えば、3軸のジャイロセンサ、3軸の加速度センサ、及び、磁気方位センサを有する。
The
論理回路112は、特定の情報処理を行うハードウェアである。具体的には、AND、OR、NAND、NOR回路などを要素として、加算器、乗算器、メモリ、ラッチなど、及び、これらが組み合わされたIC、LSI、ASIC、FPGAなどである。本実施形態では、後述する特徴点の抽出、追跡、及び、視差演算などを論理回路112が行う。
The
本実施形態では、上述したコンピュータ本体のハードウェア構成に実行プログラム(例えば、位置姿勢計測プログラム等)をインストールすることで、ハードウェア資源とソフトウェアとが協働して本実施形態における位置姿勢計測処理等を実現することができる。また、上述した位置姿勢計測処理に対応するプログラムは、例えば装置上で常駐している状態であってもよく、起動指示により起動させてもよい。 In the present embodiment, by installing an execution program (for example, a position / orientation measurement program) in the hardware configuration of the computer main body described above, the hardware / resource and the software cooperate to perform the position / orientation measurement process in the present embodiment. Etc. can be realized. Further, the program corresponding to the above-described position and orientation measurement processing may be in a resident state on the apparatus, for example, or may be activated by an activation instruction.
続いて、移動体制御部30について説明する。移動体制御部30は飛行物体100の運動を制御する。運動とは、位置、移動速度、及び、姿勢の少なくとも1つをいう。移動体制御部30は、位置計測部I/F201、演算制御装置202、モータコントローラ203及び4つのモータ204を有している。
Next, the moving
位置計測部I/F201は、位置計測部10と通信するためのインタフェースである。具体的にはUSBケーブル、I2C,SPI、MicroWireなどが接続される。例えば、位置計測部10が推定した位置、移動速度及び姿勢、並びに後述する許容運動マップが位置計測部I/F201を介して送信される。
The position measurement unit I /
演算制御装置202は、4つのモータ204の回転数を制御することでロータ9の回転数を制御し、位置(三次元空間の位置)、移動速度、姿勢などを制御する。4個のロータ9の1つ以上を揚力発生用のロータ9や姿勢制御用のロータ9として動作するように制御する。更に、移動の際には、左右又は前後のロータ9の回転数をアンバランス(回転数差を設けて)にして機体を傾けるように制御することにより移動させる。なお、ロータ9の回転により生じる飛行物体100への回転トルクを抑制するため、4個のロータ9のうち、2つを時計回り方向へ回転させ、残りの2つを反時計回り方向へ回転させる。
The arithmetic and
演算制御装置202には予め経由地を含む目的地の座標が登録されており、位置計測部10が検出する位置と姿勢に基づいて、経由地又は目的地に接近するように飛行物体100の移動方向を決定する。適切な移動速度は予め定められているものとする。演算制御装置202は移動方向と移動速度等により決定した4つのロータ9の回転数を指示する回転数指示信号をモータコントローラ203に出力する。
The coordinates of the destination including the waypoint are registered in advance in the arithmetic and
モータコントローラ203は回転数指示信号に応じてモータ204の回転数を制御する。回転数指示信号に応じた電流がモータ204に流れるように例えばPWM信号を生成しモータ204に出力する。モータコントローラ203はモータ204の回転数を検出又は取得してフィードバック制御を行う。また、同一回転数で回転すべきモータ204に微小な回転数の違いがあれば、同一回転数となるように電流を制御する。更に、2つのロータ9の間で回転数指示信号に応じた回転数差が得られない場合、指示された回転数差が得られるように少なくとも1つのモータ204に流れる電流を制御する。
The
<位置計測部10の機能構成>
続いて、図3を用いて位置計測部10の機能について説明する。図3は、位置計測部10の機能ブロック図の一例である。位置計測部10は、画像特徴点抽出部11、画像特徴点追跡部12、深度計測部13、撮像部制御部14、環境地図生成部15、移動体位置計測部16、及び、許容運動定義部17を有する。
<Functional Configuration of
Next, the function of the
画像特徴点抽出部11、画像特徴点追跡部12及び深度計測部13は上述の論理回路112により実現される。撮像部制御部14、環境地図生成部15、移動体位置計測部16、及び、許容運動定義部17は、補助記憶装置107から主記憶装置108に展開されたプログラムをCPU109が実行することで実現される機能又は手段である。ただし、画像特徴点抽出部11、画像特徴点追跡部12及び深度計測部13が、CPU109がプログラムを実行することで実現されてもよい。
The image feature
また、位置計測部10は記憶部1000を有している。記憶部1000は、補助記憶装置107又は主記憶装置108の少なくとも一方により構築される情報の記憶手段である。
Further, the
撮像部制御部14は、カメラパラメータをステレオカメラ50に出力して、ステレオカメラ50を制御する。本実施形態では、カメラパラメータのうち、少なくとも露光時間とフレーム間隔が出力される。フレーム間隔(撮像間隔)は固定でもよいし撮像される環境などに応じて撮像部制御部14が制御してもよい。固定の場合、フレーム間隔は飛行物体100の補助記憶装置107などに記録されている。また、撮像部制御部14は、ステレオカメラ50が撮像する画像のヒストグラムを利用して、例えば飽和する画素がなく低輝度から高輝度までの使用されるように露光時間を決定する。
The imaging
深度計測部13は、ステレオ計測法により各画素又は画素ブロックごとにステレオカメラ50から被写体までの距離を計測する。いわゆる、ブロックマッチング法により画像を一定の大きさのブロックに分割し、それぞれのブロックの水平方向のずれを視差として算出する。更に、ブロックコストを算出した後、周囲との滑らかさを考慮して視差を最適化するSemi-Global-Mating法などを適用することが好ましい。詳細は例えば非特許文献1に開示されている。
The
画像特徴点抽出部11は、ステレオカメラ50が撮像した画像から特徴点(画像特徴点)を抽出する。画像特徴点抽出部11は、撮像した画像毎に特徴点を抽出する。画像特徴点抽出部11は、例えば画像の輝度値を用いて特徴点を抽出したり、画像中の物体の形状等から特徴点を抽出したりする手法があるが、これらに限定されるものではない。
The image feature
特徴点の抽出手法としては、例えばHarrisオペレータやFAST(Features from Accelerated Segment Test)オペレータを用いることができる。Harrisオペレータは、2つのエッジの交点をコーナーとして検出する画像処理である。FASTオペレータは、注目画素の周囲の円周上における16個の画素の画素値が連続してn個以上、注目画素より明るいか暗い場合にコーナーを検出する画像処理である。その他、特徴点の抽出手法として、例えばSIFT(Scale Invariant Feature Transform)特徴量記述子、SURF(Speeded Up Robust Features)特徴量記述子を用いることができる。画像特徴点抽出部11は、画像上の特徴点の座標とその特徴量(画素値、濃度、輝度など)とを画像特徴点情報として記憶部1000に記録する。
As a feature point extraction method, for example, a Harris operator or a FAST (Features from Accelerated Segment Test) operator can be used. The Harris operator is image processing that detects the intersection of two edges as a corner. The FAST operator is image processing that detects a corner when the pixel values of 16 pixels on the circumference around the pixel of interest are n or more consecutively and are brighter or darker than the pixel of interest. In addition, as feature point extraction methods, for example, a SIFT (Scale Invariant Feature Transform) feature descriptor and a SURF (Speeded Up Robust Features) feature descriptor can be used. The image feature
画像特徴点追跡部12は、時系列の(異なるタイミングで撮像された)画像の特徴点を追跡する。画像特徴点追跡部12は、例えば画像特徴点抽出部11が抽出した特徴点を、その特徴点を抽出した画像より後にステレオカメラ50が撮像した画像の中から探索することで各特徴点の追跡を行う。また、画像特徴点追跡部12は、探索結果から追跡の成否(成功、失敗)を判定し、その判定結果に基づき記憶部1000の画像特徴点情報に登録等を行う。すなわち、画像の特徴点ごとに追跡の成否が登録される。
The image feature
画像特徴点追跡部12は、例えば、ブロックマッチングや特徴量等による探索手法を用いて特徴点の追跡を行うことができる。ブロックマッチングを用いて特徴点の追跡を行う場合、画像特徴点追跡部12は、時系列の1つ前の画像の特徴点を含むブロックを取り出し、時系列の1つ後の画像に対しブロックマッチングを行う。
The image feature
また、上述した特徴量を用いた探索を行う場合には、画像特徴点追跡部12は、画像特徴点抽出部11と同様の特徴点記述処理を行い、画像特徴点情報として記録されている特徴点と、相関の高い特徴点を探索する。また、画像特徴点追跡部12は、上述の探索の結果、相関が所定の閾値を超えている場合には追跡成功と判定し、閾値以下の場合には追跡失敗と判定する。
When performing the search using the above-described feature amount, the image feature
環境地図生成部15は、画像特徴点情報、カメラパラメータ、及び、深度計測部13の計測結果から、周囲の環境の三次元地図を生成する。例えば、飛行物体100の初期位置(後述するワールド座標系の三次元座標)は、位置計測装置105により既知である。この初期位置において、カメラパラメータの焦点距離と深度計測部13の結果により特徴点までの距離が分かるので、特徴点の三次元座標は図4のようにして求めることができる。
The environment
図4(a)は、ピンホールカメラモデルにおける画像内の特徴点の座標とワールド座標系の三次元座標の対応を説明する図の一例である。(x,y)は特徴点の画像上の座標で、(X,Y,Z)は特徴点のワールド座標系の三次元座標である。fは焦点距離である。深度計測部13により計測された深度(距離)がZであるので、図4(b)に示すxとX、fとZの比例関係からX=Z・(x-cx)/fが得られる。同様に、Y=Z・(y-cy)/fが得られる。cxとcyは画像中である(画像内の特徴点の座標が左上コーナーを原点としているため)。
FIG. 4A is an example for explaining the correspondence between the feature point coordinates in the image and the three-dimensional coordinates of the world coordinate system in the pinhole camera model. (X, y) are the coordinates of the feature point on the image, and (X, Y, Z) are the three-dimensional coordinates of the feature point in the world coordinate system. f is a focal length. Since the depth (distance) measured by the
したがって、飛行物体100の初期位置とそこで撮像された画像に含まれる三次元点(ワールド座標系における特徴点)の三次元座標が分かることになる。環境地図生成部15はこれにより簡易的な環境地図を生成しておき、後に最適化を行う。
Therefore, the initial position of the flying
図3に戻り、移動体位置計測部16は、環境地図と画像特徴点情報から、自身の位置と姿勢を計測する処理を行う。初期位置から飛行物体100が移動して周囲を撮像した場合、異なる場所から同じ特徴点が撮像される。移動体位置計測部16は、特徴点のワールド座標系における三次元座標をカメラ座標系に変換する回転行列R,平行移動ベクトルtを後述するように求めることで、移動後の位置と姿勢を計測する。そして、この移動後の位置と姿勢において図4のようにして特徴点の三次元座標が分かる。したがって、ワールド座標系において撮像時の飛行物体100の位置と姿勢を常に更新し、かつ、環境地図を生成しながら移動できる。
Returning to FIG. 3, the moving body
許容運動定義部17は、露光時間とフレーム間隔を元に、飛行物体100に許容される又は制限される運動を定義し移動体制御部30に出力する。移動体制御部30は制約の範囲内で飛行物体100の運動を制御する。詳細は後述される。
The allowable
<<記憶部に記憶される情報>>
図5は記憶部1000に記憶される情報を模式的に示す図の一例である。記憶部1000には、環境地図1001、画像特徴点情報1002、カメラパラメータ1003、許容運動情報1004、移動体位置姿勢情報1005、及び、運動パラメータ使用運動1006が記憶される。
<< Information stored in memory >>
FIG. 5 is an example of a diagram schematically showing information stored in the
環境地図1001とは、特徴点の三次元座標が登録された地図である。特徴点ごとに三次元座標が登録されており、飛行物体100が移動した空間の地図が再現される。これにより、建物や壁等の物体、道路等がどこにあるか等の周辺環境の情報が得られる。なお、環境地図は、周囲の静止物体等の2次元の情報であってもよい。
The
画像特徴点情報1002は、画像ごとに以下の情報を有する。
画像上の特徴点の座標
特徴点の特徴量(画素値、濃度、輝度など)
時系列の1つ前の画像からの追跡の成否
カメラパラメータ1003については上述のように主に内部パラメータであり、すくなくとも露光時間とフレーム間隔を含む。露光時間とはCCDやCMOSの撮像素子が被写体光に晒されている時間である。フレーム間隔とは、ステレオカメラ50が1つの画像を撮像してから次の画像を撮像するまでの時間的な間隔である。
The image
Feature quantity (pixel value, density, brightness, etc.) of the coordinate feature point of the feature point on the image
Tracking success / failure from previous image in time series The
許容運動情報1004は、複数の運動パラメータのうち、許容運動定義部17により許容された運動パラメータ又は運動パラメータを特定するための情報である。運動パラメータは、飛行物体100の運動の内容を規定するパラメータである。例えば、剛体の自由度は6つ(ピッチ角θ、ロール角φ、ヨー角ψの回転、X,Y,Z方向の移動)であるが、飛行物体100が例えば一定方向へ移動する場合でも移動体制御部30は複数のモータ204を制御する。このため、飛行物体の運動を制御しやすいように、運動パラメータがいくつか設定されている。運動パラメータは例えば、上昇、下降、右旋回、左旋回、前進、後進、右移動、左移動などであるがこれらに限られない。
The
移動体位置姿勢情報1005は、特徴点が検出された画像を撮像したステレオカメラ50の位置と姿勢に関する情報である。移動体位置姿勢情報1005には撮像した画像ごとに位置と姿勢が登録されている。
The moving body position /
運動パラメータ使用運動1006は各運動パラメータで使用する運動を示す。例えば、上昇であれば、回転は伴わないので、ピッチ角θ、ロール角φ、及び、ヨー角ψが変化する運動は行われない。また、移動を伴わない姿勢変化では、位置が変化しない(後述する平行移動ベクトルがゼロ)。X方向への移動であれば、移動の原理に基づく姿勢の変化とX座標が変化する。運動パラメータ使用運動1006には運動パラメータごとにピッチ角θ、ロール角φ、ヨー角ψ、X座標、Y座標、Z座標が変化するかどうかが対応付けて登録されている。
The exercise
<遺影計測部の処理>
次に、図6、7を用いて、本実施形態における位置姿勢計測処理の一例について、フローチャートを用いて説明する。図6は、本実施形態における位置計測部10の全体的な処理手順を示すフローチャート図の一例である。
<Processing of the remains measurement unit>
Next, an example of the position / orientation measurement process in the present embodiment will be described with reference to FIGS. FIG. 6 is an example of a flowchart illustrating an overall processing procedure of the
ステレオカメラ50は、撮像部制御部14から通知されたカメラパラメータ等により画像を取得する(S10)。ステレオカメラ50は一定の周期で撮像を行い、時系列に画像を生成する。例えば、飛行物体100が移動している場合、ステレオカメラ50は、移動中の時系列な画像を生成する。ステレオカメラ50は、撮像した画像を、画像特徴点抽出部11、画像特徴点追跡部12、及び深度計測部13に出力する。
The
次に、画像特徴点抽出部11は、ステップS10で得られた画像から特徴点を抽出する(S20)。特徴点は記憶部1000の画像特徴点情報1002に記憶される。
Next, the image feature
次に、画像特徴点追跡部12は、連続する画像間において、S20の処理で得られた特徴点を追跡する(S30)。追跡の成否は記憶部1000の画像特徴点情報1002に記憶される。
Next, the image feature
深度計測部13は画像の画素又は画素ブロック毎に深度(距離情報)を計測する(S40)。深度は画像の画素又は画素ブロックに埋め込まれるので画像と共に参照される。あるいは、記憶部1000の画像特徴点情報1002に特徴点と対応付けて記憶してもよい。
The
なお、環境地図生成部15は、図4に示したように、記憶部1000に記憶されている画像の特徴点(座標)と、飛行物体の位置と姿勢及び深度を用いて環境地図を随時作成しておく。
As shown in FIG. 4, the environment
次に、移動体位置計測部16は、飛行物体100(又は、ステレオカメラ50)の位置と姿勢の計測を行う(S50)。位置と姿勢は記憶部1000の移動体位置姿勢情報1005に記憶される。
Next, the moving body
次に、環境地図生成部15は、画像特徴点情報1002、及び、S50の処理で得られる移動体位置姿勢情報1005等を用いて環境地図生成処理を行う(S60)。なお、S60の処理では、環境地図の生成だけでなく、環境地図の更新(例えば、補正、削除、拡張)等を行うこともできる。
Next, the environment
次に、許容運動定義部17はカメラパラメータ1003と移動体位置計測部16が算出する移動速度と回転速度に基づいて、画像における特徴点の移動量を算出し、許容できる運動パラメータを決定する(S70)。
Next, the allowable
<処理の詳細>
以下では、図6のステップS50、S60、S70について詳細に説明する。
<Details of processing>
Hereinafter, steps S50, S60, and S70 of FIG. 6 will be described in detail.
<<S50 位置姿勢計測処理>>
上述した位置計測部10における位置姿勢計測処理(S50)について具体的に説明する。図7は、位置姿勢計測処理を説明するための図の一例である。移動体位置計測部16は、環境地図の生成で得られた特徴点の三次元座標と画像における特徴点の座標の対応関係を用いて位置と姿勢を計測する。
<< S50 Position and orientation measurement process >>
The position / orientation measurement process (S50) in the
飛行物体100(ステレオカメラ50)と共に移動する座標系をカメラ座標系と称し、扱う三次元空間の全体の座標系をワールド座標系と称す。カメラ座標系は例えばカメラの撮像素子の中央を原点とする座標系である。ワールド座標系はGPSで使用されるWGS84座標系、世界測地系又は日本測地系などである。カメラ座標系のZ方向が飛行物体100の正面、X方向が側面、Y方向が下面であるとする。Y軸周りの回転により生じる姿勢はヨー角(ψ)で指定され、Z軸周りの回転により生じる姿勢はロール角(ρ)で指定され、X軸周りの回転により生じる姿勢はピッチ角(θ)で指定される。
A coordinate system that moves together with the flying object 100 (stereo camera 50) is referred to as a camera coordinate system, and an overall coordinate system of the three-dimensional space to be handled is referred to as a world coordinate system. The camera coordinate system is a coordinate system having the origin at the center of the image sensor of the camera, for example. The world coordinate system is a WGS84 coordinate system used in GPS, a world geodetic system, a Japanese geodetic system, or the like. Assume that the Z direction of the camera coordinate system is the front surface of the flying
位置計測部10は、ワールド座標系からカメラ座標系へ変換する回転行列R、平行移動ベクトルtを、位置と姿勢の推定により求める。カメラ座標系とワールド座標系とを変換する行列のうち回転成分の行列を回転行列R、平行移動成分の行列を平行移動ベクトルtと称する。
The
ここで、R、tは、それぞれ以下の(1)式で表される。 Here, R and t are each represented by the following formula (1).
回転行列R、平行移動ベクトルtを求めるために、画像内にある特徴点のワールド座標系での三次元座標Xi w、及び、ステレオカメラ50の透視投影行列を利用する。透視投影行列には以下のカメラパラメータ1003が使用される。
・X方向の焦点距離fx
・Y方向の焦点距離fy
・X方向の画像中心ox
・Y方向の画像中心oy
三次元座標Xi w、透視投影行列は、それぞれ以下に示す(2)式、(3)式で表される。
In order to obtain the rotation matrix R and the translation vector t, the three-dimensional coordinates X i w of the feature points in the image in the world coordinate system and the perspective projection matrix of the
-Focal length fx in the X direction
・ Y direction focal length fy
・ Image center ox in X direction
-Image center oy in the Y direction
The three-dimensional coordinates X i w and the perspective projection matrix are expressed by the following expressions (2) and (3), respectively.
特徴点の三次元座標については、上述した環境地図1001に登録されている。また、透視投影行列Pで使用される焦点距離や画像中心などはカメラパラメータ1003に登録されている。カメラパラメータ1003については、例えばカメラキャリブレーションによって担当者等が予め求めおくことができる。カメラキャリブレーションについては、例えばZhangの手法(Z.Zhang,"A flexible new technique for camera calibration",IEEE Transactions on Pattern Analysis and Machine Intelligence,22(14):1330-1334,2000)等を用いることができるが、これに限定されるものではない。
The three-dimensional coordinates of the feature points are registered in the
また、本実施形態において、移動体位置計測部16は、上述の処理以外に、ステレオカメラ50の歪み補正を行ってもよい。なお、歪みのパラメータについてもZhangの手法で得ることができる。また、歪み補正については、特徴点抽出を行う前に画像自体の歪み補正を行ってもよく、特徴点を抽出した後に、歪みのパラメータ等を用いて補正してもよい。移動体位置計測部16は、上述したいずれかの処理を行った後に、位置と姿勢の推定を行うことで、より高精度にステレオカメラ50又は飛行物体100の位置と姿勢を計測することができる。
Moreover, in this embodiment, the mobile body
移動体位置計測部16は、三次元座標Xi w、及び、透視投影行列Pを利用して、再投影誤差を最小化にするR,t及び三次元点の座標を求める。再投影誤差は、特徴点の三次元座標を画像上に投影した点の座標(再投影座標)と、実際にそれがステレオカメラ50で観測された座標との差分により定義される。ステレオカメラ50で観測された座標とは、画像特徴点情報1002に登録された特徴点の画像内の座標である。
The moving body
再投影座標は、例えば「三次元点のカメラ座標系への変換」及び「仮想スクリーンへの投影」により求めることができる。 The reprojection coordinates can be obtained by, for example, “conversion of a three-dimensional point to a camera coordinate system” and “projection onto a virtual screen”.
まず、三次元点のカメラ座標系への変換は、以下に示す(4)式で求めることができる。(4)式では、カメラ座標系での三次元点の座標をXi cとした。 First, conversion of a three-dimensional point into a camera coordinate system can be obtained by the following equation (4). (4) In the formula, the coordinates of the three-dimensional point in the camera coordinate system and the X i c.
次に、仮想スクリーンへ再投影された三次元点の座標を求める。ここで、再投影点の座標をxi r、yi rとする。xi rは右カメラの画像のx座標、yi rは右カメラの画像のy座標である。再投影点の座標xi r、yi rは以下により求めることができる。 Next, the coordinates of the three-dimensional point re-projected on the virtual screen are obtained. Here, the coordinates of the reprojection point are set to x i r and y i r . x i r is the x coordinate of the right camera image, and y i r is the y coordinate of the right camera image. The coordinates x i r and y i r of the reprojection point can be obtained as follows.
次に、再投影誤差は、(5)式で求めた再投影点の座標、及び、実際にステレオカメラ50で観測された特徴点の座標の2乗誤差の総和として、以下に示す(6)式で定義される。 Next, the reprojection error is shown as the sum of the square error of the coordinates of the reprojection points obtained by the equation (5) and the coordinates of the feature points actually observed by the stereo camera 50 (6) It is defined by an expression.
一般に、非線形最小化問題は算出コストが高く、また適切な初期値を設定しないと適切な解が求まらないという課題がある。非線形最小化問題を解くには、線形化する方法、Levenberg-Marquardt法など利用する方法が知られている。 In general, the nonlinear minimization problem has a problem that the calculation cost is high and an appropriate solution cannot be obtained unless an appropriate initial value is set. In order to solve the nonlinear minimization problem, a linearization method, a Levenberg-Marquardt method or the like is known.
また、ステレオカメラ50が用いられているため、左右の画像を使用して、以下のように再投影誤差を最小化するRとtを求めてもよい。
Further, since the
以上のようにして回転行列R、平行移動ベクトルtを求めることができれば、飛行物体100の位置と姿勢を求めることができる。回転行列Rはワールド座標系に対する回転行列なので、ステレオカメラ50と一体の飛行物体100がワールド座標系に対しどのくらい傾いているかを示す情報となる。
If the rotation matrix R and the translation vector t can be obtained as described above, the position and orientation of the flying
位置については、平行移動ベクトルtがワールド座標系からの平行移動量を表すので、画像内にある特徴点のワールド座標系での三次元座標Xi wに平行移動ベクトルtを適用することで、カメラと共に移動する飛行物体100のワールド座標系における位置を決定できる。
For the position, since the translation vector t represents the translation amount from the world coordinate system, by applying the translation vector t to the three-dimensional coordinates X i w in the world coordinate system of the feature points in the image, The position of the flying
なお、本実施形態では、再投影誤差が最小になる回転行列R、平行移動ベクトルtを求めたが、オブジェクトスペースエラー(Object space error)が最小になる回転行列R、平行移動ベクトルtを求めてもよい。オブジェクトスペースエラーは三次元座標の誤差である。この場合、移動体位置計測部16はオブジェクトスペースエラーが最小になるように回転行列R、平行移動ベクトルtを求める。すなわち、透視投影行列P、回転行列R及び平行移動ベクトルtを画像の特徴点の座標に適用し三次元座標(変換座標)を求め、環境地図の三次元座標との差が最小になるように回転行列R、平行移動ベクトルtを求める。この場合、線形に解が求まるため算出コストを低減できるという利点がある。
In this embodiment, the rotation matrix R and the translation vector t that minimize the reprojection error are obtained. However, the rotation matrix R and the translation vector t that minimize the object space error are obtained. Also good. An object space error is an error in three-dimensional coordinates. In this case, the moving body
<<S60 環境地図生成処理>>
次に、図8を用いて、上述した環境地図生成部15における環境地図生成処理について、フローチャートを用いて説明する。図8は、環境地図生成処理の一例示すフローチャートである。
<< S60 Environmental Map Generation Processing >>
Next, the environment map generation processing in the environment
図8において、環境地図生成部15は、環境地図全体の再投影誤差の最小化処理を行う(S601)。この再投影誤差の最小化処理はバンドル調整ともいう。姿勢(Rj,tj)は1回の撮像で1つ得られる(jは画像の撮像順)。また、各撮像(画像)でn個の三次元点の座標Xiが得られている。したがって、ステップS601の処理では、例えば、過去の撮像で得られたNj個の位置と姿勢(Rj,tj)と各撮像で得られたn個の三次元点の座標Xiをパラメータとして、再投影誤差が最小となる位置と姿勢を求める処理である。この処理は(13)式により表すことができる。
In FIG. 8, the environment
(13)式は、Nj個の撮像と各撮像で得られたn個の三次元点の座標Xiから再投影誤差が最も小さくなるように位置と姿勢(Rj,tj)と座標Xiを求めるので、(13)式を最小化する姿勢(Rj,tj)と三次元点の座標Xiが分かると、環境地図全体の再投影誤差を最小化したことになる。 Expression (13) expresses the position, orientation (Rj, tj), and coordinate X i so that the reprojection error is minimized from the coordinates X i of N j- dimensional images and n three-dimensional points obtained by each imaging. Therefore, if the attitude (Rj, tj) that minimizes the expression (13) and the coordinates X i of the three-dimensional point are known, the reprojection error of the entire environment map is minimized.
次に、環境地図生成部15は、複数回の追跡に成功した特徴点を環境地図1001に登録する(S602)。ステップS602の処理は、例えば三次元再構成処理と、信頼度計測処理とを有する。三次元再構成処理とは、例えば特徴点の三次元座標を求める処理である。三次元座標の算出は、図4と同様に求めることができる。具体的には以下の(14)〜(16)式で求める。カメラ座標系において、画像における特徴点の座標が分かっているので視差Zと焦点距離fから測距情報が得られる((16)式)。測距情報が得られると、ピンホールカメラモデルにより、カメラ座標系のX座標とY座標を求めることができる((14)(15)式)。
Next, the environment
Z:測距情報
xr:特徴点の右カメラの画像上の観測座標[pixel]
yr:特徴点の右カメラの画像上の観測座標[pixel]
b: ステレオカメラ50のベースラインの距離[mm]
d: 視差[pixel]
f: 焦点距離 [mm]
cx:画像のX方向の中心座標 [pixel]
cy:画像のY方向の中心座標 [pixel]
なお、ステレオカメラ50でなく単眼カメラである場合、2つの単眼カメラを用いてDLT(Direct Linear Transformation)法等を用いて三次元位置を求めることができる(DLT法を用いた手法については非特許文献2を参照)。
Z: Ranging information
x r : Observation coordinates on the right camera image of the feature point [pixel]
y r : Observation coordinates on the right camera image of the feature point [pixel]
b: Baseline distance of stereo camera 50 [mm]
d: Parallax [pixel]
f: Focal length [mm]
c x : Center coordinate in the X direction of the image [pixel]
c y : Center coordinates in the Y direction of the image [pixel]
If the camera is a monocular camera instead of the
次に、上述した信頼度計測処理とは、再投影誤差のフィッシャー(Fisher)情報量の逆数を信頼度として、これが閾値より高い三次元点を信頼できる点として環境地図1001に登録する処理である。フィッシャー情報量は、確率変数がパラメータに関して持つ情報量のことである。なお、上述の閾値は、予め設定された値としてもよく、また環境地図1001への追加候補点の全点のうち、上位から所定数の点を環境地図1001に追加するようにしてもよい。上述したような追加する点の抽出条件は、処理毎に設定してもよい。つまり、S602の処理において、環境地図生成部15は、三次元再構成処理に成功し、かつ信頼度計測により信頼度が高い点のみを環境地図1001に登録する。
Next, the reliability measurement process described above is a process of registering in the
次に、環境地図生成部15は、環境地図1001にあるアウトライアの三次元点を削除する(S603)。アウトライアとは統計において他の値から大きく外れた値をいう。ステップS603の処理では、環境地図1001にある全点について、上述した信頼度を算出し、算出した信頼度が閾値より小さい点を環境地図1001から削除する。この閾値についても予め設定された値としてもよく、環境地図1001にある三次元点の全点のうち、下位から所定数の点を環境地図1001から削除してもよい。上述したような削除する点の抽出条件は、処理毎に設定してもよい。
Next, the environment
<<S70 許容運動定義>>
次に、許容運動定義について説明する。許容運動定義とは、飛行物体100の運動を表す複数のパラメータセットのそれぞれについて、その時点で、どのパラメータセットが許容されるかが記述された情報である。
<< S70 Definition of Allowable Motion >>
Next, the allowable motion definition will be described. The permissible motion definition is information describing which parameter set is permitted at each point in time for each of a plurality of parameter sets representing the motion of the flying
図9は、許容運動定義部17が許容運動を定義する手順を示すフローチャート図の一例である。図9の処理は、運動パラメータIDの全てについて繰り返し実行される。ここでは運動パラメータIDの数をn個(0〜n−1)とする。運動パラメータIDは運動パラメータを区別するための識別情報である。識別情報とは、複数の対象からある特定の対象を一意的に区別するために用いられる名称、符号、文字列、数値又はこれらの組み合わせをいう。
FIG. 9 is an example of a flowchart illustrating a procedure in which the allowable
図9の処理では、まず、許容運動定義部17が許容運動判定を行う(S701)。許容運動判定とは、許容できる運動かどうかを判定することをいうが詳細は図10にて説明される。
In the process of FIG. 9, first, the allowable
そして、許容できる運動である場合(S702のYes)、i番目の運動パラメータに関する運動を許容運動として登録する(S703)。 If the motion is acceptable (Yes in S702), the motion related to the i-th motion parameter is registered as the permitted motion (S703).
許容運動定義部17が有限の数の運動パラメータから、特徴点を追跡可能な運動パラメータを選択するので、実用的な時間内に許容できる運動を決定できる。
Since the allowable
図10は、図9の許容運動判定の処理を説明するフローチャート図の一例である。許容運動判定の処理は、ある運動パラメータで飛行物体100が運動した場合に、環境地図に含まれる三次元点のうち最新の画像で撮像された特徴点が、撮像中(露光中)の画像で観測可能かを判定する処理である。露光時間が長ければ撮像中の画像での観測は困難になり、フレーム間隔が長ければ特徴点が大きく移動するので撮像中の画像での観測は困難になる。したがって、撮像中(露光中)の画像において、環境地図に含まれる点のうち最新の画像で撮像された点が撮像中(露光中)の画像でどのくらい移動するかを予測することで、撮像中(露光中)の画像で撮像できるかどうかを判定可能となる。図10では、一定数以上の特徴点が観測可能であると予想される運動パラメータ(運動)を許容運動であると判定する。
FIG. 10 is an example of a flowchart for explaining the allowable motion determination process of FIG. In the allowable motion determination process, when the flying
まず、許容運動定義部17は、記憶部1000から環境地図1001を読み出す(S7701)。
First, the allowable
また、許容運動定義部17は、記憶部1000からカメラパラメータ1003を読み出す(S7702)。カメラパラメータ1003には露光時間とフレーム間隔が含まれている。
Further, the allowable
次に、許容運動定義部17は、最新の画像で撮像された特徴点かつ環境地図に含まれる特徴点の数をM個として、以下の処理を繰り返す。
Next, the allowable
まず、許容運動定義部17は、露光中の特徴点の移動距離を予測する(S7703)。微小時間の間に飛行物体100が、回転行列dRで表される回転を行い、平行移動ベクトルdtで表される移動を行う場合、画像上の移動量vは以下の(17)式で求めることができる。
First, the allowable
回転行列dRは、最新の画像に撮像されている特徴点のワールド座標系の三次元座標をカメラ座標系に変換する回転行列Rの各要素の微小量である。 The rotation matrix dR is a minute amount of each element of the rotation matrix R that converts the three-dimensional coordinates of the feature point captured in the latest image into the camera coordinate system.
まず、回転行列dRと平行移動ベクトルdtは以下のように求める。移動体位置計測部16は位置と姿勢を計測しているため、移動速度と各回転軸の回転速度を算出している。露光時間は既知なので、移動速度で飛行物体100が露光時間、移動する際の平行移動ベクトルdtを算出できる。同様に、各回転軸の回転速度は、ヨー角ψ、ピッチ角θ、ロール角φの時間的変化なので、移動体位置計測部16に取って既知である。各回転軸の回転速度に露光時間を乗じれば露光時間における回転量が分かる。
First, the rotation matrix dR and the translation vector dt are obtained as follows. Since the moving body
そして、許容運動定義部17は、現在着目している運動パラメータで使用する運動を運動パラメータ使用運動1006から読み出す。そして、使用しない運動に対応する回転行列dRと平行移動ベクトルdtの要素をゼロに置き換える。例えば、上昇する場合は回転行列dRの各要素をゼロにしてよい。また、移動を伴わない姿勢変化では、平行移動ベクトルdtの各要素をゼロにしてよい。また、X方向(のみ)への移動であれば、移動の原理に基づく回転角以外は変化しないので、回転行列dRの要素のうち変化しない要素をゼロにしてよい。この場合、Y座標とZ座標は変化しないので、平行移動ベクトルdtうちY座標とZ座標の変化分をゼロにしてよい。このようにして、運動パラメータに応じて回転行列dRと平行移動ベクトルdtを算出できる。
Then, the allowable
許容運動定義部17は、このようにして求めた回転行列dRと平行移動ベクトルdtを(17)式に設定することで、露光時間における飛行物体100の画像上の移動量vを予測できる。
The allowable
なお、回転行列dRと平行移動ベクトルdtの一方だけと露光時間から飛行物体100の画像上の移動量vを予測してもよい。
Note that the movement amount v on the image of the flying
次に、許容運動定義部17は、露光時間における移動距離が閾値L1〔ピクセル数〕より小さいか否かを判定する(S7014)。露光時間中の移動距離が閾値L1以上の場合、被写体ブレ(モーションブラー)が発生する可能性が高いと判定する。すなわち、観測可能な特徴点でないと判定する。理論上は、1ピクセル以上の動きがある場合は被写体ブレが発生する。このため、閾値L1は1ピクセル(画素と画素の1ピッチ)となり、露光時間中の移動距離が1ピクセル未満の場合はステップS7014の判定がYesとなる。若干の被写体ブレを許容して数ピクセルとしてもよい。
Next, the allowable
次に、運動制約定義17部は、フレーム間隔における画像上の飛行物体100の移動距離を予測する(S7015)。フレームとフレームの間における画像上の移動体の運動をベクトルで表すものをオプティカルフローと呼ぶ。本実施形態では、フレーム間のオプティカルフローは、ステップS7013と同様に求められる。すなわち、露光時間の代わりにフレーム間隔を用いればよい。
Next, the
許容運動定義部17は、このようにして求め得た回転行列dRと平行移動ベクトルdtを(17)式に設定することで、フレーム間隔における飛行物体100の画像上の移動距離を予測できる。
The allowable
次に、運動制約定義は、フレーム間の移動距離が閾値L2〔ピクセル数〕より小さいか否かを判定する(S7016)。閾値L2は、特徴点追跡アルゴリズムの性能の限界に考慮して予め定められている。よって、閾値L2は、特徴点の追跡アルゴリズムによって異なることが好ましい。例えば、特徴点追跡アルゴリズムが事前に探索範囲を指定するブロックマッチングである場合、探索範囲を指定する画素サイズが閾値L2となる。特徴点追跡アルゴリズムにPyramidal KLT (又はLucas-Kanade法など)が用いられた場合を説明する。特徴点追跡のPyramidal(ピラミッド)とは、元の画像から解像度の異なる複数の画像を作成してそれぞれから特徴点を探索することをいう。また、KLTは、微小時間においては平行移動のみしか生じず、特徴量の変化がないことを仮定して特徴点を追跡することをいう。Pyramidal KLT (又はLucas-Kanade法など)が用いられた場合、最高レベル(最も解像度が高い)のピラミッド画像においてKLTのコストが算出される局所ウインドウのサイズが閾値L2となる。 Next, in the motion constraint definition, it is determined whether or not the moving distance between frames is smaller than the threshold value L2 [number of pixels] (S7016). The threshold value L2 is determined in advance in consideration of the performance limit of the feature point tracking algorithm. Therefore, the threshold L2 is preferably different depending on the feature point tracking algorithm. For example, when the feature point tracking algorithm is block matching that specifies a search range in advance, the pixel size that specifies the search range is the threshold L2. The case where Pyramidal KLT (or Lucas-Kanade method etc.) is used for the feature point tracking algorithm will be described. “Pyramidal” of feature point tracking refers to creating a plurality of images with different resolutions from an original image and searching for feature points from each of them. Further, KLT refers to tracking feature points on the assumption that only parallel movement occurs in a minute time and there is no change in feature amount. When Pyramidal KLT (or Lucas-Kanade method or the like) is used, the size of the local window in which the cost of KLT is calculated in the highest level (highest resolution) pyramid image is the threshold L2.
また、特徴量記述が用いられた手法の場合、画像のほぼ全体が探索範囲となるので、ステレオカメラ50の撮像範囲を超えない範囲が閾値L2となる。こうすることで、特徴点の追跡の性能を超えない運動で飛行物体100が移動することができる。
In the case of the technique using the feature description, the entire range of the image is the search range, and the range that does not exceed the imaging range of the
なお、フレーム間の移動距離が閾値L2より小さくても、次のフレームで特徴点が画像範囲外に移動してしまうおそれがある。このため、許容運動定義部17は、最新の画像における特徴点の位置にオプティカルフローの移動ベクトルを加えた座標が、縦横ともに0より大きくかつ画像の幅と高さを超えない範囲に収まっているかを判定する。この範囲に収まっていない場合は、フレーム間の移動距離が閾値L2より小さくても観測可能な特徴点としては登録されない。
Even if the moving distance between frames is smaller than the threshold value L2, the feature point may move out of the image range in the next frame. For this reason, the allowable
ステップS7016の判定がYesの場合、許容運動定義部17は特徴点を可観測特徴点として登録する(S7017)。
If the determination in step S7016 is Yes, the allowable
M個の特徴点について可観測特徴点かどうかの判定が行われると処理はステップS7018に進む。 If it is determined whether M feature points are observable feature points, the process advances to step S7018.
許容運動定義部17は、可観測特徴点がK個以上あるか否かを判定する(S7018)。
The allowable
ステップS7018の判定がYesの場合、許容運動定義部17は、図9で着目しているi番目の運動パラメータが許容運動であると判定する(S7019)。許容運動定義部17は、運動パラメータのうち許容運動であると判定された運動パラメータを許容運動マップに登録する。
When the determination in step S7018 is Yes, the allowable
<移動体制御部30の処理>
次に、図11を用いて移動体制御部30の処理について説明する。図11は、移動体制御部30の動作手順を示すフローチャート図の一例である。移動体制御部30は、N個の許容運動マップから最も経路コストが小さい運動を採用する。許容運動マップは、運動パラメータのうち許容運動として登録された運動パラメータである。すなわち、許容運動マップの運動パラメータの運動を飛行物体100が行った場合、次の画像にN個以上の可観測特徴点が得られると判定されている。
<Processing of moving
Next, the process of the mobile
移動体制御部30は、各運動パラメータごとに予定移動先に到達するための経路コストを算出する(S110)。経路コストは時間、燃費、機体への負荷などである。本実施形態では説明の便宜上、経路コストが時間であるとして説明する。
The mobile
図12は、経路コストの算出方法を説明する図の一例である。例えば、飛行物体100が移動する経路にA座標とB座標が登録されている場合、飛行物体100はA座標に到達したが次に予定移動先であるB座標に移動する必要がある。ここで、A座標からB座標に移動する運動パラメータが複数ある場合がある。通常は、直線で到達できる経路cを移動する運動パラメータを採用するが、本実施形態では、許容運動定義部17が経路cを移動する運動パラメータを許容しないことができる。したがって、本実施形態の飛行物体100は、位置の推定を継続することができる。
FIG. 12 is an example of a diagram illustrating a route cost calculation method. For example, when the A coordinate and the B coordinate are registered in the path along which the flying
この場合、移動体制御部30はB座標に移動するため経路aや経路bを通過する別の運動パラメータで経路コストを算出する(S110)。
In this case, since the moving
そして、許容されている全ての運動パラメータで経路コストを算出すると、移動体制御部30は最も経路コストが低い運動パラメータを採用する(S120)。
When the path cost is calculated with all the permitted motion parameters, the
したがって、許容運動定義部17で定義された許容運動の運動パラメータのいずれかのうち、最も低い経路コストで移動する運動パラメータを採用できる。例えば、最も短い時間で移動する運動パラメータを採用できる。
Therefore, the motion parameter that moves at the lowest path cost among the motion parameters of the allowable motion defined by the allowable
なお、経路はA*アルゴリズムやダイクストラ法などを用いて自動生成してもよいし、ユーザが移動体に記録させたものでも良い。 The route may be automatically generated using an A * algorithm or Dijkstra method, or may be recorded by a user on a moving body.
以上説明したように、本実施形態の飛行物体100は、画像の撮像条件に基づいて、被写体ブレが起こらず、かつ、フレーム間で追跡が可能な特徴点が閾値以上の画像が撮像される場合に、着目している運動パラメータの運動が可能であると判定する。したがって、本実施形態の飛行物体100は位置と姿勢を継続して検出しやすい。また、位置と姿勢を継続して検出しやすい運動パラメータのうち、最も低い経路コストで移動する運動パラメータを採用するので、移動に必要な時間の増大を最小限に抑制できる。
As described above, the flying
<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
The best mode for carrying out the present invention has been described above with reference to the embodiments. However, the present invention is not limited to these embodiments, and various modifications can be made without departing from the scope of the present invention. And substitutions can be added.
本実施形態では移動体として飛行物体100を例に説明したが、車両、移動式ロボット、船、潜水艦等の各種移動体で適用することができる。また、移動体に搭載されたスマートフォンなどの情報処理装置に適用することができる。
In the present embodiment, the flying
また、図10などの構成例は、飛行物体100による処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。飛行物体100の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。
In addition, the configuration example in FIG. 10 and the like is divided according to main functions in order to facilitate understanding of processing by the flying
また、上述した各実施形態で述べたフローチャートは、矛盾の無い限り順序を入れ替えてもよい。 Further, the order of the flowcharts described in the above embodiments may be changed as long as there is no contradiction.
なお、ステレオカメラ50は撮像装置の一例であり、移動体位置計測部16は位置検出部の一例であり、カメラパラメータは撮像条件の一例である。位置計測部10は位置推定装置の一例であり、位置計測部10が行う処理や方法は位置推定方法の一例である。
The
10 位置計測部
11 画像特徴点抽出部
12 画像特徴点追跡部
13 深度計測部
14 撮像部制御部
15 環境地図生成部
16 移動体位置計測部
17 許容運動定義部
30 移動体制御部
50 ステレオカメラ
100 飛行物体
DESCRIPTION OF
Claims (10)
前記撮像装置が撮像した前記画像から特徴点を抽出する画像特徴点抽出部と、
前記画像の前記特徴点を前記撮像装置が撮像した前記画像において追跡する画像特徴点追跡部と、
前記移動体の三次元座標、前記距離情報及び前記撮像装置のカメラパラメータを用いて、前記特徴点の三次元座標を含む前記地図を生成する環境地図生成部と、
前記特徴点の前記三次元座標を前記画像に投影した場合の投影座標と前記特徴点の座標の誤差、又は、前記特徴点の座標を前記三次元座標に変換した場合の変換座標と前記特徴点の前記三次元座標の誤差がより小さくなる前記移動体の位置と姿勢を検出する位置検出部と、
前記位置検出部が前記位置に基づき検出する前記移動体の移動速度又は前記姿勢に基づき検出する前記移動体の回転速度の少なくともいずれかと、前記画像の撮像条件に基づいて、前記特徴点を追跡可能な前記画像を撮像できる前記移動体の運動を定義する許容運動定義部と、を有する位置推定装置。 A position estimation device that estimates a position of a moving body from a surrounding image captured by an imaging device capable of detecting distance information to a subject and creates a surrounding map,
An image feature point extraction unit that extracts a feature point from the image captured by the imaging device;
An image feature point tracking unit that tracks the feature point of the image in the image captured by the imaging device;
An environment map generation unit that generates the map including the three-dimensional coordinates of the feature points using the three-dimensional coordinates of the moving body, the distance information, and camera parameters of the imaging device;
An error between the projected coordinate and the feature point coordinate when the three-dimensional coordinate of the feature point is projected onto the image, or the converted coordinate and the feature point when the feature point coordinate is converted into the three-dimensional coordinate. A position detection unit for detecting the position and orientation of the moving body in which the error of the three-dimensional coordinates is smaller;
The feature point can be tracked based on at least one of the moving speed of the moving body detected based on the position or the rotational speed of the moving body detected based on the posture, and the imaging condition of the image. And a permissible motion defining unit that defines motion of the moving body capable of capturing the image.
前記許容運動定義部は、前記移動体が前記移動速度及び前記回転速度で運動し、前記撮像装置が前記露光時間で前記画像を撮像した場合に、前記特徴点を追跡可能な前記運動を定義する請求項1に記載の位置推定装置。 The imaging condition includes information on exposure time,
The allowable motion defining unit defines the motion that can track the feature point when the moving body moves at the moving speed and the rotational speed and the imaging apparatus captures the image during the exposure time. The position estimation apparatus according to claim 1.
前記許容運動定義部は、前記移動体が前記移動速度及び前記回転速度で運動し、前記撮像装置が前記撮像間隔で次の前記画像を撮像した場合に、前記特徴点を追跡可能な前記運動を定義する請求項1〜3のいずれか1項に記載の位置推定装置。 The imaging condition includes information regarding an imaging interval,
The allowable motion defining unit is configured to perform the motion that can track the feature point when the moving body moves at the moving speed and the rotational speed and the imaging apparatus captures the next image at the imaging interval. The position estimation apparatus according to claim 1, wherein the position estimation apparatus is defined.
前記移動ベクトルの長さが閾値よりも小さい場合に、前記特徴点を追跡可能であると判定する請求項4に記載の位置推定装置。 The allowable motion definition unit calculates a movement vector of the feature point in the imaging interval;
The position estimation apparatus according to claim 4, wherein the feature point is determined to be traceable when a length of the movement vector is smaller than a threshold value.
前記許容運動定義部は前記移動ベクトルで移動した前記特徴点が前記探索範囲に含まれる場合、前記特徴点を追跡可能であると判定する請求項5に記載の位置推定装置。 The image feature point tracking unit searches for the feature point only in a preset search range,
The position estimation apparatus according to claim 5, wherein the allowable motion definition unit determines that the feature point can be traced when the feature point moved by the movement vector is included in the search range.
前記許容運動定義部は、前記移動ベクトルで移動した前記特徴点がPyramidal KLTで利用する最高レベルのピラミッド画像におけるKLTの局所ウインドウ内にある場合、前記特徴点を追跡可能であると判定する請求項6に記載の位置推定装置。 The image feature point tracking unit tracks the feature point using Pyramidal KLT,
The allowable motion defining unit determines that the feature point is traceable when the feature point moved by the movement vector is within a local window of the KLT in the highest level pyramid image used in Pyramidal KLT. 6. The position estimation device according to 6.
前記許容運動定義部は、前記運動パラメータごとに前記自由度を参照して、前記運動パラメータが規定する運動が、前記特徴点を追跡可能な前記画像を撮像できる運動であるかどうかを判定する請求項1〜7のいずれか1項に記載の位置推定装置。 The allowable motion definition unit reads a plurality of motion parameters that define motions that can be adopted by the mobile body and variable degrees of freedom associated with the motion parameters from the storage unit,
The permissible motion definition unit refers to the degree of freedom for each motion parameter, and determines whether the motion specified by the motion parameter is a motion that can capture the image capable of tracking the feature point. Item 8. The position estimation device according to any one of Items 1 to 7.
前記撮像装置が撮像した前記画像から特徴点を抽出する画像特徴点抽出部と、
前記画像の前記特徴点を前記撮像装置が撮像した前記画像において追跡する画像特徴点追跡部と、
前記移動体の三次元座標、前記距離情報及び前記撮像装置のカメラパラメータを用いて、前記特徴点の三次元座標を含む前記地図を生成する環境地図生成部と、
前記三次元座標を前記画像に投影した場合の投影座標と前記特徴点の座標の誤差、又は、前記特徴点の座標を前記三次元座標に変換した場合の変換座標と前記三次元座標の誤差がより小さくなる前記移動体の位置と姿勢を検出する位置検出部と、
前記位置検出部が前記位置に基づき検出する前記移動体の移動速度又は前記姿勢に基づき検出する前記移動体の回転速度の少なくともいずれかと、前記画像の撮像条件に基づいて、前記特徴点を追跡可能な前記画像を撮像できる運動を定義する許容運動定義部、として機能させるためのプログラム。 An information processing apparatus that estimates a position of a moving body from a surrounding image captured by an imaging apparatus capable of detecting distance information to a subject and creates a surrounding map,
An image feature point extraction unit that extracts a feature point from the image captured by the imaging device;
An image feature point tracking unit that tracks the feature point of the image in the image captured by the imaging device;
An environment map generation unit that generates the map including the three-dimensional coordinates of the feature points using the three-dimensional coordinates of the moving body, the distance information, and camera parameters of the imaging device;
An error between the projected coordinates when the three-dimensional coordinates are projected onto the image and the coordinates of the feature points, or an error between the converted coordinates and the three-dimensional coordinates when the coordinates of the feature points are converted into the three-dimensional coordinates. A position detection unit for detecting the position and posture of the moving body that is smaller;
The feature point can be tracked based on at least one of the moving speed of the moving body detected based on the position or the rotational speed of the moving body detected based on the posture, and the imaging condition of the image. A program for functioning as an allowable motion definition unit that defines a motion capable of capturing the image.
画像特徴点抽出部が、前記撮像装置が撮像した前記画像から特徴点を抽出するステップと、
画像特徴点追跡部が、前記画像の前記特徴点を前記撮像装置が撮像した前記画像において追跡するステップと、
環境地図生成部が、前記移動体の三次元座標、前記距離情報及び前記撮像装置のカメラパラメータを用いて、前記特徴点の三次元座標を含む前記地図を生成するステップと、
位置検出部が、前記三次元座標を前記画像に投影した場合の投影座標と前記特徴点の座標の誤差、又は、前記特徴点の座標を前記三次元座標に変換した場合の変換座標と前記三次元座標の誤差がより小さくなる前記移動体の位置と姿勢を検出するステップと、
前記位置検出部が前記位置に基づき検出する前記移動体の移動速度又は前記姿勢に基づき検出する前記移動体の回転速度の少なくともいずれかと、前記画像の撮像条件に基づいて、許容運動定義部が、前記特徴点を追跡可能な前記画像を撮像できる運動を定義するステップと、を有する位置推定方法。 A position estimation method for a position estimation apparatus that estimates a position of a moving body from a surrounding image captured by an imaging apparatus capable of detecting distance information to a subject and creates a map of the surrounding area,
An image feature point extraction unit extracting a feature point from the image captured by the imaging device;
An image feature point tracking unit tracking the feature point of the image in the image captured by the imaging device;
An environment map generating unit generating the map including the three-dimensional coordinates of the feature points using the three-dimensional coordinates of the moving object, the distance information, and the camera parameters of the imaging device;
An error between the projection coordinates when the three-dimensional coordinates are projected on the image and the coordinates of the feature points, or the converted coordinates and the cubic when the coordinates of the feature points are converted into the three-dimensional coordinates. Detecting the position and orientation of the moving body in which the error of the original coordinates becomes smaller;
Based on at least one of the moving speed of the moving body detected by the position detecting unit based on the position or the rotational speed of the moving body detected based on the posture, and the imaging condition of the image, an allowable motion defining unit, Defining a motion capable of capturing the image capable of tracking the feature point.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016013860A JP6658001B2 (en) | 2016-01-27 | 2016-01-27 | Position estimation device, program, position estimation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016013860A JP6658001B2 (en) | 2016-01-27 | 2016-01-27 | Position estimation device, program, position estimation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017134617A true JP2017134617A (en) | 2017-08-03 |
JP6658001B2 JP6658001B2 (en) | 2020-03-04 |
Family
ID=59504968
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016013860A Active JP6658001B2 (en) | 2016-01-27 | 2016-01-27 | Position estimation device, program, position estimation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6658001B2 (en) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109325967A (en) * | 2018-09-14 | 2019-02-12 | 腾讯科技(深圳)有限公司 | Method for tracking target, device, medium and equipment |
CN109753076A (en) * | 2017-11-03 | 2019-05-14 | 南京奇蛙智能科技有限公司 | A kind of unmanned plane vision tracing implementing method |
WO2019093282A1 (en) * | 2017-11-08 | 2019-05-16 | 川崎重工業株式会社 | Environment acquisition system |
WO2019117078A1 (en) * | 2017-12-15 | 2019-06-20 | 東芝ライフスタイル株式会社 | Electric cleaner |
KR20190124515A (en) * | 2018-04-26 | 2019-11-05 | 한국조선해양 주식회사 | 3d map generating system |
CN110750094A (en) * | 2018-07-23 | 2020-02-04 | 杭州海康威视数字技术股份有限公司 | Method, device and system for determining pose change information of movable equipment |
JP2020064339A (en) * | 2018-10-15 | 2020-04-23 | 株式会社Uei | Map creation apparatus, robot, map creation method and map creation program |
JPWO2019111701A1 (en) * | 2017-12-05 | 2020-11-26 | ソニー株式会社 | Control devices, control methods, programs, and mobiles |
CN112417924A (en) * | 2019-08-20 | 2021-02-26 | 北京地平线机器人技术研发有限公司 | Method and device for acquiring space coordinates of marker post |
EP3761629A4 (en) * | 2018-02-26 | 2021-04-21 | Sony Corporation | Information processing device, information processing method, and program |
KR20210057964A (en) * | 2019-11-13 | 2021-05-24 | 울산대학교 산학협력단 | Method and system for determining location information of moving object with photography apparatus |
JP2021099384A (en) * | 2019-12-19 | 2021-07-01 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
JP2021518558A (en) * | 2018-03-19 | 2021-08-02 | アウトサイト | Methods and systems for identifying the material composition of objects |
WO2023030062A1 (en) * | 2021-09-01 | 2023-03-09 | 中移(成都)信息通信科技有限公司 | Flight control method and apparatus for unmanned aerial vehicle, and device, medium and program |
JP7500515B2 (en) | 2021-09-03 | 2024-06-17 | 株式会社東芝 | Processing device related to inspection of subject, inspection system for subject, processing method related to inspection of subject, and processing program related to inspection of subject |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011209203A (en) * | 2010-03-30 | 2011-10-20 | Sony Corp | Self-position estimating device and self-position estimating method |
WO2015049717A1 (en) * | 2013-10-01 | 2015-04-09 | 株式会社日立製作所 | Device for estimating position of moving body and method for estimating position of moving body |
JP2016111414A (en) * | 2014-12-03 | 2016-06-20 | コニカミノルタ株式会社 | Flying body position detection system and flying body |
-
2016
- 2016-01-27 JP JP2016013860A patent/JP6658001B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011209203A (en) * | 2010-03-30 | 2011-10-20 | Sony Corp | Self-position estimating device and self-position estimating method |
WO2015049717A1 (en) * | 2013-10-01 | 2015-04-09 | 株式会社日立製作所 | Device for estimating position of moving body and method for estimating position of moving body |
JP2016111414A (en) * | 2014-12-03 | 2016-06-20 | コニカミノルタ株式会社 | Flying body position detection system and flying body |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109753076A (en) * | 2017-11-03 | 2019-05-14 | 南京奇蛙智能科技有限公司 | A kind of unmanned plane vision tracing implementing method |
CN109753076B (en) * | 2017-11-03 | 2022-01-11 | 南京奇蛙智能科技有限公司 | Unmanned aerial vehicle visual tracking implementation method |
WO2019093282A1 (en) * | 2017-11-08 | 2019-05-16 | 川崎重工業株式会社 | Environment acquisition system |
JP2019086419A (en) * | 2017-11-08 | 2019-06-06 | 川崎重工業株式会社 | Environment acquisition system |
TWI687870B (en) * | 2017-11-08 | 2020-03-11 | 日商川崎重工業股份有限公司 | Environment acquisition system and environment acquisition method |
CN111417836A (en) * | 2017-11-08 | 2020-07-14 | 川崎重工业株式会社 | Environment acquisition system |
JPWO2019111701A1 (en) * | 2017-12-05 | 2020-11-26 | ソニー株式会社 | Control devices, control methods, programs, and mobiles |
US11592829B2 (en) | 2017-12-05 | 2023-02-28 | Sony Corporation | Control device and control method, program, and mobile object |
JP7180612B2 (en) | 2017-12-05 | 2022-11-30 | ソニーグループ株式会社 | CONTROL DEVICE, CONTROL METHOD, PROGRAM, AND MOVING OBJECT |
WO2019117078A1 (en) * | 2017-12-15 | 2019-06-20 | 東芝ライフスタイル株式会社 | Electric cleaner |
EP3761629A4 (en) * | 2018-02-26 | 2021-04-21 | Sony Corporation | Information processing device, information processing method, and program |
US11430204B2 (en) | 2018-02-26 | 2022-08-30 | Sony Corporation | Information processing device, information processing method, and program |
JP2021518558A (en) * | 2018-03-19 | 2021-08-02 | アウトサイト | Methods and systems for identifying the material composition of objects |
KR102618865B1 (en) * | 2018-04-26 | 2023-12-28 | 에이치디한국조선해양 주식회사 | 3d map generating system |
KR20190124515A (en) * | 2018-04-26 | 2019-11-05 | 한국조선해양 주식회사 | 3d map generating system |
CN110750094A (en) * | 2018-07-23 | 2020-02-04 | 杭州海康威视数字技术股份有限公司 | Method, device and system for determining pose change information of movable equipment |
CN109325967A (en) * | 2018-09-14 | 2019-02-12 | 腾讯科技(深圳)有限公司 | Method for tracking target, device, medium and equipment |
CN109325967B (en) * | 2018-09-14 | 2023-04-07 | 腾讯科技(深圳)有限公司 | Target tracking method, device, medium, and apparatus |
US12106491B2 (en) | 2018-09-14 | 2024-10-01 | Tencent Technology (Shenzhen) Company Limited | Target tracking method and apparatus, medium, and device |
JP2020064339A (en) * | 2018-10-15 | 2020-04-23 | 株式会社Uei | Map creation apparatus, robot, map creation method and map creation program |
CN112417924A (en) * | 2019-08-20 | 2021-02-26 | 北京地平线机器人技术研发有限公司 | Method and device for acquiring space coordinates of marker post |
KR102473202B1 (en) * | 2019-11-13 | 2022-12-02 | 울산대학교 산학협력단 | Method and system for determining location information of moving object with photography apparatus |
KR20210057964A (en) * | 2019-11-13 | 2021-05-24 | 울산대학교 산학협력단 | Method and system for determining location information of moving object with photography apparatus |
JP2021099384A (en) * | 2019-12-19 | 2021-07-01 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
JP7547045B2 (en) | 2019-12-19 | 2024-09-09 | キヤノン株式会社 | Information processing device, information processing method, and program |
WO2023030062A1 (en) * | 2021-09-01 | 2023-03-09 | 中移(成都)信息通信科技有限公司 | Flight control method and apparatus for unmanned aerial vehicle, and device, medium and program |
JP7500515B2 (en) | 2021-09-03 | 2024-06-17 | 株式会社東芝 | Processing device related to inspection of subject, inspection system for subject, processing method related to inspection of subject, and processing program related to inspection of subject |
Also Published As
Publication number | Publication date |
---|---|
JP6658001B2 (en) | 2020-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6658001B2 (en) | Position estimation device, program, position estimation method | |
CN112567201B (en) | Distance measuring method and device | |
US11127203B2 (en) | Leveraging crowdsourced data for localization and mapping within an environment | |
US9996936B2 (en) | Predictor-corrector based pose detection | |
JP6107081B2 (en) | Image processing apparatus, image processing method, and program | |
CN109461208B (en) | Three-dimensional map processing method, device, medium and computing equipment | |
US10157478B2 (en) | Enabling use of three-dimensional locations of features with two-dimensional images | |
CN112258567A (en) | Visual positioning method and device for object grabbing point, storage medium and electronic equipment | |
KR20150144729A (en) | Apparatus for recognizing location mobile robot using key point based on gradient and method thereof | |
JP2004213332A (en) | Calibration device, calibration method, program for calibration, and calibration mending tool | |
JP2013187862A (en) | Image data processing device, image data processing method, and program for image data processing | |
CN105324792B (en) | For estimating method of the moving element relative to the angular displacement of reference direction | |
JP2020042819A (en) | Method and apparatus for determining motion vector field, device, computer-readable storage medium, and vehicle | |
US11504608B2 (en) | 6DoF inside-out tracking game controller | |
JP7183085B2 (en) | Mobile behavior registration device, mobile behavior registration system, mobile behavior registration method, mobile behavior registration program, and mobile behavior determination device | |
US10977810B2 (en) | Camera motion estimation | |
KR102618069B1 (en) | Method and apparatus for analyasing indoor building disaster information using point cloud data and visual information from ground survey robot | |
JP2018173882A (en) | Information processing device, method, and program | |
CN110503684A (en) | Camera position and orientation estimation method and device | |
WO2018134866A1 (en) | Camera calibration device | |
JP2017182564A (en) | Positioning device, positioning method, and positioning computer program | |
WO2019186677A1 (en) | Robot position/posture estimation and 3d measurement device | |
KR101863647B1 (en) | Hypothetical line mapping and verification for 3D maps | |
JP5230354B2 (en) | POSITIONING DEVICE AND CHANGED BUILDING DETECTION DEVICE | |
JP6603993B2 (en) | Image processing apparatus, image processing method, image processing system, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200120 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6658001 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |