JP2015210677A - 情報処理装置および情報処理方法 - Google Patents

情報処理装置および情報処理方法 Download PDF

Info

Publication number
JP2015210677A
JP2015210677A JP2014091950A JP2014091950A JP2015210677A JP 2015210677 A JP2015210677 A JP 2015210677A JP 2014091950 A JP2014091950 A JP 2014091950A JP 2014091950 A JP2014091950 A JP 2014091950A JP 2015210677 A JP2015210677 A JP 2015210677A
Authority
JP
Japan
Prior art keywords
processing
feature points
image frame
processing module
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014091950A
Other languages
English (en)
Other versions
JP6441586B2 (ja
Inventor
領 此村
Ryo Konomura
領 此村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
Original Assignee
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC filed Critical University of Tokyo NUC
Priority to JP2014091950A priority Critical patent/JP6441586B2/ja
Publication of JP2015210677A publication Critical patent/JP2015210677A/ja
Application granted granted Critical
Publication of JP6441586B2 publication Critical patent/JP6441586B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】限られたリソースでリアルタイム処理により位置推定を行うことのできる情報処理装置及び情報処理方法を提供する。
【解決手段】一定のレートで画像フレームのデータ入力を受ける入力処理21、入力された画像フレームに対して、複数の特徴点を並列処理により検出する特徴点検出処理23、及び複数の特徴点の特徴をそれぞれ記述する複数の記述子を並列処理により生成する記述子生成処理25を、クロック単位での制御により一定速度で実行可能なFPGA20と、FPGA20で検出及び記述された各画像フレームの複数の特徴点に対して、画像フレーム間で対応関係を求める特徴点対応付け処理35、及び対応関係に基づいて位置推定を行うバンドル調整処理39を実行可能なMCU30とを備える。
【選択図】図1

Description

本発明に係るいくつかの態様は、情報処理装置および情報処理方法に関する。
近年、例えばカメラ(画像センサ)等で撮影した映像等をリアルタイムで処理することにより、位置推定等の各種処理をリアルタイムで行うことが考えられている。特に、UAV(Unmanned Aerial Vehicle)の中でも特にマルチコプターロボット等の飛行ロボットは、地上ロボットとは異なり車輪のオドメトリ情報などの外部の固定物の接触を利用することができないため、自己位置推定を行うためには非接触的手法を用いる必要がある。よって、飛行ロボットに関しては、画像処理による自己位置推定が用いられることが多い。
なお、自己位置推定のためには、例えばカメラで撮影した画像から特徴点を検出したり特徴点を記述する記述子を生成したりする処理が必要となることがある。特徴点を検出する手法としては、例えばFAST(非特許文献1参照。)と呼ばれる手法があり、特徴点を記述する記述子を生成する手法としては、例えばBRIEF(非特許文献2参照。)と呼ばれる手法がある。
飛行ロボットに対して画像処理による自己位置推定を行う場合には、通常、機体上の計算機のみではリソースが不足するため、地上局の計算機を必要とする場合が多い。これは、オンライン画像処理を中心とした計算と、周期的な姿勢推定と制御を機体上の計算機でリアルタイムにより行うことが難しいため、無線で地上局の計算機と通信した上で、このような演算量の多い計算を地上局側で行う手法である。
E. Rosten, R. Porter, and T. Drummond. "Faster and better: A machine learning approach to corner detection." IEEE Trans. Pattern Analysis and Machine Intelligence, 32:105-119, 2010. M. Calonder, V. Lepetit, C. Strecha, and P. Fua. "Brief: Binary robust independent elementary features." In European Conference on Computer Vision, 2010.
しかしながら、地上機を用いる場合には、飛行ロボットの活躍範囲が無線通信のためのインフラ整備が整っている範囲に限られてしまう。また、飛行ロボットの数が増えればそれに比例して地上機の数も増やさなければならない。もし、姿勢制御等の様々な処理を全て機体上で行う、いわゆるオンボード処理に特化した飛行ロボットシステムができれば、地上機に頼ることなく、ロボットが自身で判断し行動することによって、通信距離などに束縛されない広範囲の環境でミッションを行うことが可能となる。
本発明のいくつかの態様は前述の課題に鑑みてなされたものであり、限られたリソースでリアルタイム処理により位置推定を行うことのできる情報処理装置及び情報処理方法を提供することを目的の1つとする。
本発明の所定の態様に係る情報処理装置は、一定のレートで画像フレームのデータ入力を受ける入力処理、入力された画像フレームに対して、複数の特徴点を並列処理により検出する検出処理、及び前記複数の特徴点の特徴をそれぞれ記述する複数の記述子を並列処理により生成する記述処理を、クロック単位での制御により一定速度で実行可能な第1の計算処理モジュールと、前記第1の計算処理モジュールで検出及び記述された各画像フレームの前記複数の特徴点に対して、画像フレーム間で対応関係を求める処理、及び前記対応関係に基づいて位置推定を行う位置推定処理を実行可能な第2の計算処理モジュールとを備える。
本発明の所定の態様に係る情報処理方法は、一定のレートで画像フレームのデータ入力を受ける入力処理、入力された画像フレームに対して、複数の特徴点を並列処理により検出する検出処理、及び前記複数の特徴点の特徴をそれぞれ記述する複数の記述子を並列処理により生成する記述処理を、クロック単位での制御により一定速度で実行可能な第1の計算処理モジュールに実行させると共に、出及び記述された各画像フレームの特徴点に対して、画像フレーム間で対応関係を求める処理、及び前記対応関係に基づいて位置推定を行う位置推定処理を実行可能な第2の計算処理モジュールに実行させる。
なお、本発明において、「部」や「手段」、「装置」、「システム」とは、単に物理的手段を意味するものではなく、その「部」や「手段」、「装置」、「システム」が有する機能をソフトウェアによって実現する場合も含む。また、1つの「部」や「手段」、「装置」、「システム」が有する機能が2つ以上の物理的手段や装置により実現されても、2つ以上の「部」や「手段」、「装置」、「システム」の機能が1つの物理的手段や装置により実現されても良い。
本発明の実施形態に係る情報処理装置の構成例を示すブロック図である。 特徴点検出処理の具体例を説明するための図である。 特徴点検出処理及び記述子生成処理の具体例を説明するための図である。
以下に本発明の実施形態を説明する。以下の説明及び参照する図面の記載において、同一又は類似の構成には、それぞれ同一又は類似の符号が付されている。
本実施形態では、単眼カメラを用いた自己位置推定と全自動飛行動作を、地上機を必要としないオンボード処理で実現する、手のひらサイズの飛行ロボットである情報処理装置について説明する。なお、情報処理装置の実現方法は、本実施形態に係る手のひらサイズの飛行ロボットに限られるものではなく、本発明の要旨を逸脱しない範囲内において、他の様々な形で実施することができる。本実施形態はあらゆる点で単なる例示にすぎず、具体的構成やサイズなどについて限定的に解釈されるものではない。
(1 機能構成の概要)
本実施形態にかかる情報処理装置では、このようなオンボード処理を実現するために、大きく2つの工夫をすることができる。1つ目は、FPGA(Field−Programmable Gate Array)とMCU(Micro−Control Unit)とを組合せて用いることにより、小型ながら強力な情報処理性能を持った電子回路を実現することである。2つ目は、自機の制御とミッションの遂行という2つの要求仕様をリソースの限られた手のひらサイズの飛行ロボットである情報処理装置上で実現するために、信号処理部分を中心に並列化及びカスケード化することにより、モジュール同士のメモリ転送のコストなどを極力小さく抑えた、バスレベルからソフトウェアを設計している点である。
図1に、本実施形態に係る飛行ロボットである情報処理装置1の機能構成の概要を示す機能ブロック図を示す。図1における情報処理装置1では、オンボード自己位置推定機能と、目標位置へのトラッキング機能とが実現されるものとする。図1に示すように、本実施形態に係る情報処理装置1は、イメージセンサ10と、FPGA20と、MCU30と、慣性計測装置(以下、IMUとも呼ぶ。)40と、モータ50とを含む。
イメージセンサ10は、単眼カメラとして機能するセンサであり、一定のレートで撮像した画像フレームを出力する。イメージセンサ10を実現可能なスペックは種々考えることができるが、ここでは、画像フレームはサイズが160pixel×120pixelのカラーYUV422フォーマット、画像フレームの更新速度を30fps(frames per second)、動作周波数25MHzのものを用いることができる。例えば、CMOSカメラを用いることができる。
IMU40には、例えば3軸加速度センサ、3軸ジャイロセンサ、3軸コンパスセンサ(磁気センサ)を含むことができ、これらのセンサで検出された値を用いて、情報処理装置1の機体のロール、ピッチ、ヨー角度を計算すること(センサフュージョン)を可能とする。IMU40に含まれる各種センサには種々のセンサを用いることが考えられるが、例えば、3軸加速度センサには、Kionix社のKXRB5−2050を、3軸ジャイロセンサにはSTMicroelectronics社のLPR4150ALとLY3100ALHの組合せを、3軸コンパスセンサにはHoneyWell社のHMC5883Lを、それぞれ用いることができる。
モータ50は、飛行ロボットである情報処理装置1を飛行させるための図示しないプロペラを回転させるためのものであり、例えば情報処理装置1が4つのプロペラを有するクアッドコプタである場合には、情報処理装置1は4つのモータを有する。モータには大きく分けてブラシ型とブラシレス型とがあり、モータ50にはいずれを用いることもできるが、ここでは、ギアを使った減速機構を用いずにKV値(電圧あたりの回転速度)の比較的小さなブラシレスモータを用いる。モータ50として用いることのできるブラシレスモータは種々考えられるが、例えば、hexTronik社製のブラシレスモータHXM2000をモータ50として用い、図示しない4インチのプロペラを直接駆動することが考えられる。
情報処理装置1に組まれる各構成のうち、FPGA20とMCU30とが、能動的に計算処理を行う計算モジュールである。なお、FPGA20とMCU30とは、物理的に異なる処理チップ(プロセッサ)として実現することもできるし、物理的に1つの処理チップ上に実現することもできる。
ここで、イメージセンサ10から入力される画像フレームに対する処理を行う場合、画像フレームをDDRSDRAM等のメモリに一時保存した上で、当該画像フレームに対して、複数の特徴点を検出する特徴点検出処理23や各特徴点の記述子を生成する記述子生成処理25(それぞれ後述)等を含む、必要な計算処理の大半をMCU30で行うことも考えられる。しかしながら、画像フレームをメモリに記憶しようとすると、カメラ信号の同期を待つ処理などのために遅延が発生する。また、大半の処理を単一のプロセッサであるMCU30上で実現しようとすることも、演算時間の遅延につながる。このような処理時間の遅延はリアルタイムで動作する必要のある飛行ロボットの実現において致命的である。
そこで本実施形態に係る情報処理装置1では、DDRSDRAMへの画像フレームの保存処理を行わず、また、FPGA20上で特徴点検出処理23及び記述子生成処理25を行う。
(2 FPGA20及びMCU30における処理)
(2.1 概要)
以下、FPGA20及びMCU30における処理の概要を説明する。イメージセンサ10からの画像フレームはFPGA20の入力処理21により一定のレート(ここでは30fps)でストリーム入力される。FPGA20は入力される各画像フレームに対して、複数の特徴点を検出する特徴点検出処理23、及び各特徴点の記述子を生成する記述子生成処理25を並列的に行う。ここで、本実施形態においては、特徴点検出処理23にはFASTアルゴリズムが用いられ、特徴点の記述子(以下、BRIEF記述子とも呼ぶ。)の生成にはBRIEFアルゴリズムが用いられる。本実施形態において、BRIEF記述子は256byteである。
次に、FPGA20は、検出した特徴点の2次元イメージ座標上における座標と、特徴点の記述子とが含まれる特徴点情報を出力処理27によりMCU30が内蔵するSRAMへとDMA(Direct Memory Access)転送する。このとき、SRAM上にはリングバッファとして8Kbyte確保され、出力処理27は、特徴点検出処理23により特徴点が見つかったと判定され次第、FPGA20によりすぐに行われる。FPGA20が出力処理27により出力する特徴点情報にはフレーム番号が含まれており、その特徴点が何枚目のフレームであるかをMCU30が検出することができるようになっている。特徴点検出処理23及び記述子生成処理25の1フレーム分の処理が終わると、出力処理27は全ての特徴点処理が終わった旨をMCU30へと通知する。
MCU30のプロセスは、大きく分けて2つある。1つ目はタイマ割り込みによって周期的に呼び出される関数群である。ここではこのような処理をコントロールプロセスと呼ぶ。コントロールプロセスにおいてMCU30は、加速度センサ、ジャイロセンサ、コンパスセンサを含むIMU40から値を取得し、センサフュージョンによって姿勢角度を得るセンサフュージョン処理31、及び、現在位置と目標位置とから計算された目標角度についてPID(Proportional Integral Derivative Controller)制御を行う姿勢制御処理33がこれに含まれる。
2つ目は、タイマ割り込みから抜けた状態の空き時間に実行される関数群であり、FPGA20から転送された特徴点とその記述子とを記録する特徴点管理処理37、過去の特徴点との対応関係を取る特徴点対応付け処理35、当該対応関係及びMCU30からの値に基づいて自己位置推定を行うバンドル調整処理39が含まれる。
(2.2 特徴点検出処理23及び記述子生成処理25)
以下、本実施形態におけるFPGA20が行う特徴点検出処理23及び記述子生成処理25について説明する。本実施形態における特徴点検出処理23及び記述子生成処理25を、ここでは纏めて「CSFB(Concurrently Streamed FAST and BRIEF)と呼ぶ。CSFBの特徴としては、以下4点を挙げることができる。
1.カメラの奥行方向や回転運動などもトラッキングできる。
2.リアルタイムで実行可能である(例えば、30fps以上)。
3.画像フレームの生データを保存するための外部メモリを必要としない。
4.掛け算、割り算処理を行わないため、FPGA20上にDSP(Digital Signal Processor)リソースを必要としない。
以下、FPGA20上で実行する処理について説明する。FPGA20では、各プロセスはそれぞれに与えられたクロックに従って、互いに独立して動作しており、処理を並列化することによって、信号効率を大幅に向上させることが可能である。
前述のとおり、本実施形態に係るイメージセンサ10はYUV422フォーマット、160×120ピクセルで、30fpsのフレームレートで画像フレームを得ることができ、1ピクセル辺り16ビット、2クロックが割当てられている。FPGA20上ではFASTアルゴリズム(特徴点検出処理23)とBRIEFアルゴリズム(記述子生成処理25)とが同時に実行される。
まず、FASTアルゴリズム(特徴点検出処理23)について、図2を参照しながら説明する。FASTアルゴリズムによる特徴点の検出方法は、対象ピクセル(Target Point。図2中「C」で表現されている。)の周囲16ピクセル(Fast Scan Point。図2中「F」で表現されている。)に対して、中心にある当該対象ピクセルとの明暗比較を行い、閾値以上明るいピクセル/暗いピクセルが周方向に連続している長さが予め定められた数(ここでは10ピクセルとする。)以上に達している場合に、当該対象ピクセルが特徴点として検出される。
新しいピクセルの輝度情報は2クロックに1回のペースで8ビットで送られ(図2中Newdata[7:0])、8×8×8bitsの大きさのバッファIbuf(l)[j](0≦l≦7、0≦j≦7)に保存される。また、8個のブロックRAM(BRAM(l)[m]、0≦l≦7、3≦m≦hpix−3)は、新しいピクセルデータの書込みと、過去のデータの読み出しとを行うが、これはIbufにターゲットポイント周辺のピクセル情報を供給するために用いられる。その8個のブロックRAM(BRAM)は、水平同期信号(HSYNC)の立ち上がりエッジのカウントに応じて、データの書き込みを行うか、データの読み出しを行うかの役割が変わる。
以上のプロセスを式で表現すると、以下のようになる。
Figure 2015210677
Figure 2015210677
Figure 2015210677
Figure 2015210677
ここで、「!l」はlではないことを意味し、「%8」は8で割った剰余を意味する。
このような、対象ピクセルが特徴点であるか否かを判定する処理を、図3に示すように、当該対象ピクセルの周囲である各Fast scan pointに対して行う。Fast scan pointが16ピクセルある場合には、評価パターンは計32個ある(16ピクセルのそれぞれを開始点として、対象ピクセルよりも閾値以上明るいピクセルが10個連続するパターン、対象ピクセルよりも閾値以上暗いピクセルが10個連続するパターン。図3中fbp[i]及びfbn[i](0≦i≦15))。
このような特徴点判定処理は、オリジナルのFASTアルゴリズムでは、特徴点の探索順を木構造を用いた機械学習により高速化している。しかしながら本実施形態においては、このような評価(特徴点であるか否かを評価するための演算)はFPGA20が、並列処理により全パターンについて評価する。これらの各パターンで特徴と判定された場合には評価値として正の値が与えられ、この前パターンの合計値が、当該対象ピクセルの特徴点としての評価値fscore[cy][cx]となる。
以上のプロセスを式で表現すると、以下のようになる。
Figure 2015210677
Figure 2015210677
Figure 2015210677
Figure 2015210677
Figure 2015210677
検出された特徴点については、前述のとおり、BRIEFアルゴリズムにより記述子生成処理25を行う。BRIEFアルゴリズムでは、ターゲットとなる対象ピクセルの周囲の点をランダムに2点抽出し、その明暗比較を行う処理を繰り返し、その結果を示すバイナリ列で特徴点を記述する記述子(BRIEF記述子。図3中desc[i])とするものである。ここでは、抽出処理は1つの対象ピクセルに対して256回行うことにより、その結果を示す64byteの記述子が生成される。当該処理は、FPGA20により並列に実行することができる。
なお、本実施形態においてFPGA20は特徴点の記述子生成処理25を特徴点検出処理23と同時に行うため、特徴点として検出された時点でBRIEF記述子も同時に得ることが可能である。これにより、外部メモリを使用することなく、FPGA20はストリームデータである画像フレームから特徴点の検出と記述処理とを行うことが可能となっている。
以上のプロセスを式で表現すると、以下のようになる。
Figure 2015210677
Figure 2015210677
ここで、k0〜k3の組合せは、デスクトップコンピュータ上でランダムに選ばれた256個の組合せから、正解データと比較して最も性能の良い物を選んだ上で、当該組合せをFPGA20上に初期値としてハードウェアコーティングすることができる。
FPGA20は、256ビットとして得られたBRIEF記述子(BRIEFバイナリ列)は、特徴点検出処理23(FASTアルゴリズム)によって特徴点として判定される場合、すなわちfscore[cy][cx]が0でない場合に、出力処理27(データ転送プロセス)としてMCU30へのデータ転送を行う。出力処理27に送られる特徴点情報には、2バイトの特徴点座標、32バイトのBRIEF記述子、1バイトのインデックスとfscoreを含むことができる。
特徴点情報は、前述のとおり、出力処理27によりMCU30のDMA転送機能を用いてMCU30へと転送される。これにより、MCU30はCPUリソースを全く使用することなく、特徴点の座標や記述子の情報を得ることが可能である。
なお、上述の手法では、FPGA20のデータ転送は、MCU30のデータ書き込み指令、及びデータ読み出し指令とは無関係に実行されるため、垂直同期信号と同期するための待ち合わせ時間をゼロとすることが可能である。
(2.3 MCU30における処理)
MCU30は、先述の通りFPGA20から特徴点情報を受け取る。その中には、画像平面における特徴点の座標、及びBRIEF記述子が含まれる。また、タイマ割り込みによって周期的に呼び出されるコントロールプロセスの中において、MCU30はセンサフュージョン処理31によって回転姿勢を得る。また、MCUはFPGA20から得られた特徴点を管理し(特徴点管理処理37)、対応関係の記述を行った後(特徴点対応付け処理35)、自己位置推定を行う(バンドル調整処理39)。
センサフュージョン処理31としては、コンプリメンタリフィルタ、拡張カルマンフィルタ、クォータニオンベースの勾配法を用いるフィルダ等があり、いずれを用いることも考えられる。本実施形態では特に、Madgwickらによって提案されたクォータニオンベースの勾配法を用いることが考えられる。
特徴点管理処理37について説明する。各特徴点は常に画像フレームに登場するものもあれば、消えてしまう(検出できなくなる)ものもある。特に、飛行ロボット上に実装するカメラ(イメージセンサ10)から撮影する画像フレームで得られる特徴点には、飛行により生じる振動により明滅を繰り返すものも多い。そこで、一時的に消えてしまった特徴点も、のちの画像フレームで再び登場した場合には、それを認識する必要が生じる。
しかしながら、消えてしまった特徴点をいつまでも記憶すると、新しく登場する特徴点が随時加わることによりメモリ使用量が単調増加することとなるため、限られたメモリリソースで実装することができない。そこで、本実施形態では、現時点までに管理している特徴点と、最新の画像フレームから得られた特徴点との対応関係を取った上で(特徴点対応付け処理35)、その対応付けに失敗したものに対してはペナルティを与え、ある一定のスコアに達した特徴点についてはメモリ上から削除する。その上で、記憶している特徴点のデータ量がメモリ上限に達した場合には、新しい特徴点の追加を行わないことで、データがあふれることを防ぐ。
各特徴点の初期化は、同じ特徴点が写った複数のフレームを用いて行う。2フレームを用いてカメラの回転、並進を求める方法として8点法や5点法と呼ばれるものがあるが、そういった計算をMCU30上でやるには非常に計算コストが大きくなるため、本実施形態では異なる手法を用いる。本実施形態では、地面形状が平面であるという仮定を用いた上で、特徴点座標についてのバンドル調整処理39を行うことにより、徐々に特徴点の実際の3次元座標に近づける処理により、特徴点の初期化を行う。
地上形状が平面であるという仮定を入れた場合、現在の自己位置が既知の元で特徴点座標を求めることが可能となる。これを初期値としてバンドル調整を数フレームにわたって行うことで、実際の特徴点の3次元座標を計算することが可能となる。
最後に、自己位置の初期化と推定手法について説明する。自己位置推定の開始地点として、下向きカメラを使って平面形状の地面の上のある高さを飛行している状態を想定する。この初期高さについては、超音波センサなどを用いて予め画像座標系のスケールと、実座標のスケールとを合わせることができる。これを用いて平面上に映る特徴点座標を決定する。その後のフレームについては、初期化を終えた特徴点を用いて自己位置についてのバンドル調整式から更新する。なお、新しく登場した特徴点については自己位置の推定には寄与しない。
(3 本実施形態に係る効果)
以上説明した本実施形態に係る飛行ロボットである情報処理装置1では、オンボード(限られたリソース)かつリアルタイムで自己位置推定を行って飛行することが可能となる。特に、情報処理装置1は、特徴点の検出及び記述処理をFPGA20で行っている。FPGA20はクロック単位での制御により、画像フレームの入力に合わせて一定速度で処理を実行可能、特徴点の検出や識別子生成に係る処理を並列的に実行することが可能、消費電力が低い、等の特徴を有するため、リアルタイムでの自己位置推定に顕著に貢献することができる。
1 :情報処理装置
10 :イメージセンサ
20 :FPGA
21 :入力処理
23 :特徴点検出処理
25 :記述子生成処理
27 :出力処理
31 :センサフュージョン処理
33 :姿勢制御処理
35 :特徴点対応付け処理
37 :特徴点管理処理
39 :バンドル調整処理
50 :モータ

Claims (8)

  1. 一定のレートで画像フレームのデータ入力を受ける入力処理、
    入力された画像フレームに対して、複数の特徴点を並列処理により検出する検出処理、及び
    前記複数の特徴点の特徴をそれぞれ記述する複数の記述子を並列処理により生成する記述処理
    を、クロック単位での制御により一定速度で実行可能な第1の計算処理モジュールと、
    前記第1の計算処理モジュールで検出及び記述された各画像フレームの前記複数の特徴点に対して、画像フレーム間で対応関係を求める処理、及び
    前記対応関係に基づいて位置推定を行う位置推定処理
    を実行可能な第2の計算処理モジュールと
    を備える情報処理装置。
  2. 前記第1の計算処理モジュールは、前記検出処理及び前記記述処理を同時に実行する、
    請求項1記載の情報処理装置。
  3. 前記第1の計算処理モジュールは、前記検出処理において、特徴点であるか否かを評価するための演算を並列処理する、
    請求項1又は請求項2記載の情報処理装置。
  4. 前記第1の計算処理モジュールは、前記検出処理において、FASTアルゴリズムにより前記複数の特徴点を検出する、
    請求項1乃至請求項3のいずれか1項記載の情報処理装置。
  5. 前記第1の計算処理モジュールは、前記記述処理において、BRIEF(Binary Robust Independent Elementary Features)アルゴリズムにより、前記複数の特徴点の特徴を記述する前記複数の記述子を生成する、
    請求項1乃至請求項4のいずれか1項記載の情報処理装置。
  6. 前記第2の計算処理モジュールは、慣性計測装置からの入力と、前記対応関係とに基づいて位置推定を行う、
    請求項1乃至請求項5のいずれか1項記載の情報処理装置。
  7. 前記第1の計算処理モジュールと前記第2の計算処理モジュールとは同一のチップに実装される、
    請求項1乃至請求項6のいずれか1項記載の情報処理装置。
  8. 一定のレートで画像フレームのデータ入力を受ける入力処理、
    入力された画像フレームに対して、複数の特徴点を並列処理により検出する検出処理、及び
    前記複数の特徴点の特徴をそれぞれ記述する複数の記述子を並列処理により生成する記述処理
    を、クロック単位での制御により一定速度で実行可能な第1の計算処理モジュールに実行させると共に、
    出及び記述された各画像フレームの特徴点に対して、画像フレーム間で対応関係を求める処理、及び
    前記対応関係に基づいて位置推定を行う位置推定処理
    を実行可能な第2の計算処理モジュールに実行させる、情報処理方法。
JP2014091950A 2014-04-25 2014-04-25 情報処理装置および情報処理方法 Active JP6441586B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014091950A JP6441586B2 (ja) 2014-04-25 2014-04-25 情報処理装置および情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014091950A JP6441586B2 (ja) 2014-04-25 2014-04-25 情報処理装置および情報処理方法

Publications (2)

Publication Number Publication Date
JP2015210677A true JP2015210677A (ja) 2015-11-24
JP6441586B2 JP6441586B2 (ja) 2018-12-19

Family

ID=54612807

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014091950A Active JP6441586B2 (ja) 2014-04-25 2014-04-25 情報処理装置および情報処理方法

Country Status (1)

Country Link
JP (1) JP6441586B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106005411A (zh) * 2016-07-14 2016-10-12 辽宁猎鹰航空科技有限公司 无人机智能警示系统
CN106204660A (zh) * 2016-07-26 2016-12-07 华中科技大学 一种基于特征匹配的地面目标跟踪装置
CN108292140A (zh) * 2015-12-09 2018-07-17 深圳市大疆创新科技有限公司 用于自动返航的系统和方法
WO2019078310A1 (ja) 2017-10-20 2019-04-25 日本電気株式会社 顔三次元形状推定装置、顔三次元形状推定方法、及び、非一時的なコンピュータ可読媒体
CN110928605A (zh) * 2019-11-14 2020-03-27 天津大学 一种基于Zynq FPGA的光束平差法硬件加速器
US10878221B2 (en) 2017-07-27 2020-12-29 Samsung Electronics Co., Ltd. Imaging device capable of performing high-speed image recognition processing
WO2021125171A1 (ja) * 2019-12-19 2021-06-24 株式会社豊田自動織機 自己位置推定装置、移動体、自己位置推定方法、及び自己位置推定プログラム
JP2021174424A (ja) * 2020-04-30 2021-11-01 トヨタ自動車株式会社 位置推定システム、及び位置推定方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008089314A (ja) * 2006-09-29 2008-04-17 Topcon Corp 位置測定装置及びその方法
JP2010181919A (ja) * 2009-02-03 2010-08-19 Toyohashi Univ Of Technology 三次元形状特定装置、三次元形状特定方法、三次元形状特定プログラム
JP2012014564A (ja) * 2010-07-02 2012-01-19 Fujitsu Ltd 特徴点判定装置、特徴点判定方法および特徴点判定プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008089314A (ja) * 2006-09-29 2008-04-17 Topcon Corp 位置測定装置及びその方法
JP2010181919A (ja) * 2009-02-03 2010-08-19 Toyohashi Univ Of Technology 三次元形状特定装置、三次元形状特定方法、三次元形状特定プログラム
JP2012014564A (ja) * 2010-07-02 2012-01-19 Fujitsu Ltd 特徴点判定装置、特徴点判定方法および特徴点判定プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
末吉 敏則: "低価格化,高速化,高集積化,低消費電力化を達成するFPGA/PLDデバイス", 日経エレクトロニクス, vol. 第716号, JPN6018009541, 18 May 1998 (1998-05-18), JP, pages 168 - 176, ISSN: 0003869999 *
此村 領,外1名: "オンボード処理・超小型クアッドロータロボットのハードウェア・ソフトウェアの設計、製作", 2013年度 人工知能学会全国大会(第27回)論文集, JPN6018009540, 7 June 2013 (2013-06-07), JP, pages 1 - 4, ISSN: 0003869998 *

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10670407B2 (en) 2015-12-09 2020-06-02 SZ DJI Technology Co., Ltd. Systems and methods for auto-return
CN108292140A (zh) * 2015-12-09 2018-07-17 深圳市大疆创新科技有限公司 用于自动返航的系统和方法
JP2018537335A (ja) * 2015-12-09 2018-12-20 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 無人航空機の飛行を制御する方法及びシステム
CN108292140B (zh) * 2015-12-09 2022-03-15 深圳市大疆创新科技有限公司 用于自动返航的系统和方法
EP3387506B1 (en) * 2015-12-09 2021-01-13 SZ DJI Technology Co., Ltd. Systems and methods for auto-return
EP3835912A1 (en) * 2015-12-09 2021-06-16 SZ DJI Technology Co., Ltd. Systems and methods for auto-return
US11879737B2 (en) 2015-12-09 2024-01-23 SZ DJI Technology Co., Ltd. Systems and methods for auto-return
US11300413B2 (en) 2015-12-09 2022-04-12 SZ DJI Technology Co., Ltd. Systems and methods for auto-return
CN106005411A (zh) * 2016-07-14 2016-10-12 辽宁猎鹰航空科技有限公司 无人机智能警示系统
CN106204660A (zh) * 2016-07-26 2016-12-07 华中科技大学 一种基于特征匹配的地面目标跟踪装置
US10878221B2 (en) 2017-07-27 2020-12-29 Samsung Electronics Co., Ltd. Imaging device capable of performing high-speed image recognition processing
WO2019078310A1 (ja) 2017-10-20 2019-04-25 日本電気株式会社 顔三次元形状推定装置、顔三次元形状推定方法、及び、非一時的なコンピュータ可読媒体
US11488415B2 (en) 2017-10-20 2022-11-01 Nec Corporation Three-dimensional facial shape estimating device, three-dimensional facial shape estimating method, and non-transitory computer-readable medium
CN110928605A (zh) * 2019-11-14 2020-03-27 天津大学 一种基于Zynq FPGA的光束平差法硬件加速器
CN110928605B (zh) * 2019-11-14 2023-05-02 天津大学 一种基于Zynq FPGA的光束平差法硬件加速器
JP2021096789A (ja) * 2019-12-19 2021-06-24 株式会社豊田自動織機 自己位置推定装置、移動体、自己位置推定方法、及び自己位置推定プログラム
JP7283665B2 (ja) 2019-12-19 2023-05-30 株式会社豊田自動織機 自己位置推定装置、移動体、自己位置推定方法、及び自己位置推定プログラム
WO2021125171A1 (ja) * 2019-12-19 2021-06-24 株式会社豊田自動織機 自己位置推定装置、移動体、自己位置推定方法、及び自己位置推定プログラム
CN113592943A (zh) * 2020-04-30 2021-11-02 丰田自动车株式会社 位置推定系统及位置推定方法
JP2021174424A (ja) * 2020-04-30 2021-11-01 トヨタ自動車株式会社 位置推定システム、及び位置推定方法
JP7331769B2 (ja) 2020-04-30 2023-08-23 トヨタ自動車株式会社 位置推定システム、及び位置推定方法
US11763484B2 (en) 2020-04-30 2023-09-19 Toyota Jidosha Kabushiki Kaisha Location estimation system and location estimation method
CN113592943B (zh) * 2020-04-30 2024-01-30 丰田自动车株式会社 位置推定系统及位置推定方法

Also Published As

Publication number Publication date
JP6441586B2 (ja) 2018-12-19

Similar Documents

Publication Publication Date Title
JP6441586B2 (ja) 情報処理装置および情報処理方法
US11914370B2 (en) System and method for providing easy-to-use release and auto-positioning for drone applications
US11073389B2 (en) Hover control
Honegger et al. Real-time and low latency embedded computer vision hardware based on a combination of FPGA and mobile CPU
JP2018526641A (ja) レーザ深度マップサンプリングのためのシステム及び方法
CN108235815B (zh) 摄像控制装置、摄像装置、摄像系统、移动体、摄像控制方法及介质
Quigley et al. The open vision computer: An integrated sensing and compute system for mobile robots
WO2021147113A1 (zh) 一种平面语义类别的识别方法以及图像数据处理装置
CN113038020B (zh) 用于时刻捕获的系统和方法
WO2022021027A1 (zh) 目标跟踪方法、装置、无人机、系统及可读存储介质
WO2019127306A1 (en) Template-based image acquisition using a robot
CN111623773B (zh) 一种基于鱼眼视觉和惯性测量的目标定位方法及装置
WO2019144286A1 (zh) 障碍物检测方法、移动平台及计算机可读存储介质
Li et al. Monocular Snapshot‐based Sensing and Control of Hover, Takeoff, and Landing for a Low‐cost Quadrotor
Shi et al. Real-time multi-modal active vision for object detection on UAVs equipped with limited field of view LiDAR and camera
CN110052020B8 (zh) 便携式装置或机器人系统中运行的设备、控制设备和方法
US20210181769A1 (en) Movable platform control method, movable platform, terminal device, and system
KR102565444B1 (ko) 객체를 식별하기 위한 장치 및 방법
Chenini et al. Embedded real-time localization of UAV based on an hybrid device
CN116952229A (zh) 无人机定位方法、装置、系统和存储介质
WO2022021028A1 (zh) 目标检测方法、装置、无人机及计算机可读存储介质
WO2020079309A1 (en) Obstacle detection
US10447992B1 (en) Image processing method and system
WO2018109847A1 (ja) 制御装置、撮像装置、移動体、制御方法、およびプログラム
CN114119885A (zh) 图像特征点匹配方法、装置及系统、地图构建方法及系统

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20151028

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170301

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181122

R150 Certificate of patent or registration of utility model

Ref document number: 6441586

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250