JP2015230729A - 環境内の1組のセンサーの経路を計画する方法 - Google Patents

環境内の1組のセンサーの経路を計画する方法 Download PDF

Info

Publication number
JP2015230729A
JP2015230729A JP2015101802A JP2015101802A JP2015230729A JP 2015230729 A JP2015230729 A JP 2015230729A JP 2015101802 A JP2015101802 A JP 2015101802A JP 2015101802 A JP2015101802 A JP 2015101802A JP 2015230729 A JP2015230729 A JP 2015230729A
Authority
JP
Japan
Prior art keywords
resolution
sensor
environment
sensors
imaging system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015101802A
Other languages
English (en)
Other versions
JP6468941B2 (ja
Inventor
ペトロス・ティー・ボウフォウノス
Petros T Boufounos
リチャード・ヴァッカロ
Vaccaro Richard
ムハシーン・ベノスマン
Benosman Mouhacine
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JP2015230729A publication Critical patent/JP2015230729A/ja
Application granted granted Critical
Publication of JP6468941B2 publication Critical patent/JP6468941B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2823Imaging spectrometer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4092Image resolution transcoding, e.g. by using client-server architectures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4021Means for monitoring or calibrating of parts of a radar system of receivers
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/104Simultaneous control of position or course in three dimensions specially adapted for aircraft involving a plurality of aircrafts, e.g. formation flying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J2003/2866Markers; Calibrating of scan
    • G01J2003/2879Calibrating scan, e.g. Fabry Perot interferometer
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10036Multispectral image; Hyperspectral image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

【課題】環境内の変更可能な位置および向きを有する1組のモバイルセンサーの経路を計画する。【解決手段】各センサー100は、プロセッサ101と、撮像システム102と、通信システム103とを備え、環境のカバレッジの所望の分解能が定義され、カバレッジの達成された分解能が初期化され、時点ごとおよびセンサーごとに、撮像システムを用いて環境の画像が取得され、達成された分解能は、画像に従って更新され、達成された分解能および所望の分解能に基づいて、センサーが次の位置および向きに移動され、環境のカバレッジを最適化するために、通信システムを用いて、センサーのローカル情報が他のセンサーに分散される。【選択図】図1

Description

本発明は、包括的にはモバイルセンサーに関し、より詳細には、センサーのための分散型経路計画に関する。
モバイルセンサーを用いて、画像を協調して取得することができる。そして、これらの画像を、監視、地図製作および環境モニタリング等の用途で用いることができる。そのようなシステムにおける1つの問題は、センサーが辿るべき経路を計画することであり、これは経路計画として知られる問題である。
制御可能な自由度が総自由度に等しい、ホロノミックロボットを用いる1つのそのようなシステムでは、制限されたフットプリントを有する異方性センサーが検討されている。Hexsel他「Distributed Coverage Control for Mobile Anisotropic Sensor Networks」Tech. Report CMU−RI−TR−13−01, Robotics Institute, Carnegie Mellon University, January 2013を参照されたい。そのシステムは、場合によっては障害物を含む多角形として2次元(2D)環境をモデル化する。固定の目的関数によって、物体を検出する同時確率が最大化される。この目的関数は、環境内の各点の重要度を表す事前に固定された密度関数を用いる。
本発明の実施形態は、例えば、空中、地上または水中にあり得る1組のモバイルセンサーの経路を計画する方法を提供する。各センサーは、環境を撮像するための撮像システムを備える。撮像システムは、例えば、光学的撮像、合成開口レーダー(SAR)、ハイパースペクトル撮像、物理的開口レーダー撮像を用いることができる。センサーによって取得される画像は、中でも、監視用途、地図製作用途およびモニタリング用途において用いることができる。
任意の時点において、各センサーは、撮像システムの分解能を最適化するために次の位置および向きに移動し、環境内の各点における予め指定された所望の分解能に従って、環境の最適なカバレッジのための分解能を選択するのに用いられる。本明細書において用いられるとき、分解能は、画像内のピクセルのサイズおよび密度に依拠する。カバレッジは完全なものとすることもできるし、部分的なものとすることもでき、画像は重複することも重複しないこともできることに留意するべきである。
分散形式の場合、各センサーの動きおよび各センサーの向きは、予め指定された分解能と比較して、環境がどの程度良好に撮像されているかを特徴付けるコスト関数を最小化することによって最適化される。この最適化を実行するために、各センサーは近傍のセンサーと通信し、ローカル情報を交換する。センサーによって取得される画像を組み合わせて環境の全体画像にし、所望の分解能を達成することができる。
本発明の実施形態による例示的な空中モバイルセンサーシステムの概略図である。 本発明の実施形態による、センサー座標におけるセンサーおよび環境の側面図である。 本発明の実施形態によるモデルによって用いられる、変数、説明および例示的な値を与える表である。 本発明の実施形態による例示的環境の概略図である。 不規則な例示的環境の概略図である。 本発明の実施形態による、センサー座標におけるセンサーフットプリントの上面図である。 本発明の実施形態による、図1に示すセンサーの経路を計画する方法の流れ図である。
図1は、本発明の実施形態による1組のモバイルセンサー100を示している。センサーは、中でも、空中、地上または水中にあり得る。センサーは、例えば、屋内ドローンもしくは屋外ドローン、航空機または衛星に配置することができる。各センサーは、プロセッサ101と、撮像システム102と、通信システム103とを備える。撮像システムは、環境400を撮像するための既知のフットプリントを有し、このフットプリントはセンサーの向きに依拠し得る。フットプリントは、カメラ画像平面またはレーダービームパターン等の撮像面を環境に投影したものである。撮像システムは、中でも、光学的撮像、合成開口レーダー(SAR)、ハイパースペクトル撮像、物理的開口レーダー撮像を用いることができる。この理由により、「画像、撮像(image)」という用語は広く用いられる。
センサーは、環境400を撮像するように経路102に沿って移動する。通信システムは、センサーがチャネル105を介して互いに通信することができるようにトランシーバを備える。好ましい実施形態では、チャネルは無線であり、例えば無線信号または光信号を用いる。近傍のセンサー、すなわち通信範囲内のセンサー間で情報を交換することによって、これらのセンサーは、分散形式で経路計画を実行することができる。しかしながら、他の通信技法も用いることができ、例えばセンサーのうちの幾つかまたは全てがデジタルファイン有線テザー(digital fine wire tether)を用いることができることを理解されたい。
環境内の各点において指定された値を達成する画像分解能を環境にわたって提供することが目的である。本明細書において用いられるとき、分解能は画像内のピクセルのサイズおよび密度に依拠する。モデルはフットプリント104を重複させることによって提供される分解能をモデル化するのに劣加法性関数を用いる。モデルはまた、時間とともに変動する目的関数を用いる。各時点jにおいて、目的関数は、所望の分解能と、前の時点j−1までに達成された分解能との差の尺度を提供する。
センサーモデル
図2は、センサー座標におけるセンサーおよび環境の側面図である。環境内の点zは、角度γを二等分する線上に位置する。図3における表は、本発明のモデルによって用いられる、変数301、説明302および例示的な値303を与えている。変数は、センサーの高さ311と、水平方向の角度幅312と、垂直方向の角度幅313と、センサーの位置314と、傾斜角315およびアジマス角317とを含む。角度は、センサーの向きを指定する。説明される実施形態では2自由度が存在するが、3自由度も除外されない。
便宜上、後続の計算のほとんどは、傾斜を測定するのに角度ψ316を用いる。角度ψは、ψ=90°−φを用いて実際の傾斜角φに関係付けられている。図2においてラベル付けされた範囲は、以下の式によって与えられる。
Figure 2015230729
図4Aに示すように、例示的な規則的環境は、xy平面における100×100の多角形領域Qである。環境内の任意の点401がq∈Qをラベル付けされる。センサー座標において、環境はzy平面であり、zy平面はxy平面を平行移動および回転したものである。zy平面の原点の上方の高さHに所与のセンサーが位置し、z軸に対する角度ψが測定される。高さH、およびx,yロケーションはセンサーの位置を指定する。角度φおよびψは向きを指定する。
図4Bは、不規則な例の不規則な環境500を示している。
各センサーは傾斜角φを有し、ψ=90°−φである。アジマス角θ=0のとき、センサーのz軸は大域座標系のx軸と一直線になる。i番目のセンサーと関連付けられた全ての変数は、センサーをインデックス付けするための上付き文字iを有する。
図5は、光学センサーに固有のセンサー座標におけるセンサーフットプリント104の上面図の例である。図2に示すように、フットプリントはZminからZmaxに延在する。フットプリントは、4つのラベル付された頂点(1,2,3,4)によって画定される多角形である。センサー座標において、k番目の頂点に対応するフットプリント頂点(z,y)は以下の式となる。
Figure 2015230729
S(θ)を以下に定義する回転行列とする。
Figure 2015230729
センサーフットプリント内の点(z,y)の大域座標(x,y)は、アジマス角θだけ点を回転させ、カメラロケーション(c,c)だけフットプリントを平行移動させることによって取得される。
Figure 2015230729
センサーフットプリント104を定義する式(2)における4つの頂点は、式(4)を用いて大域座標に変換することができる。センサーフットプリントは、4つの変数(c,c,θ,φ)によって定義される。最初の2つの変数は、環境平面上へのセンサー位置の投影であり、最後の2つのパラメーターは水平方向の角度変数および垂直方向の角度変数である。他のセンサーは異なるフットプリント形状を有することができ、フットプリントの形状およびサイズはセンサーの向きに依拠する。
ほとんどの実際の実施形態において、位置パラメーターは、センサーの物理的位置に対応するので比較的低速な時間スケールで更新される一方、角度変数は、角度が値を迅速に変更する可能性があるので、比較的高速な時間スケールで更新される。しかしながら、幾つかの実施形態では、位置パラメーターおよび角度パラメーターは同じ時間スケールで値を変更する場合もあるし、角度パラメーターがより低速な時間スケールで値を変更する場合もある。
重なり合うセンサーの劣加法性結合
センサーiがフットプリントF,i=1,...,nにおいて分解能rを与えると仮定する。問題は、完全にまたは部分的に重なり合うフットプリントの交差において取得される分解能をモデル化することである。最良であり、非現実的なほど楽観的な状況は、全体分解能が個々の分解能の和となることである。最悪の、非現実的なほど悲観的な状況は、全体分解能が個々のセンサー分解能の最大値に等しいことである。実際の全体分解能は、これらの極値間のどこかにある。
すなわち、
Figure 2015230729
がN個のセンサーによって達成された分解能のベクトルである場合、センサーフットプリントの交差部の点において取得される全体分解能res(r)は以下の不等式を満たす。
Figure 2015230729
この特性を満たす関数の1つの例は、ベクトルrのlノルム(1<p<∞)であり、
Figure 2015230729
ここで、1<p<∞である。p=1のとき、lノルムは式(6)における上界に等しい。p=∞のとき、lノルムは式(6)における下界に等しい。このため、センサーを重ね合わせることによって取得される分解能のための劣加法性モデルの特定の例は、個々の分解能のベクトルのlノルムであり、ここで1<p<∞である。他の実施形態は、様々な劣加法性関数を用いて、異なる分解能の画像をどのように組み合わせるかをモデル化することができる。
目的関数および最適化
φ(q)を、環境400内の全ての点q401において定義される所望の分解能とする。xを、時点jにおける全てのセンサーの位置変数のベクトルとする。ψおよびθを、全てのセンサーの垂直方向の(傾斜)角度変数および水平方向の(アジマス)角度変数にそれぞれ対応するベクトルとする。Rを、i番目のセンサーによって、そのセンサーのフットプリントF内の全ての点において提供される分解能とする。これは、センサー変数(cx,cy,θ,ψ)によって以下のように定義される。
Figure 2015230729
ここで、Kは、取得された画像におけるピクセル数に依拠するセンサー定数である。全てのセンサーが同じKの値を有する場合、値は以下で説明する最適化のために重要でない。
任意の時点jにおいて、最小化する目的関数は、所望の分解能と、時点j−1までに達成された分解能との差であり、以下の式に従う。
Figure 2015230729
ここで、φj−1(q)は時点j−1までにセンサーによって達成された分解能であり、pは重なり合うフットプリントの劣加法性結合をモデル化するために用いられるノルムを定義し、f(x)は所望の分解能からのずれにペナルティを科すペナルティ関数である。
例えば、1つの実施形態では、f(x)=xである。このペナルティ関数は、分解能が所望の分解能よりも低いかまたは高いときに、達成された分解能にペナルティを科す。これによって、センサーのうちの幾つかが十分な分解能にマッピングされているとき、センサーを異なる環境エリアに強制的に移動させる。
別の実施形態では、以下の式となる。
Figure 2015230729
このペナルティ関数は、所望の分解能に到達していないときにのみ、達成された分解能にペナルティを科す。これによって、センサーは、撮像されるエリアの分解能を、予め指定された所望の分解能を超えて改善し続けることが可能になる。当然ながら、他の実施形態は他のペナルティ関数を用いることができる。
経路計画
図6は、本発明の実施形態による経路計画方法を示している。定義により、初期の達成された分解能φ(q)は一様にゼロである。
勾配ベースの最適化は、以下の初期化および反復ステップによって説明される。各時点jにおいて、センサーの角度パラメーターに対し、完全な勾配ベースの最小化が行われる。一方、センサー位置は、単一の勾配ステップのみを用いて更新される。その理由は、センサーが移動し、新たなデータを取得した後、目的関数は変化しているからである。
初期化
所望の分解能φ(q)および初期センサー位置のベクトルxを所与とすると、以下の最適化611によって初期センサー角が求められる(605)。
Figure 2015230729
初期位置勾配gは、xにおいて評価されるG(x,θ,ψ)のxに対する勾配である。
時間ステップごとの各センサーにおける反復j=1,2,...(650)
全てのセンサー100から画像601を取得し(610)、以下の式に従って、達成された分解能621を更新する(620)。
Figure 2015230729
達成された分解能および所望の分解能に基づいて、1組のセンサーを、センサーの次の位置および向きに移動させる(630)。この移動は、負の位置勾配631の方向に行われる。
Figure 2015230729
ここで、αはステップサイズであり、gj−1は位置xj−1において評価された前回の位置勾配である。次の位置および向きへの移動は「ゼロ」移動とすることができ、すなわち、センサーは、その位置にとどまる。
センサー角度パラメーターおよび位置勾配641を以下の式に従って更新し(640)、
Figure 2015230729
次の時点j=j+1について反復する。

Claims (15)

  1. 環境内の1組のセンサーの経路を計画する方法であって、
    前記センサーは、変更可能な位置および向きを有するモバイルセンサーであり、
    各センサーは、プロセッサと、撮像システムと、通信システムとを備え、
    該方法は、
    前記環境のカバレッジの所望の分解能を定義するステップと、
    前記カバレッジの達成された分解能を初期化するステップと、
    を備え、
    該方法は、各センサーの各プロセッサにおいて時点ごとに、
    前記撮像システムを用いて前記環境の画像を取得するステップと、
    前記画像に従って前記達成された分解能を更新するステップと、
    前記達成された分解能および前記所望の分解能に基づいて、次の位置および向きに移動するステップと、
    前記環境のカバレッジを最適化するために、前記通信システムを用いて、前記センサーのローカル情報を前記1組のセンサーにおける他のセンサーに分散させるステップと、
    をさらに備えた、環境内の1組のセンサーの経路を計画する方法。
  2. 前記撮像システムは、光学的撮像を用いる、
    請求項1に記載の方法。
  3. 前記撮像システムは、合成開口レーダーを用いる、
    請求項1に記載の方法。
  4. 前記撮像システムは、ハイパースペクトル撮像を用いる、
    請求項1に記載の方法。
  5. 前記撮像システムは、物理的開口レーダー撮像を用いる、
    請求項1に記載の方法。
  6. 情報は、前記位置、前記向きおよび前記達成された分解能からなる、
    請求項1に記載の方法。
  7. 屋内ドローン、屋外ドローン、飛行機、衛星、地上車、ロボットまたは水中機に前記センサーを配置するステップをさらに備えた、
    請求項1に記載の方法。
  8. 前記通信システムは、無線チャネルを含む、
    請求項1に記載の方法。
  9. 前記位置は、前記向きと異なるレートで更新される、
    請求項1に記載の方法。
  10. 前記分解能のモデルは、劣加法性である、
    請求項1に記載の方法。
  11. 目的関数を用いて、前記所望の分解能と前記達成された分解能との差を最小化するステップをさらに備えた、
    請求項1に記載の方法。
  12. 前記目的関数は、前記所望の分解能からのずれにペナルティを科す関数を用いる、
    請求項11に記載の方法。
  13. 前記関数は、前記分解能が前記所望の分解能よりも低いかまたは高いときに、前記達成された分解能にペナルティを科す、
    請求項12に記載の方法。
  14. 前記関数は、前記達成された分解能が前記所望の分解能を達成していないときにのみ、前記達成された分解能にペナルティを科す、
    請求項12に記載の方法。
  15. 前記移動するステップは、負の位置勾配の方向に行われる、
    請求項1に記載の方法。
JP2015101802A 2014-06-03 2015-05-19 環境内の1組のセンサーの経路を計画する方法 Active JP6468941B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/294,417 2014-06-03
US14/294,417 US9218646B1 (en) 2014-06-03 2014-06-03 Distributed path planning for mobile sensors

Publications (2)

Publication Number Publication Date
JP2015230729A true JP2015230729A (ja) 2015-12-21
JP6468941B2 JP6468941B2 (ja) 2019-02-13

Family

ID=54702390

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015101802A Active JP6468941B2 (ja) 2014-06-03 2015-05-19 環境内の1組のセンサーの経路を計画する方法

Country Status (2)

Country Link
US (1) US9218646B1 (ja)
JP (1) JP6468941B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180123725A (ko) * 2016-06-09 2018-11-19 엑스 디벨롭먼트 엘엘씨 차량용 센서 궤적 플래닝
CN110017790A (zh) * 2019-03-15 2019-07-16 南京航空航天大学 一种基于测量精度的曲面扫描轨迹生成与优化方法
CN110114193A (zh) * 2016-11-03 2019-08-09 通用电气公司 机器人感测装置和传感器规划方法

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107063468A (zh) * 2017-04-27 2017-08-18 杭州天铂红外光电技术有限公司 变电站设备红外热图拍摄的导航方法及装置
CN110160652A (zh) * 2018-04-17 2019-08-23 云南电网有限责任公司昭通供电局 一种热像仪数据传输方法
CN108759840B (zh) * 2018-05-25 2022-07-26 北京建筑大学 一种室内外一体化三维导航路径规划方法
US10852421B1 (en) * 2019-01-24 2020-12-01 Descartes Labs, Inc. Sparse phase unwrapping
CN109885087B (zh) * 2019-03-12 2019-10-29 中国人民解放军军事科学院国防科技创新研究院 微纳卫星的双星近距离编队方法
CN111683375B (zh) * 2020-05-08 2021-07-16 北京科技大学 一种针对无人机辅助无线蜂窝网络的无人机部署优化方法
US20230066768A1 (en) * 2021-08-25 2023-03-02 Rockwell Collins, Inc. Airborne sensor to sensor information sharing technique
FR3129003B1 (fr) * 2021-11-10 2023-10-13 Univ De Lorraine Procédé pour déterminer des positions optimisées d’un objet pour le suivi d’une trajectoire dans un environnement simulé.

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006277007A (ja) * 2005-03-28 2006-10-12 Mitsubishi Electric Corp 観測衛星、衛星通信地上局及び観測衛星システム
US20070269077A1 (en) * 2006-05-17 2007-11-22 The Boeing Company Sensor scan planner
US20130145025A1 (en) * 2010-10-27 2013-06-06 Mitsubishi Electric Corporation Programmable controller

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8184157B2 (en) * 2005-12-16 2012-05-22 Siemens Corporation Generalized multi-sensor planning and systems
US8451333B2 (en) * 2007-08-06 2013-05-28 Frostbyte Video, Inc. Video capture system and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006277007A (ja) * 2005-03-28 2006-10-12 Mitsubishi Electric Corp 観測衛星、衛星通信地上局及び観測衛星システム
US20070269077A1 (en) * 2006-05-17 2007-11-22 The Boeing Company Sensor scan planner
US20130145025A1 (en) * 2010-10-27 2013-06-06 Mitsubishi Electric Corporation Programmable controller

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180123725A (ko) * 2016-06-09 2018-11-19 엑스 디벨롭먼트 엘엘씨 차량용 센서 궤적 플래닝
JP2019516185A (ja) * 2016-06-09 2019-06-13 エックス デベロップメント エルエルシー 車両のためのセンサ軌道計画
KR102107555B1 (ko) * 2016-06-09 2020-05-07 엑스 디벨롭먼트 엘엘씨 차량용 센서 궤적 플래닝
US10754350B2 (en) 2016-06-09 2020-08-25 X Development Llc Sensor trajectory planning for a vehicle
CN110114193A (zh) * 2016-11-03 2019-08-09 通用电气公司 机器人感测装置和传感器规划方法
JP2019536143A (ja) * 2016-11-03 2019-12-12 ゼネラル・エレクトリック・カンパニイ センサ計画のロボット感知装置および方法
CN110017790A (zh) * 2019-03-15 2019-07-16 南京航空航天大学 一种基于测量精度的曲面扫描轨迹生成与优化方法
CN110017790B (zh) * 2019-03-15 2021-02-09 南京航空航天大学 一种基于测量精度的曲面扫描轨迹生成与优化方法

Also Published As

Publication number Publication date
US9218646B1 (en) 2015-12-22
JP6468941B2 (ja) 2019-02-13
US20150348235A1 (en) 2015-12-03

Similar Documents

Publication Publication Date Title
JP6468941B2 (ja) 環境内の1組のセンサーの経路を計画する方法
CN108453738B (zh) 一种基于Opencv图像处理的四旋翼飞行器空中自主抓取作业的控制方法
Forster et al. Continuous on-board monocular-vision-based elevation mapping applied to autonomous landing of micro aerial vehicles
CN112037260B (zh) 一种跟踪目标的位置估计方法、装置及无人飞行器
US8610708B2 (en) Method and apparatus for three-dimensional image reconstruction
US11906983B2 (en) System and method for tracking targets
CN109753076A (zh) 一种无人机视觉追踪实现方法
WO2018145291A1 (en) System and method for real-time location tracking of drone
CN109872372A (zh) 一种小型四足机器人全局视觉定位方法和系统
US11095870B1 (en) Calibration of cameras on unmanned aerial vehicles using human joints
Zhao et al. Landing system for AR. Drone 2.0 using onboard camera and ROS
CN110930508A (zh) 二维光电视频与三维场景融合方法
Klingbeil et al. Towards autonomous navigation of an UAV-based mobile mapping system
Caron et al. Spherical visual gyroscope for autonomous robots using the mixture of photometric potentials
Celik et al. Mono-vision corner SLAM for indoor navigation
AU2022271430A1 (en) Method and System for Collection of Photographic Data
Ivancsits et al. Visual navigation system for small unmanned aerial vehicles
CN113778096B (zh) 室内机器人的定位与模型构建方法及系统
US10484659B2 (en) Large-scale environmental mapping in real-time by a robotic system
Naggar et al. A low cost indoor positioning system using computer vision
Yang et al. Omnidirectional-vision-based estimation for containment detection of a robotic mower
WO2022078437A1 (zh) 一种移动物体之间的三维处理设备及方法
CN115965790A (zh) 一种基于布料模拟算法的倾斜摄影点云滤波方法
Liu et al. Adaptive Weight Multi-Band Blending Based Fast Aerial Image Stitching and Mapping
Canh et al. Multisensor data fusion for reliable obstacle avoidance

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181030

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190115

R150 Certificate of patent or registration of utility model

Ref document number: 6468941

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250