JP2017508166A - センサ融合 - Google Patents

センサ融合 Download PDF

Info

Publication number
JP2017508166A
JP2017508166A JP2016558242A JP2016558242A JP2017508166A JP 2017508166 A JP2017508166 A JP 2017508166A JP 2016558242 A JP2016558242 A JP 2016558242A JP 2016558242 A JP2016558242 A JP 2016558242A JP 2017508166 A JP2017508166 A JP 2017508166A
Authority
JP
Japan
Prior art keywords
movable object
sensing system
program instructions
positional information
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016558242A
Other languages
English (en)
Other versions
JP6329642B2 (ja
Inventor
グ−ユエ ジョウ,
グ−ユエ ジョウ,
シュオ ヤン,
シュオ ヤン,
ヨン−ジャン ジャオ,
ヨン−ジャン ジャオ,
アン リウ,
アン リウ,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Publication of JP2017508166A publication Critical patent/JP2017508166A/ja
Application granted granted Critical
Publication of JP6329642B2 publication Critical patent/JP6329642B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • G01S19/47Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement the supplementary measurement being an inertial measurement, e.g. tightly coupled inertial
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Navigation (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

システム、方法、およびデバイスが、可動オブジェクトの位置的情報を収集し、可動オブジェクトを制御するために提供される。本開示の一側面では、可動オブジェクトの位置的情報を収集する方法は、可動オブジェクトに連結されている第1の感知システムからデータを受信することと、可動オブジェクトに連結されている第2の感知システムからデータを受信することと、第2の感知システムのセンサによって受信される信号の強度に基づいて、第2の感知システムからのデータの重み値を決定することと、(i)第1の感知システムからのデータ、および(ii)重み値を考慮に入れた、第2の感知システムからのデータに基づいて、可動オブジェクトの位置的情報を計算することとを含む。

Description

地上車両、飛行機、表面車両、水中車両、および宇宙船等の無人機が、監視、捜索救助活動、探索、および他の分野を含む、広範囲の用途のために開発されてきた。そのような無人機は、しばしば、遠隔コントローラによって制御およびナビゲートすることができる。場合によっては、無人機は、人間の管理官からの誘導を伴わずに、環境を感知し、環境を通してナビゲートすることが可能な自立車両であり得る。
無人機の制御およびナビゲーションを可能にする位置的情報を生成するために、種々の種類のセンサを使用することができる。しかしながら、無人機のための現在の感知システムは、理想的とは言えないものであり得る。例えば、大抵の感知システムは、ある環境条件(例えば、屋内または屋外、高高度または低高度)下で、またはある種類の移動(例えば、高速または低速、回転または平行移動)に関してのみ正確である。
無人機等の可動オブジェクトの位置的情報を収集するための改良型システム、方法、およびデバイスの必要性が存在する。本発明は、位置的情報を収集し、可動オブジェクトを制御するためのシステム、方法、およびデバイスを提供する。多くの実施形態では、本明細書で開示されるシステム、方法、およびデバイスは、複数の感知システムから可動オブジェクトの位置データを受信し、センサ融合を通して可動オブジェクトの位置的情報を決定する。本発明は、無人機等の可動オブジェクトのためのナビゲーションシステムの融通性および精度を増進させる。
本開示の一側面では、可動オブジェクトの位置的情報を収集する方法が説明される。本方法は、メモリにおいて、可動オブジェクトに連結されている第1の感知システムからデータを受信することであって、第1の感知システムは、可動オブジェクトの位置的情報を決定するために有用な信号を受信するセンサを含む、ことと、メモリにおいて、可動オブジェクトに連結されている第2の感知システムからデータを受信することであって、第2の感知システムは、可動オブジェクトの位置的情報を決定するために有用な信号を受信するセンサを含む、ことと、プロセッサを用いて、第2の感知システムのセンサによって受信される信号の強度に基づいて、第2の感知システムからのデータの重み値を決定することと、プロセッサを用いて、(i)第1の感知システムからのデータ、および(ii)重み値を考慮に入れた、第2の感知システムからのデータに基づいて、可動オブジェクトの位置的情報を計算することとを含む。
いくつかの実施形態では、可動オブジェクトは、無人機である。
いくつかの実施形態では、位置的情報を計算することは、可動オブジェクトの場所情報および配向情報を計算することを含む。場所情報を計算することは、可動オブジェクトの高度、緯度、および経度を計算することを含むことができる。配向情報を計算することは、ヨー軸に対する可動オブジェクトの角度、ロール軸に対する角度、およびピッチ軸に対する角度を計算することを含むことができる。
いくつかの実施形態では、第2の感知システムからデータを受信することは、第2の感知システムによって使用される全地球測位システム(GPS)センサからデータを受信することを含む。第2の感知システムのGPSセンサによって受信される信号の強度は、受信されるGPS信号の数または受信されるGPS信号の大きさに依存し得る。
いくつかの実施形態では、第1の感知システムからデータを受信することは、第1の感知システムによって使用される1つ以上の視覚センサからデータを受信することを含む。1つ以上の視覚センサからデータを受信することは、横方向に離間している複数の視覚センサからデータを受信することを含むことができる。本方法はさらに、可動オブジェクトに連結されている第3の感知システムからデータを受信することを含むことができ、該第3の感知システムは、慣性計測装置(IMU)を使用する。
いくつかの実施形態では、第1の感知システムからデータを受信することは、第1の感知システムによって使用されるIMUからデータを受信することを含む。
いくつかの実施形態では、位置的情報を決定するために有用な信号は、光信号、衛星からの信号、あるいは速度または加速度を示す信号を含む。
いくつかの実施形態では、重み値は、数値である。重み値は、0から1の間の値であり得る。
いくつかの実施形態では、本方法は、可動オブジェクトが事前設定された場所に戻るための命令を受信することを含む。本方法はさらに、プロセッサを用いて、可動オブジェクトの位置的情報に基づいて可動オブジェクトが事前設定された場所に戻るために進むべき経路を計算することを含むことができる。
本開示の別の側面では、可動オブジェクトの位置的情報を収集するためのプログラム命令を含む非一過性のコンピュータ読み取り可能な媒体が提供される。コンピュータ読み取り可能な媒体は、可動オブジェクトに連結されている第1の感知システムから受信されるデータを分析するためのプログラム命令であって、第1の感知システムは、可動オブジェクトの位置的情報を決定するために有用な信号を受信するセンサを含む、プログラム命令と、可動オブジェクトに連結されている第2の感知システムから受信されるデータを分析するためのプログラム命令であって、第2の感知システムは、可動オブジェクトの位置的情報を決定するために有用な信号を受信するセンサを含む、プログラム命令と、第2の感知システムのセンサによって受信される信号の強度に基づいて、第2の感知システムからのデータの重み値を決定するためのプログラム命令と、(i)第1の感知システムからのデータ、および(ii)重み値を考慮に入れた、第2の感知システムからのデータに基づいて、可動オブジェクトの位置的情報を計算するためのプログラム命令とを含む。
いくつかの実施形態では、可動オブジェクトは、無人機である。
いくつかの実施形態では、位置的情報を計算するためのプログラム命令は、可動オブジェクトの場所情報および配向情報を計算するためのプログラム命令を含む。場所情報を計算するためのプログラム命令は、可動オブジェクトの高度、緯度、および経度を計算するためのプログラム命令を含むことができる。配向情報を計算するためのプログラム命令は、ヨー軸に対する可動オブジェクトの角度、ロール軸に対する角度、およびピッチ軸に対する角度を計算するためのプログラム命令を含むことができる。
いくつかの実施形態では、第2の感知システムから受信されるデータを分析するためのプログラム命令は、第2の感知システムによって使用されるGPSセンサから受信されるデータを分析するためのプログラム命令を含む。第2の感知システムのGPSセンサによって受信される信号の強度は、受信されるGPS信号の数および受信されるGPS信号の大きさに依存し得る。
いくつかの実施形態では、第1の感知システムから受信されるデータを分析するためのプログラム命令は、第1の感知システムによって使用される1つ以上の視覚センサから受信されるデータを分析するためのプログラム命令を含む。1つ以上の視覚センサから受信されるデータを分析するためのプログラム命令は、横方向に離間している複数の視覚センサから受信されるデータを分析するためのプログラム命令を含むことができる。コンピュータ読み取り可能な媒体はさらに、可動オブジェクトに連結されている第3の感知システムから受信されるデータを分析するためのプログラム命令を含むことができ、第3の感知システムは、IMUを使用する。
いくつかの実施形態では、第1の感知システムから受信されるデータを分析するためのプログラム命令は、第1の感知システムによって使用されるIMUから受信されるデータを分析するためのプログラム命令を含む。
いくつかの実施形態では、位置的情報を決定するために有用な信号は、光信号、衛星からの信号、あるいは速度または加速度を示す信号を含む。
いくつかの実施形態では、重み値は、数値である。重み値は、0から1の間の値であり得る。
いくつかの実施形態では、コンピュータ読み取り可能な媒体はさらに、可動オブジェクトが事前設定された場所に戻るための命令を受信するためのプログラム命令を含む。コンピュータ読み取り可能な媒体はさらに、プロセッサを用いて、可動オブジェクトの位置的情報に基づいて可動オブジェクトが事前設定された場所に戻るために進むべき経路を計算するためのプログラム命令を含むことができる。
本開示の別の側面では、可動オブジェクトの位置的情報を収集するためのシステムが提供される。本システムは、可動オブジェクトに連結されている第1の感知システムであって、第1の感知システムは、可動オブジェクトの位置的情報を決定するために有用な信号を受信するように構成されているセンサを含む、第1の感知システムと、可動オブジェクトに連結されている第2の感知システムであって、第2の感知システムは、可動オブジェクトの位置的情報を決定するために有用な信号を受信するように構成されているセンサを含む、第2の感知システムと、(a)第2の感知システムのセンサによって受信される信号の強度に基づいて、第2の感知システムからの信号の重み値を決定し、(b)(i)第1の感知システムからのデータ、および(ii)重み値を考慮に入れた、第2の感知システムからのデータに基づいて、可動オブジェクトの位置的情報を計算する、プロセッサとを含む。
いくつかの実施形態では、可動オブジェクトは、無人機である。
いくつかの実施形態では、位置的情報は、可動オブジェクトの場所情報および配向情報を含む。場所情報は、可動オブジェクトの高度、緯度、および経度を含むことができる。配向情報は、ヨー軸に対する可動オブジェクトの角度、ロール軸に対する角度、およびピッチ軸に対する角度を含むことができる。
いくつかの実施形態では、第2の感知システムは、GPSセンサを使用する。信号の強度は、受信されるGPS信号の数および受信されるGPS信号の大きさに依存し得る。
いくつかの実施形態では、第1の感知システムは、1つ以上の視覚センサを使用する。第1の感知システムは、横方向に離間している複数の視覚センサを使用することができる。可動オブジェクトに連結されている第3の感知システムからデータをさらに受信することができ、該第3の感知システムは、IMUを使用する。
いくつかの実施形態では、第1の感知システムは、IMUを使用する。
いくつかの実施形態では、位置的情報を決定するために有用な信号は、光信号を含む。
いくつかの実施形態では、位置的情報を決定するために有用な信号は、衛星からの信号を含む。
いくつかの実施形態では、位置的情報を決定するために有用な信号は、速度または加速度を示す信号を含む。
いくつかの実施形態では、重み値は、数値である。重み値は、0から1の間の値であり得る。
いくつかの実施形態では、本システムはさらに、可動オブジェクトが事前設定された場所に戻るための命令を受信するための受信機を含む。プロセッサは、可動オブジェクトの位置的情報に基づいて、可動オブジェクトが事前設定された場所に戻るために進むべき経路を決定するように構成されることができる。
本開示の別の側面では、可動オブジェクトの位置的情報を収集する方法が説明される。本方法は、(a)メモリにおいて、可動オブジェクトに連結されている第1の感知システムからデータを受信することであって、第1の感知システムは、可動オブジェクトの位置的情報を決定するために有用な信号を受信するセンサを含む、ことと、(b)メモリにおいて、可動オブジェクトに連結されている第2の感知システムからデータを受信することであって、第2の感知システムは、可動オブジェクトの位置的情報を決定するために有用な信号を受信するセンサを含む、ことと、(c)プロセッサを用いて、第2の感知システムのセンサによって受信される信号が所定の閾値を超える強度を有するかどうかを決定することと、(d)プロセッサを用いて、(i)ステップ(b)の信号の強度が所定の閾値を超えないときに、第2の感知システムからのデータを伴わずに第1の感知システムからのデータに基づいて、(ii)ステップ(b)の信号の強度が所定の閾値を超えるときに、第2の感知システムからのデータとともに第1の感知システムのデータに基づいて、可動オブジェクトの位置的情報を計算することとを含む。
いくつかの実施形態では、可動オブジェクトは、無人機である。
いくつかの実施形態では、位置的情報を計算することは、可動オブジェクトの場所情報および配向情報を計算することを含むことができる。場所情報を計算することは、可動オブジェクトの高度、緯度、および経度を計算することを含むことができる。配向情報を計算することは、ヨー軸に対する可動オブジェクトの角度、ロール軸に対する角度、およびピッチ軸に対する角度を計算することを含むことができる。
いくつかの実施形態では、第1の感知システムからデータを受信することは、第1の感知システムによって使用される非GPS感知システムからデータを受信することを含む。非GPS感知システムからデータを受信することは、非GPS感知システムによって使用される1つ以上の視覚センサからデータを受信することを含むことができる。1つ以上の視覚センサからデータを受信することは、横方向に離間した複数の視覚センサからデータを受信することを含むことができる。本方法はさらに、可動オブジェクトに連結されている第3の感知システムからデータを受信することを含むことができ、該第3の感知システムは、IMUを使用する。非GPS感知システムからデータを受信することは、非GPS感知システムによって使用されるIMUからデータを受信することを含むことができる。
いくつかの実施形態では、第2の感知システムからデータを受信することは、第2の感知システムによって使用されるGPSセンサからデータを受信することを含む。第2の感知システムのGPSセンサによって受信される信号の強度は、受信されるGPS信号の数および受信されるGPS信号の大きさに依存し得る。
いくつかの実施形態では、位置的情報を決定するために有用な信号は、光信号、衛星からの信号、あるいは速度または加速度を示す信号を含む。
いくつかの実施形態では、所定の閾値は、第2の感知システムが動作することを可能にする、信号の最小強度よりも大きい。
いくつかの実施形態では、所定の閾値は、ユーザによって入力される。
本開示の別の側面では、可動オブジェクトの位置的情報を収集するためのプログラム命令を含む非一過性のコンピュータ読み取り可能な媒体が提供される。コンピュータ読み取り可能な媒体は、(a)可動オブジェクトに連結されている第1の感知システムから受信されるデータを分析するためのプログラム命令であって、第1の感知システムは、可動オブジェクトの位置的情報を決定するために有用な信号を受信するセンサを含む、プログラム命令と、(b)可動オブジェクトに連結されている第2の感知システムから受信されるデータを分析するためのプログラム命令であって、第2の感知システムは、可動オブジェクトの位置的情報を決定するために有用な信号を受信するセンサを含む、プログラム命令と、(c)第2の感知システムのセンサによって受信される信号が、所定の閾値を超える強度を有するかどうかを決定するためのプログラム命令と、(i)(b)の信号の強度が所定の閾値を超えないときに、第2の感知システムからの分析されたデータを伴わずに第1の感知システムからの分析されたデータに基づいて、(ii)(b)の信号の強度が所定の閾値を超えるときに、第2の感知システムからのデータとともに第1の感知システムの分析されたデータに基づいて、可動オブジェクトの位置的情報を計算するためのプログラム命令とを含む。
いくつかの実施形態では、可動オブジェクトは、無人機である。
いくつかの実施形態では、位置的情報を計算するためのプログラム命令は、可動オブジェクトの場所情報および配向情報を計算するためのプログラム命令を含む。場所情報を計算するためのプログラム命令は、可動オブジェクトの高度、緯度、および経度を計算するためのプログラム命令を含むことができる。配向情報を計算するためのプログラム命令は、ヨー軸に対する可動オブジェクトの角度、ロール軸に対する角度、およびピッチ軸に対する角度を計算するためのプログラム命令を含むことができる。
いくつかの実施形態では、第1の感知システムから受信されるデータを分析するためのプログラム命令は、第1の感知システムによって使用される非GPS感知システムから受信されるデータを分析するためのプログラム命令を含む。非GPS感知システムから受信されるデータを分析するためのプログラム命令は、非GPS感知システムによって使用される1つ以上の視覚センサから受信されるデータを分析するためのプログラム命令を含むことができる。1つ以上の視覚センサから受信されるデータを分析するためのプログラム命令は、横方向に離間した複数の視覚センサから受信されるデータを分析するためのプログラム命令を含むことができる。コンピュータ読み取り可能な媒体はさらに、可動オブジェクトに連結されている第3の感知システムから受信されるデータを分析するためのプログラム命令を含むことができ、該第3の感知システムは、IMUを使用する。非GPS感知システムから受信されるデータを分析するためのプログラム命令は、非GPS感知システムによって使用されるIMUから受信されるデータを分析するためのプログラム命令を含むことができる。
いくつかの実施形態では、第2の感知システムから受信されるデータを分析するためのプログラム命令は、第2の感知システムによって使用されるGPSセンサから受信されるデータを分析するためのプログラム命令を含む。第2の感知システムのGPSセンサによって受信される信号の強度は、受信されるGPS信号の数および受信されるGPS信号の大きさに依存し得る。
いくつかの実施形態では、位置的情報を決定するために有用な信号は、光信号、衛星からの信号、あるいは速度または加速度を示す信号を含む。
いくつかの実施形態では、所定の閾値は、第2の感知システムが動作することを可能にする、信号の最小強度よりも大きい。
いくつかの実施形態では、所定の閾値は、ユーザによって入力される。
本開示の別の側面では、可動オブジェクトの位置的情報を収集するためのシステムが提供される。本システムは、(a)可動オブジェクトに連結されている第1の感知システムであって、第1の感知システムは、可動オブジェクトの位置的情報を決定するために有用な信号を受信するように構成されているセンサを含む、第1の感知システムと、(b)可動オブジェクトに連結されている第2の感知システムであって、第2の感知システムは、可動オブジェクトの位置的情報を決定するために有用な信号を受信するように構成されているセンサを含む、第2の感知システムと、(c)(1)第2の感知システムのセンサによって受信される信号が、所定の閾値を超える強度を有するかどうかを決定し、(2)(i)ステップ(b)の信号の強度が所定の閾値を超えないときに、第2の感知システムからのデータを伴わずに第1の感知システムからのデータに基づいて、(ii)ステップ(b)の信号の強度が所定の閾値を超えるときに、第2の感知システムからのデータとともに第1の感知システムのデータに基づいて、可動オブジェクトの位置的情報を計算する、プロセッサとを含む。
いくつかの実施形態では、可動オブジェクトは、無人機である。
いくつかの実施形態では、位置的情報は、可動オブジェクトの場所情報および配向情報を含む。場所情報は、可動オブジェクトの高度、緯度、および経度を含むことができる。配向情報は、ヨー軸に対する可動オブジェクトの角度、ロール軸に対する角度、およびピッチ軸に対する角度を含むことができる。
いくつかの実施形態では、第1の感知システムは、非GPS感知システムである。非GPS感知システムは、1つ以上の視覚センサを使用することができる。非GPS感知システムは、横方向に離間した複数の視覚センサを使用することができる。可動オブジェクトに連結されている第3の感知システムからデータをさらに受信することができ、該第3の感知システムは、IMUを使用する。非GPS感知システムは、IMUを使用することができる。
いくつかの実施形態では、第2のシステムは、GPSシステムである。信号の強度は、受信されるGPS信号の数および受信されるGPS信号の大きさに依存し得る。
いくつかの実施形態では、位置的情報を決定するために有用な信号は、光信号、衛星からの信号、あるいは速度または加速度を示す信号を含む。
いくつかの実施形態では、所定の閾値は、第2の感知システムが動作することを可能にする、信号の最小強度よりも大きい。
いくつかの実施形態では、所定の閾値は、ユーザによって入力される。
本開示の別の側面では、可動オブジェクトの位置的情報を収集する方法が説明される。本方法は、メモリにおいて、可動オブジェクトの位置的情報を含む、事前に記憶された経路を辿るように可動オブジェクトを誘導する命令を受信することであって、該位置的情報は、可動オブジェクトの場所情報および配向情報を含む、ことと、可動オブジェクトが事前に記憶された経路を辿っている間に、受信機において、可動オブジェクトの速度プロファイルを受信することと、可動オブジェクトの1つ以上の感知システムから、事前に記憶された経路に対する可動オブジェクトの位置を示す少なくとも1つの信号を受信することと、可動オブジェクトの1つ以上のアクチュエータを用いて、可動オブジェクトの位置を示す少なくとも1つの信号に応答して、速度プロファイルに従って事前に記憶された経路を可動オブジェクトに辿らせることとを含む。
いくつかの実施形態では、事前に記憶された経路を辿るように可動オブジェクトを誘導する命令を受信することは、可動オブジェクトが以前に進んで記録した経路を辿るように可動オブジェクトを誘導する命令を受信することを含む。速度プロファイルを受信することは、可動オブジェクトが事前に記憶された経路を以前に進んだときの事前に記憶された経路に沿った可動オブジェクトの速度とは異なる、速度値を受信することを含むことができる。
いくつかの実施形態では、事前に記憶された経路を辿るように可動オブジェクトを誘導する命令を受信することは、可動オブジェクトが以前に進んで記録した経路の逆を辿るように可動オブジェクトを誘導する命令を受信することを含む。
いくつかの実施形態では、事前に記憶された経路を辿るように可動オブジェクトを誘導する命令を受信することは、1つ以上の経路パラメータを含む経路テンプレートを辿るように可動オブジェクトを誘導する命令を受信することを含む。
いくつかの実施形態では、事前に記憶された経路を辿るように可動オブジェクトを誘導する命令を受信することは、ユーザによって入力される経路を辿るように可動オブジェクトを誘導する命令を受信することを含む。
いくつかの実施形態では、事前に記憶された経路を辿るように可動オブジェクトを誘導する命令を受信することは、可動オブジェクトが繰り返し辿ることが可能であるループを辿るように可動オブジェクトを誘導する命令を受信することを含む。
いくつかの実施形態では、速度プロファイルを受信することは、事前に記憶された経路上で可変速度を受信することを含む。
いくつかの実施形態では、速度プロファイルを受信することは、ユーザによって入力される速度プロファイルを受信することを含む。
いくつかの実施形態では、可動オブジェクトに事前に記憶された経路を辿らせることは、可動オブジェクトが事前に記憶された経路を辿っている間に速度プロファイルを変更することを含む。
いくつかの実施形態では、可動オブジェクトは、異なる種類のセンサを使用する複数の感知システムを有する。感知システムは、視覚感知システム、IMU、GPSシステムのうちの2つ以上を含むことができる。
いくつかの実施形態では、可動オブジェクトは、無人機である。
いくつかの実施形態では、1つ以上のアクチュエータは、可動オブジェクトのモータである。
本開示の別の側面では、可動オブジェクトを制御するためのプログラム命令を含む非一過性のコンピュータ読み取り可能な媒体が提供される。コンピュータ読み取り可能な媒体は、可動オブジェクトが辿るべき位置的情報を含む事前に記憶された経路を受信するためのプログラム命令であって、位置的情報は、可動オブジェクトの場所情報および配向情報を含む該位置的情報を含む、プログラム命令と、可動オブジェクトが事前に記憶された経路を辿っている間に可動オブジェクトが辿るための速度プロファイルを受信するためのプログラム命令と、可動オブジェクトの1つ以上の感知システムからの事前に記憶された経路に対する可動オブジェクトの位置を示す、少なくとも1つの信号を分析するためのプログラム命令と、可動オブジェクトの位置を示す、少なくとも1つの信号に応答して、速度プロファイルに従って事前に記憶された経路を可動オブジェクトに辿らせるように、命令を可動オブジェクトの1つ以上のアクチュエータに提供するためのプログラム命令とを含む。
いくつかの実施形態では、事前に記憶された経路を受信するためのプログラム命令は、可動オブジェクトが以前に進んで記録した経路を受信するためのプログラム命令を含む。速度プロファイルを受信するためのプログラム命令は、可動オブジェクトが事前に記憶された経路を以前に進んだときの事前に記憶された経路に沿った可動オブジェクトの速度とは異なる、速度値を受信するためのプログラム命令を含むことができる。
いくつかの実施形態では、事前に記憶された経路を受信するためのプログラム命令は、可動オブジェクトが以前に進んで記録した経路の逆を受信するためのプログラム命令を含む。
いくつかの実施形態では、事前に記憶された経路を受信するためのプログラム命令は、1つ以上の経路パラメータを含む経路テンプレートを受信するためのプログラム命令を含む。
いくつかの実施形態では、事前に記憶された経路を受信するためのプログラム命令は、ユーザによって入力される経路を受信するためのプログラム命令を含む。
いくつかの実施形態では、事前に記憶された経路を受信するためのプログラム命令は、可動オブジェクトが繰り返し辿ることが可能であるループを受信するためのプログラム命令を含む。
いくつかの実施形態では、速度プロファイルを受信するためのプログラム命令は、事前に記憶された経路上で可変速度を受信するためのプログラム命令を含む。
いくつかの実施形態では、速度プロファイルを受信するためのプログラム命令は、ユーザによって入力される速度プロファイルを受信するためのプログラム命令を含む。
いくつかの実施形態では、可動オブジェクトに事前に記憶された経路を辿らせる命令を提供するためのプログラム命令は、可動オブジェクトが事前に記憶された経路を辿っている間に速度プロファイルを変更するためのプログラム命令を含む。
いくつかの実施形態では、可動オブジェクトは、異なる種類のセンサを使用する複数の感知システムを有する。感知システムは、視覚感知システム、IMU、GPSシステムのうちの2つ以上を含むことができる。
いくつかの実施形態では、可動オブジェクトは、無人機である。
いくつかの実施形態では、1つ以上のアクチュエータは、可動オブジェクトのモータである。
本開示の別の側面では、可動オブジェクトを制御するためのシステムが提供される。本システムは、可動オブジェクトが辿るべき位置的情報を含む事前に記憶された経路を備えているメモリであって、位置的情報は、可動オブジェクトの場所情報および配向情報を含む、メモリと、可動オブジェクトが事前に記憶された経路を辿っている間に可動オブジェクトが辿るための速度プロファイルを受信するための受信機と、可動オブジェクトに連結される1つ以上の感知システムであって、1つ以上の感知システムは、事前に記憶された経路に対する可動オブジェクトの位置を示す、少なくとも1つの信号を提供する、該1つ以上の感知システムと、可動オブジェクトの1つ以上のアクチュエータであって、1つ以上のアクチュエータは、可動オブジェクトの位置を示す、少なくとも1つの信号に応答して、速度プロファイルに従って事前に記憶された経路を可動オブジェクトに辿らせるように構成される、該1つ以上のアクチュエータとを含む。
いくつかの実施形態では、事前に記憶された経路は、可動オブジェクトが以前に進んで記録した経路である。速度プロファイルは、可動オブジェクトが事前に記憶された経路を以前に進んだときの事前に記憶された経路に沿った可動オブジェクトの速度とは異なる、速度値を含むことができる。
いくつかの実施形態では、事前に記憶された経路は、可動オブジェクトが以前に進んで記録した経路の逆である。
いくつかの実施形態では、事前に記憶された経路は、1つ以上の経路パラメータを含む経路テンプレートである。
いくつかの実施形態では、事前に記憶された経路は、ユーザによって入力される経路である。
いくつかの実施形態では、事前に記憶された経路は、可動オブジェクトが繰り返し辿ることが可能であるループである。
いくつかの実施形態では、速度プロファイルは、事前に記憶された経路上の可変速度を含む。
いくつかの実施形態では、速度プロファイルは、ユーザによって入力される。
いくつかの実施形態では、速度プロファイルは、可動オブジェクトが事前に記憶された経路を辿っている間に変更される。
いくつかの実施形態では、可動オブジェクトは、異なる種類のセンサを使用する、複数の感知システムを有する。感知システムは、視覚感知システム、IMU、GPSシステムのうちの2つ以上を含むことができる。
いくつかの実施形態では、可動オブジェクトは、無人機である。
いくつかの実施形態では、1つ以上のアクチュエータは、可動オブジェクトのモータである。
別の側面では、可動オブジェクトの速度を制御する方法が提供される。本方法は、受信機において、移動のための命令を受信することであって、移動は、可動オブジェクトの平行移動および角移動を含む、ことと、メモリの中で、可動オブジェクトが移動のための命令に応答して移動している間に、可動オブジェクトが従うための1つ以上の速度規則を提供することと、可動オブジェクトの1つ以上の感知システムから、可動オブジェクトの位置を示す、少なくとも1つの信号を受信することと、可動オブジェクトの1つ以上のアクチュエータを用いて、可動オブジェクトの位置を示す少なくとも1つの信号に基づいて、速度規則に従って移動のための命令に応答して可動オブジェクトを移動させることとを含む。
いくつかの実施形態では、可動オブジェクトの移動のための命令を受信することは、リモートコントロールから提供される命令を受信することを含む。リモートコントロールから提供される命令を受信することは、リモートコントロールの中へ可動オブジェクトの移動のためのユーザ入力情報を受信することを含むことができる。
いくつかの実施形態では、可動オブジェクトの移動のための命令を受信することは、可動オブジェクトのための事前に記憶された経路を備えている、メモリから提供される命令を受信することを含む。
いくつかの実施形態では、速度規則を提供することは、可動オブジェクトが移動することが許可される最大速度を提供することを含む。最大速度を提供することは、一定の固定速度を提供することを含むことができる。最大速度を提供することは、可動オブジェクトの位置を示す、少なくとも1つの信号に基づいて、最大速度を計算することを含むことができる。
いくつかの実施形態では、速度規則を提供することは、可動オブジェクトが移動することが許可される一定速度を提供することを含む。一定速度を提供することは、直線速度または角速度を提供することを含むことができる。
いくつかの実施形態では、可動オブジェクトは、異なる種類のセンサを使用する複数の感知システムを有する。感知システムは、視覚感知システム、IMU、GPSシステムのうちの2つ以上を含むことができる。
いくつかの実施形態では、可動オブジェクトは、無人機である。
いくつかの実施形態では、1つ以上のアクチュエータは、可動オブジェクトのモータである。
別の側面では、可動オブジェクトの速度を制御するためのプログラム命令を含む非一過性のコンピュータ読み取り可能な媒体が提供される。コンピュータ読み取り可能な媒体は、可動オブジェクトの移動のための命令を受信するためのプログラム命令であって、移動は、可動オブジェクトの平行移動および角移動を含む、プログラム命令と、可動オブジェクトが移動のための命令に応答して移動している間に、可動オブジェクトが従うための1つ以上の速度規則を提供するためのプログラム命令と、可動オブジェクトの位置を示す、少なくとも1つの信号を分析するためのプログラム命令と、可動オブジェクトの位置を示す少なくとも1つの信号に基づいて、速度規則に従って移動のための命令に応答して可動オブジェクトを移動させるように、命令を可動オブジェクトの1つ以上のアクチュエータに提供するためのプログラム命令とを含む。
いくつかの実施形態では、可動オブジェクトの移動のための命令を受信するためのプログラム命令は、リモートコントロールから提供される命令を受信するためのプログラム命令を含む。リモートコントロールから提供される命令を受信するためのプログラム命令は、リモートコントロールの中への可動オブジェクトの移動のためのユーザ入力命令を受信するためのプログラム命令を含むことができる。
いくつかの実施形態では、可動オブジェクトの移動のための命令を受信するためのプログラム命令は、可動オブジェクトのための事前に記憶された経路を備えている、メモリから提供される命令を受信するためのプログラム命令を含む。
いくつかの実施形態では、速度規則を提供するためのプログラム命令は、可動オブジェクトが移動することが許可される最大速度を提供するためのプログラム命令を含む。最大速度を提供するためのプログラム命令は、一定の固定速度を提供するためのプログラム命令を含むことができる。最大速度を提供するためのプログラム命令は、可動オブジェクトの位置を示す、少なくとも1つの信号に基づいて、最大速度を計算するためのプログラム命令を含むことができる。
いくつかの実施形態では、速度規則を提供するためのプログラム命令は、可動オブジェクトが移動することが許可される一定速度を提供するためのプログラム命令を含む。一定速度を提供するためのプログラム命令は、直線速度または角速度を提供するためのプログラム命令を含むことができる。
いくつかの実施形態では、可動オブジェクトは、異なる種類のセンサを使用する複数の感知システムを有する。感知システムは、視覚感知システム、IMU、GPSシステムのうちの2つ以上を含むことができる。
いくつかの実施形態では、可動オブジェクトは、無人機である。
いくつかの実施形態では、1つ以上のアクチュエータは、可動オブジェクトのモータである。
別の側面では、可動オブジェクトの速度を制御するためのシステムが提供される。本システムは、可動オブジェクトの移動のための命令を受信するための受信機であって、移動は、可動オブジェクトの平行移動および角移動を含む、受信機と、可動オブジェクトが移動のための命令に応答して移動している間に、可動オブジェクトが従うための1つ以上の速度規則を記憶するメモリと、可動オブジェクトに連結される1つ以上の感知システムであって、1つ以上の感知システムは、可動オブジェクトの並置を示す、少なくとも1つの信号を提供する、1つ以上の感知システムと、可動オブジェクトの1つ以上のアクチュエータであって、1つ以上のアクチュエータは、可動オブジェクトの位置を示す少なくとも1つの信号に基づいて、速度規則に従って移動のための命令に応答して可動オブジェクトを移動させるように構成される、1つ以上のアクチュエータとを含む。
いくつかの実施形態では、可動オブジェクトの移動のための命令は、リモートコントロールから提供される。可動オブジェクトの移動のための命令は、ユーザによってリモートコントロールに入力することができる。
いくつかの実施形態では、可動オブジェクトの移動のための命令は、可動オブジェクトのための事前に記憶された経路を備えている、メモリから提供される。
いくつかの実施形態では、速度規則は、可動オブジェクトが移動することが許可される最大速度を含む。最大速度は、一定の固定速度であり得る。最大速度は、可動オブジェクトの位置を示す、少なくとも1つの信号に基づいて計算することができる。
いくつかの実施形態では、速度規則は、可動オブジェクトが移動することが許可される一定速度を含む。一定速度は、直線速度であり得る。一定速度は、角速度であり得る。
いくつかの実施形態では、可動オブジェクトは、異なる種類のセンサを使用する複数の感知システムを有する。感知システムは、視覚感知システム、IMU、GPSシステムのうちの2つ以上を含むことができる。
いくつかの実施形態では、可動オブジェクトは、無人機である。
いくつかの実施形態では、1つ以上のアクチュエータは、可動オブジェクトのモータである。
別の側面では、無人機の飛行軌道を表示する方法が提供される。本方法は、無人機の1つ以上の感知システムから、無人機の位置を示す、少なくとも1つの信号を受信することであって、無人機の位置は、無人機の場所および無人機の配向を含む、ことと、無人機の端末リモートデバイスのユーザインターフェース上で、少なくとも1つの信号に応答して、3次元座標系における無人機の場所および視覚指標を介した無人機の配向をリアルタイムで表示することとを含む。
いくつかの実施形態では、少なくとも1つの信号を受信することは、異なる種類のセンサを使用する複数の感知システムから少なくとも1つの信号を受信することを含む。少なくとも1つの信号を受信することは、立体視覚感知システム、IMU、GPSシステムのうちの2つ以上から少なくとも1つの信号を受信することを含むことができる。
いくつかの実施形態では、少なくとも1つの信号を受信することは、無人機に堅く連結される1つ以上の感知システムから少なくとも1つの信号を受信することを含む。
いくつかの実施形態では、本方法はさらに、端末において、無人機の移動を制御するようにユーザから入力を受信することを含む。
いくつかの実施形態では、端末は、手持ち式オブジェクトである。
いくつかの実施形態では、本方法は、端末のタッチスクリーン上に無人機の位置を表示することを含む。
いくつかの実施形態では、視覚指標を表示することは、無人機のペイロードが面している方向を示す矢印を表示することを含む。
いくつかの実施形態では、無人機の配向を表示することは、無人機が移動するように位置付けられる方向を示す矢印を表示することを含む。
いくつかの実施形態では、無人機の対向する回転翼のシャフト間の距離は、5cmから5mに及ぶ寸法を有する。
いくつかの実施形態では、無人機は、回転翼機である。
いくつかの実施形態では、本方法はさらに、3次元座標系の配向を調整するようにユーザから入力を受信することと、それに対応して無人機の配向を示す視覚指標を調整することとを含む。
別の側面では、無人機の飛行軌道を表示するためのプログラム命令を含む非一過性のコンピュータ読み取り可能な媒体が提供される。コンピュータ読み取り可能な媒体は、無人機の1つ以上の感知システムからの無人機の位置を示す、少なくとも1つの信号を分析するためのプログラム命令であって、無人機の位置は、無人機の場所および無人機の配向を含む、ログラム命令と、無人機への端末リモートデバイスのユーザインターフェース上で、少なくとも1つの信号に応答して、3次元座標系における無人機の場所および視覚指標を介した無人機の配向をリアルタイムで表示するためのプログラム命令とを含む。
いくつかの実施形態では、少なくとも1つの信号を分析するためのプログラム命令は、異なる種類のセンサを使用する複数の感知システムから少なくとも1つの信号を分析するためのプログラム命令を含む。少なくとも1つの信号を分析するためのプログラム命令は、立体視覚感知システム、IMU、GPSシステムのうちの2つ以上から少なくとも1つの信号を分析するためのプログラム命令を含むことができる。
いくつかの実施形態では、少なくとも1つの信号を分析するためのプログラム命令は、無人機に堅く連結される1つ以上の感知システムからの少なくとも1つの信号を分析するためのプログラム命令を含む。
いくつかの実施形態では、コンピュータ読み取り可能な媒体はさらに、端末において、無人機の移動を制御するようにユーザから入力を受信するためのプログラム命令を含む。
いくつかの実施形態では、端末は、手持ち式オブジェクトである。
いくつかの実施形態では、コンピュータ読み取り可能な媒体は、端末のタッチスクリーン上に無人機の位置を表示するためのプログラム命令を含む。
いくつかの実施形態では、視覚指標を表示するためのプログラム命令は、無人機のペイロードが面している方向を示す矢印を表示するためのプログラム命令を含む。
いくつかの実施形態では、無人機の配向を表示するためのプログラム命令は、無人機が移動するように位置付けられる方向を示す矢印を表示するためのプログラム命令を含む。
いくつかの実施形態では、無人機の対向する回転翼のシャフト間の距離は、5cmから5mに及ぶ寸法を有する。
いくつかの実施形態では、無人機は、回転翼機である。
いくつかの実施形態では、コンピュータ読み取り可能な媒体はさらに、3次元座標系の配向を調整するようにユーザから入力を受信するためのプログラム命令と、それに対応して無人機の配向を示す視覚指標を調整するためのプログラム命令とを含む。
別の側面では、無人機の飛行軌道を表示するためのシステムが提供される。本システムは、無人機の位置を示す、少なくとも1つの信号を提供する、無人機に連結される1つ以上の感知システムであって、無人機の位置は、無人機の場所および無人機の配向を含む、1つ以上の感知システムと、少なくとも1つの信号に応答して、3次元座標系における無人機の場所および視覚指標を介した無人機の配向を示す、ユーザインターフェースを含むUAVへの端末リモートデバイスとを含む。
いくつかの実施形態では、無人機は、異なる種類のセンサを使用する複数の感知システムを有する。感知システムは、立体視覚感知システム、IMU、GPSシステムのうちの2つ以上を含むことができる。
いくつかの実施形態では、1つ以上の感知システムは、無人機に堅く連結される。
いくつかの実施形態では、無人機の移動を制御するユーザからの入力はさらに、端末において受信することができる。
いくつかの実施形態では、端末は、手持ち式オブジェクトである。
いくつかの実施形態では、無人機の位置は、端末のタッチスクリーン上で表示される。
いくつかの実施形態では、無人機の配向の視覚指標は、無人機のペイロードが面している方向を示す矢印である。
いくつかの実施形態では、無人機の配向の視覚指標は、無人機が移動するように位置付けられる方向を示す矢印である。
いくつかの実施形態では、無人機の対向する回転翼のシャフト間の距離は、5cmから5mに及ぶ寸法を有する。
いくつかの実施形態では、無人機は、回転翼機である。
いくつかの実施形態では、ユーザからの入力はさらに、3次元座標系の配向を調整し、それに対応して無人機の配向を示す視覚指標を調整するように受信することができる。
本開示の追加の側面および利点は、単純に、本開示を実行するために考慮される最良の様態の例証として、本開示の例示的実施形態のみが示され、説明される、以下の発明を実施するための形態から、当業者に容易に明白となるであろう。認識されるように、本開示は、他の異なる実施形態が可能であり、そのいくつかの詳細は、全て本開示から逸脱することなく、種々の明白な側面の修正が可能である。したがって、図面および説明は、制限的ではなく本質的に例証的と見なされるものである。
(参照による組み込み)
本明細書で記述される全ての出版物、特許、および特許出願は、各個別出版物、特許、または特許出願が、参照することにより組み込まれるように特異的かつ個別に示された場合と同一の程度に、参照することにより本明細書に組み込まれる。
本発明の新規の特徴が、添付の請求項で詳細に記載される。本発明の原理が利用される、例証的実施形態を記載する以下の発明を実施するための形態、ならびに添付図面を参照することにより、本発明の特徴および利点のより良い理解が得られるであろう。
図1は、本発明の実施形態による、無人機を図示する。 図2は、本発明の実施形態による、キャリアおよびペイロードを含む可動オブジェクトを図示する。 図3は、本発明の実施形態による、複数の感知システムを伴う可動オブジェクトを図示する。 図4は、本発明の実施形態による、可動オブジェクトの位置的情報を収集するためのシステムのブロック図としての概略図である。 図5は、本発明の実施形態による、可動オブジェクトの位置的情報および/または運動情報を決定するためのセンサ融合システムのブロック図としての概略図である。 図6は、本発明の実施形態による、可動オブジェクトの位置的情報および/または運動情報の状態推定のためのセンサ融合アルゴリズムを図示するフローチャートである。 図7は、本発明の実施形態による、立体視覚のためのシステムを図示する。 図8は、本発明の実施形態による、所定の飛行経路に沿った可動オブジェクトのナビゲーションのためのシステムのブロック図としての概略図である。 図9は、本発明の実施形態による、可動オブジェクトの速度制御のためのシステムのブロック図としての概略図である。 図10は、本発明の実施形態による、可動オブジェクトの制御およびナビゲーションのためのユーザインターフェースを図示する。
本発明は、可動オブジェクトの位置的情報および/または運動情報を収集するためのシステム、方法、およびデバイスを提供する。本明細書で説明されるシステム、方法、およびデバイスは、(例えば、位置、速度、および/または加速度に関して)可動オブジェクトを制御するために使用することができる。加えて、本明細書で説明されるシステム、方法、およびデバイスは、可動オブジェクトに関する情報(例えば、可動オブジェクトの飛行軌道)を表示するために使用することができる。本発明の異なる側面を、個々に、集合的に、または互に組み合わせて認識できることを理解されたい。本明細書で説明される本発明の種々の側面は、以下に記載される特定の用途のうちのいずれかに、または任意の他の種類の可動オブジェクトに適用され得る。
本明細書で説明されるシステム、方法、およびデバイスは、任意の好適な可動オブジェクトに適用することができる。可動オブジェクトは、空中(例えば、固定翼航空機、回転翼航空機、または固定翼も回転翼も持たない航空機)、水中(例えば、船または潜水艦)、地上(例えば、動力車または列車)、宇宙空間(例えば、宇宙飛行機、衛星、または宇宙探査機)、またはこれらの環境の任意の組み合わせ等の任意の好適な環境内で移動するように構成することができる。可動オブジェクトは、本明細書の他の場所で説明される車両等の車両であり得る。いくつかの実施形態では、可動オブジェクトは、人間または動物等の生体であり得る。好適な動物は、鳥類、イヌ、ネコ、ウマ、ウシ、ヒツジ、ブタ、イルカ、齧歯類、または昆虫を含むことができる。
可動オブジェクトは、6自由度(例えば、平行移動の3自由度および回転の3自由度)に対して環境内で自由に移動することが可能であり得る。代替として、可動オブジェクトの移動は、所定の経路、進路、または配向によって等、1つ以上の自由度に対して制約することができる。移動は、エンジンまたはモータ等の任意の好適な作動機構によって作動されることができる。可動オブジェクトの作動機構は、電気エネルギー、磁気エネルギー、太陽エネルギー、風力エネルギー、重力エネルギー、化学エネルギー、核エネルギー、またはそれらの任意の好適な組み合わせ等の任意の好適なエネルギー源によって動力供給されることができる。
場合によっては、可動オブジェクトは、車両であり得る。好適な車両は、水上車両、航空機、宇宙船、または地上車両を含み得る。例えば、航空機は、固定翼航空機(たとえば、飛行機、グライダー)、回転翼航空機(例えば、ヘリコプター、回転翼機)、固定翼および回転翼の両方を有する航空機、またはいずれも持たない航空機(例えば、小型飛行船、熱気球)であり得る。航空機等の車両は、空中で、水上または水中で、宇宙空間で、あるいは地上で自走式である等、自走式であり得る。自走式車両は、1つ以上のエンジン、モータ、車輪、車軸、磁石、回転翼、プロペラ、羽根、ノズル、またはそれらの任意の好適な組み合わせを含む、推進システム等の推進システムを利用することができる。場合によっては、推進システムは、可動オブジェクトが表面から離陸すること、表面上に着陸すること、その現在の位置および/または配向を維持すること(例えば、ホバリングすること)、配向を変化させること、および/または位置を変化させることを可能にするために、使用することができる。
例えば、推進システムは、1つ以上の回転翼を含むことができる。回転翼は、中央シャフトに添着された1つ以上の羽根(例えば、1つ、2つ、3つ、4つ以上の羽根)を含むことができる。羽根は、中央シャフトの周囲で対称または非対称に配置することができる。羽根は、好適なモータまたはエンジンによって駆動されることができる、中央シャフトの回転によって旋回されることができる。羽根は、時計回りおよび/または反時計回りに回転するように構成することができる。回転翼は、水平回転翼(水平回転面を有する回転翼を指し得る)、垂直に配向された回転翼(垂直回転面を有する回転翼を指し得る)、または水平および垂直位置の間の中間角度で傾けられた回転翼であり得る。いくつかの実施形態では、水平に配向された回転翼は、回転して揚力を可動オブジェクトに提供し得る。垂直に配向された回転翼は、回転して推力を可動オブジェクトに提供し得る。水平および垂直位置の間の中間角度で配向された回転翼は、回転して、揚力および推力の両方を可動オブジェクトに提供し得る。1つ以上の回転翼は、別の回転翼の回転によって生じさせられるトルクに対抗するトルクを提供するために使用され得る。
可動オブジェクトは、ユーザによって遠隔で制御するか、または可動オブジェクト内あるいは上の乗員によって局所的に制御することができる。いくつかの実施形態では、可動オブジェクトは、無人機(UAV)等の無人の可動オブジェクトである。UAV等の無人の可動オブジェクトには、可動オブジェクトの機内に乗員を有しないであろう。可動オブジェクトは、人間または自律制御システム(例えば、コンピュータ制御システム)、あるいはそれらの任意の好適な組み合わせによって制御することができる。可動オブジェクトは、人工知能で構成されたロボット等の自律または半自律ロボットであり得る。
可動オブジェクトは、任意の好適なサイズおよび/または寸法を有することができる。いくつかの実施形態では、可動オブジェクトは、車両内または上に人間の乗員を有するためのサイズおよび/または寸法であり得る。代替として、可動オブジェクトは、車両内または上に人間の乗員を有することが可能であるものよりも小さいサイズおよび/または寸法であり得る。可動オブジェクトは、人間によって持ち上げられるか、または運搬されるために好適なサイズおよび/または寸法であり得る。代替として、可動オブジェクトは、人間によって持ち上げられるか、または運搬されるために好適なサイズおよび/または寸法より大きくてもよい。場合によっては、可動オブジェクトは、約2cm以下、約5cm以下、約10cm以下、約50cm以下、約1m以下、約2m以下、約5m以下、または約10m以下の最大寸法(例えば、長さ、幅、高さ、直径、対角線)を有し得る。 最大寸法は、約2cm以上、約5cm以上、約10cm以上、約50cm以上、約1m以上、約2m以上、約5m以上、または約10m以上であり得る。例えば、可動オブジェクトの対向する回転翼のシャフト間の距離は、約2cm以下、約5cm以下、約10cm以下、約50cm以下、約1m以下、約2m以下、約5m以下、または約10m以下であり得る。代替として、対向する回転翼のシャフト間の距離は、約2cm以上、約5cm以上、約10cm以上、約50cm以上、約1m以上、約2m以上、約5m以上、または約10m以上であり得る。
いくつかの実施形態では、可動オブジェクトは、100cm×100cm×100cm未満、50cm×50cm×30cm未満、または5cm×5cm×3cm未満の体積を有し得る。可動オブジェクトの全体積は、約1cm以下、約2cm以下、約5cm以下、約10cm以下、約20cm以下、約30cm以下、約40cm以下、約50cm以下、約60cm以下、約70cm以下、約80cm以下、約90cm以下、約100cm以下、約150cm以下、約200cm以下、約300cm以下、約500cm以下、約750cm以下、約1000cm以下、約5000cm以下、約10,000cm以下、約100,000cm以下、約1m以下、または約10m以下であり得る。逆に、可動オブジェクトの全体積は、約1cm以上、約2cm以上、約5cm以上、約10cm以上、約20cm以上、約30cm以上、約40cm以上、約50cm以上、約60cm以上、約70cm以上、約80cm以上、約90cm以上、約100cm以上、約150cm以上、約200cm以上、約300cm以上、約500cm以上、約750cm以上、約1000cm以上、約5000cm以上、約10,000cm以上、約100,000cm以上、約1m以上、または約10m以上であり得る。
いくつかの実施形態では、可動オブジェクトは、約32,000cm以下、約20,000cm以下、約10,000cm以下、約1,000cm以下、約500cm以下、約100cm以下、約50cm以下、約10cm以下、または約5cm以下の設置面積(可動オブジェクトによって包含される側方断面積を指し得る)を有し得る。逆に、設置面積は、約32,000cm以上、約20,000cm以上、約10,000cm以上、約1,000cm以上、約500cm以上、約100cm以上、約50cm以上、約10cm以上、または約5cm以上であり得る。
場合によっては、可動オブジェクトは、1000kgに満たない重さであり得る。可動オブジェクトの重量は、約1000kg以下、約750kg以下、約500kg以下、約200kg以下、約150kg以下、約100kg以下、約80kg以下、約70kg以下、約60kg以下、約50kg以下、約45kg以下、約40kg以下、約35kg以下、約30kg以下、約25kg以下、約20kg以下、約15kg以下、約12kg以下、約10kg以下、約9kg以下、約8kg以下、約7kg以下、約6kg以下、約5kg以下、約4kg以下、約3kg以下、約2kg以下、約1kg以下、約0.5kg以下、約0.1kg以下、約0.05kg以下、または約0.01kg以下であり得る。逆に、重量は、約1000kg以上、約750kg以上、約500kg以上、約200kg以上、約150kg以上、約100kg以上、約80kg以上、約70kg以上、約60kg以上、約50kg以上、約45kg以上、約40kg以上、約35kg以上、約30kg以上、約25kg以上、約20kg以上、約15kg以上、約12kg以上、約10kg以上、約9kg以上、約8kg以上、約7kg以上、約6kg以上、約5kg以上、約4kg以上、約3kg以上、約2kg以上、約1kg以上、約0.5kg以上、約0.1kg以上、約0.05kg以上、または約0.01kg以上であり得る。
いくつかの実施形態では、可動オブジェクトは、可動オブジェクトによって運搬される積み荷に対して小さくあり得る。積み荷は、以下でさらに詳細に説明されるように、ペイロードおよび/またはキャリアを含み得る。いくつかの実施例では、積み荷の重量に対する可動オブジェクトの重量の比は、約1:1より大きく、それ未満、またはそれに等しくあり得る。場合によっては、積み荷の重量に対する可動オブジェクトの重量の比は、約1:1より大きく、それ未満、またはそれに等しくあり得る。随意に、積み荷の重量に対するキャリアの重量の比は、約1:1より大きく、それ未満、またはそれに等しくあり得る。所望される場合、積み荷の重量に対する可動オブジェクトの重量の比は、1:2以下、1:3以下、1:4以下、1:5以下、1:10以下、またはさらにそれより小さくあり得る。逆に、積み荷の重量に対する可動オブジェクトの重量の比はまた、2:1以上、3:1以上、4:1以上、5:1以上、10:1以上、またはさらにそれより大きくあり得る。
いくつかの実施形態では、可動オブジェクトは、低いエネルギー消費量を有し得る。例えば、可動オブジェクトは、約5W/h未満、約4W/h未満、約3W/h未満、約2W/h未満、約1W/h未満、またはそれ未満を使用し得る。場合によっては、可動オブジェクトのキャリアは、低いエネルギー消費量を有し得る。例えば、キャリアは、約5W/h未満、約4W/h未満、約3W/h未満、約2W/h未満、約1W/h未満、またはそれ未満を使用し得る。随意に、可動オブジェクトのペイロードは、約5W/h未満、約4W/h未満、約3W/h未満、約2W/h未満、約1W/h未満、またはそれ未満等の低いエネルギー消費量を有し得る。
図1は、本発明の実施形態による、無人機(UAV)100であり得る、可動オブジェクトの実施例を図示する。UAV100は、4つの回転翼102、104、106、および108を有する推進システムを含むことができる。任意の数の回転翼が提供され得る(例えば、1、2、3、4、5、6以上)。無人機の回転翼または他の推進システムは、無人機がホバリングすること/位置を維持すること、配向を変化させること、および/または場所を変化させることを可能にし得る。対向する回転翼のシャフト間の距離は、任意の好適な長さ110であり得る。例えば、長さ110は、2m以下、または5m以下であり得る。いくつかの実施形態では、長さ110は、40cmから1m、10cmから2m、または5cmから5mの範囲内であり得る。前述のように、UAV等の航空機に関する任意の説明が、任意の他の種類の可動オブジェクトに適用され得、その逆も同様である。
いくつかの実施形態では、可動オブジェクトは、積み荷を運搬するように構成されることができる。積み荷は、乗客、貨物、機器、器具等のうちの1つ以上を含むことができる。積み荷は、筐体内に提供されることができる。筐体は、可動オブジェクトの筐体とは別個であり得るか、または可動オブジェクト用の筐体の一部であり得る。代替として、積み荷が筐体を提供されることができる一方で、可動オブジェクトは筐体を持たない。代替として、積み荷の複数部分または積み荷全体が筐体を提供されないことができる。積み荷は、可動オブジェクトに対して堅く固定することができる。随意に、積み荷は、可動オブジェクトに対して移動可能(例えば、可動オブジェクトに対して平行移動可能または回転可能)であり得る。
いくつかの実施形態では、積み荷は、ペイロードを含む。ペイロードは、いなかなる動作または機能も果たさないように構成されることができる。代替として、ペイロードは、機能的ペイロードとしても知られている、動作または機能を果たすように構成されるペイロードであり得る。例えば、ペイロードは、1つ以上の標的を調査するための1つ以上のセンサを含むことができる。画像捕捉デバイス(例えば、カメラ)、音声捕捉デバイス(例えば、パラボラマイクロホン)、赤外線撮像デバイス、または紫外線撮像デバイス等の任意の好適なセンサをペイロードに組み込むことができる。センサは、静的感知データ(例えば、写真)または動的感知データ(例えば、ビデオ)を提供することができる。いくつかの実施形態では、センサは、ペイロードの標的の感知データを提供する。代替として、または組み合わせて、ペイロードは、信号を1つ以上の標的に提供するための1つ以上のエミッタを含むことができる。照明源または音源等の任意の好適なエミッタを使用することができる。いくつかの実施形態では、ペイロードは、可動オブジェクトから遠隔にあるモジュールと通信するため等に1つ以上の送受信機を含む。随意に、ペイロードは、環境または標的と相互作用するように構成されることができる。例えば、ペイロードは、ロボットアーム等のオブジェクトを操作することが可能なツール、器具、または機構を含むことができる。
随意に、積み荷は、キャリアを含み得る。キャリアは、ペイロードのために提供されることができ、ペイロードは、直接的(例えば、可動オブジェクトに直接接触する)または間接的(例えば、可動オブジェクトに接触しない)のいずれかで、キャリアを介して可動オブジェクトに連結されることができる。逆に、ペイロードは、キャリアを必要とすることなく可動オブジェクト上に載置されることができる。ペイロードは、キャリアと一体的に形成することができる。代替として、ペイロードは、キャリアに解放可能に連結されることができる。いくつかの実施形態では、ペイロードは、1つ以上のペイロード要素を含むことができ、ペイロード要素のうちの1つ以上は、上記で説明されるように、可動オブジェクトおよび/またはキャリアに対して移動可能であり得る。
キャリアは、可動オブジェクトと一体的に形成することができる。代替として、キャリアは、可動オブジェクトに解放可能に連結されることができる。キャリアは、直接的または間接的に可動オブジェクトに連結されることができる。キャリアは、支持をペイロードに提供する(例えば、ペイロードの重量の少なくとも一部を支える)ことができる。キャリアは、ペイロードの移動を安定させること、および/または方向付けることが可能である好適な載置構造(例えば、ジンバルプラットフォーム)を含むことができる。いくつかの実施形態では、キャリアは、可動オブジェクトに対してペイロードの状態(例えば、位置および/または配向)を制御するように適合されることができる。例えば、キャリアは、可動オブジェクトの移動にかかわらず、ペイロードが好適な基準系に対してその位置および/または配向を維持するように、可動オブジェクトに対して(例えば、1、2、または3つの平行移動度、および/または1、2、または3つの回転度に対して)移動するように構成されることができる。基準系は、固定された基準系(例えば、周囲環境)であり得る。代替として、基準系は、移動基準系(例えば、移動可能オブジェクト、ペイロード標的)であり得る。
いくつかの実施形態では、キャリアは、キャリアおよび/または可動オブジェクトに対するペイロードの移動を可能にするように構成することができる。移動は、(例えば、1、2、または3つの軸に沿った)最大で3自由度に対する平行移動、または(例えば、1、2、または3つの軸の周囲の)最大で3自由度に対する回転、あるいはそれらの任意の好適な組み合わせであり得る。
場合によっては、キャリアは、キャリアフレームアセンブリおよびキャリア作動アセンブリを含むことができる。キャリアフレームアセンブリは、構造支持をペイロードに提供することができる。キャリアフレームアセンブリは、個々のキャリアフレーム構成要素を含むことができ、そのうちのいくつかは、互に対して移動可能であり得る。キャリア作動アセンブリは、個々のキャリアフレーム構成要素の移動を作動させる、1つ以上のアクチュエータ(例えば、モータ)を含むことができる。アクチュエータは、同時に複数のフレーム構成要素の移動を可能にすることができるか、または一度に単一のキャリアフレーム構成要素の移動を可能にするように構成され得る。キャリアフレーム構成要素の移動は、ペイロードの対応する移動を生じることができる。例えば、キャリア作動アセンブリは、1つ以上の回転軸(例えば、ロール軸、ピッチ軸、またはヨー軸)の周囲で1つ以上のキャリアフレーム構成要素の回転を作動させることができる。1つ以上のキャリアフレーム構成要素の回転は、ペイロードを可動オブジェクトに対して1つ以上の回転軸の周囲で回転させることができる。代替として、または組み合わせて、キャリア作動アセンブリは、1つ以上の平行移動軸に沿って1つ以上のキャリアフレーム構成要素の平行移動を作動させ、それにより、可動オブジェクトに対して1つ以上の対応する軸に沿ったペイロードの平行移動を生じることができる。
いくつかの実施形態では、固定された基準系(例えば、周辺環境)および/または互に対する可動オブジェクト、キャリア、およびペイロードの移動は、端末によって制御することができる。端末は、可動オブジェクト、キャリア、および/またはペイロードから遠い場所にある遠隔制御デバイスであり得る。端末は、支持プラットフォームの上に配置されるか、またはそれに添着されることができる。代替として、端末は、手持ち式または装着型デバイスであり得る。例えば、端末は、スマートフォン、タブレット、ラップトップ、コンピュータ、眼鏡、手袋、ヘルメット、マイクロホン、またはそれらの好適な組み合わせを含むことができる。端末は、キーボード、マウス、ジョイスティック、タッチスクリーン、またはディスプレイ等のユーザインターフェースを含むことができる。(例えば、端末の移動、場所、または傾斜を介して)端末と相互作用するために、手動で入力されたコマンド、音声制御、ジェスチャ制御、または位置制御等の任意の好適なユーザ入力を使用することができる。
端末はまた、可動オブジェクト、キャリア、および/またはペイロードの任意の好適な状態を制御するために使用することもできる。例えば、端末は、固定参照に対する可動オブジェクト、キャリア、および/またはペイロードの位置および/または配向を互からおよび/または互いに対して制御するために使用することができる。いくつかの実施形態では、端末は、キャリアの作動アセンブリ、ペイロードのセンサ、またはペイロードのエミッタ等の可動オブジェクト、キャリア、および/またはペイロードの個々の要素を制御するために使用することができる。端末は、可動オブジェクト、キャリア、またはペイロードのうちの1つ以上と通信するように適合される、無線通信デバイスを含むことができる。
端末は、可動オブジェクト、キャリア、および/またはペイロードの情報を視認するための好適な表示ユニットを含むことができる。例えば、端末は、位置、平行移動速度、平行移動加速度、配向、角速度、角加速度、またはそれらの任意の好適な組み合わせに関する可動オブジェクト、キャリア、および/またはペイロードの情報を表示するように構成することができる。いくつかの実施形態では、端末は、機能的ペイロードによって提供されるデータ(例えば、カメラまたは他の画像捕捉デバイスによって記録される画像)等のペイロードによって提供される情報を表示することができる。
図2は、実施形態による、キャリア202およびペイロード204を含む可動オブジェクト200を図示する。可動オブジェクト200は、航空機として描写されているが、この描写は、限定的であることを目的とせず、本明細書で以前に説明されたように、任意の好適な種類の可動オブジェクトを使用することができる。当業者であれば、航空機システムとの関連で本明細書において説明される実施形態のうちのいずれかを、任意の好適な可動オブジェクト(例えば、UAV)に適用できることを理解するであろう。
場合によっては、ペイロード204は、キャリア202を必要とすることなく可動オブジェクト200上に提供され得る。可動オブジェクト200は、推進機構206と、感知システム208と、送受信機210とを含み得る。推進機構206は、本明細書で以前に説明されたように、回転翼、プロペラ、羽根、エンジン、モータ、車輪、車軸、磁石、またはノズルのうちの1つ以上を含むことができる。可動オブジェクトは、1つ以上、2つ以上、3つ以上、または4つ以上の推進機構を有し得る。推進機構は、全て同一の種類であり得る。代替として、1つ以上の推進機構は、異なる種類の推進機構であり得る。いくつかの実施形態では、推進機構206は、可動オブジェクト200のいかなる水平移動も必要とすることなく(例えば、滑走路を進むことなく)可動オブジェクト200が表面から垂直に離陸すること、または表面上に垂直に着陸することを可能にすることができる。随意に、推進機構206は、可動オブジェクト200が特定位置および/または配向において空中でホバリングすることを可能にするように動作可能であり得る。
例えば、可動オブジェクト200は、揚力および/または推力を可動オブジェクトに提供することができる、複数の水平に配向された回転翼を有することができる。複数の水平に配向された回転翼は、垂直離陸、垂直着陸、およびホバリング能力を可動オブジェクト200に提供するように作動させることができる。いくつかの実施形態では、水平に配向された回転翼のうちの1つ以上が、時計回り方向に回転し得る一方で、水平回転翼のうちの1つ以上は、反時計回り方向に回転し得る。例えば、時計回りの回転翼の数は、反時計回りの回転翼の数に等しくあり得る。水平に配向された回転翼の各々の回転速度は、各回転翼によって生じさせられる揚力および/または推力を制御し、それにより、(例えば、最大で3つの平行移動度および最大で3つの回転度に対して)可動オブジェクト200の空間的配置、速度、および/または加速度を調整するために、独立して変化させることができる。
感知システム208は、(例えば、最大で3平行移動度および最大で3回転度に対して)可動オブジェクト200の空間的配置、速度、および/または加速度を感知し得る、1つ以上のセンサを含むことができる。1つ以上のセンサは、全地球測位システム(GPS)センサ、運動センサ、慣性センサ、近接センサ、または画像センサを含むことができる。感知システム208によって提供される感知データは、(例えば、以下で説明されるように、好適な処理ユニットおよび/または制御モジュールを使用して)可動オブジェクト200の空間的配置、速度、および/または配向を制御するために使用することができる。代替として、感知システム208は、気象条件、潜在的な障害物への近接性、地理的特徴の場所、人工構造の場所等の可動オブジェクトを包囲する環境に関するデータを提供するために使用することができる。
送受信機210は、無線信号216を介した、送受信機214を有する端末212との通信を可能にする。いくつかの実施形態では、通信は、端末212が、制御コマンドを可動オブジェクト200、キャリア202、およびペイロード204のうちの1つ以上に提供し、可動オブジェクト200、キャリア202、およびペイロード204のうちの1つ以上から情報(例えば、可動オブジェクト、キャリア、またはペイロードの位置的情報および/または運動情報、ペイロードカメラによって捕捉される画像データ等のペイロードによって感知されるデータ)を受信する、双方向通信を含むことができる。場合によっては、端末からの制御コマンドは、可動オブジェクト、キャリア、および/またはペイロードの相対位置的移動、作動、または制御のための命令を含み得る。例えば、制御コマンドは、(例えば、推進機構206の制御を介した)可動オブジェクトの場所および/または配向の修正、あるいは(例えば、キャリア202の制御を介した)可動オブジェクトに対するペイロードの移動をもたらし得る。端末からの制御コマンドは、カメラまたは他の画像捕捉デバイスの動作の制御等のペイロードの制御をもたらし得る(例えば、静止画像または動画を撮影すること、ズームインまたはアウトすること、スイッチをオンまたはオフにすること、撮像モードを切り替えること、画像解像度を変更すること、焦点を変更すること、被写界深度を変更すること、露光時間を変更すること、視野角または視野を変更すること)。場合によっては、可動オブジェクト、キャリア、および/またはペイロードからの通信は、(例えば、感知システム208の、またはペイロード204の)1つ以上のセンサからの情報を含み得る。通信は、1つ以上の異なる種類のセンサ(例えば、GPSセンサ、運動センサ、慣性センサ、近接センサ、または画像センサ)からの感知された情報を含み得る。そのような情報は、可動オブジェクト、キャリア、および/またはペイロードの位置(例えば、場所、配向)、移動、または加速度に関し得る。ペイロードからのそのような情報は、ペイロードによって捕捉されるデータ、またはペイロードの感知された状態を含み得る。端末212によって伝送されて提供される制御コマンドは、可動オブジェクト200、キャリア202、またはペイロード204のうちの1つ以上の状態を制御するように構成することができる。代替として、または組み合わせて、キャリア202およびペイロード204はまた、端末が、可動オブジェクト200、キャリア202、およびペイロード204の各々と独立して通信し、それを制御することができるように、端末212と通信するように構成される送受信機を含むこともできる。
(感知システム)
いくつかの実施形態では、可動オブジェクトは、可動オブジェクトの状態(例えば、1から6自由度に対する位置、速度、および/または加速度、可動オブジェクトの推進状態、可動オブジェクトのペイロードがオンまたはオフにされるかどうか、ペイロードの動作モード、ペイロードがズームインまたはアウトされるかどうか)または任意の他のオブジェクト(例えば、キャリア、ペイロード)に関する情報を提供するように構成される、感知システムを含むことができる。情報は、ユーザに表示されるように端末に伝送することができる。加えて、情報は、可動オブジェクトの制御を可能にするために、端末の処理ユニットに伝送することができる。例えば、情報は、固定された基準系または移動基準系に対するオブジェクトの3次元(3D)空間的配置を示す、可動オブジェクトの位置的情報を含むことができる。位置的情報は、場所情報(例えば、高度、緯度、および経度)および配向情報(例えば、ロール角、ピッチ角、およびヨー角)を含むことができる。代替として、または組み合わせて、情報は、6自由度のうちの1つ以上に対する可動オブジェクトの速度および/または加速度に関する運動情報を含むことができる。
本明細書で説明される実施形態の組み合わせ等の感知システムの任意の好適な組み合わせを使用することができる。いくつかの実施形態では、感知システムは各々、可動オブジェクトの位置的情報および/または運動情報を提供するために分析されることができる感知信号を受信するように適合されるセンサを含む。感知信号は、可動オブジェクトの位置、配向、速度、または加速度のうちの1つ以上を示すことができる。
図3は、本発明の実施形態による、複数の感知システムを伴う可動オブジェクト300を図示する。可動オブジェクト300の感知システムは、GPSセンサ302、慣性計測装置(IMU)304、および/または第1および第2の視覚センサ306、308を含むことができる。感知システムによって生成される感知データは、可動オブジェクト300を制御および/またはナビゲートするために使用することができる、位置的情報を提供するために使用することができる。
GPSセンサ302は、1つ以上のGPSデータ信号312を得るように1つ以上のGPS衛星310と通信することができる。GPSセンサ302は、GPSセンサ302の位置が可動オブジェクト300の位置に対応するように、可動オブジェクト300に堅く連結されることができる。代替として、GPSセンサ302は、最大で6自由度に関して可動オブジェクト300に対して移動することを許可され得る。GPSセンサ302は、可動オブジェクト300上に直接載置されるか、または可動オブジェクト300上に載置された支持構造に連結されることができる。場合によっては、支持構造は、キャリアまたはペイロード等の積み荷を含み得る。GPSセンサ302は、可動オブジェクトの外部に、または可動オブジェクトの筐体内に提供され得る。GPSセンサ302は、可動オブジェクトに永久的または取り外し可能に取り付けられ得る。いくつかの実施形態では、GPSセンサ302は、可動オブジェクト300のペイロードの要素であり得る。
GPSセンサ302によって受信されるGPS信号は、全地球基準系に対する可動オブジェクト300の位置(例えば、緯度、経度、および高度)を決定し、それにより、可動オブジェクトの平行移動速度および/または加速度を決定するように処理することができる。GPSセンサ302は、ディファレンシャルGPS(DGPS)またはリアルタイム動的(RTK)GPS等の任意の好適なGPS技術を利用することができる。GPSセンサ302は、メータレベルの精度(例えば、10m、5m、2m、または1m以内の精度)またはセンチメートルレベルの精度(500cm、200cm、100cm、50cm、20cm、10cm、または5cm以内の精度)等の任意の好適なレベルの精度まで可動オブジェクト300の位置を決定するように構成することができる。
IMU304は、1つ以上の加速度計、1つ以上のジャイロスコープ、1つ以上の磁力計、またはそれらの好適な組み合わせを含むことができる。例えば、IMU304は、最大で3つの平行移動軸に沿って可動オブジェクトの直線加速度を測定する最大で3つの直交加速度計、および最大で3つの回転軸の周囲で角加速度を測定する最大で3つの直交ジャイロスコープを含むことができる。IMU304は、可動オブジェクト300の運動がIMU304の運動に対応するように、可動オブジェクト300に堅く連結されることができる。代替として、IMU304は、最大で6自由度に関して可動オブジェクト300に対して移動することを許可され得る。IMU304は、可動オブジェクト300上に直接載置されるか、または可動オブジェクト300上に載置された支持構造に連結されることができる。IMU304は、可動オブジェクトの外部に、または可動オブジェクトの筐体内に提供され得る。IMUは、可動オブジェクトに永久的または取り外し可能に取り付けられ得る。いくつかの実施形態では、IMU304は、可動オブジェクト300のペイロードの要素であり得る。IMU304は、(例えば、1つ、2つ、または3つの平行移動軸、および/または1つ、2つ、または3つの回転軸に対する)可動オブジェクト300の位置、配向、速度、および/または加速度等の可動オブジェクト300の運動を示す信号を提供することができる。例えば、IMU304は、可動オブジェクトの加速度を表す信号を感知することができ、信号は、速度情報を提供するように一度、場所および/または配向情報を提供するように2度、積分されることができる。
可動オブジェクト300の視覚センサ306、308は、標的318の画像データを生成するように処理することができる、周辺環境(例えば、地面320)内の標的318から光信号314、316を受信するための任意の好適なデバイスであり得る。視覚センサ306、308は、視覚センサ306、308によって得られる位置的情報が、可動オブジェクト300の位置的情報に対応するように、可動オブジェクト300に堅く連結されることができる。代替として、視覚センサ306、308は、最大で6自由度に関して可動オブジェクト300に対して移動することを許可され得る。視覚センサ306、308は、可動オブジェクト300上に直接載置されるか、または可動オブジェクト300上に載置された支持構造に連結されることができる。いくつかの実施形態では、視覚センサ306、308は、可動オブジェクト300のペイロードの要素であり得る。単一の視覚センサ、一対の視覚センサ、3つの視覚センサ、4つの視覚センサ、または任意の他の数の視覚センサ等の任意の好適な数の視覚センサを使用することができる。例えば、視覚センサ306、308は、一対のカメラ(例えば、双眼カメラ)であり得る。代替として、単一のカメラ(例えば、単眼カメラ)を使用することができる。いくつかの実施形態では、各視覚センサが、異なるカメラ視点からの画像を提供し、それにより、立体視覚撮像を可能にするように、視覚センサは、可動オブジェクト300上で横方向に離間している。例えば、視覚センサは、最大で1m、500cm、250cm、100cm、50cm、25cm、10cm、5cm、2cm、または1cmだけ横方向に分離されることができる。視覚センサは、可動オブジェクトの同一の側に、または可動オブジェクトの反対側に配置されることができる。1つ以上の視覚センサは、可動オブジェクトの前、後、上、底、または側面、またはそれらの好適な組み合わせの上に配置されることができる。
視覚センサ306、308は、時系列の画像データを生成するように特定頻度で画像を同時に捕捉するために使用することができる。視覚センサ306、308から得られる時系列の画像データは、機械視覚アルゴリズム等の任意の好適な方法を使用して、可動オブジェクト300の位置、配向、および/または速度を決定するように処理することができる。例えば、各画像内の1つ以上の特徴点(例えば、オブジェクトの縁、オブジェクトの角、または2つの異なる色のオブジェクトの間の境界線)を識別するために、機械視覚アルゴリズムを使用することができる。加速セグメントテスト(FAST)アルゴリズムまたは二値ロバスト独立基本特徴(BRIEF)アルゴリズムからの特徴等の特徴点のデジタル表現を識別して提供するために、任意の好適な方法または方法の組み合わせを使用することができる。次いで、画像データは、両方の視覚センサによって得られる画像内に出現する一組の共通特徴点を識別するように相互に照合されることができる。可動オブジェクト300の運動は、可動オブジェクト300および互に対する視覚センサ306、308の共通特徴点および空間的配置に基づいて決定することができる。
図3で描写されていないが、可動オブジェクト300はまた、可動オブジェクト300の位置的情報を提供するように構成される、近接感知システムを含むこともできる。可動オブジェクト300と1つ以上の周辺オブジェクトとの間の距離を測定することが可能な任意の近接センサを使用することができる。例えば、近接感知システムは、超音波センサおよび/またはライダセンサを含むことができる。いくつかの実施形態では、近接センサは、可動オブジェクト300を包囲する複数のオブジェクトの距離および位置的情報を得るように、回転させる(例えば、360°回転させる)ことができる。周囲オブジェクトの距離および位置的情報は、可動オブジェクト300の空間的配置および/または運動を決定するために分析されることができる。
図4は、本発明の実施形態による、複数の感知システムを使用する可動オブジェクトの位置的情報および/または運動情報を収集するためのシステム400のブロック図としての概略図である。システム400は、本明細書で開示されるシステム、方法、またはデバイスの任意の好適な実施形態と組み合わせて使用することができる。システム400は、本明細書で説明されるような複数の感知システムまたはモジュールを含むことができる。感知システムは、異なる方法で可動オブジェクトに関する情報を収集する、異なる種類の感知システムであり得る。異なる種類の感知システムは、異なる種類の信号または異なる発信源からの信号を感知し得る。例えば、感知システムは、IMU402、GPSセンサモジュール404、複数のカメラ406、および近接感知モジュール408(例えば、ライダモジュール)を含むことができる。
IMU402およびGPSセンサモジュール404は、コントローラエリアネットワーク(CAN)接続412を通して等、複数のプロセッサ(例えば、ARMプロセッサ)を有する処理ユニット410に動作可能に連結することができる。近接感知モジュール408は、プロセッサユニット410に動作可能に連結することができる。カメラ406は、処理ユニット410に動作可能に連結することができる。いくつかの実施形態では、カメラ406は、フィールドプログラマブルゲートアレイ(FPGA)414に動作可能に連結することができる。FPGA414は、(例えば、汎用メモリコントローラ(GPMC)接続416を介して)処理ユニット410に動作可能に連結することができる。画像伝送モジュール418(例えば、Wi−Fi画像伝送モジュール)は、FPGA414を通して等、カメラ406に動作可能に連結することができる。画像伝送モジュール418は、カメラ406によって捕捉される画像を、本明細書で説明されるような端末等の任意の好適な外部デバイスまたはシステムに伝送するために使用することができる。
処理ユニット410は、プログラム可能なプロセッサ(例えば、中央処理装置(CPU))であり得る。処理ユニット410は、非一過性のコンピュータ読み取り可能な媒体420に動作可能に連結することができる。非一過性のコンピュータ読み取り可能な媒体は、1つ以上のメモリユニット(例えば、SDカード422、ランダムアクセスメモリ(RAM)424等の取り外し可能な媒体または外部記憶装置)を含むことができる。いくつかの実施形態では、カメラ406からのデータは、(例えば、直接メモリアクセス(DMA)コントローラ426を通して)非一過性のコンピュータ読み取り可能な媒体420のメモリユニットに直接伝達され、その内側に記憶することができる。非一過性のコンピュータ読み取り可能な媒体420のメモリユニットは、本明細書で説明される方法の任意の好適な実施形態を行うように処理ユニット410によって実行可能である、コードおよび/またはプログラム命令を含むことができる。例えば、処理ユニット410は、本明細書で説明されるように、可動オブジェクトの位置的情報および/または運動情報を決定するように、1つ以上の感知システム(例えば、IMU402、GPSセンサモジュール404、カメラ406、近接感知モジュール408)によって生成されるデータを処理ユニット410の1つ以上のプロセッサに分析させる、命令を実行するように構成することができる。メモリユニットは、処理ユニット410によって処理される、1つ以上の感知システムからの感知データを記憶することができる。いくつかの実施形態では、非一過性のコンピュータ読み取り可能な媒体420のメモリユニットは、感知データを処理することによって決定される、可動オブジェクトの位置的情報および/または運動情報を記憶することができる。代替として、または組み合わせて、非一過性のコンピュータ読み取り可能な媒体420のメモリユニットは、可動オブジェクトを制御するための所定のデータまたは事前記憶データ(例えば、所定の飛行経路、速度プロファイル、または加速規則)を記憶することができる。
いくつかの実施形態では、処理ユニット410は、可動オブジェクトの状態を制御するように構成される、制御モジュール428に動作可能に連結することができる。例えば、制御モジュール428は、可動オブジェクトのアクチュエータまたはモータ430を制御して、6自由度に対する可動オブジェクトの空間的配置を調整するように動作可能である、作動機構制御モジュールとして、図4で描写されている。代替として、または組み合わせで、制御モジュール428は、6自由度に対して可動オブジェクトの速度または加速度を調整することができる。いくつかの実施形態では、制御モジュール428は、本明細書で説明されるように、1つ以上の感知システムからのデータを処理することによって得られる、可動オブジェクトの所定の制御データあるいは位置的情報および/または運動情報に基づいて、可動オブジェクトを制御することができる。処理ユニットは、キャリア、ペイロード、または感知システムの状態のうちの1つ以上を制御するように構成されるモジュール等の1つ以上の他のモジュール432に動作可能に連結することができる。
処理ユニット408は、1つ以上の外部デバイス(例えば、端末、表示デバイス、または他の遠隔コントローラ)からデータを伝送および/または受信するように構成される通信モジュール434に動作可能に連結することができる。有線通信または無線通信等の任意の好適な通信の手段を使用することができる。例えば、通信モジュール434は、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、赤外線、無線、WiFi、ピアツーピア(P2P)ネットワーク、電気通信ネットワーク、クラウド通信等のうちの1つ以上を利用することができる。随意に、電波塔、衛星、または移動局等の中継局を使用することができる。無線通信は、近接性依存型または近接性独立型であり得る。いくつかの実施形態では、見通し線が、通信のために必要とされる場合もあり、必要とされない場合もある。通信モジュール434は、感知システムからの感知データ、感知データを処理することによって決定される位置的情報および/または運動情報、所定の制御データ、端末または遠隔コントローラからのユーザのコマンド等のうちの1つ以上を伝送および/または受信することができる。
システム400の構成要素は、任意の好適な構成で配列することができる。例えば、システム400の構成要素のうちの1つ以上は、可動オブジェクト、キャリア、ペイロード、端末、感知システム、または上記のうちの1つ以上と通信している追加の外部デバイス上に位置することができる。加えて、図4は、単一の処理ユニット410および単一の非一過性のコンピュータ読み取り可能な媒体422を描写するが、当業者であれば、これは限定的であることを目的とせず、システム400は、複数の処理ユニットおよび/または非一過性のコンピュータ読み取り可能な媒体を含むことができると理解するであろう。いくつかの実施形態では、複数の処理ユニットおよび/または非一過性のコンピュータ読み取り可能な媒体のうちの1つ以上は、可動オブジェクト、キャリア、ペイロード、端末、感知システム、上記のうちの1つ以上と通信している追加の外部デバイス、またはそれらの好適な組み合わせ等の異なる場所に位置することができ、システム400によって行われる処理および/またはメモリ機能の任意の好適な側面は、前述の場所のうちの1つ以上で起こり得る。
(センサ融合を使用した運動および/または位置推定)
場合によっては、従来の個々の感知システムの性能は、理想的とは言えないものであり得る。例えば、GPS感知システムは、複数のGPS衛星への見通し線を必要とし、したがって、不良な気象条件、屋内環境、または建造物の付近で使用されるときに制限され得る。加えて、DGPSおよびRTK GPSは、従来のGPSと比較して向上した精度を実証するが、これらの技術は、場合によっては、それらの適用性を限定する種々の制限に関連付けられ得る。IMU感知システムは、例えば、複雑な移動(例えば、同時高速平行移動および回転)を感知するためには精度が低くあり得る。加えて、IMU感知システムは、経時的に積分誤差を累積し得る。視覚感知システムは、例えば、有意量の計算を必要とし得る。さらに、視覚感知システムの精度は、低解像度、(例えば、急速な移動による)画像のぼやけ、および画像のゆがみが、そのようなシステムの性能を低減させ得るように、画質による影響を受け得る。長距離センサがいくつかの用途で使用するためには大きすぎ得る場合、近接感知システムは、例えば、センサの精度および使用範囲によって制限され得る。加えて、ライダセンサは、強い日光条件下で、低減した性能を示し得る。
単一の感知システムの任意の潜在的な欠点によって引き起こされる、測定の不正確性を低減させるために、異なる種類の感知システム等の複数の感知システムから受信されるデータに基づいて、可動オブジェクトの空間的配置および/または運動を決定することができる。本明細書で説明されるセンサ融合は、任意の単一の感知システムからの測定の不正確性を補いながら、各センサ種類の利点を利用する。結果として、可動オブジェクトの運動および/または位置の向上した推定値を、多種多様の環境で達成することができる。任意の好適な数および種類の感知システムを、本明細書で説明されるセンサ融合方法に使用することができる。例えば、GPS感知システム、IMU感知システム、および機械視覚感知システムの3体センサ融合を行うことができる。代替として、2体センサ融合を行うことができる(例えば、GPSおよびIMU、GPSおよび視覚、GPSおよび近接、IMUおよび視覚、IMUおよび近接、または視覚および近接)。代替として、複数の感知システムから受信されるデータを、任意の好適な順番で複数のセンサ融合ステップにわたって連続的に融合することができる(例えば、GPSがIMUと融合され、次いで、視覚がGPSおよびIMUと融合される)。本明細書で説明されるセンサ融合のための方法は、本明細書で説明されるシステムおよびデバイスの実施形態等の任意の好適な可動オブジェクトの位置的情報および/または運動情報を決定するように適用することができる。
図5は、本発明の実施形態による、可動オブジェクトの位置的情報および/または運動情報を決定するためのセンサ融合システム500のブロック図としての概略図である。システム500は、本明細書で説明されるシステム、方法、およびデバイスの任意の好適な実施形態と組み合わせることができる。システム500は、第1および第2の感知システム502および504を含み、それぞれのセンサ506および508は、それぞれの感知信号510および512を受信するように構成される。信号518を受信するためのセンサ516を含む、第3の感知システム514等の任意の好適な数の随意的な感知システムも提供することができる。感知システムからの感知データは、センサ融合モジュール520に伝送することができる。センサ融合モジュール520は、可動オブジェクト、ペイロード、キャリア、端末感知システム、または追加の外部デバイスのうちの1つ以上の上に配置された部分を含むことができる。いくつかの実施形態では、センサ融合モジュール520は、感知システムに対して局所、または感知システムから遠隔にあり得る。センサ融合モジュール520は、感知システムから受信される感知データに基づいて、可動オブジェクトの3D空間的配置および/または運動を決定するように構成されている、1つ以上のプロセッサを含むことができる。センサ融合モジュール520は、空間的配置および/または運動を決定するために、任意の好適なセンサ融合方法を使用することができる。例えば、センサ融合方法は、カルマンフィルタ、拡張カルマンフィルタ(EKF)、アンセンテッド(unscented)カルマンフィルタ(UKF)、粒子フィルタ(PF)、またはそれらの好適な組み合わせに基づくアルゴリズムを含むことができる。
いくつかの実施形態では、センサ融合アルゴリズムは、センサ融合分析から、感知システムのうちの1つ以上からの感知データを除外することができる。感知システムからの感知データを除外するかどうかを決定するために、任意の好適なパラメータを使用することができる。いくつかの実施形態では、パラメータは、センサ信号強度、センサ種類、可動オブジェクトの状態、または周辺環境を含むことができる。センサ信号強度は、センサ信号の大きさ、感知システムによって受信される感知信号の数のうちの1つ以上に依存し得る。例えば、センサは、GPSセンサであり得、GPS信号強度は、(例えば、異なるGPS衛星から)受信されるGPS感知信号の数、または(例えば、信号の出力によって決定されるような)GPS信号の大きさのうちの1つ以上に依存し得る。いくつかの実施形態では、センサ融合モジュール520は、センサ信号強度が閾値を超えるかどうかを決定するように、センサ信号強度を閾値と比較することができる。センサ信号強度が閾値を超える場合、対応する感知データをセンサ融合分析で使用することができる。センサ信号強度が閾値を超えない場合、対応する感知データをセンサ融合分析から除外することができる。閾値は、(例えば、ユーザによって入力される)所定の値であり得る。代替として、閾値は、(例えば、可動オブジェクトの状態等の1つ以上の動的に変化するパラメータに基づいて)動的に決定することができる。いくつかの実施形態では、閾値は、対応する感知システムが動作することを可能にする、センサの最小信号強度よりも大きく設定することができる。
いくつかの実施形態では、対応する感知データに基づいて空間的配置および/または運動を決定する場合、センサ融合アルゴリズムが1つ以上の重み値を考慮に入れるように、1つ以上の重み値を1つ以上の感知システムについて決定することができる。重み値は、センサ信号の強度または大きさ、感知システムによって受信される感知信号の数、センサの種類、または可動オブジェクトの状態の1つ以上等の任意の好適なパラメータに基づいて、センサ融合モジュール520によって決定することができる。例えば、GPS感知システムについては、重み値は、GPS信号強度(例えば、上記で説明されるようなGPS信号の数および/または大きさに応じた信号強度)に基づいて決定することができ、信号強度が高いときにはより高い重み値、信号強度が低いときにはより低い重み値を伴う。いくつかの実施形態では、重み値が、以下で詳細に説明されるように、視覚感知データを分析するために使用される機械視覚アルゴリズムの精度を示すパラメータに基づくように、重み値を視覚感知システムについて決定することができる。例えば、視覚感知システムについては、(例えば、高高度で、または水上で)機械視覚ベースのナビゲーションがあまり信頼できない環境に可動オブジェクトがあるときに、重み値は、より低くあり得る。
いくつかの実施形態では、重み値は、数値(例えば、0から1に及ぶ)であり得る。重み値は、連続範囲の値または離散した一組の値を包含することができる。例えば、重み値は、線形、非線形、多項式、指数、または対数相関を通して等、1つ以上の好適なパラメータに数学的に関連付けられることができる。随意に、1つ以上の重み値は、事前に決定するか、またはユーザ入力に基づいて事前設定値から選択することができる。単一の感知システムまたは複数の感知システム等の任意の好適な数の感知システムを重み付けすることができる。1つ以上の感知システムは、同一の重み値を共有することができ、または各感知システムは、異なるそれぞれの重み値を有することができる。随意に、いくつかの感知システムは、重み付けされないこともある。いくつかの実施形態では、センサ融合モジュール520は、重み値が、重み付けされる感知システムからの感知データについて考慮に入れられるように、重み付けされる感知システムと重み付けされない感知システムとの好適な組み合わせからの感知データに基づいて、可動オブジェクトの位置的情報および/または運動情報を計算することができる。一実施例では、第1の感知システムおよび第2の感知システムが提供され得る。第1の感知システムからのデータは、重み値が考慮に入れられて、第2の感知システムからのデータと組み合わせられ得る。別の実施例では、第1の感知システムからのデータは、重み付けされ、第2の感知システムからの重み付けされた値と組み合わせられ得る。データが重み付けされる場合も、重み付けされない場合もある、1つ以上の追加の感知システム(例えば、第3の感知システム、第4の感知システム)を提供することができる。場合によっては、検出可能な条件(例えば、信号強度)に基づいてセンサデータが損なわれ得る場合、感知システムに対する重み付けが考慮され得る。
図6は、本発明の実施形態による、可動オブジェクトの位置的情報および/または運動情報の状態推定のためのセンサ融合アルゴリズム600を図示するフローチャートである。アルゴリズム600を適用するために、本明細書で説明される実施形態等の任意の好適なシステムまたはデバイスを使用することができる。いくつかの実施形態では、アルゴリズムは、一対の双眼カメラ602、604、IMU606、およびGPS608からの感知データを融合するために使用することができる。
アルゴリズム600では、一対の画像をカメラ602、604によって同時に記録することができる(以降では「画像フレーム」)。アルゴリズム600は、画像フレームが撮影されたときの、開始位置に対するカメラ602、604の速度および位置を得るために、画像フレームが得られる度に繰り返されることができる。毎回、アルゴリズム600は、(R,T)として表される以前の測定時点以降の相対位置的変化を決定することができ、Rは、以前の時点に対する可動オブジェクトの配向の変化を表す回転行列であり、Tは、以前の時点に対する3D空間内の可動オブジェクトの位置の変化を表す運動ベクトルである。
カメラ602、604によって得られる未加工画像データは、例えば、画像データ内の光学的ゆがみおよび/または雑音を補正するアルゴリズムを実装することによって、画像データを補正するように画像分析によって処理されることができる。画像分析は、本明細書で以前に説明されたように、補正された画像データから好適な特徴点を抽出し、特徴点のデジタル表現を生成することができる。
いくつかの実施形態では、位置的変化の初期推定を使用して、画像分析によって生成される特徴点のフレーム間マッチングを行うことができ、それにより、検索の複雑性を低減させ、マッチング効率および精度を向上させる。例えば、初期推定は、IMU606およびGPSセンサ608の2体センサ融合に基づいて生成することができる。IMU606は、位置的変化の測定値
を提供するように以前のフレームからの位置的情報と比較することができる、6自由度に対する速度データを提供することができる。GPSセンサ608は、(例えば、3つの平行移動度に対する)可動オブジェクトの位置的変化
の測定データを提供することができる。いくつかの実施形態では、GPS測定データは、本明細書で説明されるように、重み値δを割り当てることができる。重み値δは、GPS信号の強度に基づいて0から1に及ぶことができる。例えば、GPS信号が弱い環境では、δは0に近くあり得る。GPS信号が強い環境では、δは1に近くあり得る。GPS信号が弱くあり得る環境の実施例は、屋内環境、構造または自然発生特徴による障害物、荒れた気象条件、頭上の衛星が無いこと、またはGPS受信機の機能不全を含むことができる。GPS信号が強くあり得る環境の実施例は、屋外環境、高高度、障害物が無いこと、または晴天条件を含むことができる。1つのシナリオでは、可動オブジェクトは、いくつかの高い建造物によって包囲され、低高度で飛行している場合がある。これは、衛星信号を遮断することまたは弱めることをもたらし得、それは対応して、GPSシステムからのデータにより低い重みを与えさせ得る。これは、損なわれているという兆候が認められない他の感知システムに対して、GPSシステムからのデータが軽視されるという結果をもたらし得る。したがって、可動オブジェクトの位置的変化の初期推定
を生成するために、本明細書で説明されるような任意の好適なセンサ融合方法(例えば、カルマンフィルタ)を使用して、IMUデータ
およびGPSセンサデータ
が融合されることができる。
初期推定
は、以前のフレーム内の同一の特徴点
に対応する、現在のフレーム内の特徴点
(iは、i番目の特徴点を表し、tは、現在の時間を表す)を検索するために使用されることができる。例えば、
を得るために、
に従って、特徴点
の推定3D座標
が回転されることができる。推定3D座標
は、回転後の特徴点の位置
を得るために投影されることができ、Kは、カメラの内部パラメータ行列であり、Πは、投影行列である。次いで、現在のフレームを検索し、
領域内の特徴点について照合することができ、
から最小限の平面距離を有する点
は、対応する点であると見なされる。したがって、特徴点
および
の間のフレーム間関係を決定することができる。次いで、カメラ602および604の間の空間的関係に基づいて、特徴点の3D位置を推定することができるように、カメラ602およびカメラ604によって得られる画像間の特徴点のステレオマッチングを行うことができる。
図7は、本発明の実施形態による、立体視覚のためのシステム700を図示する。システム700は、それぞれ、位置702および704を中心とする左カメラおよび右カメラ(図示せず)を含むことができる。焦点距離f、光センササイズl、およびカメラ間の距離b等のパラメータが、各カメラについて知られている。いくつかの実施形態では、前述のパラメータは、各カメラについて同一である。3D座標
は、左および右カメラによって捕捉される画像内の一対の照合された特徴点
および
に対応する。ピクセル距離
および
は、空間的距離
および
になるように、単一のピクセルのサイズによって乗算されることができる。したがって、以下の式を使用して、
Dと表される、3D座標
とカメラとの間の距離を決定することができる。カメラの内部パラメータ行列KおよびDの計算された値に基づいて、このようにして推定3D座標
を点
について導出することができる。
フレーム間マッチングおよび特徴点のステレオマッチングに続いて、特徴点・3D座標ペア
が各特徴点について得られることができる。したがって、任意の好適なアルゴリズムを使用して、画像内の特徴点の運動を分析することによって、カメラの速度を決定することができる。例えば、時間tで得られる一組のn個の座標ペアc1、c2、...、cが与えられると、行列
は、3つの行ベクトル
として表されることができ、カメラの内部パラメータ行列は、以下のように表されることができる。
結果として、時間の各特徴点間の推定位置的移動または変化
は、以下を解くことによって得られることができる。
推定位置的移動が、主にカメラ602、604からの画像データのフレームマッチングに基づいて得られるので、この推定値の精度および精密度は、nのサイズによる影響を受け得る。いくつかの実施形態では、本明細書で説明されるように、重み値ρを
に割り当てることができる。重み値ρは、nのサイズに基づくことができる。例えば、重み値は、0から1に及び、nに比例することができる。
3体センサ融合を、視覚感知システムからの推定位置的移動
、IMUデータ
、およびGPSセンサデータ
に基づいて行うことができる。3組の感知データを融合して、本明細書で説明されるような単一の位置的測定値(R,T)を決定するために、任意の好適な方法を使用することができる。いくつかの実施形態では、EKFを使用することができる。したがって、時間tでは、以下であるように、位置的測定値を(R,T)として表すことができ、
であり、測定関数を以下のように表すことができ、
ωおよびvは、それぞれの分散QおよびRを有するシステムにおける潜在的誤差を表す。
(R,T)を得るために、最後の時点からの推定値
および
を更新することによって、変数
の推定値、推定値の精度を推定するための共分散行列
、および
を決定することができる。例えば、EKFを使用して更新を行うことができ、更新方程式を以下のように表すことができる。
t−1は、点
における関数fの線形行列であり、Gは、点
における関数gの線形行列である。重み値ρおよびδは、それぞれ、GPSデータおよび機械視覚アルゴリズムへのセンサ融合アルゴリズムの「信頼」の程度を示す。最後に、可動オブジェクトの位置的情報の正確な測定値を得るために、
を解くことによって、現在の推定位置を得ることができる。
可動オブジェクトが比較的長い距離にわたって移動するにつれて、以前に識別された特徴点のうちのいくつかは、現在の画像フレームの外側に移動し、したがって、照合不可能になる場合があり、それがnの値を減少させ、画像データの信頼性を低減させ得る。したがって、いくつかの実施形態では、アルゴリズム600は、この状況に対処するように周期的に「リセット」されることができる。例えば、アルゴリズムは、新しいキーフレーム内の特徴点が、特徴マッチングアルゴリズムの候補として使用される新しい特徴点になるように、新しい「キーフレーム」を周期的に特定することができる。リセットが起こるときを決定するために、任意の好適な方法を使用することができる。例えば、座標ペアの数nがリセット閾値よりも低いときに、アルゴリズム600がリセットされるように、リセット閾値を特定することができる。リセット閾値は、運動推定の許容誤差、画質、特徴抽出アルゴリズム、またはそれらの好適な組み合わせ等の任意の好適なパラメータに基づいて、決定されることができる。いくつかの実施形態では、リセット閾値は、(例えば、視覚感知システムの較正後に)ユーザによって設定されることができる。
いくつかの実施形態では、感知システムの精度を向上させるよう、アルゴリズム600によって決定される位置的情報および/または運動情報を1つ以上の感知システムにフィードバックすることができる。いくつかの実施形態では、6自由度に対する速度または加速度推定を、位置的情報の導出に基づいて決定し、1つ以上の感知システムに提供することができる。例えば、位置的情報および/または運動情報は、経時的に積分誤差の任意の累積を補正するために、IMU606の参照値を較正するために周期的に使用されることができる。
アルゴリズム600は、任意の好適な計算速度で実装することができる。例えば、カメラ602、604は、20Hzで画像データを受信するように構成することができ、IMU606は、200Hzで慣性感知データを受信するように構成することができ、GPSセンサ608は、200HzでGPSデータを受信するように構成することができる。いくつかの実施形態では、1秒あたり20の融合推定値を得るように、画像分析、フレーム間マッチング、ステレオマッチング、キーフレームリセット、ならびに運動および位置推定を20Hzで計算することができる。いくつかの実施形態では、IMUおよびGPSセンサデータの2体融合、ならびにIMU、GPS、および視覚センサデータ間の3体融合を200Hzで計算することができる。データ収集または融合の任意の他の頻度または速度が生じ得る。いくつかの実施形態では、カメラは、約10Hz以上、約15Hz以上、約20Hz以上、約25Hz以上、約30Hz以上、約35Hz以上、約40Hz以上、約50Hz以上、約60Hz以上、約70Hz以上、約80Hz以上、約90Hz以上、約100Hz以上、約120Hz以上、約150Hz以上、約200Hz以上、または約300Hz以上の速度で画像を捕捉することが可能であり得る。画像は、ビデオサンプリングレートで捕捉され得る。
本明細書で説明されるシステムおよびデバイスの実施形態等のアルゴリズム600の任意の部分を実行するために、任意の好適なハードウェアプラットフォームを使用することができる。例えば、本明細書で説明されるように、画像補正およびフレーム間マッチングを行うために、FPGA414を使用することができる。データ414は、アルゴリズム600の残りのステップを実行するために処理ユニット410に伝送することができる。処理ユニット410によって決定される位置的情報および/または運動情報は、非一過性のコンピュータ読み取り可能な媒体420に記憶することができる。いくつかの実施形態では、本明細書で説明されるように、異なるデバイス上に随意に位置することができる、システム400の1つ以上の構成要素等の1つ以上のハードウェアプラットフォームによって、アルゴリズム600の1つ以上のステップを実行することができる。いくつかの実施形態では、データは、システム400よりも大きな計算能力を有する1つ以上の遠隔システムに伝送することができる。例えば、システム400は、可動オブジェクト上に位置することができ、未加工画像データは、画像伝送モジュール418を介して可動オブジェクト(例えば、端末)から遠隔にある1つ以上のシステムに伝送することができる。アルゴリズム600は、本明細書で説明されるように実行することができ、結果は、通信モジュール434を介して可動オブジェクトに返信することができる。このアプローチは、可動オブジェクトの機内のハードウェアに対する計算要求を有利に低減させる。
(用途)
本明細書で説明されるシステム、方法、およびデバイスの実施形態は、可動オブジェクトの位置的情報および/または運動情報の収集を伴う任意の好適な用途で使用することができる。いくつかの実施形態では、開示されたシステム、方法、およびデバイスは、UAV等の航空機を制御および/またはナビゲートするように適用することができる。しかしながら、当業者であれば、本明細書で説明される実施形態を飛行していない可動オブジェクトに適用できることを理解するであろうように、以下の実施例において飛行、飛行経路、飛行軌道等を指す用語の使用は、本発明を飛行する可動オブジェクトに限定することを目的としていない。
例えば、6自由度(例えば、3つの位置度および3つの配向度)に対する可動オブジェクトの位置を制御するために、(本明細書で説明されるようなセンサ融合を使用して)1つ以上の感知システムによって提供される可動オブジェクトの位置的情報および/または運動情報を使用することができる。いくつかの実施形態では、可動オブジェクトは、(例えば、高度、緯度、経度、ロール角、ピッチ角、またはヨー角に対して)可動オブジェクトの場所および/または配向を自由制御するために、ユーザによって直接提供され、(例えば、端末を使用して)可動オブジェクトに伝送される制御命令に応答することができる。随意に、可動オブジェクトは、可動オブジェクトの移動を制御するために、制御命令に応答することができる。例えば、可動オブジェクトの平行移動速度および/または平行移動加速度は、高度、緯度、および経度等の3平行移動度まで制御され得る。可動オブジェクトの角速度および/または角加速度は、ヨー軸、ロール軸、およびピッチ軸の周囲の回転等の3角運動度まで制御され得る。
代替として、または組み合わせて、位置制御方式が、ユーザによって特定される場所までの可動オブジェクトの経路を計算することができる。可動オブジェクトの経路は、地上、水中、空中、または宇宙空間で生じ得る。可動オブジェクトの経路は、表面に制限され得るか、または3自由度の実質的に自由な運動を包含し得る。いくつかの実施形態では、経路は、飛行経路であってもよく、位置制御方式は、飛行軌道生成を提供することができる。飛行経路の本明細書での任意の説明は、可動オブジェクトによって横断され得る任意の他の種類の経路に適用され得、その逆も同様である。例えば、ユーザは、「戻るコマンド」が受信されたときに可動オブジェクトが自動的に戻る「ホーム位置」を規定する、一組の空間的座標を特定することができる。戻るコマンドは、本明細書で説明されるように決定される、可動オブジェクトの位置的情報に基づいて、可動オブジェクトにホーム位置までの飛行経路を計算させ、次いで、計算された飛行経路を使用して、ホーム位置までナビゲートさせることができる。随意に、ユーザは、インターフェース(例えば、端末、ディスプレイ、または他の遠隔コントローラ)を介して、ホーム位置であるべき目印または他の環境特徴を特定することができ、目印の座標は、インターフェースによって決定され、可動オブジェクトに伝送されることができる。いくつかの実施形態では、「ホーム位置」は、ユーザによる特定の空間的座標の入力を必要とすることなく、飛行中に得られる位置的情報に基づいて、可動オブジェクトによって記録されることができる。例えば、可動オブジェクトがその飛行を開始した場所を、ホーム位置として自動的に記録することができる。代替として、可動オブジェクトの飛行経路に沿った任意の好適な場所をホーム位置として指定することができる。例えば、可動オブジェクトが飛行している間に、ユーザは、可動オブジェクトが後に戻ることができるホーム場所として、可動オブジェクトの場所を指定することができる。随意に、本明細書で説明されるように、ユーザによって、または自動的にのいずれかで、複数の事前設定場所を特定することができ、可動オブジェクトは、任意の好適な順序で場所の各々までナビゲートするように命令されることができる。
代替として、または組み合わせて、可動オブジェクトのための位置制御方式は、事前に記憶された飛行経路としても知られている、所定の飛行経路に沿った可動オブジェクトの自律ナビゲーションを伴うことができる。例えば、メモリに記憶された所定の飛行経路の始点までナビゲートするように可動オブジェクトに命令するために、好適なユーザ入力を使用することができる。所定の飛行経路は、飛行経路の各点における6自由度(例えば、3位置度および3配向度)に対する可動オブジェクトの空間的配置に関する情報を含むことができる。可動オブジェクトは、ユーザによって別様に指示されるまで、6つ全ての自由度に沿った所定の飛行経路に沿ってナビゲートするように命令されることができる。例えば、可動オブジェクトは、経路の場所ならびに経路に沿った事前設定配向を辿ることができる。
所定の飛行経路は、可動オブジェクトが繰り返し飛行経路を辿ることができるように、閉ループであり得る(例えば、オートルーピング)。閉ループ経路は、可動オブジェクトの以前に飛行した経路を記録することによって作成することができる。代替として、閉ループ経路は、1つ以上のパラメータおよび/または1つ以上の事前に選択された点に従って、生成または計算され得る。代替として、飛行経路は、異なる始点および終点を有することができる。
所定の飛行経路は、ユーザ入力によって規定される1つ以上の部分を含むことができる。例えば、ユーザは、6自由度に対する可動オブジェクトの飛行経路を規定する座標を提供することができる。ユーザが規定した飛行経路は、ユーザが飛行経路全体の座標を特定する必要がないように、ユーザによって入力される1つ以上の好適な経路パラメータを有する、経路テンプレートを含むことができる。いくつかの実施形態では、経路テンプレートは、幾何学的形状であり得、経路パラメータは、幾何学的形状を規定する1つ以上の寸法であり得る。寸法は、辺の長さ、軸の長さ、曲線の半径、曲線の半径、弧度、経路の曲率等のうちの1つ以上を含むことができる。例えば、経路テンプレートは、円の直径である経路パラメータを伴う円、長および短軸の長さである経路パラメータを伴う楕円、または多角形の1つ以上の辺の長さである経路パラメータを伴う多角形(例えば、正方形、長方形、三角形)等の閉鎖形状であり得る。代替として、経路テンプレートは、ジグザグの間隔である経路パラメータを伴うジクザグ形状等の開放形状(例えば、直線、湾曲、または曲線形状)であり得る。経路テンプレートのパラメータはまた、可動オブジェクト配向(例えば、固定配向、変動配向)に対するパラメータを含むこともできる。
代替として、または組み合わせて、所定の飛行経路は、(例えば、本明細書で説明されるように決定される位置的情報および/または運動情報に基づいて、6自由度に対する空間的座標を使用して)以前の飛行中に可動オブジェクトによって移動および記録された1つ以上の部分を含むことができる。例えば、ユーザは、可動オブジェクトの飛行中に飛行経路を記録するための開始時間および停止時間を特定することができる。随意に、オンコマンドがユーザによって提供されたときに記録が開始し、オフコマンドがユーザによって提供されたときに終了するように、オン/オフコマンドを使用することができる。いくつかの実施形態では、記録は、自動的に決定されるか、またはユーザによって入力されるかのいずれかである、特定時間間隔または距離間隔で、可動オブジェクトの空間的座標を記憶するように構成することができる。所定の飛行経路は、記録された飛行経路と同一の方向性を有することができるか、または記録された飛行経路の逆であり得る。6自由度に対する可動オブジェクトの空間的配置は、所定の飛行経路の1つ以上の点において、記録された飛行経路と同一であり得る。代替として、空間的配置は、記録された飛行経路の逆等の1つ以上の点において異なり得る。場合によっては、所定の経路は、正確に、場所および配向を含む6自由度に沿って、記録された経路であり得る。場合によっては、所定の経路は、正確に、場所および配向を含む6自由度に沿って、記録された経路の逆であり得る。
図8は、本発明の実施形態による、所定の飛行経路に沿った可動オブジェクトのナビゲーションのためのシステム800のブロック図としての概略図である。システム800は、本明細書で説明されるシステム、方法、およびデバイスの任意の好適な実施形態と組み合わせて使用することができる。システム800は、経路計算モジュール802および飛行制御モジュール804を含む。経路計算モジュール802は、視覚感知システム806(例えば、一対の双眼カメラ)、IMU感知システム808、およびGPS感知システム810を含む。これらの感知システムから受信される感知データは、本明細書で説明されるように、好適なセンサ融合アルゴリズムを使用して、運動および/または位置推定モジュール812によって融合される。可動オブジェクトが(例えば、ユーザの制御下で)飛行経路に沿って移動するにつれて、運動および/または位置推定モジュール812によって生成される位置的情報および/または運動情報は、経路記憶モジュール814の1つ以上のメモリユニットに記憶することができる。例えば、可動オブジェクトは、始点(0,0)を設定し、次いで、飛行経路に沿った一連の主要点について、運動および/または位置推定モジュール812を使用して位置的情報(R,T)を決定することができる。主要点は、例えば、時間間隔、距離間隔、またはそれらの好適な組み合わせに基づいて決定することができる。主要点{(0,0),(R,T),(R,T),...,(R,T,)}の曲線によって規定される飛行経路は、経路記憶モジュール814に記憶される。
経路記憶モジュール814に記憶された所定の飛行経路に沿って自律的にナビゲートするように可動オブジェクトに命令するために、好適なユーザ入力を使用することができる。いくつかの実施形態では、所定の飛行経路に沿った可動オブジェクトの速度および/または加速度パラメータを定義するために、ユーザ入力816を提供することができる。好適な速度および/または加速度パラメータが、以下でさらに詳細に説明される。ユーザ入力に基づいて所定の飛行経路のパラメータを再度決めるために、経路パラメータ化モジュール818を使用することができる。例えば、飛行経路曲線内の主要点の数は、飛行経路に沿って可動オブジェクトによって維持されるユーザ特定速度に基づいて変化することができ、飛行経路曲線の幾何学形状に基づいて、主要点の新しい数が解かれることができる。
再度パラメータ決定された飛行経路は、飛行制御モジュール804に伝送されることができる。飛行制御モジュール804は、6自由度に対する飛行経路の位置、速度、および/または加速度情報を決定するように構成されている、飛行制御情報生成モジュール820を含む。例えば、飛行制御情報生成モジュール820は、連続主要点間の差を決定し、次の主要点に到達するために必要とされる直線加速度および角加速度
を決定するように差の偏導関数を求めることができる。随意に、主要点の数は、本明細書で説明されるように、可動オブジェクトの速度に基づいて変えられることができる。いくつかの実施形態では、増加した速度が、増加した数の主要点をもたらし得る。代替として、増加した速度が、より少ない数の主要点をもたらし得る。可動オブジェクトが経路を辿ることを可能にするように、十分な数の主要点が選択され得る。加速度情報は、次の主要点までナビゲートすることによって、可動オブジェクトが飛行経路を辿るように(例えば、1つ以上のモータ等の好適な作動機構を介して)操縦するために、飛行制御モジュール822に入力されることができる。
いくつかの実施形態では、ナビゲーションプロセス中に、運動および/または位置推定モジュール812は、本明細書で説明されるように、可動オブジェクトの現在の空間的配置および/または運動を計算することができる。この情報は、所定の飛行経路に対する可動オブジェクトの現在の空間的配置を決定し、所定の飛行経路のナビゲーション中に生じる任意の誤差を補正するために、飛行制御モジュール804のフィードバック補正モジュール824に入力されることができる。例えば、時間t+lでの(Rt+1,Tt+1)の代わりに(R′t+1,T′t+1)への誤ったナビゲーションを仮定すると、フィードバック補正モジュール824は、時間t+2で(Rt+2,Tt+2)における次の主要点までナビゲートするときに、(R′t+1,T′t+1)と(Rt+1,Tt+1)との間の差を補うように構成されることができる。
いくつかの実施形態では、可動オブジェクトの位置は、端末または任意の他の遠隔制御システムを使用して、ユーザによって自由に制御され得る。所定の経路を辿るよりもむしろ、ユーザは、リアルタイムで可動オブジェクトを制御するようにコマンドを提供し得る。例えば、ユーザは、位置を維持し、場所を変更し、および/または配向を変更するように可動オブジェクトに指示し得る。場合によっては、デフォルトが提供され得る。デフォルトは、可動オブジェクトが位置を維持するためのものであり得る。例えば、いかなる入力もユーザから提供されない場合、可動オブジェクトはホバリングし得る。他の実施形態では、デフォルトは、以前の命令を続けることであり得る。例えば、ユーザが前方に移動するように可動オブジェクトに指示した場合、可動オブジェクトは、別様に指示されない限り、同一の速度で前方に移動し続け得る。いくつかの実施形態では、ユーザからのコマンドは、端末のユーザインターフェース、端末の位置/移動、または本明細書の他の場所で論議されるような任意の他の入力を介して提供され得る。
いくつかの実施形態では、可動オブジェクトの位置および移動の制御は、本明細書の他の場所で説明される制御の種類のうちのいずれかの組み合わせであり得る。例えば、可動オブジェクト経路は、事前に記憶された経路、計算された経路、および/またはユーザによる自由制御の組み合わせであり得る。一実施例では、可動オブジェクトは、事前に記録された経路の場所を辿り得る。しかしながら、可動オブジェクトが可動オブジェクトの事前に記録された配向を辿る必要がないように、ユーザは、可動オブジェクトの配向を調整するようにリアルタイムで可動オブジェクトを制御し得る。
いくつかの実施形態では、本明細書で説明されるセンサ融合ベースの運動および/または位置推定方法は、本明細書で説明されるように、6自由度に対して可動オブジェクトの速度を制御するために使用することができる。そのような速度制御は、独立して、または本明細書で説明される位置制御方式の任意の好適な実施形態と組み合わせて使用することができる。例えば、本明細書で開示される1つ以上の速度制御は、以前に説明されたように、自由制御、飛行軌道生成、または所定の飛行経路に適用することができる。
例えば、ユーザは、可動オブジェクトの速度プロファイルおよび/または規則を定義することができる。速度プロファイルおよび/または規則は、飛行中に可動オブジェクトによって維持されるべき最大許容速度、最小許容速度、速度範囲、一定速度、または可変速度、あるいはそれらの好適な組み合わせを含むことができる。速度プロファイルおよび/または規則は、可動オブジェクトの平行移動速度または角速度に適用することができる。場合によっては、平行移動速度に適用される速度プロファイルおよび/または規則は、角速度を決定し得、またはその逆も同様である。例えば、可動オブジェクトが最大速度を超えることを許されないように、最大速度を可動オブジェクトに特定することができる。場合によっては、最大平行移動速度(例えば、直線速度)および/または最大角速度(例えば、回転速度)が特定され得る。可動オブジェクトは、最大平行移動速度も最大角速度も超えないように、ある速度で移動し得る。場合によっては、(所定の場所および配向を含む)所定の経路を辿ることは、平行移動と角速度と調和させ得る。場合によっては、速度の種類のうちの1つ(例えば、平行移動速度)を超えないために、可動オブジェクトは、他方の種類の速度(例えば、角速度)の最大速度を満たさないこともある。場合によっては、最大平行移動速度および最大角速度は、いずれも可動オブジェクトによって超えることができないように特定することができる。速度プロファイルおよび/または規則は、可動オブジェクトの自由制御中、維持されることができ、速度プロファイルおよび/または規則の違反をもたらすであろうユーザコマンドは、修正されるか、または無効にされる。
可動オブジェクトは、1つ以上の速度プロファイルまたは規則に従って経路を横断し得る。可動オブジェクトの経路は、事前に決定され得、ユーザによってリアルタイムで自由に制御され得、および/またはプロセッサを用いてリアルタイムで計算され得る。速度プロファイルは、可動オブジェクトが経路を横断する速度(直線および/または回転速度)を示し得る。速度規則に関する、所定の飛行経路を横断する可動オブジェクトの本明細書での任意の説明はまた、自由に人間が制御した経路、またはコンピュータが計算した経路を含む、他の種類の経路に適用することもできる。
いくつかの実施形態では、可動オブジェクトによって横断される所定の飛行経路は、可動オブジェクトが飛行経路を横断している間に辿られる(例えば、ユーザ入力816を介して提供される)速度プロファイルおよび/または規則に関連付けられることができる。所定の飛行経路は、1つ以上のセグメントに分割されることができ、各セグメントは、セグメントを横断している間に可動オブジェクトによって辿られるべきそれ自体の速度プロファイルおよび/または規則を有する。例えば、可動オブジェクトは、一定速度で第1の経路セグメントを、次いで、異なる一定速度で第2の経路セグメントを横断するように命令されることができる。例えば、速度プロファイルは、可動オブジェクトが最初の100メートルに沿って3m/sの平行移動速度で進み、次いで、残りの経路に沿って3m/sの速度に戻る前に、次の200メートルに沿って5m/sの平行移動速度で進むことを特定し得る。可動オブジェクトは、経路に沿って、この速度プロファイル(経路に沿った可動オブジェクトの平行移動および角位置の両方を規定することができる)を辿り得、それが平行移動速度および対応する角速度の両方の決定をもたらし得る。場合によっては、可動オブジェクトは、可変速度で第1の経路セグメントを、次いで、一定速度で第2の経路セグメントを進むように命令されることができる。随意に、所定の飛行経路の全体は、同一の速度プロファイルおよび/または規則に関連付けられることができる。いくつかの実施形態では、可動オブジェクトが所定の飛行経路を辿っている間に、(例えば、ユーザ入力に基づいて)速度プロファイルおよび/またが規則を変更されることができる。いくつかの実施形態では、所定の飛行経路は、本明細書で説明されるような記録された飛行経路であり得、速度プロファイルは、記録された飛行経路の以前の横断中(例えば、記録プロセス中)の可動オブジェクトの速度プロファイルと同一であり得る。代替として、速度プロファイルの1つ以上の速度値は、記録された飛行経路の以前の横断中の可動オブジェクトの速度とは異なり得る。
速度プロファイルおよび/または規則は、任意の好適な手段によって決定することができる。例えば、速度プロファイルおよび/または規則は、ユーザ入力を介して(例えば、端末等のリモートコントロールを介して)提供し、メモリに記憶することができる。ユーザによって決定される、そのような速度プロファイルおよび/または規則は、可動オブジェクトの飛行前に、または可動オブジェクトが飛行している間にリアルタイムで確立することができる。随意に、速度プロファイルおよび/または規則は、飛行前に可動オブジェクトのメモリに事前に記憶することができる。速度プロファイルおよび/または規則は、機外で事前に記憶され、飛行前または中に可動オブジェクトに送信することができる。代替として、または組み合わせて、速度プロファイルおよび/または規則は、飛行中の可動オブジェクトの状態(例えば、可動オブジェクトの高度、緯度、経度、ロール角、ピッチ角、またはヨー角)に基づいて、好適なプロセッサおよび/またはアルゴリズムによってリアルタイムで動的に決定することができる。いくつかの実施形態では、速度プロファイルおよび/または規則は、1つ以上の感知システムによって提供される(例えば、本明細書で説明されるように、GPS、IMU、視覚、または近接を含む、1つ以上の感知システムのセンサ融合を使用して決定される)可動オブジェクトの位置的情報および/または運動情報に基づくことができる。例えば、最大速度は、可動オブジェクトの測定された高度に基づいて、可動オブジェクトに対して特定されることができ、より高高度ではより高い最大速度、およびより低高度ではより低い最大速度を伴う。これは、例えば、地面付近の構造との衝突の可能性を低減させる際に有利であり得る。
図9は、本発明の実施形態による、UAV等の可動オブジェクトの速度制御のためのシステム900のブロック図としての概略図である。システム900は、本明細書で説明されるシステム、方法、およびデバイスの任意の好適な実施形態と組み合わせて使用することができる。システム900は、位置および/または運動推定モジュール902と、飛行制御モジュール904とを含む。可動オブジェクトの飛行中に、位置および/または運動推定モジュール902は、本明細書で説明されるセンサ融合方法の好適な実施形態を使用して、可動オブジェクトの現在の速度を決定する。現在の速度値は、特定速度プロファイルおよび/または規則に対して比較することができる。飛行制御モジュール904は、速度プロファイルおよび/または規則に従うように可動オブジェクトの速度を調整するために、好適な作動機構(例えば、1つ以上のモータ)を制御する。図9の実施形態では、速度プロファイルおよび/または規則は、可動オブジェクトの事前設定速度制限として描写され、モジュール902によって生成される速度情報は、可動オブジェクトが事前設定速度制限を超えることを防止するようにフィードバックされる。
加えて、当業者であれば、本明細書で説明される速度制御の実施形態はまた、6自由度に対する可動オブジェクトの加速度を制御するように適用できることも理解するであろう。例えば、以前に説明されたような速度プロファイルおよび/または規則と同様に、加速度プロファイルおよび/または規則が、可動オブジェクトに対して特定されることができる。一実施例では、最大平行移動加速度および/または最大角加速度が提供され得る。位置制御、速度制御、および加速度制御の任意の好適な組み合わせを、(例えば、自由制御、飛行軌道生成、または所定の飛行経路のための)本明細書で説明される用途のうちのいずれかに適用することができる。
いくつかの実施形態では、位置制御が、速度および加速度制御等の移動制御とは別個に確立され得る。移動制御が、(ユーザによって、またはプロセッサを用いて生成される)所定の経路、または(ユーザによって、またはプロセッサを用いて生成される)リアルタイムで生成された経路等の位置制御に適用され得る。異なる機構を使用して、または同一の機構を使用して、位置制御および移動制御が別個に作成され得る。位置制御および異なる速度/加速度プロファイルが、ユーザによって所望されるように混合されて整合されることができる。位置制御および移動制御は、移動制御とは別個に記憶および/またはアクセスされることができる。
いくつかの実施形態では、可動オブジェクトの位置的情報および/または運動情報をユーザインターフェース上で表示することができる。ユーザインターフェースは、本明細書で以前に説明されたように、ディスプレイ(例えば、タッチスクリーンディスプレイ)または端末等の遠隔制御センターからの可動オブジェクトのナビゲーションおよび制御のために適合される任意のインターフェースであり得る。場合によっては、別個の表示デバイスが、制御端末から提供され得る。代替として、制御および表示機能性の両方が、単一のデバイス内で提供され得る。ユーザインターフェースは、キーボード、マウス、ジョイスティック、タッチスクリーン、音声認識システム、ジェスチャ認識システム、またはそれらの好適な組み合わせからの入力等のユーザ入力を受信することができる。可動オブジェクトの位置的情報(例えば、緯度、経度、高度、ロール角、ピッチ角、ヨー角、原点、目的地、以前に進んだ飛行経路、未来の飛行軌道、所定の飛行経路、ホーム位置、または事前設定場所)、または6自由度に対する運動情報(例えば、速度または加速度)等の任意の好適な情報を、ユーザインターフェース上で表示することができる。位置的情報および/または運動情報は、英数字値、記号または形状、記号または形状のサイズ、色または色のグラデーション、および動物のうちの1つ以上として表示することができる。随意に、ユーザインターフェースは、サイズ、重量、ペイロードの種類、6自由度に対するペイロードの場所および/または配向、状態(例えば、機能的要素がオンまたはオフであるかどうか)、またはペイロードによって伝送されるデータ(例えば、カメラ画像またはビデオフィード等のペイロードセンサによって収集されるデータ)等の可動オブジェクトのペイロードに関する情報を表示することができる。いくつかの実施形態では、ユーザインターフェースは、環境の地図(例えば、地形図)等の可動オブジェクトを包囲する環境に関する情報を表示することができる。標高、緯度、経度、配向、気象条件、地理的特徴、人工構造(例えば、建造物、道路、政治的境界)等に関する情報等の追加の情報を地図に重ね合わせることができる。地図は、基礎的位相特徴を示す場合もあり、または示さない場合もある。地図は、上から見られてもよく、または異なる角度から1つ以上の特徴を示すように角度を成し得る。ユーザインターフェースはまた、どのようにして情報が表示されるかを制御するために使用することもできる。随意に、表示された情報は、ズームインし、ズームアウトし、回転させ、平行移動させ、複数の視野角に分け、単一の視野角に組み込み等を行うことができる。
いくつかの実施形態では、ユーザインターフェースは、本明細書で説明されるように、位置、速度、および/または加速度に関して可動オブジェクト、キャリア、またはペイロードのうちの1つ以上を制御するように構成される、1つ以上のユーザ制御を含むことができる。随意に、ユーザインターフェースは、各々が、同時に、および/または独立して制御されることができるように、可動オブジェクト、キャリア、およびペイロードの各々のための別個の制御を含むことができる。加えて、ユーザ制御は、感知システム、作動機構、通信デバイス、処理ユニット、または任意の他の機能デバイス等の可動オブジェクト、キャリア、またはペイロードの要素のうちの1つ以上の状態を制御するために使用することができる。例えば、ユーザ制御は、以前に説明されたように、自由制御、飛行軌道生成、所定の飛行経路、速度プロファイルおよび/または規則、あるいは加速度プロファイルおよび/または規則のうちの1つ以上に関するコマンドを可動オブジェクトに提供するために使用することができる。いくつかの実施形態では、ユーザ制御は、本明細書で説明されるように、可動オブジェクトおよび/またはキャリアを制御することによって、ペイロードの状態を制御することができる。随意に、ユーザインターフェースは、オン、オフ、場所、配向、ズーム、または焦点等のペイロードカメラのための制御を含むことができる。
図10は、本発明の実施形態による、可動オブジェクトの制御およびナビゲーションのためのユーザインターフェース1000を図示する。ユーザインターフェース1000は、本明細書で説明されるシステム、方法、およびデバイスの任意の好適な実施形態と組み合わせて使用することができる。ユーザインターフェース1000は、3次元(3D)座標システム1004に対する可動オブジェクトの視覚指標1002を含む。3D座標システム1004の位置および/または配向を調整することができ、視覚指標1002が、それに従って調整される。例えば、ユーザは、異なる角度から可動オブジェクトを視認し得る。可動オブジェクトの相対場所に関する情報(例えば、座標系、環境/地図)もまた、それに対応して移動し得る。場合によっては、ユーザは、タッチスクリーンをスワイプすること、または触れることによって可動オブジェクトの表示を制御し得る。視覚指標は、6自由度に対してリアルタイムで可動オブジェクトの空間的配置を示す第1の指標1006と、第2の指標1008とを含む。第1の指標1006は、例えば、可動オブジェクトが移動するように位置付けられる方向を示す矢印を使用することによって、可動オブジェクトの配向を示すことができる。第2の指標1008は、可動オブジェクトの運動の方向を描写するために使用することができる。例えば、第2の指標1008は、矢印の長さが運動の大きさに対応する、運動の3D方向を示す矢印であり得る。代替として、第2の指標1008は、可動オブジェクトのペイロード(例えば、ペイロードカメラ)の対面方向を描写するために使用される矢印であり得る。場合によっては、単一の指標のみが提供される必要がある。単一の指標は、可動オブジェクトの配向を示し得る。可動オブジェクトの配向は、可動オブジェクトのための進行の軌道および/またはペイロードの方向を指し得る。いくつかの実施形態では、視覚指標1002は、本明細書で説明されるように、可動オブジェクトの位置的情報および/または運動情報を表す、英数字値を含むことができる。
本発明の好ましい実施形態が本明細書で示され、説明されているが、そのような実施形態は、一例のみとして提供されることが当業者に明白となるであろう。多数の変形例、変更、および置換が、本発明から逸脱することなく、当業者に思い浮かぶであろう。本明細書で説明される本発明の実施形態の種々の代替案が、本発明を実践する際に採用され得ることを理解されたい。以下の請求項は、本発明の範囲を定義し、それにより、これらの請求項およびそれらの同等物の範囲内の方法および構造が対象となることが意図される。

Claims (57)

  1. 可動オブジェクトの位置的情報を収集する方法であって、前記方法は、
    メモリにおいて、前記可動オブジェクトに連結されている第1の感知システムからデータを受信することであって、前記第1の感知システムは、前記可動オブジェクトの前記位置的情報を決定するために有用な信号を受信するセンサを備えている、ことと、
    前記メモリにおいて、前記可動オブジェクトに連結されている第2の感知システムからデータを受信することであって、前記第2の感知システムは、前記可動オブジェクトの前記位置的情報を決定するために有用な信号を受信するセンサを備えている、ことと、
    プロセッサを用いて、前記第2の感知システムの前記センサによって受信される前記信号の強度に基づいて、前記第2の感知システムからの前記データの重み値を決定することと、
    前記プロセッサを用いて、(i)前記第1の感知システムからの前記データ、および(ii)前記重み値を考慮に入れた、前記第2の感知システムからの前記データに基づいて、前記可動オブジェクトの前記位置的情報を計算することと
    を含む、方法。
  2. 前記可動オブジェクトは、無人機である、請求項1に記載の方法。
  3. 前記可動オブジェクトの前記位置的情報を計算することは、前記可動オブジェクトの場所情報および配向情報を計算することを含む、請求項1に記載の方法。
  4. 場所情報を計算することは、前記可動オブジェクトの高度、緯度、および経度を計算することを含む、請求項2に記載の方法。
  5. 配向情報を計算することは、ヨー軸に対する前記可動オブジェクトの角度、ロール軸に対する角度、およびピッチ軸に対する角度を計算することを含む、請求項2に記載の方法。
  6. 前記第2の感知システムからデータを受信することは、前記第2の感知システムによって使用される全地球測位システム(GPS)センサからデータを受信することを含む、請求項1に記載の方法。
  7. 前記第2のシステムの前記センサによって受信される前記信号の前記強度は、受信されるGPS信号の数に依存する、請求項6に記載の方法。
  8. 前記第2のシステムの前記センサによって受信される前記信号の前記強度は、受信されるGPS信号の大きさに依存する、請求項6に記載の方法。
  9. 前記第1の感知システムからデータを受信することは、前記第1の感知システムによって使用される1つ以上の視覚センサからデータを受信することを含む、請求項1に記載の方法。
  10. 前記1つ以上の視覚センサからデータを受信することは、横方向に離間している複数の視覚センサからデータを受信することを含む、請求項9に記載の方法。
  11. 前記可動オブジェクトに連結されている第3の感知システムからデータを受信することをさらに含み、前記第3の感知システムは、慣性計測装置(IMU)を使用する、請求項9に記載の方法。
  12. 前記第1の感知システムからデータを受信することは、前記第1の感知システムによって使用されるIMUからデータを受信することを含む、請求項1に記載の方法。
  13. 前記位置的情報を決定するために有用な前記信号は、光信号を含む、請求項1に記載の方法。
  14. 前記位置的情報を決定するために有用な前記信号は、衛星からの信号を含む、請求項1に記載の方法。
  15. 前記位置的情報を決定するために有用な前記信号は、速度または加速度を示す信号を含む、請求項1に記載の方法。
  16. 前記重み値は、数値である、請求項1に記載の方法。
  17. 前記数値は、0から1の間の値である、請求項16に記載の方法。
  18. 前記可動オブジェクトが事前設定された場所に戻るための命令を受信することをさらに含む、請求項1に記載の方法。
  19. 前記プロセッサを用いて、前記可動オブジェクトの前記位置的情報に基づいて、前記可動オブジェクトが前記事前設定された場所に戻るために進むべき経路を計算することをさらに含む、請求項18に記載の方法。
  20. 可動オブジェクトの位置的情報を収集するためのプログラム命令を含む非一過性のコンピュータ読み取り可能な媒体であって、前記コンピュータ読み取り可能な媒体は、
    前記可動オブジェクトに連結されている第1の感知システムから受信されるデータを分析するためのプログラム命令であって、前記第1の感知システムは、前記可動オブジェクトの前記位置的情報を決定するために有用な信号を受信するセンサを備えている、プログラム命令と、
    前記可動オブジェクトに連結されている第2の感知システムから受信されるデータを分析するためのプログラム命令であって、前記第2の感知システムは、前記可動オブジェクトの前記位置的情報を決定するために有用な信号を受信するセンサを備えている、プログラム命令と、
    前記第2の感知システムの前記センサによって受信される前記信号の強度に基づいて、前記第2の感知システムからの前記データの重み値を決定するためのプログラム命令と、
    (i)前記第1の感知システムからの前記分析されたデータ、および(ii)前記重み値を考慮に入れた、前記第2の感知システムからの前記分析されたデータに基づいて、前記可動オブジェクトの前記位置的情報を計算するためのプログラム命令と
    を備えている、コンピュータ読み取り可能な媒体。
  21. 前記可動オブジェクトは、無人機である、請求項20に記載のコンピュータ読み取り可能な媒体。
  22. 前記可動オブジェクトの前記位置的情報を計算するための前記プログラム命令は、前記可動オブジェクトの場所情報および配向情報を計算するためのプログラム命令を備えている、請求項20に記載のコンピュータ読み取り可能な媒体。
  23. 場所情報を計算するための前記プログラム命令は、前記可動オブジェクトの高度、緯度、および経度を計算するためのプログラム命令を備えている、請求項22に記載のコンピュータ読み取り可能な媒体。
  24. 配向情報を計算するための前記プログラム命令は、ヨー軸に対する前記可動オブジェクトの角度、ロール軸に対する角度、およびピッチ軸に対する角度を計算するためのプログラム命令を備えている、請求項22に記載のコンピュータ読み取り可能な媒体。
  25. 前記第2の感知システムから受信されるデータを分析するための前記プログラム命令は、前記第2の感知システムによって使用されるGPSセンサから受信されるデータを分析するためのプログラム命令を備えている、請求項20に記載のコンピュータ読み取り可能な媒体。
  26. 前記第2のシステムの前記センサによって受信される前記信号の前記強度は、受信されるGPS信号の数に依存する、請求項25に記載のコンピュータ読み取り可能な媒体。
  27. 前記第2のシステムの前記センサによって受信される前記信号の前記強度は、受信されるGPS信号の大きさに依存する、請求項25に記載のコンピュータ読み取り可能な媒体。
  28. 前記第1の感知システムから受信されるデータを分析するための前記プログラム命令は、前記第1の感知システムによって使用される1つ以上の視覚センサから受信されるデータを分析するためのプログラム命令を備えている、請求項20に記載のコンピュータ読み取り可能な媒体。
  29. 前記1つ以上の視覚センサから受信されるデータを分析するための前記プログラム命令は、横方向に離間している複数の視覚センサから受信されるデータを分析するためのプログラム命令を備えている、請求項28に記載のコンピュータ読み取り可能な媒体。
  30. 前記可動オブジェクトに連結されている第3の感知システムから受信されるデータを分析するためのプログラム命令をさらに備え、前記第3の感知システムは、IMUを使用する、請求項28に記載のコンピュータ読み取り可能な媒体。
  31. 前記第1の感知システムから受信されるデータを分析するための前記プログラム命令は、前記第1の感知システムによって使用されるIMUから受信されるデータを分析するためのプログラム命令を備えている、請求項20に記載のコンピュータ読み取り可能な媒体。
  32. 前記位置的情報を決定するために有用な前記信号は、光信号を含む、請求項20に記載のコンピュータ読み取り可能な媒体。
  33. 前記位置的情報を決定するために有用な前記信号は、衛星からの信号を含む、請求項20に記載のコンピュータ読み取り可能な媒体。
  34. 前記位置的情報を決定するために有用な前記信号は、速度または加速度を示す信号を含む、請求項20に記載のコンピュータ読み取り可能な媒体。
  35. 前記重み値は、数値である、請求項20に記載のコンピュータ読み取り可能な媒体。
  36. 前記数値は、0から1の間の値である、請求項35に記載のコンピュータ読み取り可能な媒体。
  37. 前記可動オブジェクトが事前設定された場所に戻るための命令を受信するためのプログラム命令をさらに備えている、請求項20に記載のコンピュータ読み取り可能な媒体。
  38. 前記プロセッサを用いて、前記可動オブジェクトの前記位置的情報に基づいて、前記可動オブジェクトが前記事前設定された場所に戻るために進むべき経路を計算するためのプログラム命令をさらに備えている、請求項37に記載のコンピュータ読み取り可能な媒体。
  39. 可動オブジェクトの位置的情報を収集するためのシステムであって、前記システムは、
    前記可動オブジェクトに連結されている第1の感知システムであって、前記第1の感知システムは、前記可動オブジェクトの前記位置的情報を決定するために有用な信号を受信するように構成されているセンサを備えている、第1の感知システムと、
    前記可動オブジェクトに連結されている第2の感知システムであって、前記第2の感知システムは、前記可動オブジェクトの前記位置的情報を決定するために有用な信号を受信するように構成されているセンサを備えている、第2の感知システムと、
    (a)前記第2の感知システムの前記センサによって受信される前記信号の強度に基づいて、前記第2の感知システムからの前記信号の重み値を決定し、(b)(i)前記第1の感知システムからの前記データ、および(ii)前記重み値を考慮に入れた、前記第2の感知システムからの前記データに基づいて、前記可動オブジェクトの前記位置的情報を計算する、プロセッサと
    を備えている、システム。
  40. 前記可動オブジェクトは、無人機である、請求項39に記載のシステム。
  41. 前記位置的情報は、前記可動オブジェクトの場所情報および配向情報を含む、請求項39に記載のシステム。
  42. 前記場所情報は、前記可動オブジェクトの高度、緯度、および経度を含む、請求項41に記載のシステム。
  43. 前記配向情報は、ヨー軸に対する前記可動オブジェクトの角度、ロール軸に対する角度、およびピッチ軸に対する角度を含む、請求項41に記載のシステム。
  44. 前記第2の感知システムは、GPSセンサを使用する、請求項39に記載のシステム。
  45. 前記第2のシステムの前記センサによって受信される前記信号の前記強度は、受信されるGPS信号の数に依存する、請求項44に記載のシステム。
  46. 前記第2のシステムの前記センサによって受信される前記信号の前記強度は、受信されるGPS信号の大きさに依存する、請求項44に記載のシステム。
  47. 前記第1の感知システムは、1つ以上の視覚センサを使用する、請求項39に記載のシステム。
  48. 前記第1の感知システムは、横方向に離間している複数の視覚センサを使用する、請求項47に記載のシステム。
  49. 前記可動オブジェクトに連結されている第3の感知システムをさらに備え、前記第3の感知システムは、慣性計測装置(IMU)を使用する、請求項47に記載のシステム。
  50. 前記第1の感知システムは、IMUを使用する、請求項39に記載のシステム。
  51. 前記位置的情報を決定するために有用な前記信号は、光信号を含む、請求項39に記載のシステム。
  52. 前記位置的情報を決定するために有用な前記信号は、衛星からの信号を含む、請求項39に記載のシステム。
  53. 前記位置的情報を決定するために有用な前記信号は、速度または加速度を示す信号を含む、請求項39に記載のシステム。
  54. 前記重み値は、数値である、請求項39に記載のシステム。
  55. 前記数値は、0から1の間の値である、請求項54に記載のシステム。
  56. 前記可動オブジェクトが事前設定された場所に戻るための命令を受信するための受信機をさらに備えている、請求項39に記載のシステム。
  57. 前記プロセッサは、前記可動オブジェクトの前記位置的情報に基づいて、前記可動オブジェクトが前記事前設定された場所に戻るために進むべき経路を決定するように構成されている、請求項56に記載のシステム。
JP2016558242A 2013-12-10 2013-12-10 センサ融合 Expired - Fee Related JP6329642B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2013/088971 WO2015085483A1 (en) 2013-12-10 2013-12-10 Sensor fusion

Publications (2)

Publication Number Publication Date
JP2017508166A true JP2017508166A (ja) 2017-03-23
JP6329642B2 JP6329642B2 (ja) 2018-05-23

Family

ID=53370453

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016558242A Expired - Fee Related JP6329642B2 (ja) 2013-12-10 2013-12-10 センサ融合

Country Status (5)

Country Link
US (1) US10240930B2 (ja)
EP (2) EP3754381A1 (ja)
JP (1) JP6329642B2 (ja)
CN (1) CN104854428B (ja)
WO (1) WO2015085483A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019045364A (ja) * 2017-09-05 2019-03-22 ソニー株式会社 情報処理装置、自己位置推定方法、及び、プログラム
JP2019049475A (ja) * 2017-09-11 2019-03-28 ソニー株式会社 信号処理装置、および信号処理方法、プログラム、並びに移動体
CN109669202A (zh) * 2017-10-16 2019-04-23 三星电子株式会社 位置估计装置和方法
WO2019150483A1 (ja) * 2018-01-31 2019-08-08 パイオニア株式会社 速度算出装置、速度算出方法、及び、プログラム
KR102093743B1 (ko) * 2018-11-06 2020-03-26 경북대학교 산학협력단 센서 융합을 이용한 차선 레벨 자동차 위치 정보 측위 시스템
JP2021517437A (ja) * 2018-04-04 2021-07-15 華為技術有限公司Huawei Technologies Co.,Ltd. 無線通信方法及び装置

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3428766B1 (en) 2014-09-05 2021-04-07 SZ DJI Technology Co., Ltd. Multi-sensor environmental mapping
EP3008535B1 (en) 2014-09-05 2018-05-16 SZ DJI Technology Co., Ltd. Context-based flight mode selection
WO2016033795A1 (en) * 2014-09-05 2016-03-10 SZ DJI Technology Co., Ltd. Velocity control for an unmanned aerial vehicle
US10203208B2 (en) * 2014-10-17 2019-02-12 Sony Corporation Position estimation device and position estimation method
CN107850902B (zh) 2015-07-08 2022-04-08 深圳市大疆创新科技有限公司 可移动物体上的相机配置
CN106170676B (zh) * 2015-07-14 2018-10-09 深圳市大疆创新科技有限公司 用于确定移动平台的移动的方法、设备以及系统
US10048058B2 (en) * 2015-07-29 2018-08-14 Microsoft Technology Licensing, Llc Data capture system for texture and geometry acquisition
CN105180943B (zh) * 2015-09-17 2016-08-17 江苏中大东博信息科技有限公司 船舶定位系统及方法
CN105223957B (zh) * 2015-09-24 2018-10-02 北京零零无限科技有限公司 一种手势操控无人机的方法和装置
CN108351574B (zh) 2015-10-20 2020-12-22 深圳市大疆创新科技有限公司 用于设置相机参数的系统、方法和装置
DE102015122183B4 (de) * 2015-12-18 2018-12-06 Antony Pfoertzsch Vorrichtung und Verfahren für ein unbemanntes Flugobjekt
US10132933B2 (en) * 2016-02-02 2018-11-20 Qualcomm Incorporated Alignment of visual inertial odometry and satellite positioning system reference frames
US9874931B1 (en) * 2016-02-22 2018-01-23 Rockwell Collins, Inc. Head-tracking system and method
CN105872371B (zh) * 2016-03-31 2019-04-02 纳恩博(北京)科技有限公司 一种信息处理方法和电子设备
US10474148B2 (en) 2016-07-27 2019-11-12 General Electric Company Navigating an unmanned aerial vehicle
CN109154499A (zh) * 2016-08-18 2019-01-04 深圳市大疆创新科技有限公司 用于增强立体显示的系统和方法
US11709493B2 (en) * 2016-08-18 2023-07-25 Tevel Aerobotics Technologies Ltd. System and method for plantation agriculture tasks management and data collection
CN113895641A (zh) 2016-08-31 2022-01-07 深圳市大疆创新科技有限公司 无人的可移动物体
CN111562796A (zh) * 2016-09-26 2020-08-21 深圳市大疆创新科技有限公司 控制方法、控制设备和运载系统
US10645297B2 (en) * 2016-09-30 2020-05-05 Optim Corporation System, method, and program for adjusting angle of camera
AU2017339857B2 (en) * 2016-10-03 2021-09-16 Agjunction Llc Using optical sensors to resolve vehicle heading issues
WO2018086133A1 (en) * 2016-11-14 2018-05-17 SZ DJI Technology Co., Ltd. Methods and systems for selective sensor fusion
CN108398944B (zh) * 2016-12-15 2021-04-06 苏州宝时得电动工具有限公司 自移动设备的作业方法、自移动设备、存储器和服务器
WO2018112823A1 (en) * 2016-12-22 2018-06-28 Intel Corporation Uav positions method and apparatus
CN108254775A (zh) * 2016-12-29 2018-07-06 联创汽车电子有限公司 车载导航系统及其实现方法
US20180186472A1 (en) * 2016-12-30 2018-07-05 Airmada Technology Inc. Method and apparatus for an unmanned aerial vehicle with a 360-degree camera system
US10252717B2 (en) 2017-01-10 2019-04-09 Toyota Jidosha Kabushiki Kaisha Vehicular mitigation system based on wireless vehicle data
CN106809382B (zh) * 2017-01-20 2019-01-15 亿航智能设备(广州)有限公司 一种飞行器及其控制方法
CN106941607A (zh) * 2017-02-22 2017-07-11 万物感知(深圳)科技有限公司 立体惯性摄像系统
CN106908822B (zh) * 2017-03-14 2020-06-30 北京京东尚科信息技术有限公司 无人机定位切换方法、装置和无人机
CN106896391A (zh) * 2017-03-14 2017-06-27 北京京东尚科信息技术有限公司 无人机的定位方法及装置
WO2019008625A1 (ja) * 2017-07-03 2019-01-10 日本電気株式会社 信号処理装置、信号処理方法およびプログラムを記憶する記憶媒体
US11676299B2 (en) * 2017-08-07 2023-06-13 Ford Global Technologies, Llc Locating a vehicle using a drone
US10921825B2 (en) * 2017-11-04 2021-02-16 Automodality, Inc. System and method for perceptive navigation of automated vehicles
CN111295331A (zh) * 2017-11-17 2020-06-16 深圳市大疆创新科技有限公司 用于使多个控制装置与可移动物体同步的系统和方法
CN108762245B (zh) * 2018-03-20 2022-03-25 华为技术有限公司 数据融合方法以及相关设备
CN108492328B (zh) * 2018-03-23 2021-02-26 云南大学 视频帧间目标匹配方法、装置和实现装置
CN110325822B (zh) * 2018-04-25 2023-06-27 深圳市大疆创新科技有限公司 云台位姿修正方法和装置
CN110352331A (zh) * 2018-04-25 2019-10-18 深圳市大疆创新科技有限公司 手持云台的姿态解算的方法和云台系统
US11372115B2 (en) * 2018-05-24 2022-06-28 Cyngn, Inc. Vehicle localization
CN108762306A (zh) * 2018-06-22 2018-11-06 深圳市科比特航空科技有限公司 一种无人机和无人机的传感系统
DE102018120198A1 (de) * 2018-08-20 2020-02-20 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Luftfahrzeug
EP3845863B1 (en) * 2018-08-28 2023-06-14 Sony Group Corporation Information processing device, information processing method, and program
CN109314844B (zh) * 2018-09-04 2022-05-06 北京小米移动软件有限公司 信息传输方法及装置
US11037453B2 (en) * 2018-10-12 2021-06-15 Aurora Flight Sciences Corporation Adaptive sense and avoid system
CN109856659B (zh) * 2019-01-21 2021-02-12 同济大学 海床基定位授时与数据回收系统及方法
US11288970B2 (en) 2019-02-21 2022-03-29 Aveopt, Inc. System and methods for monitoring unmanned traffic management infrastructure
US11343646B2 (en) 2019-08-23 2022-05-24 Samsung Electronics Co., Ltd. Method and apparatus for localization
CN112578779A (zh) * 2019-09-29 2021-03-30 苏州宝时得电动工具有限公司 地图建立方法、自移动设备、自动工作系统
US11945439B2 (en) 2020-02-27 2024-04-02 Volvo Truck Corporation AD or ADAS aided maneuvering of a vehicle
CN111505692B (zh) * 2020-04-30 2021-03-12 中北大学 一种基于北斗/视觉的组合定位导航方法
CN112130136B (zh) * 2020-09-11 2024-04-12 中国重汽集团济南动力有限公司 一种交通目标综合感知系统及方法
CN114518108B (zh) * 2020-11-18 2023-09-08 宇通客车股份有限公司 一种定位地图构建方法及装置
WO2022266806A1 (zh) * 2021-06-21 2022-12-29 深圳市大疆创新科技有限公司 移动平台
US20230071338A1 (en) * 2021-09-08 2023-03-09 Sea Machines Robotics, Inc. Navigation by mimic autonomy
KR102621780B1 (ko) * 2022-12-02 2024-01-09 주식회사 라이드플럭스 복수의 측위 기술 퓨전을 통한 자율주행 차량의 측위 방법, 장치 및 컴퓨터프로그램

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060149472A1 (en) * 2005-01-04 2006-07-06 Deere & Company, A Delaware Corporation. Vision-aided system and method for guiding a vehicle
JP2008304260A (ja) * 2007-06-06 2008-12-18 Mitsubishi Electric Corp 画像処理装置
JP2009041932A (ja) * 2007-08-06 2009-02-26 Toyota Motor Corp 移動体用測位装置
US20120083945A1 (en) * 2010-08-26 2012-04-05 John Robert Oakley Helicopter with multi-rotors and wireless capability

Family Cites Families (206)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2574456B2 (ja) 1989-03-15 1997-01-22 松下電器産業株式会社 自走式掃除機
US5173947A (en) 1989-08-01 1992-12-22 Martin Marietta Corporation Conformal image processing apparatus and method
JP3040611B2 (ja) 1992-09-17 2000-05-15 三菱重工業株式会社 低騒音ヘリコプタ
IL112237A (en) 1994-01-18 1998-03-10 Honeywell Inc System and method for evading threats to aircraft
US5785281A (en) 1994-11-01 1998-07-28 Honeywell Inc. Learning autopilot
JP3561547B2 (ja) 1995-03-02 2004-09-02 綜合警備保障株式会社 自律型移動体の走行制御システム
FR2731824B1 (fr) 1995-03-17 1997-05-16 Sextant Avionique Dispositif d'evitement de collisions pour aeronef notamment avec le sol
US5682229A (en) 1995-04-14 1997-10-28 Schwartz Electro-Optics, Inc. Laser range camera
IL117792A (en) 1995-05-08 2003-10-31 Rafael Armament Dev Authority Autonomous command and control unit for mobile platform
US6539290B1 (en) 1995-06-07 2003-03-25 Dabulamanzi Holdings, Llc Method, apparatus and design procedure for controlling multi-input, multi-output (MIMO) parameter dependent systems using feedback LTI'zation
US5716032A (en) 1996-04-22 1998-02-10 United States Of America As Represented By The Secretary Of The Army Unmanned aerial vehicle automatic landing system
US6056237A (en) 1997-06-25 2000-05-02 Woodland; Richard L. K. Sonotube compatible unmanned aerial vehicle and system
JPH11282530A (ja) 1998-03-27 1999-10-15 Sanyo Electric Co Ltd 車両運行システム
DE19849857C2 (de) 1998-10-29 2003-08-21 Eads Deutschland Gmbh Fernlenkverfahren für ein unbemanntes Luftfahrzeug
AU1930700A (en) 1998-12-04 2000-06-26 Interval Research Corporation Background estimation and segmentation based on range and color
US6377889B1 (en) 2000-10-13 2002-04-23 Trimble Navigation Limited Non-linear method of guiding to arbitrary curves with adaptive feedback
US6804607B1 (en) 2001-04-17 2004-10-12 Derek Wood Collision avoidance system and method utilizing variable surveillance envelope
US6597987B1 (en) * 2001-05-15 2003-07-22 Navigation Technologies Corp. Method for improving vehicle positioning in a navigation system
CN1230350C (zh) 2001-07-06 2005-12-07 精工爱普生株式会社 飞船系统
US20030055540A1 (en) 2001-09-20 2003-03-20 Hansen James K. Anti-terrorism aircraft flight control system
JP2003127994A (ja) 2001-10-24 2003-05-08 Kansai Electric Power Co Inc:The 無人飛行物体の制御システム
US6875019B2 (en) 2002-02-11 2005-04-05 United Defense, Lp Naval virtual target range system
US6725152B2 (en) 2002-02-21 2004-04-20 Lockheed Martin Corporation Real-time route and sensor planning system with variable mission objectives
US8111289B2 (en) 2002-07-15 2012-02-07 Magna B.S.P. Ltd. Method and apparatus for implementing multipurpose monitoring system
US7231063B2 (en) 2002-08-09 2007-06-12 Intersense, Inc. Fiducial detection system
JP4300010B2 (ja) 2002-10-08 2009-07-22 富士重工業株式会社 無人ヘリコプタ、無人ヘリコプタの離陸方法及び無人ヘリコプタの着陸方法
WO2004059900A2 (en) 2002-12-17 2004-07-15 Evolution Robotics, Inc. Systems and methods for visual simultaneous localization and mapping
DE10305861A1 (de) 2003-02-13 2004-08-26 Adam Opel Ag Vorrichtung eines Kraftfahrzeuges zur räumlichen Erfassung einer Szene innerhalb und/oder außerhalb des Kraftfahrzeuges
SE0300871D0 (sv) 2003-03-27 2003-03-27 Saab Ab Waypoint navigation
US7343232B2 (en) 2003-06-20 2008-03-11 Geneva Aerospace Vehicle control system including related methods and components
US7061401B2 (en) 2003-08-07 2006-06-13 BODENSEEWERK GERäTETECHNIK GMBH Method and apparatus for detecting a flight obstacle
US7747067B2 (en) 2003-10-08 2010-06-29 Purdue Research Foundation System and method for three dimensional modeling
US7231294B2 (en) 2003-10-23 2007-06-12 International Business Machines Corporation Navigating a UAV
US7130741B2 (en) 2003-10-23 2006-10-31 International Business Machines Corporation Navigating a UAV with a remote control device
US7107148B1 (en) 2003-10-23 2006-09-12 International Business Machines Corporation Navigating a UAV with on-board navigation algorithms with flight depiction
US7689321B2 (en) 2004-02-13 2010-03-30 Evolution Robotics, Inc. Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system
US7831094B2 (en) 2004-04-27 2010-11-09 Honda Motor Co., Ltd. Simultaneous localization and mapping using multiple view feature descriptors
US7818127B1 (en) 2004-06-18 2010-10-19 Geneva Aerospace, Inc. Collision avoidance for vehicle control systems
DE602004018910D1 (de) 2004-07-03 2009-02-26 Saab Ab System und Verfahren zur Steuerung eines Flugzeugs während des Fluges
US7228227B2 (en) 2004-07-07 2007-06-05 The Boeing Company Bezier curve flightpath guidance using moving waypoints
US7302316B2 (en) 2004-09-14 2007-11-27 Brigham Young University Programmable autopilot system for autonomous flight of unmanned aerial vehicles
US20060058931A1 (en) 2004-09-15 2006-03-16 Honeywell International Inc. Collision avoidance involving radar feedback
DE05858232T1 (de) 2004-10-08 2008-03-13 Bell Helicopter Textron, Inc., Fort Worth Steuersystem für automatikflug unter windscherbedingungen
US7307579B2 (en) 2004-11-03 2007-12-11 Flight Safety Technologies, Inc. Collision alerting and avoidance system
US7512462B2 (en) 2004-11-16 2009-03-31 Northrop Grumman Corporation Automatic contingency generator
US7242791B2 (en) * 2005-01-04 2007-07-10 Deere & Company Method and system for guiding a vehicle with vision enhancement
BRPI0606200A2 (pt) 2005-01-06 2009-11-17 Alan Shulman sistema de detecção cognitiva de alterações
US20100001902A1 (en) 2005-01-21 2010-01-07 The Boeing Company Situation awareness display
US7228232B2 (en) 2005-01-24 2007-06-05 International Business Machines Corporation Navigating a UAV with obstacle avoidance algorithms
US20100004798A1 (en) 2005-01-25 2010-01-07 William Kress Bodin Navigating a UAV to a next waypoint
US7408627B2 (en) 2005-02-08 2008-08-05 Canesta, Inc. Methods and system to quantify depth data accuracy in three-dimensional sensors using single frame capture
US7248952B2 (en) 2005-02-17 2007-07-24 Northrop Grumman Corporation Mixed integer linear programming trajectory generation for autonomous nap-of-the-earth flight in a threat environment
US20060235610A1 (en) 2005-04-14 2006-10-19 Honeywell International Inc. Map-based trajectory generation
US7266477B2 (en) 2005-06-22 2007-09-04 Deere & Company Method and system for sensor signal fusion
US7494320B2 (en) 2005-06-28 2009-02-24 Petter Muren Rotor for passively stable helicopter
US7792330B1 (en) 2005-09-30 2010-09-07 Mustang Technology Group, L.P. System and method for determining range in response to image data
WO2007047953A2 (en) 2005-10-20 2007-04-26 Prioria, Inc. System and method for onboard vision processing
WO2007048003A2 (en) 2005-10-21 2007-04-26 Deere & Company Versatile robotic control module
US8275544B1 (en) * 2005-11-21 2012-09-25 Miltec Missiles & Space Magnetically stabilized forward observation platform
CN101331379B (zh) 2005-12-16 2012-04-11 株式会社Ihi 自身位置辨认方法和装置以及三维形状的计测方法和装置
US7539557B2 (en) 2005-12-30 2009-05-26 Irobot Corporation Autonomous mobile robot
US8577538B2 (en) 2006-07-14 2013-11-05 Irobot Corporation Method and system for controlling a remote vehicle
US7431243B1 (en) 2006-03-23 2008-10-07 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Guidance and control for an autonomous soaring UAV
US8666661B2 (en) * 2006-03-31 2014-03-04 The Boeing Company Video navigation
US8108092B2 (en) 2006-07-14 2012-01-31 Irobot Corporation Autonomous behaviors for a remote vehicle
US7822266B2 (en) 2006-06-02 2010-10-26 Carnegie Mellon University System and method for generating a terrain model for autonomous navigation in vegetation
US20080059015A1 (en) 2006-06-09 2008-03-06 Whittaker William L Software architecture for high-speed traversal of prescribed routes
US8271132B2 (en) 2008-03-13 2012-09-18 Battelle Energy Alliance, Llc System and method for seamless task-directed autonomy for robots
US7587260B2 (en) 2006-07-05 2009-09-08 Battelle Energy Alliance, Llc Autonomous navigation system and method
US8355818B2 (en) 2009-09-03 2013-01-15 Battelle Energy Alliance, Llc Robots, systems, and methods for hazard evaluation and visualization
US20080033645A1 (en) * 2006-08-03 2008-02-07 Jesse Sol Levinson Pobabilistic methods for mapping and localization in arbitrary outdoor environments
US7725257B2 (en) 2006-09-05 2010-05-25 Honeywell International Inc. Method and system for navigation of an ummanned aerial vehicle in an urban environment
US20090177398A1 (en) * 2008-01-08 2009-07-09 Trex Enterprises Corp. Angles only navigation system
EP2089677B1 (en) 2006-12-06 2016-06-08 Honeywell International Inc. Methods, apparatus and systems for enhanced synthetic vision and multi-sensor data fusion to improve operational capabilities of unmanned aerial vehicles
FR2910617B1 (fr) 2006-12-22 2009-03-06 Thales Sa Procede et dispositif de calcul d'une trajectoire decalee lateralement par rapport a une trajectoire de reference
US20100250022A1 (en) 2006-12-29 2010-09-30 Air Recon, Inc. Useful unmanned aerial vehicle
US8072581B1 (en) 2007-01-19 2011-12-06 Rockwell Collins, Inc. Laser range finding system using variable field of illumination flash lidar
US20080195316A1 (en) * 2007-02-12 2008-08-14 Honeywell International Inc. System and method for motion estimation using vision sensors
US20080195304A1 (en) 2007-02-12 2008-08-14 Honeywell International Inc. Sensor fusion for navigation
EP1972893A1 (en) * 2007-03-21 2008-09-24 Universiteit Gent System and method for position determination
DE102007032084A1 (de) 2007-07-09 2009-01-22 Eads Deutschland Gmbh Kollisions- und Konfliktvermeidungssystem für autonome unbemannte Flugzeuge (UAV)
US20090058723A1 (en) * 2007-09-04 2009-03-05 Mediatek Inc. Positioning system and method thereof
DE102007043534A1 (de) 2007-09-12 2009-03-19 Robert Bosch Gmbh Anordnung zum Erfassen einer Umgebung
US7979174B2 (en) 2007-09-28 2011-07-12 Honeywell International Inc. Automatic planning and regulation of the speed of autonomous vehicles
US7606115B1 (en) 2007-10-16 2009-10-20 Scientific Applications & Research Associates, Inc. Acoustic airspace collision detection system
IL191615A (en) 2007-10-23 2015-05-31 Israel Aerospace Ind Ltd A method and system for producing tie points for use in stereo adjustment of stereoscopic images and a method for identifying differences in the landscape taken between two time points
EP2214932B1 (en) 2007-11-27 2011-08-24 Pilkington Italia S.p.A. Glazing
WO2009074654A1 (en) * 2007-12-11 2009-06-18 Nemerix Sa Gnss method and receiver with camera aid
US8718838B2 (en) 2007-12-14 2014-05-06 The Boeing Company System and methods for autonomous tracking and surveillance
US8082102B2 (en) 2008-01-14 2011-12-20 The Boeing Company Computing flight plans for UAVs while routing around obstacles having spatial and temporal dimensions
US9641822B2 (en) 2008-02-25 2017-05-02 Samsung Electronics Co., Ltd. Method and apparatus for processing three-dimensional (3D) images
US8108139B1 (en) 2008-02-29 2012-01-31 Williams-Pyro, Inc. System and method for route representation with waypoint storage
EP2278357A3 (en) 2008-03-26 2011-06-29 Genova Robot SRL A method and a device for determining the position of a vehicle for the autonomous driving of a vehicle, in particular a robotized vehicle
US9766074B2 (en) 2008-03-28 2017-09-19 Regents Of The University Of Minnesota Vision-aided inertial navigation
CN101445156B (zh) 2008-05-15 2011-05-25 龚文基 智能化空中机器人系统集成技术
US8239133B2 (en) * 2008-07-02 2012-08-07 O2Micro, International Global positioning system and dead reckoning (GPSandDR) integrated navigation system
KR100955483B1 (ko) 2008-08-12 2010-04-30 삼성전자주식회사 3차원 격자 지도 작성 방법 및 이를 이용한 자동 주행 장치의 제어 방법
TWI408397B (zh) 2008-08-15 2013-09-11 Univ Nat Chiao Tung Automatic navigation device with ultrasonic and computer vision detection and its navigation method
US8521339B2 (en) 2008-09-09 2013-08-27 Aeryon Labs Inc. Method and system for directing unmanned vehicles
CN101403620B (zh) 2008-09-10 2013-04-24 深圳市同洲电子股份有限公司 导航装置及方法
US8818567B2 (en) * 2008-09-11 2014-08-26 Deere & Company High integrity perception for machine localization and safeguarding
JP5359680B2 (ja) 2008-09-17 2013-12-04 豊田合成株式会社 燃料遮断弁
WO2010038353A1 (ja) 2008-10-01 2010-04-08 村田機械株式会社 自律移動装置
US8543265B2 (en) 2008-10-20 2013-09-24 Honeywell International Inc. Systems and methods for unmanned aerial vehicle navigation
US8538673B2 (en) 2008-10-31 2013-09-17 Czech Technical University In Prague System and method for planning/replanning collision free flight plans in real or accelerated time
US8412456B2 (en) * 2008-11-06 2013-04-02 Texas Instruments Incorporated Loosely-coupled integration of global navigation satellite system and inertial navigation system: speed scale-factor and heading bias calibration
CN201331349Y (zh) 2008-12-01 2009-10-21 深圳职业技术学院 运动位移无线检测系统
CN201331348Y (zh) 2009-01-06 2009-10-21 山东科沐华信息技术有限公司 惯导组合gps车载终端
WO2010088290A1 (en) * 2009-01-27 2010-08-05 Arthur Thomas D Tight optical intergation (toi) of images with gps range measurements
KR102396455B1 (ko) 2009-02-02 2022-05-10 에어로바이론먼트, 인크. 멀티모드 무인 항공기
US8340852B2 (en) 2009-04-29 2012-12-25 Honeywell International Inc. System and method for simultaneous localization and map building
US8977407B2 (en) 2009-05-27 2015-03-10 Honeywell International Inc. Adaptive user interface for semi-automatic operation
US8473187B2 (en) 2009-06-01 2013-06-25 Robert Bosch Gmbh Method and apparatus for combining three-dimensional position and two-dimensional intensity mapping for localization
US8265818B2 (en) 2009-06-04 2012-09-11 Defense Technologies, Inc. Open architecture command system
US20110084162A1 (en) 2009-10-09 2011-04-14 Honeywell International Inc. Autonomous Payload Parsing Management System and Structure for an Unmanned Aerial Vehicle
DE102009049849B4 (de) 2009-10-19 2020-09-24 Apple Inc. Verfahren zur Bestimmung der Pose einer Kamera, Verfahren zur Erkennung eines Objekts einer realen Umgebung und Verfahren zur Erstellung eines Datenmodells
US8566071B2 (en) * 2009-10-26 2013-10-22 The United States Of America As Represented By The Secretary Of The Army Calibration and synchronization of micro air vehicle autopilots
US8913783B2 (en) 2009-10-29 2014-12-16 Sri International 3-D model based method for detecting and classifying vehicles in aerial imagery
TWI391874B (zh) 2009-11-24 2013-04-01 Ind Tech Res Inst 地圖建置方法與裝置以及利用該地圖的定位方法
IL202460A (en) 2009-12-01 2013-08-29 Rafael Advanced Defense Sys Method and system for creating a 3D view of real arena for military planning and operations
US9097532B2 (en) 2010-01-20 2015-08-04 Honeywell International Inc. Systems and methods for monocular airborne object detection
JP5498178B2 (ja) 2010-01-21 2014-05-21 株式会社Ihiエアロスペース 無人移動体の制御方法及び無人移動体
GB2489179B (en) 2010-02-05 2017-08-02 Trimble Navigation Ltd Systems and methods for processing mapping and modeling data
CN101867868B (zh) * 2010-03-26 2012-11-28 东南大学 一种组合导航装置和实施方法
US8577535B2 (en) 2010-03-31 2013-11-05 Massachusetts Institute Of Technology System and method for providing perceived first-order control of an unmanned vehicle
WO2011120141A1 (en) 2010-03-31 2011-10-06 Ambercore Software Inc. Dynamic network adjustment for rigorous integration of passive and active imaging observations into trajectory determination
US8639426B2 (en) * 2010-07-15 2014-01-28 George C Dedes GPS/IMU/video/radar absolute/relative positioning communication/computation sensor platform for automotive safety applications
CN101950027A (zh) * 2010-08-18 2011-01-19 东莞市泰斗微电子科技有限公司 一种导航卫星信号接收模块及用于该模块的信息处理方法
AR082184A1 (es) * 2010-09-23 2012-11-21 Telefonica Sa Metodo y sistema para calcular la ubicacion geografica de un dispositivo personal
US8676498B2 (en) * 2010-09-24 2014-03-18 Honeywell International Inc. Camera and inertial measurement unit integration with navigation data feedback for feature tracking
CN102023003A (zh) 2010-09-29 2011-04-20 清华大学 基于激光探测和图像识别的无人直升机三维定位及测绘方法
US8378881B2 (en) 2010-10-18 2013-02-19 Raytheon Company Systems and methods for collision avoidance in unmanned aerial vehicles
US8712679B1 (en) 2010-10-29 2014-04-29 Stc.Unm System and methods for obstacle mapping and navigation
US9690099B2 (en) 2010-12-17 2017-06-27 Microsoft Technology Licensing, Llc Optimized focal area for augmented reality displays
JP5618840B2 (ja) 2011-01-04 2014-11-05 株式会社トプコン 飛行体の飛行制御システム
EP2482269B1 (en) 2011-01-28 2017-03-22 The Boeing Company Providing data for predicting aircraft trajectory
US8401225B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Moving object segmentation using depth images
US8711206B2 (en) 2011-01-31 2014-04-29 Microsoft Corporation Mobile camera localization using depth maps
DE102011010679A1 (de) 2011-02-08 2012-08-09 Eads Deutschland Gmbh Unbemanntes Luftfahrzeug mit eingebautem Kollisionswarnsystem
US20120213436A1 (en) 2011-02-18 2012-08-23 Hexagon Technology Center Gmbh Fast Image Enhancement and Three-Dimensional Depth Calculation
AU2012223032B2 (en) 2011-02-28 2015-10-29 Bae Systems Australia Limited Control computer for an unmanned vehicle
US8868323B2 (en) 2011-03-22 2014-10-21 Honeywell International Inc. Collaborative navigation using conditional updates
US20120271461A1 (en) 2011-04-20 2012-10-25 Spata Gregory P Capturing environmental information
CA2835239C (en) 2011-05-06 2020-02-25 Richard J. Rikoski Systems and methods for synthetic aperture sonar
CN102393747B (zh) 2011-08-17 2015-07-29 清华大学 无人机集群的协作交互方法
CN103256931B (zh) 2011-08-17 2014-11-26 清华大学 无人机的可视导航系统
US8972053B2 (en) 2011-08-30 2015-03-03 5D Robotics, Inc. Universal payload abstraction
US9297881B2 (en) * 2011-11-14 2016-03-29 Microsoft Technology Licensing, Llc Device positioning via device-sensed data evaluation
US9031782B1 (en) * 2012-01-23 2015-05-12 The United States Of America As Represented By The Secretary Of The Navy System to use digital cameras and other sensors in navigation
DE102012201870A1 (de) 2012-02-08 2013-08-08 RobArt GmbH Verfahren zum automatischen Auslösen einer Selbstlokalisierung
US9463574B2 (en) 2012-03-01 2016-10-11 Irobot Corporation Mobile inspection robot
CN103323002B (zh) 2012-03-19 2016-04-27 联想(北京)有限公司 即时定位与地图构建方法和装置
WO2013163746A1 (en) 2012-05-04 2013-11-07 Aeryon Labs Inc. System and method for controlling unmanned aerial vehicles
US9384668B2 (en) 2012-05-09 2016-07-05 Singularity University Transportation using network of unmanned aerial vehicles
CN102707724B (zh) 2012-06-05 2015-01-14 清华大学 一种无人机的视觉定位与避障方法及系统
JP2014002604A (ja) 2012-06-19 2014-01-09 Ricoh Co Ltd 課金システム、課金方法、課金システムを備えた機器
JP5987259B2 (ja) 2012-06-19 2016-09-07 株式会社リコー 自動運転ナビゲーションシステム
US8682521B2 (en) 2012-06-25 2014-03-25 The Boeing Company Unpredictable vehicle navigation
CN102749927A (zh) 2012-07-20 2012-10-24 常州大学 无人飞机自动规避障碍物的系统及其规避方法
US9441985B2 (en) 2012-07-25 2016-09-13 Rockwell Collins, Inc. Future scene generating system, device, and method for a remotely-operated vehicle
CN103576690B (zh) 2012-07-25 2016-12-21 深圳市大疆创新科技有限公司 一种无人机遥控方法及设备、无人机
US9753355B2 (en) 2012-08-17 2017-09-05 Perspective Robotics Ag Flying camera with string assembly for localization and interaction
US20140056438A1 (en) 2012-08-21 2014-02-27 Harman International Industries, Incorporated System for vehicle sound synthesis
US20150350614A1 (en) 2012-08-31 2015-12-03 Brain Corporation Apparatus and methods for tracking using aerial video
CN102854887A (zh) 2012-09-06 2013-01-02 北京工业大学 一种无人机航迹规划和远程同步操控方法
CN203038112U (zh) 2012-09-19 2013-07-03 苏州工业园区职业技术学院 无人机uav自动控制系统
CN202815124U (zh) 2012-10-16 2013-03-20 山东电力集团公司电力科学研究院 一种多旋翼无人机检测绝缘子装置
US8798922B2 (en) 2012-11-16 2014-08-05 The Boeing Company Determination of flight path for unmanned aircraft in event of in-flight contingency
US9198363B2 (en) 2012-12-12 2015-12-01 The Boeing Company Tree metrology system
US9527587B2 (en) 2012-12-19 2016-12-27 Elwha Llc Unoccupied flying vehicle (UFV) coordination
US9051043B1 (en) 2012-12-28 2015-06-09 Google Inc. Providing emergency medical services using unmanned aerial vehicles
US8909391B1 (en) 2012-12-28 2014-12-09 Google Inc. Responsive navigation of an unmanned aerial vehicle to a remedial facility
CN103921933A (zh) 2013-01-10 2014-07-16 深圳市大疆创新科技有限公司 飞行器变形结构及微型飞行器
CN103116360B (zh) 2013-01-31 2015-06-17 南京航空航天大学 一种无人机避障控制方法
CN103744430B (zh) 2013-02-07 2016-08-24 山东英特力光通信开发有限公司 一种小型无人直升机飞行控制方法
US9102406B2 (en) 2013-02-15 2015-08-11 Disney Enterprises, Inc. Controlling unmanned aerial vehicles as a flock to synchronize flight in aerial displays
US8989922B2 (en) 2013-03-15 2015-03-24 Azure Sky Group, LLC. Modular drone and methods for use
US9367067B2 (en) 2013-03-15 2016-06-14 Ashley A Gilmore Digital tethering for tracking with autonomous aerial robot
US9085354B1 (en) 2013-04-23 2015-07-21 Google Inc. Systems and methods for vertical takeoff and/or landing
US9037396B2 (en) 2013-05-23 2015-05-19 Irobot Corporation Simultaneous localization and mapping for a mobile robot
US8868328B1 (en) 2013-06-04 2014-10-21 The Boeing Company System and method for routing decisions in a separation management system
US8996207B2 (en) 2013-06-24 2015-03-31 Honeywell International Inc. Systems and methods for autonomous landing using a three dimensional evidence grid
CN203397214U (zh) 2013-07-09 2014-01-15 国家电网公司 一种适用于山区电网巡检的专用无人直升机避障系统
CN103365299B (zh) 2013-08-02 2015-12-23 中国科学院自动化研究所 一种无人机的避障方法及其装置
CN203397215U (zh) 2013-08-05 2014-01-15 上海久能能源科技发展有限公司 一种自锁式聚光反射定日镜
CN103970143B (zh) 2013-08-27 2017-03-29 清华大学 一种无人飞行器自主巡点飞行的智能优化方法
US9234728B2 (en) 2013-11-08 2016-01-12 Lonestar Inventions, L.P. Rocket or artillery launched smart reconnaissance pod
US9158304B2 (en) 2013-11-10 2015-10-13 Google Inc. Methods and systems for alerting and aiding an emergency situation
US8825226B1 (en) 2013-12-17 2014-09-02 Amazon Technologies, Inc. Deployment of mobile automated vehicles
CN103901892B (zh) 2014-03-04 2016-12-07 清华大学 无人机的控制方法及系统
US9476730B2 (en) 2014-03-18 2016-10-25 Sri International Real-time system for multi-modal 3D geospatial mapping, object recognition, scene annotation and analytics
CN103941747B (zh) 2014-03-31 2016-08-17 清华大学 无人机群的控制方法及系统
CN103914077A (zh) 2014-04-03 2014-07-09 江西洪都航空工业集团有限责任公司 一种有人/无人可选择双模飞行控制系统
CN103925920B (zh) 2014-04-10 2016-08-17 西北工业大学 一种基于图像透视的微型无人机室内自主导航方法
CN103941748B (zh) 2014-04-29 2016-05-25 百度在线网络技术(北京)有限公司 自主导航方法及系统和地图建模方法及系统
CN103941750B (zh) 2014-04-30 2016-08-31 东北大学 基于小型四旋翼无人机的构图装置及方法
US9354296B2 (en) 2014-05-20 2016-05-31 Verizon Patent And Licensing Inc. Dynamic selection of unmanned aerial vehicles
EP3786742A1 (en) 2014-05-30 2021-03-03 SZ DJI Technology Co., Ltd. Systems and methods for uav docking
CN103984357B (zh) 2014-05-30 2017-02-01 中国人民解放军理工大学 一种基于全景立体成像设备的无人机自动避障飞行系统
EP3060966B1 (en) 2014-07-30 2021-05-05 SZ DJI Technology Co., Ltd. Systems and methods for target tracking
EP3008535B1 (en) 2014-09-05 2018-05-16 SZ DJI Technology Co., Ltd. Context-based flight mode selection
EP3428766B1 (en) 2014-09-05 2021-04-07 SZ DJI Technology Co., Ltd. Multi-sensor environmental mapping
WO2016033795A1 (en) 2014-09-05 2016-03-10 SZ DJI Technology Co., Ltd. Velocity control for an unmanned aerial vehicle
US9552736B2 (en) 2015-01-29 2017-01-24 Qualcomm Incorporated Systems and methods for restricting drone airspace access
DE102015204947B4 (de) 2015-03-19 2021-09-09 Ford Global Technologies, Llc Verfahren und Vorrichtung zum Betrieb eines wahlweise manuell steuerbaren oder zu autonomem Fahren fähigen Fahrzeugs
US9592912B1 (en) 2016-03-08 2017-03-14 Unmanned Innovation, Inc. Ground control point assignment and determination system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060149472A1 (en) * 2005-01-04 2006-07-06 Deere & Company, A Delaware Corporation. Vision-aided system and method for guiding a vehicle
JP2008304260A (ja) * 2007-06-06 2008-12-18 Mitsubishi Electric Corp 画像処理装置
JP2009041932A (ja) * 2007-08-06 2009-02-26 Toyota Motor Corp 移動体用測位装置
US20120083945A1 (en) * 2010-08-26 2012-04-05 John Robert Oakley Helicopter with multi-rotors and wireless capability

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019045364A (ja) * 2017-09-05 2019-03-22 ソニー株式会社 情報処理装置、自己位置推定方法、及び、プログラム
JP7257737B2 (ja) 2017-09-05 2023-04-14 ソニーグループ株式会社 情報処理装置、自己位置推定方法、及び、プログラム
JP2019049475A (ja) * 2017-09-11 2019-03-28 ソニー株式会社 信号処理装置、および信号処理方法、プログラム、並びに移動体
CN109669202A (zh) * 2017-10-16 2019-04-23 三星电子株式会社 位置估计装置和方法
JP2019074505A (ja) * 2017-10-16 2019-05-16 三星電子株式会社Samsung Electronics Co.,Ltd. 位置推定方法、装置及びコンピュータプログラム
JP7199163B2 (ja) 2017-10-16 2023-01-05 三星電子株式会社 位置推定方法、装置及びコンピュータプログラム
WO2019150483A1 (ja) * 2018-01-31 2019-08-08 パイオニア株式会社 速度算出装置、速度算出方法、及び、プログラム
JP2021517437A (ja) * 2018-04-04 2021-07-15 華為技術有限公司Huawei Technologies Co.,Ltd. 無線通信方法及び装置
JP7168679B2 (ja) 2018-04-04 2022-11-09 華為技術有限公司 無線通信方法及び装置
KR102093743B1 (ko) * 2018-11-06 2020-03-26 경북대학교 산학협력단 센서 융합을 이용한 차선 레벨 자동차 위치 정보 측위 시스템

Also Published As

Publication number Publication date
EP3754381A1 (en) 2020-12-23
CN104854428B (zh) 2018-12-14
US20160273921A1 (en) 2016-09-22
US10240930B2 (en) 2019-03-26
EP2895819A1 (en) 2015-07-22
EP2895819A4 (en) 2016-08-31
CN104854428A (zh) 2015-08-19
WO2015085483A1 (en) 2015-06-18
JP6329642B2 (ja) 2018-05-23
EP2895819B1 (en) 2020-05-20

Similar Documents

Publication Publication Date Title
JP6329642B2 (ja) センサ融合
US11914369B2 (en) Multi-sensor environmental mapping
US10914590B2 (en) Methods and systems for determining a state of an unmanned aerial vehicle
US11015956B2 (en) System and method for automatic sensor calibration
US11822353B2 (en) Simple multi-sensor calibration
CN108139759B (zh) 用于无人飞行器路径规划和控制的系统和方法
US10447912B2 (en) Systems, methods, and devices for setting camera parameters
EP3123260B1 (en) Selective processing of sensor data
US20180246529A1 (en) Systems and methods for uav path planning and control
CN113093808A (zh) 使用惯性传感器和图像传感器的传感器融合
JP6275887B2 (ja) センサ較正方法及びセンサ較正装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180420

R150 Certificate of patent or registration of utility model

Ref document number: 6329642

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees