JP6843773B2 - 環境の走査及び無人航空機の追跡 - Google Patents

環境の走査及び無人航空機の追跡 Download PDF

Info

Publication number
JP6843773B2
JP6843773B2 JP2017564756A JP2017564756A JP6843773B2 JP 6843773 B2 JP6843773 B2 JP 6843773B2 JP 2017564756 A JP2017564756 A JP 2017564756A JP 2017564756 A JP2017564756 A JP 2017564756A JP 6843773 B2 JP6843773 B2 JP 6843773B2
Authority
JP
Japan
Prior art keywords
environment
camera
component
uav
unmanned aerial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017564756A
Other languages
English (en)
Other versions
JP2018512687A (ja
Inventor
アサ ハモンド
アサ ハモンド
ネイサン シュエット
ネイサン シュエット
ナイミサランヤ ダス ブセク
ナイミサランヤ ダス ブセク
Original Assignee
プレナヴ インコーポレイテッド
プレナヴ インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by プレナヴ インコーポレイテッド, プレナヴ インコーポレイテッド filed Critical プレナヴ インコーポレイテッド
Publication of JP2018512687A publication Critical patent/JP2018512687A/ja
Application granted granted Critical
Publication of JP6843773B2 publication Critical patent/JP6843773B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/102Simultaneous control of position or course in three dimensions specially adapted for aircraft specially adapted for vertical take-off of aircraft
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/3415Dynamic re-routing, e.g. recalculating the route when the user deviates from calculated route or after detecting real-time traffic data or accidents
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/933Lidar systems specially adapted for specific applications for anti-collision purposes of aircraft or spacecraft
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • G01S7/4813Housing arrangements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0033Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement by having the operator tracking the vehicle either by direct line of sight or via one or more cameras located remotely from the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0044Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0094Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0047Navigation or guidance aids for a single aircraft
    • G08G5/0069Navigation or guidance aids for a single aircraft specially adapted for an unmanned aircraft
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/04Anti-collision systems
    • G08G5/045Navigation or guidance aids, e.g. determination of anti-collision manoeuvers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F03MACHINES OR ENGINES FOR LIQUIDS; WIND, SPRING, OR WEIGHT MOTORS; PRODUCING MECHANICAL POWER OR A REACTIVE PROPULSIVE THRUST, NOT OTHERWISE PROVIDED FOR
    • F03DWIND MOTORS
    • F03D17/00Monitoring or testing of wind motors, e.g. diagnostics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Mechanical Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

〔関連出願への相互参照〕
本出願は、引用によってその全体が本明細書に組み込まれている「環境の走査及び無人航空機の追跡」という名称の2015年3月3日出願の米国仮特許出願第62/127,476号に対する優先権を主張するものである。
本発明の開示は、一般的に、環境の走査及び無人航空機の追跡に関する。
無人航空機(UAV)は、そうでなければ有人航空機又は衛星を用いて実行されると考えられる広範なタスクを実施するための益々一般的なデバイスになっている。そのようなタスクは、監視タスク、撮像タスク、及びペイロード送出タスクを含む。
しかし、UAVにはいくつかの欠点がある。例えば、狭い一角で、例えば、建物、樹木、又は他の物体の近くでUAVを特に自律的に作動させることは困難である可能性がある。特に、UAVがそのような物体と衝突することを防止することは困難であり得る。UAV及び他の自律車両を複合環境内で制御するための技術は存在するが、そのような技術は、典型的に、過度に重く、過度に嵩張り、及び/又はUAVの航続距離及び/又はペイロード容量に劇的に影響を与えることなく典型的なUAVによって搬送するには過度に大きい電力を必要とするハードウエアに依存している。従って、UAVをそれらの作動環境内で安全かつ正確に航行させることができる技術及び関連のシステムに対する必要性が残っている。
本発明の技術の実施形態による環境を走査してUAVを環境内で追跡するための全体処理を示す部分概略ブロック図である。 本発明の技術の実施形態による環境を走査してUAVを環境内で追跡するための全体処理を示す部分概略ブロック図である。 本発明の技術の実施形態による環境を走査してUAVを環境内で追跡するための全体処理を示す部分概略ブロック図である。 本発明の技術の特定の実施形態によって構成された代表的な走査及び追跡処理の流れ図である。 本発明の技術の実施形態によって構成された代表的スキャナを示す図である。 本発明の技術の代表的実施形態により走査モードで作動する代表的スキャナの構成要素を示すブロック図である。 本発明の技術の実施形態により追跡モードで作動する代表的スキャナの構成要素を示すブロック図である。 本発明の技術の実施形態によりUAVを識別及び/又は追跡することを容易にする符号化装置を有するUAVの概略図である。 本発明の技術の実施形態によりUAVを識別及び/又は追跡することを容易にする符号化装置を有するUAVの概略図である。 本発明の技術の実施形態による環境を走査するように位置決めされた複数のスキャナの配置を示す図である。 本発明の技術の実施形態によりUAVによって担持された機器を通じて走査作動を実行する構成を示す図である。 物体を走査するための従来の処理を概略的に示す図である。 本発明の技術の実施形態により物体の特徴を選択的に走査するための技術を概略的に示す図である。 本発明の技術の実施形態により走査される特徴を識別及びスケジュールに入れるための処理を示す概略ブロック図である。 本発明の技術の実施形態により飛行経路軌道を計画及び実行するための処理を示す流れ図である。 本発明の技術の実施形態により環境に位置決めされたスキャナを示す図である。 図12に示す環境の画像の等角投影図である。 図12に示す環境の画像の平面図である。 図12に示す環境の別の部分の画像を示す図である。 本発明の技術の実施形態による風力タービンを含む環境及び関連のUAV飛行経路の正面図を示す図である。 本発明の技術の実施形態による風力タービンを含む環境及び関連のUAV飛行経路の上面図を示す図である。 本発明の技術の実施形態による風力タービンを含む環境及び関連のUAV飛行経路の側面図を示す図である。 本発明の技術の実施形態によりブレードが運動中にデータを風力タービンブレードから取得するための処理を示す図である。 本発明の技術の実施形態によりブレードが運動中にデータを風力タービンブレードから取得するための処理を示す図である。 本発明の技術の実施形態によりブレードが運動中にデータを風力タービンブレードから取得するための処理を示す図である。 本発明の技術の実施形態によりブレードが運動中にデータを風力タービンブレードから取得するための処理を示す図である。
本発明の技術は、一般的に、無人航空機(UAV)に関し、より具体的には、無人航空機が作動する環境を走査し、環境のうちの1又は2以上を通る無人航空機の飛行を計画し、無人航空機の運動をそれらの環境内で追跡するためのシステム及び方法に関する。開示する技術のいくつかの実施形態の特定の詳細を特定の代表的な構成を参照して以下に説明する。他の実施形態では、開示する技術は、他の構成を有するUAV及び関連システムに従って実施することができる。更に別の実施形態では、開示する技術の特定の態様は、UAV(例えば、自律型乗用車又は船舶)以外の自律型車両の関連で実施することができる。公知であってUAVに関連付けられることが多いが本発明に開示する技術の一部の有意な態様を不要に不明瞭にする可能性がある構造又は処理を説明する特定の詳細は、明瞭さのために以下の説明では割愛する。更に、以下の開示は開示する技術の異なる態様のいくつかの実施形態を説明するが、この技術のいくつかの他の実施形態は、この節に説明するものとは異なる構成及び/又は構成要素を有することができる。従って、本発明の技術は、追加の要素を有する及び/又は図1A〜図15Cを参照して以下に説明する要素のうちのいくつかのない他の実施形態を有する場合がある。
開示する技術のいくつかの実施形態は、プログラマブルコンピュータ又はコントローラによって実行されるルーチンを含むコンピュータ実行可能命令の形態を取る場合がある。当業者は、本発明の技術は以下に示して説明するもの以外のコンピュータシステム又は制御システム上で実施することができることを認めるであろう。本発明の技術は、以下に説明するコンピュータ実行可能命令のうちの1又は2以上を実行するように特別にプログラム、設定、又は構成された専用コンピュータ、コントローラ、又はデータプロセッサに具現化することができる。従って、本明細書に一般的に使用する用語「コンピュータ」及び「コントローラ」は、適切なデータプロセッサ含み、かつパームトップコンピュータ、ウェアラブルコンピュータ、セルラー又はモバイル電話、マルチプロセッサシステム、プロセッサベース又はプログラマブル消費者電子機器、ネットワークコンピュータ、ラップトップコンピュータ、及びミニコンピュータなど含むインターネット家電及び手持ち式デバイスを含むことができる。これらのコンピュータによって扱われた情報は、液晶ディスプレイ(LCD)を含むあらゆる適切な表示媒体で提示することができる。当業技術で公知のように、これらのコンピュータ及びコントローラは、様々なプロセッサ、メモリ(例えば、非一時的コンピュータ可読媒体)、入力/出力デバイスなどを一般的に有する。
本発明の技術はまた、タスク又はモジュールが通信ネットワークを通してリンクされた遠隔処理デバイスによって実行される分散環境内で実施することができる。分散コンピュータ環境内では、プログラムモジュール又はサブルーチンは、ローカル及びリモートメモリストレージデバイスに位置付けることができる。以下に説明する技術の態様は、磁気的又は光学的に可読又は着脱可能なコンピュータディスクを含むコンピュータ可読媒体上に格納するか又は分散させ、並びにネットワーク上で電子的に分散させることができる。本発明の技術の態様に固有のデータ構造及びデータの送信も、本発明の技術の範囲に包含される。
1.概要
図1A〜図1Cは、本出願に開示する技術の一部として実施することができるいくつかの機能を概略的に識別している。図1Aは、UAVが作動することが予想される環境190を走査するための処理を示している。環境190は、屋内及び/又は屋外とすることができ、1又は2以上の物体191、例えば、建物を含むことができる。本発明の技術の実施形態によるシステム100は、スキャナ110を含み、スキャナ110は、環境190のコンピュータベースのモデル136を生成するために環境190、特に、1又は複数の物体191を走査するのに使用される。スキャナ110は、コントローラ130によって制御することができる。同じコントローラ130を使用して、本発明の技術の特定の実施形態により、本明細書でも説明する様々な追加の機能を実行することができる。他の実施形態では、これらの機能は、複数のコントローラ上で分散させることができる。複数のコントローラを「コントローラ」と本明細書で呼ぶ場合があり、1又は2以上のコントローラは、「制御システム」に含めることができる。上述のように、コントローラ130は、様々な適切な構成のうちのいずれか、例えば、ラップトップコンピュータ構成を有することができる。
図1Bに概略的に示すように、コントローラ130は、プロセッサ131と、メモリ132(例えば、非一時的コンピュータ可読媒体)と、1又は2以上の入力/出力デバイス133とを含むことができる。入力/出力デバイス133は、入力デバイス134(例えば、キーボード)と、出力デバイス135(例えば、グラフィカルユーザインタフェースを表示する画面)とを含むことができる。図1Bに示すように、出力デバイス135は、図1Aに示す物体191を含む環境190のコンピュータベースのオブジェクト画像136を表示している。出力デバイス135はまた、物体191の領域内のUAVの提案飛行経路を表す提案飛行経路画像137を表示する。従って、コントローラ130は、例えば、飛行経路内の障害物を識別し、オペレーターにそのような障害物に対して警告し、及び/又は代替飛行経路を示唆するか又は自動的に実施することにより、UAVの飛行経路を計画するのに使用することができる。
システムの更に別の態様を図1Cに示す。コントローラ130及びスキャナ110は、最初に図1Aを参照して上述したが、UAV150の運動をそれが環境190内で及び物体191の周りで作動する時に追跡するのに使用することができる。特に、スキャナ110は、物体191のコンピュータベースのモデルに対するUAV150の実際の位置を識別するためにこの関連で使用することができ、この情報は、通信デバイス138(例えば、アンテナ)を通じてUAV150に通信することができる。従って、システム100は、UAVの位置に関するリアルタイムデータを提供するのに使用することができ、そのデータを図1A及び図1Bを参照して上述したモデルと比較することにより、位置フィードバックをUAVに供給することができる。フィードバックは、UAVが高い精度でその任務を遂行し及び/又は衝突を回避することができるように、UAVの実際の飛行経路151を必要に応じて予定飛行経路137と比較して調節するのに使用することができる。
かくして、システム100は、(a)UAVが作動する環境をマップし、(b)環境内のUAVに対する飛行計画の定義を容易にし、かつ(c)UAVが飛行計画から外れた場合にフィードバックをUAVに提供するのに使用することができる。これらの機能の各々の詳細を図2〜図15Cを参照して以下に説明する。
2.走査及び追跡
図2は、本発明の技術の実施形態により環境を走査して環境内のUAVを追跡する代表的な処理を示す流れ図である。全体処理は、走査、飛行経路の計画、及びUAVの追跡の部分処理を含むことができる。実施形態に応じて、これらの部分処理は、単一の全体処理の一部として順番に実行することができ、又は部分処理のいずれかを個別に実行することができる。処理200は、ローカル環境を地上又は他の非搭載型スキャナで走査すること(ブロック201)を含むことができる。代表的実施形態では、スキャナは、地上に位置付けられ、例えば、三脚又は別の適切な構造体によって支持される。他の実施形態では、スキャナは、他の位置を有することができる、例えば、バルーン又は航空機によって空中に運ぶことができる。
ブロック202において、処理は、環境内の飛行経路を計画する段階を含み、次に、飛行経路は、人間オペレーターが手動で入力することができ、又は様々な制約に基づいて自動的に計算することができる。判断ブロック203において、処理は、計画された経路が達成可能であるか否かを決定し、例えば、経路に障害物がないか否かを決定する段階を含む。障害物がある場合に、処理は、予定飛行経路を更新するためにブロック202に戻る。様々な実施形態では、処理は、修正経路を計算する時に検出した障害物を除外することができる。経路が達成可能な場合に(例えば、UAVの近接性制約及び動力学を考慮して障害物がない)、処理は、処理の追跡部分を開始するブロック204に進む。この処理の一部として、システムは、UAVが使用中である時、例えば、UAVが離陸して飛行する時のUAVの軌道を取得する。追跡情報が得られた時(例えば、UAVの位置がカメラ及び/又は距離計を用いて得られた時)、この位置情報は、コントローラ130に送信することができ、コントローラ130は、UAVを視野内に継続的に維持しながら追跡デバイスをパン軸及びチルト軸で制御する。コントローラ130は、UAVを発進させて(ブロック205)、UAVを予定飛行経路の開始点に誘導する(ブロック206)。ブロック207において、UAVは、その終点までの飛行経路を辿り、ブロック208で任務の終了で着陸する。飛行中に、UAV追跡を通じて受信した情報(例えば、UAVの座標)は、UAVの軌道を更新するためにコントローラ130に送信することができる。例えば、UAVが事前定義された飛行計画から外れ始めた場合に、その情報を使用してUAVを計画されたルートに案内して戻すことができる(例えば、自動的に)。従って、コントローラの各部分は、UAV制御及びフィードバックが実行される方法に基づいてUAVに搭載され、UAVに搭載されず、又はその両方で位置付けることができる。
UAVが飛行する時に(ブロック205〜208)、処理は、UAVが失敗せずに追跡されているか否かを決定するために検査され、例えば、継続的に検査する段階を含む(ブロック209)。UAVが失敗せずに追跡されている限り、処理は、図示のように続く。システムがUAVを見失った場合に、ブロック210において、処理は、UAV上の軌道の再取得を容易にする対策を講じる段階を含む。そのような対策は、UAVにホバリングし、着陸させ、及び/又はスキャナに向けて飛行するように指図し、及び/又はUAVの位置付けるためにスイープ(及び/又は他の)運動をスキャナで実行する対策、及び/又は他の適切な対策を含むことができる。
UAVを飛行させる処理の一部として、オペレーターは、UAVの進行を飛行経路に沿って操作することができる。例えば、オペレーターは、VCR制御と似た制御を使用してUAVの進行を飛行経路に沿って早送り、逆転、又は休止することができる。そのような制御は、勿論、UAV構成に依存することになり、例えば、UAVは、休止するためにホバリング機能を有するべきである。類似の手法を使用して、飛行経路の計画処理の一部としてUAVの飛行を提案飛行経路に沿ってプレビューすることができ、これを図11〜図15Cを参照して以下で更に説明する。
図3は、本発明の技術の実施形態により構成された特徴を有する代表的スキャナ110の等角投影図である。スキャナ110は、カメラ117と距離計118とを担持する支持体111を含むことができる。カメラ117は、可視スペクトル、赤外線範囲、及び/又は他の適切な周波数範囲で放射線を環境から受け入れることにより、スキャナ110の周りの環境の2次元光学画像を生成するように構成することができる。距離計118は、エミッタ119とレシーバ120とを含むことができる。エミッタ119は、環境内の物体から反射してレシーバ120によって受信される信号を放出する。その後に、スキャナ110から物体までの距離は、信号がエミッタ119から物体までかつレシーバ120に戻るのに要求される時間量(「飛行時間」)の推定を含む様々な適切な技術のいずれかを使用することによって決定又は推定される。従って、カメラ117は、環境に関する2次元情報を識別及び送信することができ、距離計118は、第3の次元を追加することができる。
カメラ117及び距離計118は、チルト台114が担持することができ、かつスキャナ110の周りの環境を走査するユニットとして共に移動することができる。チルト台114は、カメラ117及び距離計118をユニットとして第1の軸(例えば、水平軸H)の周りに回転させるチルトモータ115を担持する。対応するチルトエンコーダ116が、水平軸Hに対するカメラ117と距離計118との運動を追跡する。支持体111によって担持されたパンモータ112は、チルト台114(カメラ117と距離計118を含む)をユニットとして第2の軸(例えば、垂直軸V)の周りに回転させる。パンエンコーダ113は、垂直軸Vの周りのカメラ117及び距離計118の回転位置を追跡する。従って、パンモータ112及びチルトモータ115は、スキャナ110の周りのほぼ半球の容積をカバーするのに十分な円弧を通してカメラ117及び距離計118まで回転することができる。
特定の実施形態では、距離計118は、レーザ光(例えば、IRレーザ光)を放出かつ受光するライダー(LIDAR)検出器を含むことができる。適切なライダー検出器は、エミッタ119とレシーバ又は検出器120とのサイズを含むファクタ及び使用される測距技術に応じて数百メートルの測距機能を有する。上述のように、測距技術は、一実施形態において飛行時間技術を含むことができる。他の実施形態では、SET技術のような他の技術により、より低いコスト及びより低い(依然として適切な)解像度で直接的な飛行時間計算を必要とすることなく適切な結果を生成することができる。走査は、系統的掃引パターン又は粗い走査で、次に、詳細な走査又は適応走査(図9A〜図10を参照して以下で更に説明する)で、又は別の適切な技術を通じて行うことができる。他の実施形態では、距離計118は、スキャナ110とスキャナの周りの物体の間の距離を検出するのに適するレーザ信号以外の信号を放出することができる。例えば、レーダー信号は、追跡に使用することができるが、レーザ信号が走査に対してはレーダー信号よりも性能が優れることが予想される。別の実施形態では、レーザスキャナは、走査処理を実行するために複数の高解像度カメラ又は構造化照明配置で置換することができる。
図4は、本発明の技術の実施形態により走査モードで作動するシステム100を示す概略ブロック図である。図4に示すように、カメラ117は、周囲の環境190の画像を記録し、一方、距離計118は、環境190内の物体までの距離を記録する。従って、カメラ117は、RGBデータ(又は他の光データ)123を発生し、距離計118は、深度又は距離データ124を発生させる。RGBデータ123は、プロセッサ131に送信される。深度データ124は、チルトエンコーダ116及びパンエンコーダ113からの情報に対して演算する従来の変換論理部125を使用してプロセッサで球座標から直交座標に変換される。この変換された座標情報は、ポイントクラウド構築論理部127を使用してカメラ117及び距離計118によって捕捉されたデータからポイントクラウドを発生させるのに使用される。
システム100はまた、命令をチルトモータ115及びパンモータ112に供給し、かつそれ自体が走査コントローラ430の制御下にあるモータ制御ユニットを含むことができる。走査コントローラ430は、図9A−10を参照して以下でより詳細に説明する走査領域論理部122を含むことができる。走査コントローラ430は、独立型コントローラとすることができ、又は1又は2以上の他のコントローラ、例えば、図1A〜図1Cを参照して上述したコントローラ130と一体化することができる。
電源126は、電力をシステム100の様々な構成要素に供給する。入力/出力デバイス133は、情報をオペレーターから受信し、出力情報をオペレーターに供給する。図4に示す走査モード中に実行された処理の結果は、環境190のコンピュータベースのモデル(例えば、ポイントクラウド)である。
特定の実施形態では、走査作動中に得られて3次元モデルを形成するのに使用されるデータは、追加データで補足することができる。例えば、モデルは、スキャナカメラ117により、又は走査される環境を通って飛行するUAVによって撮られる写真又は他のセンサ読取値で増強又は強化することができる。この作動は、一部の実施形態においてリアルタイムで、他の実施形態においてオフラインで行うことができる。強化は、カメラ画像に含有された色情報をポイントクラウド内のポイントに追加し、各ポイントでスペクトル表現を表示するより現実的な着色モデルを発生させることを含むことができる。
特定の走査から得られたデータは、格納されて同じスキャナにより(例えば、追跡モードで)、又は同じく追跡モードにある異なるスキャナにより、又は非搭載型追跡デバイスとは独立に作動するUAVによって後で使用することができる。特定の実施形態では、追跡器が特定の区域に位置決めされた時に、それは、その環境に対して行われた以前の走査に自動的にアクセスすることができ、それらの走査は、スキャナにそれが追跡モードで作動する時にダウンロードすることができる。更に、特定の走査は、必ずしも初期走査が行われた位置と同じとは限らない複数の位置で使用することができる。例えば、特定の風力タービン、送電線鉄塔、又は他の構造体に対して行われた走査は、同一構成、例えば、同じ製造及び型式の風力タービンを有する他の構造体を測量又は検査するのに使用することができる。そのような場合に、走査された情報は、各風力タービンに対して異なる場合がある個々の風力タービンの特定の位置に対して較正することができる。
図5は、追跡モードで作動するためのシステム100を示している。このモードにおいて、カメラ117は、UAV150を識別し(例えば、UAVによって担持されたLEDのような基準点を追跡することにより、マシン学習アルゴリズムによって訓練された時に機体特性に適合させることにより、又は他の手段により)、かつ2次元追跡データ123を発生させる。同時に、距離計118は、UAVが飛行する時に、スキャナ110とUAV150の間の距離に対応する測距データ561を発生させる。この情報は、位置推定論理部562を使用してUAV150の位置の推定値を発生させるプロセッサ131に供給される。位置情報は、情報をUAV150に情報信号563を通じて送信することができるI/Oデバイス133に送信することができる。この情報を用いて、UAV150は、それが実行する飛行経路の変動を修正、調節、及び/又は補償することができる。位置情報は、モータ制御ユニット121にも送信され、モータ制御ユニット121は、パンモータ112及びチルトモータ115を起動してUAVが飛行する時にUAV150をカメラ117の視野内にかつ距離計118の前に継続的に維持する。
別の実施形態では、システムは、コーナー立体干渉分光法をレーザベースの位置感知デバイスと組み合わせて位置推定値をUAV150に対して発生させることによってUAV150を追跡することができる。位置情報は、I/Oデバイス133が飛行経路の変動を修正、調節、及び/又は補償することができるようにI/Oデバイス133及びUAV150に送信することができる。
特定の実施形態では、システムは、情報をUAV150に送信するだけでなく、情報をUAV150から受信することができる。この実施形態の特定の態様では、UAV150から受信した情報は、UAV150のアイデンティティー及び/又はUAV150の方位に対応することができる。図6A及び図6Bは、本体652及び1又は2以上の回転子653(4つを図6A及び図6Bに図示)を推進力のために有する代表的なUAV650を示している。UAV650は、物理符号化スキーマ、例えば、リング654又は照明システムを含むことができ、これは、逆に、1又は2以上の符号化パターン655を含む(図6B)。符号化パターン655は、追跡処理中にスキャナ110(図5)によって検出されたUAVのタイプを識別するために、例えば、適切なUAVが追跡されていることを確認するのに使用することができる。この手順は、追跡処理が行われている環境に入る場合がある新規又は追加のUAVを識別するのに使用することができる。従って、符号化パターン655は、識別基準の機能を実行することができる。
これに加えて、符号化パターン655は、符号化リング654の周りの異なる周方向の位置で異なる特性を有することができる。従って、システム100は、符号化パターン655を検出した時に、UAV650の方位を検出することができる。この情報は、次に、UAV650を制御、案内、及び/又は誘導するのを補助するのに使用することができる。この情報を取得するために、カメラ117(又は個別の専用カメラ)は、符号化パターンの画像を取得することができ、それは、次に処理される(例えば、バーコーダー方式で)。別の実施形態では、システム100は、符号化パターン655に衝突し、かつそれによって反射される問い合せ信号664を出すことができる(例えば、情報信号563に加えて)。その後に、反射信号は、UAV650の方位及び/又はアイデンティティーを決定するために処理される。上述の実施形態の両方において、符号化パターン655は、受動的である。他の実施形態では、符号化パターン655は、UAV650により、例えば、無線放射、LEDパターン又はフラッシュシーケンス、及び/又は他の適切な配置を通じて能動的に送信することができる。
上述の方位機能の利点は、この方位機能が搭載型慣性航行システムによって与えられ方位機能よりも正確である場合があることである。別の利点は、搭載型慣性航行システムは、典型的に、その近くの構造体、例えば、磁気又は金属構造体の影響を受ける可能性がある磁力計を含むことである。非搭載型スキャナは、そのような構造によって影響されず、UAVをそうでなければ不可能であると考えられる環境内で作動させる方位情報を提供することができる。
少なくとも一部の事例では、単一スキャナは、UAVがタスクを実行するのに要求される全てのデータを供給するのに不十分である場合がある。例えば、図7に示すように、ターゲット物体791は、単一位置で単一スキャナがアクセスすることができないターゲット特徴を有する建物を含む場合がある。一実施形態では、スキャナ110は、望ましいポイントクラウドに対して十分なデータが得られるように複数の位置間で移動される。各位置では、スキャナ110は、上述のように2次元画像データ及び深度データを取得し、複数のデータセットを互いに「縫い合わせて」複合コンピュータモデルを形成することができる。他の実施形態では、複数のスキャナ110を使用して、UAVがその任務で飛行する時に建物の特徴の走査、及びUAV150に対する追跡の両方を行うことができる。スキャナ110は、UAV150が任務を遂行する時に一方のスキャナから他方のスキャナに追跡の責任を移すように矢印Mに示すように互いに通信することができる。
図8に示す更に別の実施形態では、走査機能は、UAV850自体によって実行することができる。そのような実施形態では、走査機器は、UAV850によって担持されるのに十分にコンパクトで軽量になる。一部の実施形態では、走査機器は、軽量化するために何らかの方式で妥協される場合がある。例えば、走査機器は、解像度が粗くなり、範囲が狭まり、視野が低減し、及び/又は他の軽量化に関する特徴を有する可能性がある。しかし、搭載されたシステムを用いて、UAV850は、文字A、B、C、及びDによって識別される位置を仮定して建物791の特徴をマップすることができる。特徴をマップした後に、UAV850は、文字Eによって示すようにその任務を遂行することができる。
上述の実施形態では、図5を参照して上述した追跡機能は、UAVが位置A〜Dで地上にいる間にUAVによって行われた走査によって生成されたポイントクラウド情報とUAV850が飛行中にUAV850によって撮られた画像とを比較することによって実行することができる。別の実施形態では、追跡作動は、スキャナが各々に装備された2つのUAV850によって実行される。従って、一方のUAV850は,任務(例えば、検査任務)飛行を行うことができ、第2のUAV850は、第1のUAV850を追跡することができる。追跡機能は、上述の走査位置A〜Dのいずれかから又は(オフセットを調節して)異なる位置から実行することができる。
システムは、UAV追跡に向けて更に別の機能を実行することができる。例えば、追跡モードでは、システムは、環境を走査し、UAVが区域内にいるか否かを決定することができる。追跡器は、UAVを検出すると、上述の配置のいずれかを使用してUAVと任意的にその方位とを識別することができる。追跡器はまた、視程外であるか又は視線超え(BLOS)であるUAVと通信することができる。そのようなUAVは、位置及び軌道を追跡器に中継することができ(例えば、GPS及び無線通信を通じて)、従って、追跡器は、UAVが範囲に来ることが予想される位置にそれ自体を向けることができる。UAVが範囲内に来た状態で、追跡器は、上述の追跡作動を実行することができる。他の実施形態では、UAVは、GPSに加えて又はその代わりにADS−Bを使用して追跡することができる。更に、システムは、事前走査した環境を走査し、初期走査が完了した後にその環境に入った可能性がある新規物体がないかを検査することができる。そのような新規物体は、UAV、又はUAVの障害物になる場合がある他の物体を含むことができる。そのような物体が検出された場合に、環境の3次元モデルは、それらの物体の存在を反映するように更新することができる。
図7を参照して上述したように、一部の配置は、走査機能及び/又は追跡機能を実行する複数のスキャナを含むことができる。そのような場合に、これらのスキャナは、互いに通信して、これらのスキャナが生成する3次元モデル内に連続性をもたらし、それらの個々の環境内のUAVに関連する情報を送信することができる。例えば、スキャナは、UAVに最も近いか又は引き継ぎ前にUAVと最も長く連絡すると予想されるスキャナに制御優先度を与えるように協働することができる。これに加えて、作動が1つのスキャナ又は1よりも多いスキャナを含むか否かにかかわらず、システムは、搭載型の写真/記録/感知機能をスケジュールに入れることができる。例えば、正確な位置から感知機能を実行するようにUAVに指図することが有利であると考えられる。スキャナが追跡モードで実行している時に、それは、UAVが正確な位置に到達した時にUAVにリアルタイムで警告し、感知機能が適切な位置で実行されることを保証することができる。この技術はまた、UAVの画像をそれが特定の位置にいる時にスキャナの地上に置かれたカメラ部分を使用して捕捉するために使用することができる。このようにして、UAVは、画像を特定の位置で捕捉することができ、スキャナは、UAVの画像をその位置で捕捉することができる。両方の技術を使用して、例えば、同じ画像が異なる時間に得られることになる場合に、データの再現性を改善することができる。追跡器からのUAV位置情報を使用して計算を低減し、かつポイントのクラウドへの写真の当て嵌めを改善することができる。例えば、データの下流解析は、データが取られた正確な位置でデータがタグ付けされる時により簡単及び/又はより正確にすることができる。
3.適応走査
図9Aは、従来の走査技術によってスキャナ110によって走査されている物体991を示している。この技術を使用して、スキャナ110は、系統的かつ順番にパン及びチルトして物体991をカバーする走査経路994a(点線で図示)を生成する。この処理は、特に物体991のある一定の特徴のみがエンドユーザの真の関心事であると考えられる時に時間を消費する可能性がある。例えば、エンドユーザは、ある一定のターゲット特徴992により関心がある場合がある。ターゲット特徴992は、ターゲット領域993、例えば、建物の屋根及び窓を形成する直線を含むことができる。
図9Bは、本発明の技術の実施形態により適応走査ルーチンを行っているスキャナ110を示している。この実施形態では、スキャナ110によって実行される走査経路994bは、具体的にターゲット特徴992に、従って、ターゲット領域993に向けられる。それによってスキャナ110は、関心事ではない特徴を不要に走査するのに掛ける時間を少なくする。従って、物体991を走査するための処理は、従来の技術を使用するよりも時間を有意に低減することができ、使用するリソースを有意に少なくすることができる。
図10は、図9Bに示す走査作動を実行するための処理を示すブロック図である。本発明の開示の実施形態による全体処理1000は、画像処理ブロック1001を含み、それは、逆に、画像取得ブロック1002を含む。ブロック1002で、処理は、例えば、カメラ117から画像データを取得する段階を含む。ブロック1003で、画像データは、例えば、特定の特徴、より具体的には、例えばエンドユーザによって関心事である可能性がある特徴を識別するために解析される。そのような特徴は、ユーザが識別することができる線、コーナー、及び/又は他のターゲット形状又は特徴を含むことができる。
ブロック1004で、ターゲット形状は、ドア、窓、及び/又は他の形状又は区域に対応する場合がある領域にグループ分けすることができる。ブロック1005及び1006は、例えば、距離計118によるターゲット式走査に対して関心のある領域を選択することにより(ブロック1009)、ターゲット領域の各々を分類する段階を含む。この処理は、手動、自動、又は手動及び自動技術の組合せを通じて実行することができる。例えば、処理は、コンピュータベースの形状認識ルーチンを使用してターゲット特徴(又はターゲット領域)を識別する段階を含むことができ、ユーザは、自動的に発生された選択を承認又は拒否することができる。他の実施形態では、ユーザは、選択処理の完全な制御(完全手動)を有するか、又は制御を委譲(完全自動)することができる。特定の実施形態では、当該の特徴及び/又は領域を識別するためにHough変換のようなアルゴリズムが使用される。他の実施形態では、機械学習及び/又はニューラルネットワーク技術を使用して当該の特徴及び/又は領域を識別することができ、それによって所要のユーザ入力が減る。特徴及び/又は領域が関心事である場合に、スケジューラー1007が、各々の領域に対して情報を収集し、最適(あるいは、少なくとも得策である)走査経路を識別する(ブロック1008)。ブロック1009で、走査コントローラ430(図4)は、ブロック1008で識別された走査経路に沿ってカメラ117及び関連の距離計118(図4)を向ける。出力(ブロック1010)は、UAVが航行してその任務を遂行するのに使用する3次元モデルである。
4.飛行経路計画
図11及び図15Cは、飛行経路を形成又は定義する代表的な処理を示しており、UAVは、上述のように、それを用いて飛行経路に従ってスキャナによって走査される環境内で任務を実行する。図11に示す代表的な処理1100は、環境を走査する段階又は環境の3次元モデルをインポートする段階を含む(ブロック1101)。ブロック1102で、処理は、環境内の飛行経路を構成する段階を含む。特定の実施形態では、飛行経路は、ユーザ入力1103を使用して構成される。例えば、ユーザは、3次元モデルをコンピュータ画面上で見て、マウス、キー、ジョイスティック、及び/又は他の入力デバイスを通じて飛行経路を構成することができる。飛行経路が3次元であるので、システムは、ユーザが、環境を複数の視点から見て適切な3次元飛行経路を与えるようにあらゆる方式で(例えば、画像をひっくり返す)で画像を回転させることを可能にすることができる。
別の実施形態では、飛行経路は、ブロック1104によって示すように自動的に発生させることができる。この場合に、処理は、追加入力1105を必要とする場合がある。そのような入力は、例えば、望ましい飛行経路の一般的な特徴付け、例えば、対象領域及びUAVが飛行することになる対象領域からの距離の識別を含むことができる。(a)物体との衝突を防止し、及び/又は(b)物体をUAVに搭載されたセンサのターゲット範囲に保つために物体からの設定された距離を維持することが特に重要である場合がある。これに加えて、情報は、UAVの速度、UAVの飛行動力学及び機能、及びカメラ又は他のセンサをターゲット領域に向けるUAVの機能に関連付けられたあらゆる制限又は限界を含むことができる。この情報及びユーザからの入力に基づいて(例えば、ユーザは、特徴又は物体をクリックし、オフセット距離を選択することができる)、システムは、飛行経路を自動的に発生させることができる。飛行経路は、UAVベースのセンサの視野とセンサが感知する物体の望ましい解像度とを含むファクタに応じて単一通過経路又は多重通過経路(例えば、「芝刈機」パターン)とすることができる。
ブロック1106は、上述のUAVの速度、UAVの飛行動力学及び機能、及び他の制限を考慮に入れて予想軌道をブロック1102で決定されたUAV経路に基づいて計算する段階を含む。ブロック1107は、経路に衝突がない、例えば、ブロック1101でインポートされたモデル内で表現された物体との衝突がないか否かを決定するように検査する段階を含む。経路が衝突を確かに含む場合に(又は衝突の閾値可能性よりも大きい場合に)、処理は、飛行経路への調節のためにブロック1102に戻る。一例として、処理は、衝突を引き起こしそうな経路の区域が適切な経路のその後の構成に含まれないようにすることができる。飛行経路が衝突を含まない場合に、飛行経路は、ブロック1108に示すように開始及び実行することができる。
図12は、第1の物体(例えば、銅像1291a)と第2の物体(例えば、建物1291b)とを含む代表的な環境1290内のスキャナ110を示している。図13Aは、スキャナ110から得られたデータに基づく銅像1291aと建物1291bとを含む環境のコンピュータベースのモデルを示している。図13Aは、環境1336のポイントクラウドを見るユーザが構成することができる提案飛行経路1337も示す。図13Bは、図13Aに示すポイントクラウド環境1336の平面図(上から下)である。ユーザは、予め設定された図(例えば、平面図、側面図、正面図のような)を切り換えることができ、又はポイントクラウド環境1336の周りを回転させることによって図を1つの図から別の図にあらゆる速度で徐々にかつ区分的に移動することができる。
図14は、提案飛行経路1337と共に図13A及び図13Bに示す建物1291bの1つを示している。提案飛行経路1337は、UAVが建物1291bと衝突するか又は建物1291bに近づきすぎると考えられる干渉部分1337aを含む。従って、ユーザは、例えば、飛行経路の干渉部分1337aを非干渉部分とは異なる色で表示することによって干渉に対して警告される。他の実施形態では、システムは、他の警告技術(例えば、点減及び/又は可聴信号)を使用することができる。これに加えて、システムは、例えば、飛行経路を修正することによって干渉部分が取り除かれるまでユーザが任務で飛行させることを防止することができる。
図15A、図15B、及び図15Cは、風力タービン1591を含む物体1591の正面図、上面図、及び側面図である。図15A〜図15Cは、UAV150が風力タービン1591を調べるために飛行する飛行経路1551、及び地上にあるスキャナの(概略的な)視野1593も示す。3つの図による例示は、衝突又は衝突の可能性がUAV150に対して存在しないことをユーザに示すのに適している。上述のように、画像は、ひっくり返すか又は他の方法で回転させてこの情報をユーザに提供することができる。上述の実施形態のいずれにおいても、スキャナによって収集されたデータを使用してUAVが少なくとも2つの機能を実行するのを補助することができる。第1に、データを使用して、UAVが任務の内容を実行するのを補助することができる。例えば、図15A〜図15Cに示すように、任務は、風力タービンのブレードを検査することを含む場合がある。従って、画像データにより、ブレードの位置、及び/又はUAVが任務の一部として着目する場合がある当該の他の区域の正確な表示を得ることができる。第2に、データは、UAVが任務を遂行する時に障害物を回避するのを補助することができる。例えば、画像データは、UAVが風力タービンブレードを担持するパイロン1592に衝突することを回避することを可能にすることができる。
図15A〜図15Cに示す実施形態では、風力タービン1591は、UAV150が検査を実行している間は停止される。別の実施形態では、UAV150は、図16A〜図16Dに示す代表的実施形態に示すように、タービンブレードが回転している間に検査を実行することができる。
図16Aから始めると、風力タービン1591は、3つのブレード1595を担持する上述のパイロン1592を含む。ブレード1595が運動している時に、それは、円板Dを掃引する。各ブレード1595は、ブレード先端から内向きに延びる複数の領域を含むことができる。2つの代表的な領域が、第1の領域1596a及び第2の領域1596bとして図16A〜図16Dに示されている。図16Aに示す実施形態では、UAV150は、ブレードが通過する時に各ブレード1595の第1の領域1596aと位置合わせするように円板Dの外周囲に向けて位置付けられた第1の位置P1に移動する。
図16Bをここで参照すると、ブレード1595のうちの1つの第1の領域1596aは、UAV150によって担持されたセンサの視野1597内に回転されている。UAV及び/又は地上にあるスキャナ/追跡器によって決定されるような視野1597の第1の領域1596aを用いて、センサが起動される。例えば、センサがカメラを含む時に、カメラは、第1の領域1596aを撮像するように起動される。UAV150は、第1の位置P1に留まることができ、各連続したブレード1595の第1の領域1596aが視野1597に入ると、UAV150は、撮像するか又は他のデータを収集するようにセンサを起動させることができる。各ブレード1595の第1の領域1596aが撮像されたか又は他の方法で感知された時に、UAV150は、図16Cに示すように、第2の位置P2に移動することができる。第2の位置P2から、UAV150は、図16Dに示すように、各ブレード1595の第2の領域1596bを撮像するか又は他の方法で感知することができる。上述の処理は、追加の対象領域、例えば、ブレード1595がそこから延びるハブ1599に向けて第2の領域1596bから内向きに位置付けられた領域に対して繰り返すことができる。上述の手法の利点は、UAV150が、以下に限定されるものではないが、ブレード1595の画像データを含む診断情報を取得している間に、風力タービン1591が停止する必要がないことである。これは、次に、定期的な診断データを取得する必要性を損なうことなく、風力タービン1591の稼働時間を増大させることができる。
上述の実施形態のうちの少なくとも一部の1つの特徴は、システムが、UAVが飛行することが予想される環境をマップするためにカメラ(又は他の2次元撮像デバイス)とレーザスキャナ(又は他の距離計)との組合せを含むことができることである。この配置の1つの利点は、従来の測量レーザスキャナ又はスピン式ライダーデバイスと比較して比較的廉価であることである。上述の配置の別の利点は、既存のシステムと異なる機能が得られることである。例えば、既存の測量距離計は、0.5〜1Hzで作動し、得られる解像度がミリメートル又はサブミリメートルレベルである。本発明のシステムの実施形態は、50Hz〜100Hzの速度で作動し、これは、(1Hzの速度と異なり)典型的なUAVの飛行速度及びオフセット距離に追随するのに十分である。本発明のシステムの実施形態の解像度は、センチメートルレベルまで落とすことができ、これは、典型的なUAVのタスクに十分であり、かつシステムのコストを低減する。
開示するシステムの実施形態の更に別の予想される利点は、このシステムは、UAVに搭載されずに位置付けることができるので、UAVは、走査及びマッピング機器のためのペイロード容量及び処理機能を与える必要がないことである。代わりに、ペイロード容量は、任務遂行機器のために取っておくことができ、電力は、UAVの任務を行うために保存することができる。この特徴は、特に、限られたバッテリ容量を有するUAVには重要である場合がある。更に別の利点は、組合せ式スキャナ及び距離計配置はコンパクトであるので、他のマッピング機器、例えば、赤外線カメラのアレイを含む機器よりも可搬的であることである。
上述の実施形態のうちの少なくとも一部の別の特徴は、スキャナが走査機能に加えて追跡機能を実行することができることである。この特徴の利点は、UAVが飛行しているのとほぼ同じ時間尺度でUAVの位置がどこであるかをUAVに非搭載型ソースから伝えることができることである。特に、UAVは、秒当たりに複数回、更に必要に応じて、例えば、障害物を回避するのにUAVがコースを変更することを可能にする速度で最新情報を受信することができる。この特徴の別の利点は、UAVの位置をローカル環境の正確な3次元モデルを使用して定義された事前定義飛行経路と継続的に比較することができることである。従って、UAVが軌道から外れる可能性が低減され、UAVが軌道から外れた場合に、システムは、UAVを高い精度で向け直すことができる。
上述の実施形態のうちの少なくとも一部の更に別の特徴は、飛行を計画するための処理を従来の中間点計画配置よりも自動化、半自動化、及び/又は視覚的に対話型にすることができることである。この配置の利点は、特に、混乱するローカル環境内の飛行経路立案の処理を高速化することができることである。別の利点は、飛行経路は、より正確とすることができ、それは、ここでもまた、GPSが利用不能か又はそのような区域を航行するのに必要なレベルの詳細を供給するには不十分であるGPS拒否又は混雑した区域に特に有用性を有することである。更に別の利点は、インタフェースは直観的とすることができることである。これは、少なくとも、インタフェースに提示されている物体が実際に現れるように物体を視覚的に示すという理由から直観的である。建物は、建物の姿をし、木は、木の姿をしている等々である。更に別の利点は、インタフェースは、実際の3次元環境を(回転又はひっくり返しを通じて)より良好に模擬することができ、ユーザは、当該の障害物及びターゲットが複数の角度から見えるように画像を回転させることによって飛行環境の3次元的性質を認めることができることである。これは、ユーザが障害物の高さを想像しなければならない典型的な撮影計画配置とは異なっている。更に別の利点は、飛行計画処理の少なくとも一部の態様を自動化することができることである。例えば、ユーザは、代表的な飛行経路を入力することができ、この飛行経路は、衝突に関する問題がないかを自動的に評価することができる。飛行経路は、特定の物体、例えば、飛行経路に沿って飛行中のUAVによって検査される風力タービンブレードからの一定のオフセットを提示するように自動的に調節することができる。
上述の実施形態のうちの少なくとも一部の更に別の特徴は、3次元モデルを形成するのに使用されるデータを取得するための処理を走査される環境に対処するように適応させることができることである。特に、走査処理は、全体としての環境よりもむしろ対象領域に集中させることができる。この手法の利点は、似通っている区域(例えば、大きい平坦平面)及び物理的に走査不能である区域(例えば、空)を回避することができ、従って、マップするのに時間がかからないので環境を走査するための処理が高速化可能であることである。別の利点は、特定のモデルに利用可能な限定された数のデータポイントを当該区域に集中させることができ、それによってそれらの区域は、重要度の劣る区域よりも高い解像度でモデル化されることである。更に、特定のモデルを定めるのに必要な点の全体的な個数を低減することができる。更に、採取するデータ点が少なくなると、走査モータに対する要求(従って、コスト)が低減される。この手法は、システム全体のコスト/複雑性を低減することができる。
5.更に別の実施形態
特定の実施形態では、スキャナ110は、走査作動の場合でも追跡作動の場合でも同じ位置のままである。他の実施形態では、スキャナは、これらの2つの作動間で移動することができる。そのような場合に、UAVを追跡するための処理は、スキャナが走査を行った位置とスキャナがそこからUAVを追跡する位置との間のオフセットに対処する段階を含むことができる。オフセットは、GPS及び/又は他の適切な技術を使用して決定することができる。特定の走査は、異なる位置に追跡器を各々が有することができる複数の任務に使用することができるように、GPS座標でタグ付けすることができる。初期走査がそこから行われるGPS座標は、複数の使用に適する一定基準点を与えることができる。これに代えて、ローカル座標系をGPSの代わりに使用することができる。
特定の実施形態では、UAVによって担持される基準点は、上述のように、符号化パターンの形態を取ることができる。他の実施形態では、基準点は、他の配置、例えば、LED又はLEDパターンを含むことができる。更に別の実施形態では、追跡モードである時に、スキャナは、UAVのある一定の特性(例えば、その輪郭)を機械学習アルゴリズム、例えば、ディープニューラルネットワークによって訓練された事前識別された輪郭のライブラリと適合させることによってUAVを識別することができる。
本発明の技術の特定の実施形態を例示目的で本明細書に説明したが、上記から様々な修正を本発明の開示から逸脱することなく行うことができることが認められるであろう。例えば、特定の実施形態をUAVの関連で説明したが、他の実施形態では、類似の技術は、例えば、他のタイプのロボット、水ベースのロボット、及び特に潜水可能なロボットに使用することができ、これらのロボットは、航空機が直面するのと類似の3次元環境に関連付けられた問題に直面する可能性があるものである。上述の特定の実施形態では、追跡モードは、追跡座標を含む。他の実施形態では、追跡モードは、飛翔体座標の追跡に加えて又はその代わりに、進行方向、UAV速度、及び/又は他の変数を追跡することを含むことができる。追跡処理及び関連の走査処理は、上図のいくつかに示すように、屋外で実行することができ、屋内でも実行することができる。システムは、同じ環境に使用される時でさえも、例えば、環境の変化を検出するために走査モードと追跡モード間で循環又は往復することができる。その後に、そのような変化は、関連の3次元モデルを更新するようにポイントクラウド又は他のコンピュータベースの画像ファイルにインポートすることができる。システムの特定の実施形態を四回転子UAVの関連で上述したが、他の実施形態では、UAVは、他の四回転子構成又は非四回転子構成を有することができる。
スキャナは、異なる実施形態に異なる配置を有することができる。例えば、上述の代表的実施形態では、カメラ及び距離計の各々は、環境及びUAVまでの独立した光路を有する。別の実施形態では、プリズム又は他のビームスプリッタが、同一光学情報をカメラ及び距離計に供給する。この手法は、カメラによって供給される情報と距離計によって供給される情報の間の対応性を改善することができる。他の実施形態では、スキャナは、単一カメラ及び単一距離計以外のデバイス、例えば、複数のカメラ(異なる視野、波長感度、及び/又は他の関数パラメータを有する)及び/又は複数の距離計(異なる距離にわたる異なる感度、及び/又は他の関数パラメータを有する)を含むことができる。
特定の実施形態の関連に説明した本発明の技術のある一定の態様は、他の実施形態において結合又は排除することができる。例えば、特定の実施形態では、上述の飛行経路計画アルゴリズムは、上述の走査及び追跡処理とは独立に使用することができる。別の実施形態では、上述の適応走査技術は、上述の追跡及び/又は飛行計画処理とは独立に使用することができる。更に、本発明の技術のある一定の実施形態に関連付けられた利点をそれらの実施形態の関連で説明したが、他の実施形態もそのような利点を示すことができ、必ずしも全ての実施形態が本発明の開示の範囲に該当するようにそのような利点を示す必要があるわけではない。従って、本発明の開示及び関連の技術は、本明細書に明示的に図示又は説明していない他の実施形態を包含する可能性がある。
本出願は、各々が引用によって本明細書に全体的に組み込まれている以下の現在特許出願中の同時提出出願に関連している:「SCANNING ENVIRONMENTS AND TRACKING UNMANNED AERIAL VEHICLES」という名称の米国特許出願第__/___,___号(代理人整理番号115577−8001.US01)、「SCANNING ENVIRONMENTS AND TRACKING UNMANNED AERIAL VEHICLES」という名称の米国特許出願第__/___,___号(代理人整理番号115577−8002.US00)、及び「SCANNING ENVIRONMENTS AND TRACKING UNMANNED AERIAL VEHICLES」という名称の米国特許出願第__/___,___号(代理人整理番号115577−8003.US00)。引用によって本明細書に組み込まれるいずれかの内容が本開示と矛盾する範囲では、本開示が優先する。
本開示は、以下の態様を含む。
[23]
環境内の無人航空機の飛行を該環境の3次元モデルを使用して計画するために、メモリとプロセッサとを有するコンピュータシステムによって実施される方法であって、
ユーザへの提示のために、複数の物体を含む前記環境の前記3次元モデルの可視表現を特徴付ける情報を提供する段階と、
前記ユーザからの入力に基づいて、該ユーザが前記環境の前記3次元モデルの前記可視表現を見る視点をシフトする段階と、
前記ユーザから、前記環境を通る前記無人航空機のための提案飛行経路に関連する入力を受信する段階と、
前記受信した入力と前記無人航空機の飛行動力学及び機能とに少なくとも部分的に基づいて前記環境を通る該無人航空機の予想軌道を計算する段階と、
前記環境を通る前記無人航空機の前記計算した予想軌道に衝突がないか否かを検査する段階と、
を含む方法。
[24]
前記環境の前記3次元モデルを少なくとも部分的にカメラ及び距離計を用いて該環境を走査することによって発生させる段階を更に含む、[23]に記載の方法。
[25]
前記環境の前記3次元モデルをインポートする段階を更に含む、[23]に記載の方法。
[26]
前記環境の前記3次元モデルを少なくとも部分的に前記無人航空機又は別の無人航空機によって捕捉された画像から空間情報を抽出することによって発生させる段階を更に含む、[23]に記載の方法。
[27]
前記無人航空機のための前記好ましい飛行経路に関連する前記受信した入力は、
対象領域の表示と、
個々の対象領域に関して、前記無人航空機が飛行することになる該対象領域からの距離と、を含む、
[23]に記載の方法。
[28]
前記環境を通る前記無人航空機の前記計算した予想軌道に衝突がないか否かを決定するために検査する段階は、
前記環境の前記3次元モデルを、該環境を通る前記無人航空機の前記予想軌道と比較し、該無人航空機が該環境内の物体と接触すると考えられるか否かを決定する段階を含む、 [23]に記載の方法。
[29]
前記環境を通る前記無人航空機の前記計算した予想軌道に衝突があると決定する段階と、
前記環境を通る前記無人航空機の前記計算した予想軌道に衝突があると決定する段階に応答して、該無人航空機の該計算した予想軌道に衝突があるというフィードバックを前記ユーザに提供する段階と、
を更に含む[23]に記載の方法。
[30]
前記環境を通る前記無人航空機の前記計算した予想軌道に衝突があると決定する段階に応答して、該環境の干渉部分を識別する段階を更に含み、
前記無人航空機の前記計算した予想軌道に衝突があるというフィードバックを前記ユーザに提供する段階は、前記環境の前記干渉部分を該環境の非干渉部分とは異なる色で表示する段階を含む、
[29]に記載の方法。
[31]
前記環境を通る前記無人航空機の前記計算した予想軌道に衝突があると決定する段階に応答して、該環境の前記3次元モデルの前記可視表現を特徴付ける前記情報を修正して衝突を引き起こす区域の表示を阻止する段階を更に含む、[29]に記載の方法。
[32]
前記環境を通る前記無人航空機の前記計算した予想軌道に衝突があると決定する段階に応答して、該無人航空機の前記提案軌道を修正して該無人航空機が衝突のない経路を辿ることになることを確実にする段階を更に含む、[29]に記載の方法。
[33]
前記環境を通る前記無人航空機のための前記提案飛行経路に関連する前記受信した入力は、該無人航空機に関する近接性制約及び速度を含む、[23]に記載の方法。
[34]
少なくとも部分的に、
前記カメラを用いて前記環境の画像を捕捉し、
前記捕捉画像内の物体に関する深度データを少なくとも部分的に前記距離計から複数の該物体の各々までの距離を決定又は推定することによって発生させ、かつ
前記チルトエンコーダ及び前記パンエンコーダから収集された情報に少なくとも部分的に基づいて前記発生された深度データを直交座標に変換することにより、
前記カメラ、距離計、チルトエンコーダ、及びパンエンコーダから収集された情報に少なくとも部分的に基づき、前記環境の3次元モデルを発生させる段階、
を更に含む[23]に記載の方法。
[35]
前記環境を通る前記無人航空機の前記予想軌道に従って該無人航空機をして飛行を開始させる段階と、
前記環境を通る前記無人航空機の前記飛行を第1のスキャナを用いて追跡する段階と、 を更に含む[23]に記載の方法。
[36]
前記環境を通る前記無人航空機の前記飛行を追跡する段階は、コーナー立体干渉分光法をレーザベースの位置感知デバイスからの出力と組み合わせて該無人航空機に対する位置推定値を発生させる段階を含む、[35]に記載の方法。
[37]
前記無人航空機が飛行している間に、該無人航空機を追跡する責任を前記第1のスキャナから第2のスキャナに引き渡す段階を更に含む、[35]に記載の方法。
[38]
前記環境を通る前記無人航空機の前記飛行を追跡しながら、該環境を通る該無人航空機の該飛行を、該環境を通る該無人航空機の前記予想軌道と比較する段階を更に含む、[35]に記載の方法。
[39]
前記比較する段階に基づいて、前記無人航空機が、前記環境を通る該無人航空機の前記予想軌道から外れたと決定する段階に応答して、該無人航空機の前記飛行を調節する段階を更に含む、[38]に記載の方法。
[40]
メモリとプロセッサとを有するコンピュータシステムによって実行された場合に該コンピュータシステムをして方法を実施させる命令を格納するコンピュータ可読ストレージ媒体であって、
前記方法は、
ユーザへの提示のために、複数の物体を含む前記環境の3次元モデルの可視表現を特徴付ける情報を提供する段階と、
前記ユーザから、前記環境を通る前記無人航空機の提案飛行経路に関連する入力を受信する段階と、
前記環境を通る前記無人航空機の予想軌道を前記受信した入力と該無人航空機の飛行動力学及び機能とに少なくとも部分的に基づいて計算する段階と、
前記環境を通る前記無人航空機の前記計算した予想軌道に衝突がないか否かを決定するために検査する段階と、を含む、
コンピュータ可読ストレージ媒体。
[41]
前記方法は、前記ユーザからの入力に基づいて、該ユーザが前記環境の前記3次元モデルの前記可視表現を見る視点をシフトする段階を更に含む、
[40]に記載のコンピュータ可読媒体。
[42]
カメラと、
距離計と、
チルトエンコーダと、
パンエンコーダと、
前記カメラから収集された情報、前記距離計から収集された情報、前記チルトエンコーダから収集された情報、及び前記パンエンコーダから収集される情報に少なくとも部分的に基づいて環境の3次元モデルを発生させるように構成された構成要素と、
ユーザへの提示のために、複数の物体を含む前記環境の前記3次元モデルの可視表現を特徴付ける情報を提供するように構成された構成要素と、
前記ユーザから前記環境を通る無人航空機の提案飛行経路に関連する入力を受信するように構成された構成要素と、
前記環境を通る前記無人航空機の予想軌道を前記受信した入力と該無人航空機の飛行動力学及び機能とに少なくとも部分的に基づいて計算するように構成された構成要素と、
を含むシステム。
[43]
前記環境を通る前記無人航空機の前記計算した予想軌道に衝突がないか否かを検査するように構成された構成要素を更に含む、[42]に記載のシステム。
[44]
前記カメラから収集された情報及び前記距離計から収集された情報が、前記環境の周りの複数の場所の各々から収集された情報を含む、[42]に記載のシステム。
[45]
環境内の無人航空機の飛行を該環境の3次元モデルを使用して追跡するために、メモリとプロセッサとを有するコンピュータシステムによって実施される方法であって、
少なくとも1つのカメラと少なくとも1つの距離計とを含むスキャナシステムを用いて、前記環境内の前記無人航空機の前記飛行を追跡する段階、及び、前記環境内の物体を識別する段階と、
前記環境内の前記無人航空機の実際の飛行を3次元モデル内に構成された飛行経路と比較する段階と、
前記無人航空機の前記実際の飛行が前記3次元モデル内に構成された前記飛行経路から外れたと決定する段階と、
前記無人航空機の前記実際の飛行が前記3次元モデル内に構成された前記飛行経路から外れたと決定する段階に応答して、少なくとも部分的に該無人航空機に案内情報を送信することにより、該3次元モデル内に構成された該飛行経路に従って該無人航空機の該実際の飛行を向け直す段階と、
を含む方法。
[46]
前記環境内の前記無人航空機の前記飛行を追跡する段階は、
少なくとも1つのカメラを用いて画像を繰返し捕捉する段階と、
前記捕捉画像を解析して前記無人航空機の位置及び方位を推定する段階と、を含む、
[45]に記載の方法。
[47]
前記環境内の前記無人航空機の前記飛行を追跡する段階は、
少なくとも1つのカメラを用いて画像を繰返し捕捉する段階と、
前記捕捉画像を解析して前記無人航空機の位置付ける段階と、
光測距距離計、及び、無線周波数測距距離計のうちの少なくとも一方を含む少なくとも1つの距離計を用いて、前記無人航空機までの距離を決定又は推定する段階と、を含む、 [45]に記載の方法。
[48]
前記環境内の前記無人航空機の前記飛行を追跡する段階は、前記無人航空機から自動従属監視−ブロードキャスト情報を受信する段階を含む、[45]に記載の方法。
[49]
前記3次元モデルは、前記環境の3次元モデルであり、
前記方法が、前記無人航空機を追跡しながら前記環境の前記3次元モデルを更新する段階を更に含む、
[45]に記載の方法。
[50]
前記環境の前記3次元モデルを更新する段階は、
前記少なくとも1つのカメラを用いて、前記環境の画像を捕捉する段階と、
前記環境の前記捕捉画像のうちの1又は2以上の特徴を識別する段階と、
前記距離計を用いて、少なくとも部分的に該距離計から複数の前記識別された特徴の各々までの距離を決定することにより、深度データを発生させる段階と、
前記発生された深度データをチルトエンコーダ及びパンエンコーダから収集された情報に少なくとも部分的に基づいて球座標から直交座標に変換する段階と、
前記プロセッサを用いて、前記変換された深度データに少なくとも部分的に基づいて前記環境の更新された3次元モデルを発生させる段階と、
を含む、[49]に記載の方法。
[51]
前記環境の前記更新された3次元モデルを該環境の前記3次元モデルと比較して該環境内の新規物体を識別する段階を更に含む、[50]に記載の方法。
[52]
ユーザへの提示のために、前記環境の前記3次元モデルの可視表現を特徴付ける情報を提供する段階を更に含む、[45]に記載の方法。
[53]
前記環境内の前記無人航空機の前記実際の飛行を前記3次元モデル内に構成された前記飛行経路と比較する段階は、
前記無人航空機から速度及び位置情報を受信する段階と、
前記無人航空機から前記受信した速度及び位置情報を前記3次元モデル内に構成された前記飛行経路と比較する段階と、を含む、
[45]に記載の方法。
[54]
ユーザから、前記環境を通る前記無人航空機の提案飛行経路に関連する入力を受信する段階と、
前記受信した入力と前記無人航空機の飛行動力学及び機能とに少なくとも部分的に基づいて前記3次元モデル内に前記飛行経路を構成する段階と、
を更に含む[45]に記載の方法。
[55]
以前に発生された3次元モデルのライブラリから前記3次元モデルを取り出す段階を更に含む、[45]に記載の方法。
[56]
前記以前に発生された3次元モデルのライブラリのうちの前記3次元モデルのうちの少なくとも1つが、複数の環境を通る無人航空機の前記経路を追跡するのに使用される[55]に記載の方法。
[57]
前記環境内の前記無人航空機の前記飛行を追跡する段階は、
前記無人航空機の捕捉画像を解析する段階と、
前記解析する段階に基づいて、前記無人航空機の前記捕捉画像のうちの少なくとも1つ内で、該無人航空機に関連付けられた少なくとも1つの物理的符号化パターンを識別する段階と、
前記無人航空機のアイデンティティーを該無人航空機に関連付けられた前記少なくとも1つの物理的符号化パターンに少なくとも部分的に基づいて確認する段階と、を含む、
[45]に記載の方法。
[58]
前記無人航空機の前記解析される捕捉画像は、別の無人航空機に取り付けられたカメラによって捕捉される[57]に記載の方法。
[59]
前記環境の前記3次元モデルは、少なくとも部分的に、
少なくとも1つのカメラと少なくとも1つの距離計とを各スキャナが含む異なる場所に位置付けられた複数のスキャナの各々を用いて、前記環境の画像と該画像内で識別された複数の特徴の各々に関連付けられた深度情報とを捕捉し、かつ
前記深度情報に基づいて、前記環境の前記画像のうちの少なくとも2つを互いに結合して該環境の複合3次元モデルを形成することによって発生される、
[45]に記載の方法。
[60]
前記環境内の前記無人航空機の前記飛行を追跡する段階は、前記無人航空機に取り付けられたカメラによって撮られた画像を前記環境の前記3次元モデルと比較する段階を含む、
[45]に記載の方法。
[61]
前記無人航空機のための飛行経路上の制限に対応する情報を受信する段階と、
前記3次元モデル内に構成された前記飛行経路が前記制限に違反する場合にフィードバックを提供する段階と、
を更に含む[45]に記載の方法。
[62]
プロセッサを有するコンピュータシステムによって実行された場合に該コンピュータシステムをして環境内の無人航空機の飛行を該環境の3次元モデルを使用して追跡する方法を実施させる命令を格納するコンピュータ可読ストレージ媒体であって、
前記方法は、
前記環境内の前記無人航空機の前記飛行を追跡する段階と、
前記環境内の物体を識別する段階と、
前記環境内の前記無人航空機の実際の飛行を3次元モデル内に構成された飛行経路と比較する段階と、
前記無人航空機の前記実際の飛行が前記3次元モデル内に構成された前記飛行経路から外れたと決定する段階と、
前記無人航空機の前記実際の飛行が前記3次元モデル内に構成された前記飛行経路から外れたと決定する段階に応答して、該無人航空機に案内情報を送信する段階と、を含む、 コンピュータ可読ストレージ媒体。
[63]
前記環境内の前記無人航空機の前記飛行を追跡する前記段階は、該無人航空機から受信した位置情報に少なくとも部分的に基づいている、[62]に記載のコンピュータ可読ストレージ媒体。
[64]
カメラ、距離計、チルトエンコーダ、及び、パンエンコーダを含むスキャナと、
前記カメラから収集された情報、前記距離計から収集された情報、前記チルトエンコーダから収集された情報、及び、前記パンエンコーダから収集された情報に少なくとも部分的に基づいて環境の3次元モデルを発生させるために前記スキャナに結合された第1の構成要素と、
前記環境の3次元モデルを通る前記無人航空機のための予定飛行経路を計算するために前記第1の構成要素に結合された第2の構成要素と、
前記無人航空機をして前記予定飛行経路に従って前記環境を通る飛行を開始させるために前記第2の構成要素に結合された第3の構成要素と、
前記カメラから収集された情報、前記距離計から収集された情報、前記チルトエンコーダから収集された情報、及び、前記パンエンコーダから収集された情報に少なくとも部分的に基づいて、前記環境を通る前記無人航空機の前記飛行を追跡するために、前記スキャナに結合された第4の構成要素と、
環境を通る前記無人航空機の前記追跡された飛行を該環境の前記3次元モデルを通る該無人航空機の前記予定飛行経路と比較するために前記スキャナに結合された第5の構成要素と、
を含むシステム。
[65]
前記環境の複数のターゲット特徴の表示を受信するために前記スキャナに結合された第6の構成要素を更に含み、
前記カメラは、前記環境の前記ターゲット特徴のうちの1又は2以上を含む該環境の画像のみを捕捉する、
[64]に記載のシステム。
100 本発明の技術の実施形態によるシステム
110 スキャナ
130 コントローラ
190 UAVが作動する環境
191 物体

Claims (22)

  1. プロセッサを有し、無人航空機が作動することが予想される環境を走査かつマップするためのシステムであって、
    前記環境の2次元光学画像を捕捉するように構成されたカメラと、
    前記環境の深度データを発生させるように構成された距離計と、
    記カメラに結合された第1の構成要素であって、前記環境の前記捕捉された2次元光学画像のうちの1又は2以上の特徴を識別し、前記距離計からの深度データを使用せずに、前記識別された特徴から1つ以上のターゲット特徴を走査のために選択するように構成された前記第1の構成要素と、
    記距離計に結合された第2の構成要素であって、前記1つ以上のターゲット特徴に向けられた走査経路に追従するように前記距離計を方向付けるように構成された前記第2の構成要素と、を含み、前記距離計は、少なくとも部分的に(1)前記走査経路に追従すること、及び(2)前記距離計から前記1つ以上のターゲット特徴までの各々の距離を決定又は推定することにより、前記深度データを発生させるように構成され、
    更に、前記第1の構成要素及び前記第2の構成要素に結合された第3の構成要素であって、前記深度データに少なくとも部分的に基づいて前記環境の3次元ポイントクラウドモデルを発生させるように構成された前記第3の構成要素を含む
    ステム。
  2. 前記カメラ及び距離計は、各々が前記環境までの独立した光路を有する、請求項1に記載のシステム。
  3. ビームスプリッタが、前記カメラ及び前記距離計の両方に同一光学情報を提供する、請求項1に記載のシステム。
  4. 水平軸に対する前記カメラ及び前記距離計の運動を追跡するように構成されたチルトエンコーダを更に含み、
    前記第2の構成要素は、更に、前記チルトエンコーダから収集された情報に少なくとも部分的に基づいて、前記発生された深度データを球座標から直交座標へ変換するように構成されている、
    請求項1に記載のシステム。
  5. 垂直軸の周りの前記カメラ及び前記距離計の回転位置を追跡するように構成されたパンエンコーダを更に含み、
    前記第2の構成要素は、さらに、前記パンエンコーダから収集された情報に少なくとも部分的に基づいて、前記発生された深度データを球座標から直交座標への変換するように構成されている、
    請求項1に記載のシステム。
  6. 記第3の構成要素に結合された第4の構成要素を更に含み、前記第4の構成要素は、前記環境を通る前記無人航空機のための飛行を計画するように構成されている、請求項1に記載のシステム。
  7. 記第4の構成要素に結合された第5の構成要素であって、前記無人航空機が前記計画された飛行から外れたか否かを決定するように構成された前記第5の構成要素と、
    記第5の構成要素に結合された第6の構成要素であって、前記無人航空機が前記計画された飛行から外れたと決定することに応答して該無人航空機にフィードバックを提供するように構成された前記第6の構成要素と、
    を更に含む請求項6に記載のシステム。
  8. 前記第3の構成要素に結合された第4の構成要素であって、少なくとも部分的に、前記無人航空機の位置情報を前記環境の前記発生された3次元ポイントクラウドモデルと比較することにより、前記無人航空機が前記環境内で作動する時の位置フィードバックを前記無人航空機に提供するように構成された前記第4の構成要素を更に含む、請求項1に記載のシステム。
  9. 前記無人航空機の前記位置情報は、該無人航空機から受信される、請求項8に記載のシステム。
  10. 前記無人航空機の前記位置情報は、前記カメラによって捕捉された該無人航空機の1又は2以上の2次元光学画像を解析することによって少なくとも部分的に決定される、請求項8に記載のシステム。
  11. 前記カメラ及び前記距離計は、前記無人航空機に取り付けられる請求項1に記載のシステム。
  12. 前記カメラ及び前記距離計は、地上に位置付けられる請求項1に記載のシステム。
  13. 前記カメラは、前記環境から放射線を可視スペクトルで受光するように構成される請求項1に記載のシステム。
  14. 前記カメラは、前記環境から放射線を赤外線、紫外線、又は電磁スペクトル範囲の他の範囲で受光するように構成される請求項1に記載のシステム。
  15. 前記距離計は、ライダー検出器を含む請求項1に記載のシステム。
  16. 記第3の構成要素に結合された第4の構成要素であって、前記発生された3次元ポイントクラウドモデルを前記カメラによって捕捉された2次元光学画像で補完するように構成された前記第4の構成要素を更に含む、
    請求項1に記載のシステム。
  17. 記第3の構成要素に結合された第4の構成要素であって、前記環境の複数のターゲット特徴の表示を受信するように構成された前記第4の構成要素を更に含み、
    前記カメラは、前記ターゲット特徴のうちの1又は2以上を含む前記環境の2次元光学画像のみを捕捉する、
    請求項1に記載のシステム。
  18. 環境を走査かつマップするためにメモリとプロセッサとを有するコンピュータシステムによって実施される方法であって、
    カメラを用いて前記環境の2次元光学画像を捕捉する段階と、
    前記環境の前記捕捉した2次元光学画像のうちの1又は2以上の特徴を識別する段階と、
    距離計からの深度データを使用せずに、前記識別された特徴から1つ以上のターゲット特徴を走査のために選択する段階と、
    前記1つ以上のターゲット特徴に向けられた走査経路を決定する段階と、
    前記距離計を用いて、少なくとも部分的に、(1)前記走査経路に追従するように前記距離計を方向付けること及び(2)該距離計から前記1つ以上のターゲット特徴の各々までの距離を決定することによって深度データを発生させる段階と、
    前記プロセッサを用いて、前記深度データに少なくとも部分的に基づいて前記環境の3次元ポイントクラウドモデルを発生させる段階と、
    を含む方法。
  19. 前記環境の以前に走査された3次元ポイントクラウドモデルを取り出す段階と、
    前記環境の前記取り出された以前に走査された3次元ポイントクラウドモデルを該環境の前記発生された3次元ポイントクラウドモデルと比較して該環境内の新規物体を識別する段階と、
    を更に含む請求項18に記載の方法。
  20. メモリとプロセッサとを有するコンピュータシステムによって実行された場合に該コンピュータシステムをして環境を走査かつマップする方法を実施させる命令を格納するコンピュータ可読ストレージ媒体であって、
    前記方法は、
    カメラによって捕捉された前記環境の2次元光学画像を受信する段階と、
    前記環境の前記捕捉した2次元光学画像のうちの1又は2以上の特徴を識別する段階と、
    距離計からの深度データを使用せずに、前記識別された特徴から1つ以上のターゲット特徴を走査のために選択する段階と、
    前記1つ以上のターゲット特徴に向けられた走査経路を決定する段階と、
    前記距離計により、少なくとも部分的に該距離計から前記1つ以上のターゲット特徴の各々までの距離を推定することによって発生された深度データを受信する段階と、
    前記深度データに少なくとも部分的に基づいて前記環境の3次元ポイントクラウドモデルを発生させる段階と、を含む、
    コンピュータ可読ストレージ媒体。
  21. プロセッサを有するコンピュータシステムによって実施される環境を走査かつマップする方法であって、
    前記方法は、
    前記環境の複数の特徴の表示を受信する段階と、
    カメラを用いて前記環境の2次元光学画像を捕捉する段階であって、該環境の前記特徴のうちの1又は2以上を含む該環境の2次元光学画像を捕捉する段階を含む前記捕捉する段階と、
    距離計からの深度データを使用せずに、前記複数の特徴から1つ以上のターゲット特徴を走査のために選択する段階と、
    前記1つ以上のターゲット特徴に向けられた走査経路を決定する段階と、
    前記距離計を用いて、前記環境の前記ターゲット特徴のうちの1又は2以上に対してのみ深度データを発生させる段階と、
    前記深度データに少なくとも部分的に基づいて前記環境の3次元ポイントクラウドモデルを発生させる段階と、を含む、
    方法。
  22. 前記ターゲット特徴を領域にグループ分けする段階と、
    前記ターゲット領域の各々を分類する段階と、
    を更に含む請求項21に記載の方法。
JP2017564756A 2015-03-03 2016-03-02 環境の走査及び無人航空機の追跡 Active JP6843773B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562127476P 2015-03-03 2015-03-03
US62/127,476 2015-03-03
PCT/US2016/020509 WO2016141100A2 (en) 2015-03-03 2016-03-02 Scanning environments and tracking unmanned aerial vehicles

Publications (2)

Publication Number Publication Date
JP2018512687A JP2018512687A (ja) 2018-05-17
JP6843773B2 true JP6843773B2 (ja) 2021-03-17

Family

ID=56848680

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017564756A Active JP6843773B2 (ja) 2015-03-03 2016-03-02 環境の走査及び無人航空機の追跡

Country Status (5)

Country Link
US (4) US10671066B2 (ja)
EP (1) EP3265885A4 (ja)
JP (1) JP6843773B2 (ja)
CA (1) CA2977945A1 (ja)
WO (1) WO2016141100A2 (ja)

Families Citing this family (111)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8874360B2 (en) * 2012-03-09 2014-10-28 Proxy Technologies Inc. Autonomous vehicle and method for coordinating the paths of multiple autonomous vehicles
US9256225B2 (en) * 2014-05-12 2016-02-09 Unmanned Innovation, Inc. Unmanned aerial vehicle authorization and geofence envelope determination
US9978030B2 (en) * 2014-06-11 2018-05-22 Hartford Fire Insurance Company System and method for processing of UAV based data for risk mitigation and loss control
CA2977945A1 (en) 2015-03-03 2016-09-09 Prenav Inc. Scanning environments and tracking unmanned aerial vehicles
CN107615822B (zh) 2015-04-10 2021-05-28 深圳市大疆创新科技有限公司 向无人飞行器提供通信覆盖范围的方法、设备和系统
US9936138B2 (en) 2015-07-29 2018-04-03 Samsung Electronics Co., Ltd. User terminal apparatus and control method thereof
US11284003B2 (en) 2015-07-29 2022-03-22 Samsung Electronics Co., Ltd. User terminal apparatus and control method thereof
US10282591B2 (en) 2015-08-24 2019-05-07 Qualcomm Incorporated Systems and methods for depth map sampling
US9772395B2 (en) 2015-09-25 2017-09-26 Intel Corporation Vision and radio fusion based precise indoor localization
NL2015843B1 (en) * 2015-11-23 2017-06-07 Daf Trucks Nv Auto docking method for application in heavy trucks.
US10242455B2 (en) * 2015-12-18 2019-03-26 Iris Automation, Inc. Systems and methods for generating a 3D world model using velocity data of a vehicle
CA2952484A1 (en) * 2015-12-23 2017-06-23 Wal-Mart Stores, Inc. Apparatus and method for monitoring premises
US10853756B2 (en) * 2016-03-02 2020-12-01 International Business Machines Corporation Vehicle identification and interception
US10188580B2 (en) * 2016-05-09 2019-01-29 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for providing environment information using an unmanned vehicle
US10054445B2 (en) * 2016-05-16 2018-08-21 Northrop Grumman Systems Corporation Vision-aided aerial navigation
US11092446B2 (en) * 2016-06-14 2021-08-17 Motional Ad Llc Route planning for an autonomous vehicle
JP6713847B2 (ja) * 2016-06-14 2020-06-24 株式会社トプコン 測量システム
US10309792B2 (en) 2016-06-14 2019-06-04 nuTonomy Inc. Route planning for an autonomous vehicle
US11149717B2 (en) * 2016-06-30 2021-10-19 Skydio, Inc. Unmanned aerial vehicle wind turbine inspection systems and methods
US10165168B2 (en) * 2016-07-29 2018-12-25 Microsoft Technology Licensing, Llc Model-based classification of ambiguous depth image data
CN107223219B (zh) * 2016-09-26 2020-06-23 深圳市大疆创新科技有限公司 控制方法、控制设备和运载系统
US10377484B2 (en) 2016-09-30 2019-08-13 Sony Interactive Entertainment Inc. UAV positional anchors
US10336469B2 (en) 2016-09-30 2019-07-02 Sony Interactive Entertainment Inc. Unmanned aerial vehicle movement via environmental interactions
US10210905B2 (en) 2016-09-30 2019-02-19 Sony Interactive Entertainment Inc. Remote controlled object macro and autopilot system
JP6947962B2 (ja) * 2016-09-30 2021-10-13 キヤノンマーケティングジャパン株式会社 無人航空機制御システム、その制御方法、及びプログラム
US11125561B2 (en) 2016-09-30 2021-09-21 Sony Interactive Entertainment Inc. Steering assist
US10357709B2 (en) 2016-09-30 2019-07-23 Sony Interactive Entertainment Inc. Unmanned aerial vehicle movement via environmental airflow
US10679511B2 (en) 2016-09-30 2020-06-09 Sony Interactive Entertainment Inc. Collision detection and avoidance
US10850838B2 (en) 2016-09-30 2020-12-01 Sony Interactive Entertainment Inc. UAV battery form factor and insertion/ejection methodologies
US10410320B2 (en) 2016-09-30 2019-09-10 Sony Interactive Entertainment Inc. Course profiling and sharing
JP6899500B2 (ja) * 2016-10-17 2021-07-07 イームズロボティクス株式会社 移動体捕獲装置、移動体捕獲方法及びプログラム
US10803757B2 (en) 2016-10-23 2020-10-13 Gopro, Inc. Navigation through polygonal no fly zones
DE102016120196A1 (de) * 2016-10-24 2018-04-26 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zum automatischen Ermitteln von positions- und/oder bewegungsbezogenen Zustandsinformationen eines Fahrzeuges
US10901420B2 (en) 2016-11-04 2021-01-26 Intel Corporation Unmanned aerial vehicle-based systems and methods for agricultural landscape modeling
US9734397B1 (en) 2016-11-04 2017-08-15 Loveland Innovations, LLC Systems and methods for autonomous imaging and structural analysis
US10521664B2 (en) 2016-11-04 2019-12-31 Loveland Innovations, LLC Systems and methods for autonomous perpendicular imaging of test squares
US9823658B1 (en) 2016-11-04 2017-11-21 Loveland Innovations, LLC Systems and methods for adaptive property analysis via autonomous vehicles
US9886632B1 (en) 2016-11-04 2018-02-06 Loveland Innovations, LLC Systems and methods for autonomous perpendicular imaging of test squares
US10568063B2 (en) * 2016-11-30 2020-02-18 Cisco Technology, Inc. Precise UAV tracking in 3-D space
CN109997091B (zh) * 2016-12-01 2022-08-09 深圳市大疆创新科技有限公司 用于管理3d飞行路径的方法和相关系统
JP6817806B2 (ja) * 2016-12-21 2021-01-20 株式会社トプコン 演算装置、演算方法、演算システムおよびプログラム
US11049374B2 (en) * 2016-12-22 2021-06-29 Nec Corporation Tracking support apparatus, terminal, tracking support system, tracking support method and program
JP6826888B2 (ja) * 2017-01-11 2021-02-10 株式会社トプコン 測量装置、無人航空機の探索方法、測量システムおよびプログラム
US11017679B2 (en) * 2017-01-13 2021-05-25 Skydio, Inc. Unmanned aerial vehicle visual point cloud navigation
JP2020510903A (ja) 2017-02-02 2020-04-09 プレナヴ インコーポレイテッド 環境のデジタルキャプチャのための画像収集の追跡、並びに関連のシステム及び方法
US9805261B1 (en) 2017-02-27 2017-10-31 Loveland Innovations, LLC Systems and methods for surface and subsurface damage assessments, patch scans, and visualization
DE102017104490A1 (de) * 2017-03-03 2018-09-06 Innogy Se Inspektionsgerätsteuerungseinrichtung für ein Inspektionsgerät einer Windkraftanlage
US10329017B2 (en) 2017-03-13 2019-06-25 General Electric Company System and method for integrating flight path and site operating data
DE102017205647A1 (de) 2017-03-14 2018-09-20 Bitmanagement Software GmbH Verfahren zum bestimmen eines pfades entlang eines objekts, system und verfahren zum automatischen inspizieren eines objekts
KR101928454B1 (ko) * 2017-03-21 2018-12-12 주식회사 한 지아이에스 군집 비행용 무인비행선 및 이의 제어방법
KR101928451B1 (ko) * 2017-03-21 2018-12-12 주식회사 한 지아이에스 실내 검사용 무인비행선
WO2018196001A1 (en) * 2017-04-28 2018-11-01 SZ DJI Technology Co., Ltd. Sensing assembly for autonomous driving
US10012735B1 (en) 2017-05-04 2018-07-03 Loveland Innovations, LLC GPS offset calibrations for UAVs
US10984182B2 (en) 2017-05-12 2021-04-20 Loveland Innovations, LLC Systems and methods for context-rich annotation and report generation for UAV microscan data
US10459450B2 (en) 2017-05-12 2019-10-29 Autonomy Squared Llc Robot delivery system
CN107218926B (zh) * 2017-05-12 2020-04-03 西北工业大学 一种基于无人机平台的远程扫描的数据处理方法
US10445871B2 (en) * 2017-05-22 2019-10-15 General Electric Company Image analysis neural network systems
CA3066907A1 (en) * 2017-06-13 2018-12-20 PreNav, Inc. Active tethers for controlling uav flight volumes, and associated methods and systems
US10642264B2 (en) * 2017-07-19 2020-05-05 Superior Communications, Inc. Security drone system
US10545500B2 (en) 2017-08-02 2020-01-28 Wing Aviation Llc Model for determining drop-off spot at delivery location
CN109406353B (zh) * 2017-08-16 2024-04-09 深圳智人环保科技有限公司 一种无人机、空气污染监测系统及方法
US10338592B2 (en) * 2017-08-24 2019-07-02 Saudi Arabian Oil Company High accuracy remote coordinate machine
ES2778828T3 (es) * 2017-09-06 2020-08-12 Alerion Technologies Sl Procedimiento y dispositivo de navegación autónoma
US10679493B2 (en) * 2017-09-18 2020-06-09 International Business Machines Corporation Cognitive-based incident response
JP7086554B2 (ja) * 2017-09-29 2022-06-20 株式会社トプコン 無人航空機の制御方法および無人航空機の制御用プログラム
DK3694314T3 (da) * 2017-10-10 2022-03-14 Basf Se Fremgangsmåde til overvågning af mindst én akvakulturdam og overvågningssystem til akvakulturdamme
JP6889274B2 (ja) * 2017-10-17 2021-06-18 本田技研工業株式会社 走行モデル生成システム、走行モデル生成システムにおける車両、処理方法およびプログラム
US10802483B2 (en) * 2017-10-19 2020-10-13 International Business Machines Corporation Emergency public deactivation of autonomous vehicles
US10364027B2 (en) 2017-10-24 2019-07-30 Loveland Innovations, LLC Crisscross boustrophedonic flight patterns for UAV scanning and imaging
JP7077013B2 (ja) * 2017-12-27 2022-05-30 株式会社トプコン 三次元情報処理部、三次元情報処理部を備える装置、無人航空機、報知装置、三次元情報処理部を用いた移動体制御方法および移動体制御処理用プログラム
JP2019075075A (ja) * 2018-03-28 2019-05-16 株式会社自律制御システム研究所 無人航空機の飛行計画経路を設定するためのシステム及びプログラム
JP6452183B1 (ja) * 2018-03-30 2019-01-16 株式会社amuse oneself 釣り動画撮像システム
US10916150B2 (en) * 2018-05-03 2021-02-09 Arkidan Systems Inc. Computer-assisted aerial surveying and navigation
US11255975B2 (en) * 2018-06-05 2022-02-22 Pony Ai Inc. Systems and methods for implementing a tracking camera system onboard an autonomous vehicle
US10366287B1 (en) 2018-08-24 2019-07-30 Loveland Innovations, LLC Image analysis and estimation of rooftop solar exposure
US11205072B2 (en) 2018-08-24 2021-12-21 Loveland Innovations, LLC Solar ray mapping via divergent beam modeling
US11210514B2 (en) 2018-08-24 2021-12-28 Loveland Innovations, LLC Image analysis and estimation of rooftop solar exposure via solar ray mapping
KR102108170B1 (ko) * 2018-09-19 2020-05-08 인하대학교 산학협력단 골프 드론
JP2022502663A (ja) * 2018-10-02 2022-01-11 フォルテム テクノロジーズ,インコーポレイテッド ドローンおよび物体の分類のためのシステムおよび方法
US11585933B2 (en) * 2018-10-29 2023-02-21 Lawrence Livermore National Security, Llc System and method for adaptive object-oriented sensor fusion for environmental mapping
CN110770597A (zh) * 2018-11-21 2020-02-07 深圳市大疆创新科技有限公司 旋转微波雷达的地形预测方法、装置、系统和无人机
US11203445B2 (en) * 2018-12-11 2021-12-21 The Boeing Company Data- and model-driven inspection of autonomous aircraft using an unmanned aerial vehicle
IL263768A (en) * 2018-12-17 2020-06-30 Shilat Optronics Ltd A laser-guided attack drone for non-line-of-sight targets
CN109697428B (zh) * 2018-12-27 2020-07-07 江西理工大学 基于rgb_d和深度卷积网络的无人机识别定位系统
EP3881155A4 (en) 2018-12-31 2023-01-18 Tomahawk Robotics SPATIAL CONTROL INTENT RECOGNITION SYSTEMS AND METHODS
CN109885101B (zh) * 2019-01-04 2022-02-22 北京测威科技有限公司 一种利用无人飞行器模拟导弹末制导的方法及系统
CN109709986A (zh) * 2019-03-06 2019-05-03 华北电力大学(保定) 一种无人机控制系统及方法
US11560153B2 (en) 2019-03-07 2023-01-24 6 River Systems, Llc Systems and methods for collision avoidance by autonomous vehicles
US11314254B2 (en) * 2019-03-26 2022-04-26 Intel Corporation Methods and apparatus for dynamically routing robots based on exploratory on-board mapping
US11210957B2 (en) * 2019-05-13 2021-12-28 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for generating views of unmanned aerial vehicles
US11656337B2 (en) * 2019-07-11 2023-05-23 Toyota Motor Engineering & Manufacturing North America, Inc. Photonic apparatus integrating optical sensing and optical processing components
CN110599583B (zh) * 2019-07-26 2022-03-18 深圳眸瞳科技有限公司 无人机飞行轨迹生成方法、装置、计算机设备和存储介质
US11022972B2 (en) * 2019-07-31 2021-06-01 Bell Textron Inc. Navigation system with camera assist
US11958183B2 (en) 2019-09-19 2024-04-16 The Research Foundation For The State University Of New York Negotiation-based human-robot collaboration via augmented reality
CN111114774B (zh) * 2019-12-31 2021-10-22 浙江大学 一种基于电磁场提供动力的无旋翼飞碟及其飞行方法
US11573544B2 (en) 2020-02-13 2023-02-07 Skydio, Inc. Performing 3D reconstruction via an unmanned aerial vehicle
CN111369589B (zh) * 2020-02-26 2022-04-22 桂林电子科技大学 一种基于多策略融合的无人机跟踪方法
WO2022035417A1 (en) * 2020-08-10 2022-02-17 Google Llc Sensor based map generation and routing
CN112363526B (zh) * 2020-08-21 2021-10-01 云南电网有限责任公司昆明供电局 一种无人机巡检精细航线自动规划系统和方法
CN112212834A (zh) * 2020-09-25 2021-01-12 黄山联合应用技术研究院 一种空间全息信息采集系统与数据梳理方法
US11532116B2 (en) 2020-10-30 2022-12-20 Loveland Innovations, Inc. Graphical user interface for controlling a solar ray mapping
LU102190B1 (de) * 2020-11-11 2022-05-11 Aero Entpr Gmbh Vorrichtung und Verfahren zur Inspektion von Energieerzeugungsstrukturen
EP4009272A1 (en) * 2020-12-03 2022-06-08 Ventus Engineering GmbH Unmanned airborne visual diagnosis of an operating wind turbine generator
CN113238571A (zh) * 2021-05-27 2021-08-10 北京三快在线科技有限公司 一种无人机监控系统、方法、装置及存储介质
US20220404505A1 (en) * 2021-06-22 2022-12-22 3Deo, Inc. System and method for an airborne mapping lidar
DE102021123124A1 (de) * 2021-09-07 2023-03-09 Spleenlab GmbH Verfahren zum Steuern eines unbemannten Fluggeräts für einen Inspektionsflug zum Inspizieren eines Objekts und unbemanntes Inspektionsfluggerät
JP2023050516A (ja) * 2021-09-30 2023-04-11 株式会社トプコン 打音検査システム
CN114202981B (zh) * 2021-12-10 2023-06-16 新疆工程学院 一种用于摄影测量实验的仿真平台
KR102650795B1 (ko) * 2021-12-28 2024-03-26 양찬열 공간 연출 기능이 구비된 다수의 비행 오브젝트 및 자율 비행 제어 시스템
CN114518107B (zh) * 2022-02-16 2023-05-23 中国地质大学(北京) 一种基于无人机遥控震源的无线同步控制系统
KR102629079B1 (ko) * 2023-10-25 2024-01-26 고려공업검사 주식회사 드론을 이용한 풍력발전기에 설치된 블레이드의 방사선투과검사 시스템

Family Cites Families (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5243370A (en) 1988-08-30 1993-09-07 Dan Slater Camera stabilizer
DE3930862A1 (de) * 1989-09-15 1991-03-28 Vdo Schindling Verfahren und einrichtung zur darstellung von flugfuehrungsinformation
GB9515311D0 (en) 1995-07-26 1995-09-20 3D Scanners Ltd Stripe scanners and methods of scanning
FR2807603B1 (fr) 2000-04-05 2002-10-11 Freyssinet Int Stup Procede et systeme pour effectuer des releves de caracteristiques visibles sur des parois
DE10026469C1 (de) 2000-05-27 2002-01-10 Eurocopter Deutschland Verfahren zur Ausbringung eines Fallschirms an einer Drohne
US6804607B1 (en) * 2001-04-17 2004-10-12 Derek Wood Collision avoidance system and method utilizing variable surveillance envelope
US7398481B2 (en) 2002-12-10 2008-07-08 Science Applications International Corporation (Saic) Virtual environment capture
US7064810B2 (en) * 2003-09-15 2006-06-20 Deere & Company Optical range finder with directed attention
WO2007030026A1 (en) 2005-09-09 2007-03-15 Industrial Research Limited A 3d scene scanner and a position and orientation system
CN101416027B (zh) * 2006-04-26 2011-07-20 株式会社村田制作所 振动陀螺仪
JP5073256B2 (ja) * 2006-09-22 2012-11-14 株式会社トプコン 位置測定装置及び位置測定方法及び位置測定プログラム
US7970532B2 (en) * 2007-05-24 2011-06-28 Honeywell International Inc. Flight path planning to reduce detection of an unmanned aerial vehicle
JP2008304260A (ja) * 2007-06-06 2008-12-18 Mitsubishi Electric Corp 画像処理装置
US8019447B2 (en) 2007-09-14 2011-09-13 The Boeing Company Method and system to control operation of a device using an integrated simulation with a time shift option
US8081108B2 (en) 2008-01-07 2011-12-20 Trimble Navigation Limited Autonomous projection of global navigation satellite orbits
US8060270B2 (en) * 2008-02-29 2011-11-15 The Boeing Company System and method for inspection of structures and objects by swarm of remote unmanned vehicles
US20100286859A1 (en) 2008-11-18 2010-11-11 Honeywell International Inc. Methods for generating a flight plan for an unmanned aerial vehicle based on a predicted camera path
AU2009327362A1 (en) 2008-12-19 2011-08-04 Xollai, Llc System and method for determining an orientation and position of an object
US8120754B2 (en) 2009-02-19 2012-02-21 Northrop Grumman Systems Corporation Light detection and ranging apparatus
US8380367B2 (en) 2009-03-26 2013-02-19 The University Of North Dakota Adaptive surveillance and guidance system for vehicle collision avoidance and interception
GB0920636D0 (en) * 2009-11-25 2010-01-13 Cyberhawk Innovations Ltd Unmanned aerial vehicle
US8340438B2 (en) * 2009-12-17 2012-12-25 Deere & Company Automated tagging for landmark identification
WO2011127375A1 (en) 2010-04-09 2011-10-13 Pochiraju Kishore V Adaptive mechanism control and scanner positioning for improved three-dimensional laser scanning
GB2501390B (en) 2010-09-08 2014-08-06 Faro Tech Inc A laser scanner or laser tracker having a projector
WO2012044297A1 (en) 2010-09-30 2012-04-05 Empire Technology Development Llc Automatic flight control for uav based solid modeling
EP2627969A1 (en) 2010-10-12 2013-08-21 Stephen James Crampton Hover cmm
US20120136630A1 (en) 2011-02-04 2012-05-31 General Electric Company Method and system for wind turbine inspection
EP2511659A1 (de) 2011-04-14 2012-10-17 Hexagon Technology Center GmbH Geodätisches Markierungssystem zur Markierung von Zielpunkten
EP2511658A1 (de) 2011-04-14 2012-10-17 Hexagon Technology Center GmbH Vermessungssystem und Verfahren zur Neupunktbestimmung
EP2511781A1 (de) 2011-04-14 2012-10-17 Hexagon Technology Center GmbH System und Verfahren zur Steuerung eines unbemannten Fluggeräts
EP2511656A1 (de) * 2011-04-14 2012-10-17 Hexagon Technology Center GmbH Vermessungssystem zur Bestimmung von 3D-Koordinaten einer Objektoberfläche
US20130024411A1 (en) 2011-07-18 2013-01-24 Dongming Michael Cai Discovery of Vegetation over the Earth (DOVE)
US20140183300A1 (en) 2011-07-20 2014-07-03 L-3 Communications Corporation Tethered payload system and method
US20130135479A1 (en) 2011-11-29 2013-05-30 Samsung Electronics Co., Ltd. Method and Apparatus for Real Time Virtual Tour Automatic Creation
US20130233964A1 (en) 2012-03-07 2013-09-12 Aurora Flight Sciences Corporation Tethered aerial system for data gathering
US9609284B2 (en) 2012-05-22 2017-03-28 Otoy, Inc. Portable mobile light stage
JP5926632B2 (ja) * 2012-06-28 2016-05-25 株式会社ディスコ 半導体チップの樹脂封止方法
US9413456B2 (en) 2012-07-20 2016-08-09 The Boeing Company Non-linear optical receiver
US9354606B1 (en) 2012-07-31 2016-05-31 Integrity Applications Incorporated Systems and methodologies related to generating projectable data for 3-D viewing
US9346556B2 (en) * 2012-07-31 2016-05-24 General Electric Company Method and apparatus for providing in-flight weather data
US9146941B2 (en) * 2012-08-03 2015-09-29 Adobe Systems Incorporated Image tag pair graph for image annotation
US9383753B1 (en) * 2012-09-26 2016-07-05 Google Inc. Wide-view LIDAR with areas of special attention
CA2888144C (en) 2012-10-19 2021-06-01 Aeryon Labs Inc. Hovering unmanned aerial vehicle
US8798922B2 (en) 2012-11-16 2014-08-05 The Boeing Company Determination of flight path for unmanned aircraft in event of in-flight contingency
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
JP6367522B2 (ja) 2013-02-28 2018-08-01 株式会社トプコン 航空写真システム
US8886459B2 (en) * 2013-03-11 2014-11-11 Arinc Incorporated Systems and methods for small unmanned aircraft systems (sUAS) tactical tracking and mission data acquisition
US9075415B2 (en) * 2013-03-11 2015-07-07 Airphrame, Inc. Unmanned aerial vehicle and methods for controlling same
US9274521B1 (en) 2015-02-02 2016-03-01 Rockwell Collins, Inc. Employing local, opportunistic automatic dependent surveillance-broadcast (ADS-B) information processed by an unmanned aerial vehicle ground control station to augment other source “knowledge” of local aircraft position information for improving situational awareness
JP5882951B2 (ja) * 2013-06-14 2016-03-09 株式会社トプコン 飛行体誘導システム及び飛行体誘導方法
US10254395B2 (en) * 2013-12-04 2019-04-09 Trimble Inc. System and methods for scanning with integrated radar detection and image capture
US9664784B2 (en) * 2013-12-04 2017-05-30 Trimble Inc. System and methods for data point detection and spatial modeling
WO2015106799A1 (en) 2014-01-14 2015-07-23 Sandvik Mining And Construction Oy Mine vehicle, mine control system and mapping method
CN106061838A (zh) 2014-01-20 2016-10-26 罗博杜伯公司 具有可变飞行特性的多旋翼直升机
KR101483057B1 (ko) 2014-01-21 2015-01-15 엘아이지넥스원 주식회사 무인항공기 충돌방지를 위한 지상통제 방법
JP6326237B2 (ja) * 2014-01-31 2018-05-16 株式会社トプコン 測定システム
CN103941748B (zh) 2014-04-29 2016-05-25 百度在线网络技术(北京)有限公司 自主导航方法及系统和地图建模方法及系统
US9262929B1 (en) 2014-05-10 2016-02-16 Google Inc. Ground-sensitive trajectory generation for UAVs
US9678506B2 (en) * 2014-06-19 2017-06-13 Skydio, Inc. Magic wand interface and other user interaction paradigms for a flying digital assistant
US9174733B1 (en) 2014-08-28 2015-11-03 Google Inc. Payload-release device and operation thereof
WO2016033797A1 (en) * 2014-09-05 2016-03-10 SZ DJI Technology Co., Ltd. Multi-sensor environmental mapping
DE102014013678B3 (de) 2014-09-10 2015-12-03 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten
CN112859899A (zh) 2014-10-31 2021-05-28 深圳市大疆创新科技有限公司 用于利用视觉标记进行监视的系统和方法
US9954992B2 (en) 2014-11-27 2018-04-24 Purdue Research Foundation Mobile device enabled robotic system
US9896202B2 (en) 2014-12-03 2018-02-20 X Development Llc Systems and methods for reliable relative navigation and autonomous following between unmanned aerial vehicle and a target object
US9685089B2 (en) * 2014-12-12 2017-06-20 Amazon Technologies, Inc. Commercial and general aircraft avoidance using acoustic pattern recognition
US9997079B2 (en) 2014-12-12 2018-06-12 Amazon Technologies, Inc. Commercial and general aircraft avoidance using multi-spectral wave detection
WO2016115155A1 (en) 2015-01-12 2016-07-21 Ryan Mark A Tethered flight control system for small unmanned aircraft
EP3062066A1 (en) 2015-02-26 2016-08-31 Hexagon Technology Center GmbH Determination of object data by template-based UAV control
GB2535768B (en) 2015-02-27 2018-08-29 3D Laser Mapping Ltd Monitoring an environment
WO2016140985A1 (en) 2015-03-02 2016-09-09 Izak Van Cruyningen Flight planning for unmanned aerial tower inspection
CA2977945A1 (en) 2015-03-03 2016-09-09 Prenav Inc. Scanning environments and tracking unmanned aerial vehicles
EP4198626A1 (en) 2015-05-27 2023-06-21 GoPro, Inc. Camera system using stabilizing gimbal
US20160349746A1 (en) 2015-05-29 2016-12-01 Faro Technologies, Inc. Unmanned aerial vehicle having a projector and being tracked by a laser tracker
JP6614556B2 (ja) 2015-06-01 2019-12-04 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド 無人航空機
US20170158320A1 (en) 2015-09-20 2017-06-08 Daniel Bosch Unmanned aerial system
WO2017074754A1 (en) 2015-10-27 2017-05-04 Wal-Mart Stores, Inc. Method and apparatus for an airborne drone training track
JP6691721B2 (ja) 2016-02-15 2020-05-13 株式会社トプコン 飛行計画作成方法及び飛行体誘導システム
US10289990B2 (en) 2016-10-17 2019-05-14 Conduent Business Services, Llc Store shelf imaging system and method

Also Published As

Publication number Publication date
JP2018512687A (ja) 2018-05-17
US10162353B2 (en) 2018-12-25
WO2016141100A2 (en) 2016-09-09
US10671066B2 (en) 2020-06-02
EP3265885A2 (en) 2018-01-10
EP3265885A4 (en) 2018-08-29
US20160292869A1 (en) 2016-10-06
US20160291593A1 (en) 2016-10-06
CA2977945A1 (en) 2016-09-09
US20210064024A1 (en) 2021-03-04
WO2016141100A3 (en) 2016-10-06
US20160292872A1 (en) 2016-10-06
US10416668B2 (en) 2019-09-17

Similar Documents

Publication Publication Date Title
JP6843773B2 (ja) 環境の走査及び無人航空機の追跡
US11794890B2 (en) Unmanned aerial vehicle inspection system
US20230213931A1 (en) Unmanned Aerial Vehicle Inspection System
US11327149B2 (en) Laser speckle system and method for an aircraft
EP3506042B1 (en) Three-dimensional information processing unit, apparatus having three-dimensional information processing unit, unmanned aerial vehicle, informing device, method and program for controlling mobile body using three-dimensional information processing unit
US8996207B2 (en) Systems and methods for autonomous landing using a three dimensional evidence grid
US9513635B1 (en) Unmanned aerial vehicle inspection system
JP3345113B2 (ja) 目標物認識方法及び標的同定方法
US8554395B2 (en) Method and system for facilitating autonomous landing of aerial vehicles on a surface
CN104854428A (zh) 传感器融合
JP6527726B2 (ja) 自律移動ロボット
JP7011908B2 (ja) 光学情報処理装置、光学情報処理方法および光学情報処理用プログラム
JP7141538B2 (ja) 森林計測を行う方法、森林計測システム、無人航空機の飛行経路を決定する方法、撮影方法、散布方法およびコンピュータプログラム
Kanellakis et al. Towards visual inspection of wind turbines: A case of visual data acquisition using autonomous aerial robots
WO2008061307A1 (en) A method of determining characteristics of a remote surface with application to the landing of an aerial vehicle
US20220099442A1 (en) Surveying System
JP2019039867A (ja) 位置測定装置、位置測定方法および位置測定用プログラム
CN112146627A (zh) 在无特征表面上使用投影图案的飞行器成像系统
EP3761136B1 (en) Control device, mobile body, and program
JP7254934B2 (ja) 森林計測を行う方法、森林計測システムおよびコンピュータプログラム
Blasch Flexible vision-based navigation system for unmanned aerial vehicles
US20240129616A1 (en) Reality capture using cloud based computer networks
US20230142394A1 (en) Contour scanning with an unmanned aerial vehicle
JP2024012827A (ja) 無人航空機対処システム及び映像追尾装置
CN116627155A (zh) 一种用于温室大棚的多旋翼无人机避障系统和方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200406

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200624

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210224

R150 Certificate of patent or registration of utility model

Ref document number: 6843773

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150