JP2019061659A - 自動検出及び回避システム - Google Patents
自動検出及び回避システム Download PDFInfo
- Publication number
- JP2019061659A JP2019061659A JP2018147094A JP2018147094A JP2019061659A JP 2019061659 A JP2019061659 A JP 2019061659A JP 2018147094 A JP2018147094 A JP 2018147094A JP 2018147094 A JP2018147094 A JP 2018147094A JP 2019061659 A JP2019061659 A JP 2019061659A
- Authority
- JP
- Japan
- Prior art keywords
- objects
- image
- detection
- vehicle
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 115
- 230000005855 radiation Effects 0.000 claims abstract description 76
- 238000012545 processing Methods 0.000 claims abstract description 51
- 238000003384 imaging method Methods 0.000 claims abstract description 27
- 238000000034 method Methods 0.000 claims description 60
- 230000007246 mechanism Effects 0.000 claims description 22
- 230000011218 segmentation Effects 0.000 claims description 16
- 238000001914 filtration Methods 0.000 claims description 12
- 238000002372 labelling Methods 0.000 claims description 11
- 230000007717 exclusion Effects 0.000 claims description 8
- 230000008569 process Effects 0.000 description 16
- 238000013528 artificial neural network Methods 0.000 description 14
- 238000010801 machine learning Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 9
- 239000002131 composite material Substances 0.000 description 8
- 239000004904 UV filter Substances 0.000 description 5
- WBWWGRHZICKQGZ-HZAMXZRMSA-M taurocholate Chemical compound C([C@H]1C[C@H]2O)[C@H](O)CC[C@]1(C)[C@@H]1[C@@H]2[C@@H]2CC[C@H]([C@@H](CCC(=O)NCCS([O-])(=O)=O)C)[C@@]2(C)[C@@H](O)C1 WBWWGRHZICKQGZ-HZAMXZRMSA-M 0.000 description 4
- 238000004891 communication Methods 0.000 description 2
- 230000001747 exhibiting effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- IJRLLVFQGCCPPI-NVGRTJHCSA-L 2-[4-[2-[[(2R)-1-[[(4R,7S,10S,13R,16S,19R)-10-(4-aminobutyl)-4-[[(1S,2R)-1-carboxy-2-hydroxypropyl]carbamoyl]-7-[(1R)-1-hydroxyethyl]-16-[(4-hydroxyphenyl)methyl]-13-(1H-indol-3-ylmethyl)-6,9,12,15,18-pentaoxo-1,2-dithia-5,8,11,14,17-pentazacycloicos-19-yl]amino]-1-oxo-3-phenylpropan-2-yl]amino]-2-oxoethyl]-10-(carboxylatomethyl)-7-(carboxymethyl)-1,4,7,10-tetrazacyclododec-1-yl]acetate copper-64(2+) Chemical compound [64Cu++].C[C@@H](O)[C@H](NC(=O)[C@@H]1CSSC[C@H](NC(=O)[C@@H](Cc2ccccc2)NC(=O)CN2CCN(CC(O)=O)CCN(CC([O-])=O)CCN(CC([O-])=O)CC2)C(=O)N[C@@H](Cc2ccc(O)cc2)C(=O)N[C@H](Cc2c[nH]c3ccccc23)C(=O)N[C@@H](CCCCN)C(=O)N[C@@H]([C@@H](C)O)C(=O)N1)C(O)=O IJRLLVFQGCCPPI-NVGRTJHCSA-L 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 230000003628 erosive effect Effects 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S11/00—Systems for determining distance or velocity not using reflection or reradiation
- G01S11/12—Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/04—Anti-collision systems
- G08G5/045—Navigation or guidance aids, e.g. determination of anti-collision manoeuvers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/143—Sensing or illuminating at different wavelengths
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/803—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/17—Terrestrial scenes taken from planes or by drones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/0004—Transmission of traffic-related information to or from an aircraft
- G08G5/0013—Transmission of traffic-related information to or from an aircraft with a ground station
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/0017—Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information
- G08G5/0021—Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information located in the aircraft
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/0047—Navigation or guidance aids for a single aircraft
- G08G5/0069—Navigation or guidance aids for a single aircraft specially adapted for an unmanned aircraft
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/10—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Aviation & Aerospace Engineering (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Radar, Positioning & Navigation (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Astronomy & Astrophysics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Electromagnetism (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Vascular Medicine (AREA)
Abstract
Description
本発明は、無人航空機(UAV)のようなビークルのための、衝突の危険を呈している閾値オブジェクトをマスクするために閾値(第1の)画像を用いて衝突の危険のあるオブジェクトを検出する検出及び回避システムを提供する。閾値オブジェクトを検出すると、検出及び回避システムは、ビークルのオートパイロット制御システムといったパイロット制御システムに、検出されたオブジェクトに基づいて決定された衝突危険情報に従って回避操作を実施するよう通知する。
条項1. ビークルによる検出及び回避システムであって:第1のカメラチャネルにおいて視野の第1の画像を取得するように構成された撮像ユニットであって、第1のカメラチャネルは、視野内の一又は複数のオブジェクトが放射線を放出しない波長の放射線をフィルタリングする、撮像ユニット;撮像ユニットから第1の画像を受け取ってその中の一又は複数のオブジェクトを検出するように構成された処理ユニット;及び検出された一又は複数のオブジェクトに基づいて決定された衝突危険情報をビークルのパイロット制御システムに伝達するように構成された通知ユニットを備える検出及び回避システム。
条項2. 前記波長が紫外域内にあり、第1のカメラチャネルが、紫外域内にバンドパス波長域を有するフィルタの使用により放射線をフィルタリングする、条項1の検出及び回避システム。
条項3. 第1の画像を処理することが地平線検出を含む、条項1の検出及び回避システム。
条項4. 地平線検出が、地平線領域の端から延びる地上オブジェクトを含むように隣接ピクセルを加えることにより、地平線領域を拡張することを含む、条項3の検出及び回避システム。
条項5. 一又は複数のオブジェクトが、接続コンポーネントラベリング(CCL)の使用により検出される、条項1の検出及び回避システム。
条項6. 第1の画像を処理することが、一の基準により、検出された一又は複数のオブジェクトからの、衝突の危険がなさそうなオブジェクトの除外を選択することを含む、条項1の検出及び回避システム。
条項7. 検出された一又は複数のオブジェクトに基づいて衝突危険情報を決定するように構成された分析ユニットを更に備える、条項1の検出及び回避システム。
条項8. 分析ユニットが、認識時に一又は複数のオブジェクトを分類する学習機構を含む、条項7の検出及び回避システム。
条項9. 撮像ユニットが更に、前記波長の放射線をフィルタリングしない第2のカメラチャネルにおいて実質的に同じ視野の第2の画像を取得するように構成されており、処理ユニットが更に、第1の画像内において、一又は複数のオブジェクトに対応する一又は複数の第1の領域を識別し、第2の画像内において、一又は複数の第1の領域に対応する一又は複数の第2の領域を識別するように構成されており;且つ検出及び回避システムが、一又は複数の第1及び第2の領域に基づいて衝突危険情報を決定するように構成された分析ユニットを更に備える、条項1の検出及び回避システム。
条項10. 第2の画像がカラー画像である、条項9の検出及び回避システム。
条項11. 分析ユニットが、認識時にオブジェクトを分類する学習機構を含む、条項9の検出及び回避システム。
条項12. 分析ユニットが、認識時に一又は複数のオブジェクトについて領域のセグメンテーションを生成する、条項9の検出及び回避システム。
条項13. 通知ユニットが、パイロット制御システムに、検出された一又は複数のオブジェクトを回避する操作を実施することを通知する、条項1の検出及び回避システム。
条項14. ビークルが無人ビークルである、条項1の検出及び回避システム。
条項15. ビークルが無人航空機である、条項1の検出及び回避システム。
条項16. ビークルによる検出及び回避方法であって:視野内の一又は複数のオブジェクトが放射線を放出しない波長の放射線をフィルタリングする第1のカメラチャネルにおいて、視野の第1の画像を取得すること;一又は複数のオブジェクトを検出するために第1の画像を処理すること;及び検出された一又は複数のオブジェクトに基づいて決定された衝突危険情報をビークルのパイロット制御システムに伝達することを含む方法。
条項17. 前記波長が紫外域内にあり、第1のカメラチャネルが、紫外域内にバンドパス波長域を有するフィルタの使用により放射線をフィルタリングする、条項16の方法。
条項18. 第1の画像を処理することが地平線検出を含む、条項16の方法。
条項19. 地平線検出が、地平線領域の端から延びる地上オブジェクトを含むように隣接ピクセルを加えることにより、地平線領域を拡張することを含む、条項18の方法。
条項20. 一又は複数のオブジェクトが、接続コンポーネントラベリング(CCL)の使用により検出される、条項16の方法。
条項21. 第1の画像を処理することが、一の基準により、検出された一又は複数のオブジェクトからの、衝突の危険がなさそうなオブジェクトの除外を選択することを更に含む、条項16の方法。
条項22. 衝突危険情報を決定するために、検出された一又は複数のオブジェクトを分析ユニットに伝達することを更に含む、条項16の方法。
条項23. 分析ユニットが、認識時に一又は複数のオブジェクトを分類する学習機構を含む、条項22の方法。
条項24. 前記波長の放射線をフィルタリングしない第2のカメラチャネルにおいて実質的に同じ視野の第2の画像を取得すること;第1の画像内において、一又は複数のオブジェクトに対応する一又は複数の第1の領域を識別すること;第2の画像内において、一又は複数の第1の領域に対応する一又は複数の第2の領域を識別すること;及び衝突危険情報を決定するために、一又は複数の第1及び第2の領域を分析ユニットに伝達することを更に含む、条項16の方法。
条項25. 第2の画像がカラー画像であること;分析ユニットが、認識時にオブジェクトを分類する学習機構を含むこと;及び分析ユニットが、認識時に一又は複数のオブジェクトについて領域のセグメンテーションを生成することのうちの少なくとも一つに当てはまる、条項24の方法。
条項26. 検出された一又は複数のオブジェクトを回避するための操作を実施することを更に含む、条項16の方法。
条項27. ビークルが無人陸用ビークルであること;及びビークルが無人航空ビークルことのうちの少なくとも一つに当てはまる、条項16の方法。
条項28. パイロット制御システムと、第1のカメラチャネルにおいて視野の第1の画像を取得するように構成された撮像ユニットであって、第1のカメラチャネルは、視野内の一又は複数のオブジェクトが放射線を放出しない波長の放射線をフィルタリングする、撮像ユニット;撮像ユニットから第1の画像を受け取ってその中の一又は複数のオブジェクトを検出するように構成された処理ユニット;及び検出された一又は複数のオブジェクトに基づいて決定された衝突危険情報をパイロット制御システムに伝達するように構成された通知ユニットを備える検出及び回避システムとを備える航空ビークル。
条項29. 前記波長が紫外域内にあり、第1のカメラチャネルが、紫外域内にバンドパス波長域を有するフィルタの使用により放射線をフィルタリングする、条項28の航空ビークル。
条項30. 第1の画像を処理することが地平線検出を含む、条項28の航空ビークル。
条項31. 第28の画像を処理することが、一の基準により、検出された一又は複数のオブジェクトからの、衝突の危険がなさそうなオブジェクトの除外を選択することを含む、条項28の航空ビークル。
条項32. 検出及び回避システムが、検出された一又は複数のオブジェクトに基づいて衝突危険情報を決定するように構成された分析ユニットを更に備える、条項28の航空ビークル。
条項33. 撮像ユニットが更に、前記波長における放射線をフィルタリングしない第2のカメラチャネルにおいて実質的に同じ視野の第2の画像を取得するように構成されており、処理ユニットが更に、第1の画像内において、一又は複数のオブジェクトに対応する一又は複数の第1の領域を識別し、第2の画像内において、一又は複数の第1の領域に対応する一又は複数の第2の領域を識別するように構成されており;且つ検出及び回避システムが、一又は複数の第1及び第2の領域に基づいて衝突危険情報を決定するように構成された分析ユニットを更に備える、条項28の航空ビークル。
条項34. 第2の画像がカラー画像であること;分析ユニットが、認識時にオブジェクトを分類する学習機構を含むこと;分析ユニットが、認識時に一又は複数のオブジェクトについて領域のセグメンテーションを生成すること;パイロット制御システムが、検出された一又は複数のオブジェクトを回避するようにビークルを操作すること;及び航空ビークルが無人であることのうちの少なくとも一つに当てはまる、条項33の航空ビークル。
条項35. コンピュータによって実行されるよう構成された一又は複数のプログラムを有する非一過性のコンピュータ可読記憶媒体であって、一又は複数のプログラムが:視野内の一又は複数のオブジェクトが放射線を放出しない波長の放射線をフィルタンリングする第1のカメラチャネルにおいて、視野の第1の画像を取得するため;一又は複数のオブジェクトを検出するために第1の画像を処理するため;及び識別された一又は複数のオブジェクトに基づいて決定された衝突危険情報をビークルのパイロット制御システムに伝達するための命令を含む、非一過性のコンピュータ可読記憶媒体。
条項36. 前記波長が紫外域にあり、第1のカメラチャネルが、紫外域内にバンドパス波長域を有するフィルタの使用により放射線をフィルタリングする、条項35の非一過性のコンピュータ可読記憶媒体。
条項37. 命令が、衝突危険情報を決定するために、検出された一又は複数のオブジェクトを分析ユニットに伝達することを含む、条項35の非一過性のコンピュータ可読記憶媒体。
条項38. 分析ユニットが、認識時に一又は複数のオブジェクトを分類する学習機構を含む、条項37の非一過性のコンピュータ可読記憶媒体。
条項39. 命令が、前記波長の放射線をフィルタリングしない第2のカメラチャネルにおいて実質的に同じ視野の第2の画像を取得すること;第1の画像内において、一又は複数のオブジェクトに対応する一又は複数の第1の領域を識別すること;第2の画像内において、一又は複数の第1の領域に対応する一又は複数の第2の領域を識別すること;及び衝突危険情報を決定するために、一又は複数の第1及び第2の領域を分析ユニットに伝達することを更に含む、条項35の非一過性のコンピュータ可読記憶媒体。
条項40. 第2の画像がカラー画像であること;分析ユニットが、認識時にオブジェクトを分類する学習機構を含むこと;分析ユニットが、認識時に一又は複数のオブジェクトについて領域のセグメンテーションを生成すること;及びパイロット制御システムが、検出された一又は複数のオブジェクトを回避するようにビークルを操作することのうちの少なくとも一つに当てはまる、条項39の非一過性のコンピュータ可読記憶媒体。
Claims (15)
- ビークル(500)による検出及び回避システム(100)であって、
第1のカメラチャネル(112)において視野(506)の第1の画像(200)を取得するように構成された撮像ユニット(102)であって、前記第1のカメラチャネルが、前記視野内の一又は複数のオブジェクト(212、220)が放射線を放出しない波長の放射線をフィルタリングする、前記撮像ユニット(102)、
前記撮像ユニットから前記第1の画像を受け取ってその中の一又は複数のオブジェクトを検出するように構成された処理ユニット(104)、及び
検出された前記一又は複数のオブジェクト(220)に基づいて決定された衝突危険情報を前記ビークルのパイロット制御システム(150)に伝達するように構成された通知ユニット(108)
を備える、検出及び回避システム。 - 前記波長が紫外域内にあり、前記第1のカメラチャネルが、紫外域内にバンドパス波長域を有するフィルタ(112A)の使用により放射線をフィルタリングすること、
前記一又は複数のオブジェクトが、接続コンポーネントラベリング(CCL)(422)の使用により検出されること(124)、
前記第1の画像を処理することが、一の基準により、検出された前記一又は複数のオブジェクトからの、衝突の危険がなさそうなオブジェクトの除外を選択すること(126)を更に含むこと、
前記通知ユニットが、前記パイロット制御システムに、検出された前記一又は複数のオブジェクトを回避する操作を実施することを通知すること、
前記ビークルが無人ビークルであること、及び
前記ビークルが無人航空機であること
のうちの少なくとも一つに当てはまる、請求項1に記載の検出及び回避システム。 - 前記第1の画像を処理することが地平線検出(122)を含み、前記地平線検出は、地平線領域(214)の端(214A)から延びる地上オブジェクト(214B)を含むように隣接ピクセルを付加することにより、前記地平線領域を拡張することを含む、請求項1に記載の検出及び回避システム。
- 検出された前記一又は複数のオブジェクトに基づいて衝突危険情報を決定するように構成された分析ユニット(106)を更に備え、前記分析ユニットが、認識時に前記一又は複数のオブジェクトを分類する学習機構(142、144)を含む、請求項1に記載の検出及び回避システム。
- 前記撮像ユニットが更に、前記波長の放射線をフィルタリングしない第2のカメラチャネル(114)において実質的に同じ視野(506)の第2の画像(250)を取得するように構成されており、
前記処理ユニットが更に、前記第1の画像内において、前記一又は複数のオブジェクトに対応する一又は複数の第1の領域(222)を識別し、前記第2の画像内において、前記一又は複数の第1の領域に対応する一又は複数の第2の領域(252)を識別するように構成されており、
前記検出及び回避システムが、前記一又は複数の第1及び第2の領域に基づいて衝突危険情報を決定するように構成された分析ユニット(106)を更に備える、
請求項1に記載の検出及び回避システム。 - 前記第2の画像がカラー画像であること、
前記分析ユニットが認識時にオブジェクトを分類する学習機構(142、144)を含むこと、及び
前記分析ユニットが、認識時に前記一又は複数のオブジェクトについて領域のセグメンテーション(234)を生成すること
のうちの少なくとも一つに当てはまる、請求項5に記載の検出及び回避システム。 - ビークル(500)による検出及び回避の方法(400)であって、
第1のカメラチャネル(112)において視野(506)の第1の画像(200)を取得することであって、前記第1のカメラチャネルが、前記視野内の一又は複数のオブジェクト(212、220)が放射線を放出しない波長の放射線をフィルタリングする、前記第1の画像を取得すること(402)、
前記一又は複数のオブジェクトを検出するために、前記第1の画像を処理すること(404)、及び
検出された前記一又は複数のオブジェクト(202)に基づいて決定された衝突危険情報を前記ビークルのパイロット制御システム(150)に伝達すること
を含む方法。 - 前記波長が紫外域内にあり、前記第1のカメラチャネルが、紫外域内にバンドパス波長域を有するフィルタ(112A)の使用により放射線をフィルタリングすること、
前記一又は複数のオブジェクトが、接続コンポーネントラベリング(CCL)の使用により検出されること(422)、及び
前記第1の画像を処理することが、一の基準により、検出された前記一又は複数のオブジェクトからの、衝突の危険がなさそうなオブジェクトの除外を選択すること(424)を更に含むこと
のうちの少なくとも一つに当てはまる、請求項7に記載の方法。 - 前記第1の画像を処理することが地平線検出(420)を含み、前記地平線検出が、地平線領域(214)の端(214A)から延びる地上オブジェクト(214B)を含むように隣接ピクセルを付加することにより、前記地平線領域を拡張することを(426)含む、請求項7に記載の方法。
- 前記方法が、衝突危険情報を決定するために、検出された前記一又は複数のオブジェクトを分析ユニット(106)に伝達すること(406)を更に含み、前記分析ユニットが、認識時に一又は複数の前記オブジェクトを分類する学習機構を含む、請求項7に記載の方法。
- 前記波長の放射線をフィルタリングしない第2のカメラチャネル(114)において実質的に同じ視野(506)の第2の画像(250)を取得すること(412)、
前記第1の画像において、前記一又は複数のオブジェクトに対応する一又は複数の第1の領域(222)を識別すること(428)、
前記第2の画像において、前記一又は複数の第1の領域に対応する一又は複数の第2の領域(252)を識別すること(430)、及び
衝突危険情報を決定するために、前記一又は複数の第1の領域と前記一又は複数の第2の領域を分析ユニット(106)に伝達すること(432)
を更に含む、請求項7に記載の方法。 - 前記第2の画像がカラー画像であること、
前記分析ユニットが認識時にオブジェクトを分類する学習機構(142、144)を含むこと、及び
前記分析ユニットが、認識時に前記一又は複数のオブジェクトについて領域のセグメンテーション(234)を生成すること
のうちの少なくとも一つに当てはまる、請求項11に記載の方法。 - 前記方法が、検出された前記一又は複数のオブジェクトを回避する操作を実施すること(410)を更に含み、
前記ビークルが無人陸用ビークルであること、及び
前記ビークルが無人航空ビークルであること
のうちの少なくとも一つに当てはまる、請求項7に記載の方法。 - パイロット制御システム(504)と、
第1のカメラチャネル(112)において視野(506)の第1の画像(200)を取得するように構成された撮像ユニット(102)であって、前記第1のカメラチャネルが、前記視野内の一又は複数のオブジェクト(212、220)が放射線を放出しない波長の放射線をフィルタリングする、前記撮像ユニット(102)、
前記撮像ユニットから前記第1の画像を受け取ってその中の一又は複数のオブジェクトを検出するように構成された処理ユニット(104)、及び
検出された前記一又は複数のオブジェクト(220)に基づいて決定された衝突危険情報を前記パイロット制御システム(150)に伝達するように構成された通知ユニット(108)
を含む検出及び回避システム(100)と
を備える航空ビークル(500)。 - 前記波長が紫外域内にあり、前記第1のカメラチャネルが、紫外域内にバンドパス波長域を有するフィルタ(112A)の使用により放射線をフィルタリングすること、
前記第1の画像を処理することが、地平線検出(122)を含むこと、
前記第1の画像を処理することが、一の基準により、検出された前記一又は複数のオブジェクトからの、衝突の危険がなさそうなオブジェクトの除外を選択すること(126)を更に含むこと、及び
前記検出及び回避システムが、検出された前記一又は複数のオブジェクトに基づいて衝突危険情報を決定するように構成された分析ユニット(106)を更に備えること
のうちの少なくとも一つに当てはまる、請求項14に記載の航空ビークル。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/675,591 | 2017-08-11 | ||
US15/675,591 US10515559B2 (en) | 2017-08-11 | 2017-08-11 | Automated detection and avoidance system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019061659A true JP2019061659A (ja) | 2019-04-18 |
JP7236827B2 JP7236827B2 (ja) | 2023-03-10 |
Family
ID=62791641
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018147094A Active JP7236827B2 (ja) | 2017-08-11 | 2018-08-03 | 自動検出及び回避システム |
Country Status (6)
Country | Link |
---|---|
US (2) | US10515559B2 (ja) |
EP (1) | EP3444748B1 (ja) |
JP (1) | JP7236827B2 (ja) |
CN (1) | CN109387828B (ja) |
AU (1) | AU2018214066B2 (ja) |
CA (1) | CA3002083C (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2021192080A1 (ja) * | 2020-03-25 | 2021-09-30 |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10963133B2 (en) | 2014-01-07 | 2021-03-30 | Honeywell International Inc. | Enhanced awareness of obstacle proximity |
US10431105B2 (en) * | 2014-01-07 | 2019-10-01 | Honeywell International Inc. | Enhanced awareness of obstacle proximity |
CN113848971A (zh) * | 2017-07-10 | 2021-12-28 | 深圳市道通智能航空技术股份有限公司 | 飞行器的控制方法及装置、飞行器 |
US10399699B1 (en) * | 2017-07-10 | 2019-09-03 | Autel Robotics Co., Ltd. | Aircraft control method and apparatus and aircraft |
US11136138B2 (en) | 2017-07-10 | 2021-10-05 | Autel Robotics Co., Ltd. | Aircraft control method and apparatus and aircraft |
US10515559B2 (en) | 2017-08-11 | 2019-12-24 | The Boeing Company | Automated detection and avoidance system |
FR3094081B1 (fr) * | 2019-03-19 | 2021-02-26 | Safran | Procédé d’estimation passive du temps avant collision pour un aéronef ou de tout objet volant pouvant être guidé, procédé de navigation associé |
US11260852B2 (en) * | 2019-03-26 | 2022-03-01 | GM Global Technology Operations LLC | Collision behavior recognition and avoidance |
US11541882B2 (en) | 2019-09-24 | 2023-01-03 | Volvo Car Corporation | Low-impact collision detection |
EP3799008A1 (en) * | 2019-09-26 | 2021-03-31 | Volocopter GmbH | Method of generating datasets for use in the training and validation of object detection systems |
RU2755603C2 (ru) * | 2019-09-30 | 2021-09-17 | Акционерное общество "Лаборатория Касперского" | Система и способ обнаружения и противодействия беспилотным летательным аппаратам |
JP7259780B2 (ja) * | 2020-02-21 | 2023-04-18 | トヨタ自動車株式会社 | 運転支援システム |
US11935220B1 (en) * | 2023-08-14 | 2024-03-19 | Shiv S Naimpally | Using artificial intelligence (AI) to detect debris |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007052645A (ja) * | 2005-08-18 | 2007-03-01 | Fujitsu Ltd | 路面標示認識装置及びシステム |
JP2014116007A (ja) * | 2012-12-06 | 2014-06-26 | Toyota Motor Engineering & Manufacturing North America Inc | 物体検出パラメータ、物体認識パラメータ、又は、物体検出パラメータと物体認識パラメータの双方を調整するための方法及びロボット |
US20150302591A1 (en) * | 2014-04-16 | 2015-10-22 | Hyundai Motor Company | System for detecting obstacle using road surface model setting and method thereof |
JP2015533109A (ja) * | 2012-08-13 | 2015-11-19 | ザ・ボーイング・カンパニーTheBoeing Company | ビデオ画像を用いた衝突検出 |
US20170076438A1 (en) * | 2015-08-31 | 2017-03-16 | Cape Analytics, Inc. | Systems and methods for analyzing remote sensing imagery |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6252537B1 (en) * | 1980-01-21 | 2001-06-26 | Raytheon Company | Air-to-air guidance system and method of operating same |
AU2559399A (en) | 1998-01-16 | 1999-08-02 | Thresholds Unlimited, Inc. | Head up display and vision system |
JP2003015599A (ja) * | 1998-01-22 | 2003-01-17 | Matsushita Electric Ind Co Ltd | プラズマディスプレイパネルの駆動方法 |
EP1202241B1 (en) | 1998-09-04 | 2007-09-12 | Matsushita Electric Industrial Co., Ltd. | A plasma display panel driving method and plasma display panel apparatus capable of driving high-quality images with high luminous efficiency |
EP1202214A3 (en) * | 2000-10-31 | 2005-02-23 | Matsushita Electric Industrial Co., Ltd. | Method and apparatus for object recognition |
WO2006036398A2 (en) | 2004-08-23 | 2006-04-06 | Sarnoff Corporation | Method and apparatus for producing a fused image |
FR2875913A1 (fr) * | 2004-09-29 | 2006-03-31 | Sea On Line Sa | Systeme d'alerte anti-collision installe a bord d'un vehicule marin et procede d'analyse anti-collision |
US7876258B2 (en) * | 2006-03-13 | 2011-01-25 | The Boeing Company | Aircraft collision sense and avoidance system and method |
EP2159779B1 (en) * | 2008-08-27 | 2013-01-16 | Saab Ab | Using image sensor and tracking filter time-to-go to avoid mid-air collisions |
US8587770B1 (en) * | 2008-09-24 | 2013-11-19 | Jetprotect Corporation | Aircraft collision warning system |
US7889115B2 (en) * | 2009-01-30 | 2011-02-15 | The Boeing Company | System and method for tracking and identifying aircraft and ground equipment |
US9395264B2 (en) * | 2011-06-14 | 2016-07-19 | The Boeing Company | Blunt impact test apparatus and method |
WO2013029674A1 (en) * | 2011-08-31 | 2013-03-07 | Metaio Gmbh | Method of matching image features with reference features |
US9747802B2 (en) * | 2011-09-19 | 2017-08-29 | Innovative Wireless Technologies, Inc. | Collision avoidance system and method for an underground mine environment |
US9091762B2 (en) * | 2011-10-27 | 2015-07-28 | Gulfstream Aerospace Corporation | Methods and systems for avoiding a collision between an aircraft on a ground surface and an obstacle |
US8886372B2 (en) * | 2012-09-07 | 2014-11-11 | The Boeing Company | Flight deck touch-sensitive hardware controls |
WO2014100741A2 (en) * | 2012-12-21 | 2014-06-26 | Flir Systems, Inc. | Systems and methods of suppressing sky regions in images |
DE102013206915A1 (de) | 2013-04-17 | 2014-10-23 | Continental Teves Ag & Co. Ohg | Vorrichtung, System und Verfahren zur Identifizierung belebter Verkehrsobjekte sowie Verwendung des Systems |
CN106662636B (zh) * | 2014-07-08 | 2020-12-25 | 巴斯夫欧洲公司 | 用于确定至少一个对象的位置的检测器 |
EP3399381A1 (en) * | 2014-09-05 | 2018-11-07 | SZ DJI Technology Co., Ltd. | Context-based flight mode selection |
IL236114A (en) * | 2014-12-07 | 2016-04-21 | Yoav Grauer | Improved object recognition in the reimbursement-based imaging unit |
US20160282131A1 (en) * | 2015-03-23 | 2016-09-29 | Gulfstream Aerospace Corporation | X-band avian radar detection and warning system |
CN105371818A (zh) * | 2015-11-30 | 2016-03-02 | 湖北易瓦特科技股份有限公司 | 测距避障仪和无人机测距避障的方法 |
US20180091797A1 (en) * | 2016-09-27 | 2018-03-29 | The Boeing Company | Apparatus and method of compensating for relative motion of at least two aircraft-mounted cameras |
US11094208B2 (en) * | 2016-09-30 | 2021-08-17 | The Boeing Company | Stereo camera system for collision avoidance during aircraft surface operations |
US10453351B2 (en) * | 2017-07-17 | 2019-10-22 | Aurora Flight Sciences Corporation | System and method for detecting obstacles in aerial systems |
US10515559B2 (en) | 2017-08-11 | 2019-12-24 | The Boeing Company | Automated detection and avoidance system |
-
2017
- 2017-08-11 US US15/675,591 patent/US10515559B2/en active Active
-
2018
- 2018-04-17 CA CA3002083A patent/CA3002083C/en active Active
- 2018-05-29 CN CN201810529134.0A patent/CN109387828B/zh active Active
- 2018-06-26 EP EP18179931.3A patent/EP3444748B1/en active Active
- 2018-08-03 JP JP2018147094A patent/JP7236827B2/ja active Active
- 2018-08-09 AU AU2018214066A patent/AU2018214066B2/en active Active
-
2019
- 2019-12-19 US US16/721,690 patent/US11455898B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007052645A (ja) * | 2005-08-18 | 2007-03-01 | Fujitsu Ltd | 路面標示認識装置及びシステム |
JP2015533109A (ja) * | 2012-08-13 | 2015-11-19 | ザ・ボーイング・カンパニーTheBoeing Company | ビデオ画像を用いた衝突検出 |
JP2014116007A (ja) * | 2012-12-06 | 2014-06-26 | Toyota Motor Engineering & Manufacturing North America Inc | 物体検出パラメータ、物体認識パラメータ、又は、物体検出パラメータと物体認識パラメータの双方を調整するための方法及びロボット |
US20150302591A1 (en) * | 2014-04-16 | 2015-10-22 | Hyundai Motor Company | System for detecting obstacle using road surface model setting and method thereof |
US20170076438A1 (en) * | 2015-08-31 | 2017-03-16 | Cape Analytics, Inc. | Systems and methods for analyzing remote sensing imagery |
Non-Patent Citations (3)
Title |
---|
ADMIN: "Object Counting using Connected Component Labelling", [ONLINE], JPN7022003036, 18 June 2017 (2017-06-18), ISSN: 0004817098 * |
PRASAD S.HALGAONKAR: "Connected Component Analysis and Change Detection for Images", [ONLINE], JPN7022003037, 2011, ISSN: 0004817099 * |
環境省: "第1章 放射線の基礎知識 1.3 放射線", [ONLINE], JPN7022003035, 31 March 2013 (2013-03-31), ISSN: 0004817097 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2021192080A1 (ja) * | 2020-03-25 | 2021-09-30 | ||
WO2021192080A1 (ja) * | 2020-03-25 | 2021-09-30 | 日本電気株式会社 | 可視化制御装置、可視化システム、可視化制御方法およびプログラム記憶媒体 |
Also Published As
Publication number | Publication date |
---|---|
US10515559B2 (en) | 2019-12-24 |
US20190051191A1 (en) | 2019-02-14 |
US11455898B2 (en) | 2022-09-27 |
AU2018214066B2 (en) | 2023-08-31 |
CN109387828B (zh) | 2024-02-23 |
US20200135038A1 (en) | 2020-04-30 |
CN109387828A (zh) | 2019-02-26 |
EP3444748A3 (en) | 2019-07-17 |
CA3002083A1 (en) | 2019-02-11 |
JP7236827B2 (ja) | 2023-03-10 |
EP3444748A2 (en) | 2019-02-20 |
CA3002083C (en) | 2021-11-16 |
AU2018214066A1 (en) | 2019-02-28 |
EP3444748B1 (en) | 2022-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7236827B2 (ja) | 自動検出及び回避システム | |
CN108037770B (zh) | 基于人工智能的无人机输电线路巡检系统和方法 | |
Cheng et al. | Lane detection with moving vehicles in the traffic scenes | |
US10332409B2 (en) | Midair collision threat detection and assessment using visual information | |
Dey et al. | Passive, long-range detection of aircraft: Towards a field deployable sense and avoid system | |
WO2010129907A2 (en) | Method and system for visual collision detection and estimation | |
Carrio et al. | Obstacle detection system for small UAVs using ADS-B and thermal imaging | |
Kouris et al. | Informed region selection for efficient uav-based object detectors: Altitude-aware vehicle detection with cycar dataset | |
KR102514301B1 (ko) | 이종 센서 융합을 이용한 행동 분석 장치 | |
Mukadam et al. | Detection of landing areas for unmanned aerial vehicles | |
CN111898444A (zh) | 一种基于图像识别的飞机起落架状态判定方法 | |
AU2020102304A4 (en) | I-Drone: INTELLIGENT DRONE TO DETECT THE HUMAN AND PROVIDE HELP | |
Huang et al. | Image-based sense and avoid of small scale UAV using deep learning approach | |
Farhadmanesh et al. | Implementing Haar Cascade Classifiers for Automated Rapid Detection of Light Aircraft at Local Airports | |
Khan et al. | Translearn-yolox: Improved-yolo with transfer learning for fast and accurate multiclass uav detection | |
Martin et al. | A dataset of stationary, fixed-wing aircraft on a collision course for vision-based sense and avoid | |
Rajput et al. | Hazard detection on runways using image processing techniques | |
Dolph et al. | An Improved Far-Field Small Unmanned Aerial System Optical Detection Algorithm | |
Dumont et al. | AWARE: A video monitoring library applied to the air traffic control context | |
Naseri et al. | Detection of drones with YOLOv4 deep learning algorithm | |
Chakraborty et al. | A Machine Learning based approach to Detect Birds over and around the Runway before they Strike the Aircrafts | |
Vasilopoulos et al. | Autonomous Object Detection Using a UAV Platform in the Maritime Environment | |
Barresi et al. | Airport markings recognition for automatic taxiing | |
Dolph | Detection, Tracking, and Classification of Aircraft and Birds from Multirotor Small Unmanned Aircraft Systems | |
Driessen | Object tracking in a computer vision based autonomous see-and-avoid system for unmanned aerial vehicles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210730 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221005 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230131 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230228 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7236827 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |