JP2020522002A - 移動ターゲットを認識、追跡、および合焦するための方法及びシステム - Google Patents

移動ターゲットを認識、追跡、および合焦するための方法及びシステム Download PDF

Info

Publication number
JP2020522002A
JP2020522002A JP2019563569A JP2019563569A JP2020522002A JP 2020522002 A JP2020522002 A JP 2020522002A JP 2019563569 A JP2019563569 A JP 2019563569A JP 2019563569 A JP2019563569 A JP 2019563569A JP 2020522002 A JP2020522002 A JP 2020522002A
Authority
JP
Japan
Prior art keywords
target
moving target
distance
imaging device
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019563569A
Other languages
English (en)
Inventor
ミャオ、レイレイ
ウ、ディ
カオ、ジーシェン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Publication of JP2020522002A publication Critical patent/JP2020522002A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/66Sonar tracking systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/86Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/485Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an optical system or imaging system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • G01S15/08Systems for measuring distance only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Astronomy & Astrophysics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Optics & Photonics (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

移動ターゲットを認識、追跡、および合焦するためのシステムおよび方法が開示される。開示される実施形態によれば、システムおよび方法は、撮像デバイスに対して移動する移動ターゲットを認識すること、移動ターゲットを追跡すること、および撮像デバイスから移動ターゲットまでの距離を決定することができる。

Description

本特許文書の開示の一部は、著作権保護の対象となる資料が含まれている。著作権者は、特許商標庁の特許ファイルまたは記録に表示されているときに特許書類または特許開示を何人かが複製することに対しては異議を唱えないが、それ以外には全ての著作権を留保する。
本開示は、一般に撮像技術に関し、より詳細には、深層機械学習およびレーザレーダに基づくマルチターゲット追跡およびオートフォーカスのための方法およびシステムに関する。
無人航空機(「UAV」)(時として「ドローン」と呼ばれる)などの可動物体は、ユーザが遠隔操作することができる、および/または自動飛行用にプログラムすることができる様々なサイズおよび構成のパイロット不要の航空機を含む。UAVは、人が捕捉するのは困難な、固定の観点および/または移動する観点からの場面を捕捉するために撮像デバイスを備えることがある。さらに、UAVは、特定の期間にわたって、またはある位置から別の位置への移動時間にわたって撮像データを収集するように装備されることがある。これらの状況では、UAVは、光学または感知機器を使用して収集された情報に関連付けて制御されて、人、車両、移動物体、静止物体などのターゲット物体(「ターゲット」)を認識、追従(「追跡」)、および合焦して、高品質の所望の画像を実現することができる。
本明細書で開示される実施形態における深層機械学習およびレーザレーダに基づくマルチターゲット追跡および合焦のための方法およびシステムは、従来のシステムの欠点を克服する。
一態様では、本開示は、移動ターゲットを認識、追跡、および合焦するための方法に関する。この方法は、撮像デバイスに対して移動する移動ターゲットを認識するステップと、移動ターゲットを追跡するステップと、撮像デバイスから移動ターゲットまでの距離を決定するステップとを含む。
別の態様では、本開示は、移動ターゲットを認識、追跡、および合焦するためのシステムに関する。このシステムは、1つまたは複数のプロセッサを有する制御装置を含む。この制御装置は、撮像デバイスに対して移動する移動ターゲットを認識すること、移動ターゲットを追跡すること、および撮像デバイスから移動ターゲットまでの距離を決定することを行うように構成することができる。
さらに別の態様において、本開示は、無人航空機(UAV)システムに関する。UAVシステムは、複数のデバイスと通信する制御装置を含むことがある。この制御装置は、撮像デバイスに対して移動する移動ターゲットを認識すること、移動ターゲットを追跡すること、および撮像デバイスから移動ターゲットまでの距離を決定することを行うように構成することができる。
さらに別の態様では、本開示は、実行されるときに、移動ターゲットを認識、追跡、合焦する方法をコンピュータに実施させる命令を記憶する非一時的なコンピュータ可読媒体に関する。この方法は、撮像デバイスに対して移動する移動ターゲットを認識するステップと、移動ターゲットを追跡するステップと、撮像デバイスから移動ターゲットまでの距離を決定するステップとを含む。
本開示の実施形態による、支持機構および搭載物ならびに制御端末を有する例示的な可動物体の概略図である。 本開示による実施形態で使用され得る例示的な制御端末の概略図である。 本開示による実施形態で使用され得る例示的な制御端末の概略図である。 本開示の実施形態で使用されることがある例示的な制御装置の概略図である。 本開示の実施形態による、深層機械学習のニューラルネットワークによって複数のターゲットが認識される概略図である。 本開示の実施形態による、フレームレートを改良するための深層機械学習のニューラルネットワークによって複数のターゲットが認識される概略図である。 本開示の実施形態による例示的なターゲット追跡技法の概略図である。 本開示の実施形態による、ターゲットを使用して生成され得る例示的な像を示す概略図である。 本開示の実施形態による、ターゲットの移動後の図6Aのターゲットの例示的な像を示す概略図である。 本開示の実施形態による、ターゲットに関して決定され得る例示的な方向を示す概略図である。 本開示の実施形態による、図7Aのターゲットまでの距離の例示的な測定を示す概略図である。 本開示の実施形態による、移動ターゲットの認識、追跡、および合焦のために実施され得る例示的な方法の流れ図である。
以下の詳細な説明では添付図面を参照する。図面および以下の説明では、可能な限り、同一または同様の部分を表すために同一の参照番号が使用される。本明細書ではいくつかの例示的実施形態を述べるが、修正形態、適応形態、および他の実装形態も可能である。例えば、図面に示されている構成要素に置換、追加、または修正を施すことができる。本明細書で述べる例示的な方法は、開示する方法のステップに対して置換、並べ替え、除去、または追加を行うことによって修正することができる。したがって、以下の詳細な説明は、開示する実施形態および実施例に限定されない。そうではなく、適切な範囲は、添付の特許請求の範囲によって定義される。
移動物体/ターゲットを特定、追跡、および合焦するための従来の手法がある。例えば、カムシフトアルゴリズムは、赤外線撮像を使用してポートレイト認識および追跡を実現する。カムシフトアルゴリズムは、テンプレートマッチングに基づいてフォーカスウィンドウを選択し、移動物体を撮像するために赤外線を使用するときのオートフォーカスに関連する問題を解決することができる。カムシフトアルゴリズムは、単純な場合にはターゲットを追跡するのに適しているが、より複雑な状況では物体を追跡できない。隅、ライン、または縁など物体の自然な特徴部を検出することによって、物体の自動合焦(「オートフォーカス」)および追跡を実現することができる。さらに、Kanade−Lucas−Tomasiアルゴリズムに基づく特徴点マッチングを使用して、カメラ運動ベクトルを推定することができ、空間位置不変基準を使用して、マッチング点をチェックし、エラーマッチングされた点を効果的に削除することができる。これらの従来の手法は、移動物体を効果的に追跡することができるが、複雑なシーンでは、追跡精度は高くなく、計算プロセスがより複雑になる。さらに、オートフォーカスプロセスでは、ターゲットの動きがフォーカスウィンドウ内のシーンを変えることがあり、それにより、フォーカスウィンドウ内で背景の一部が変化することがあり、合焦ができなかったり不安定になったりする。
開示する本開示の実施形態は、深層機械学習およびレーザレーダに基づくマルチターゲット追跡および合焦のための方法およびシステムを提供する。開示する方法およびシステムは、追跡および合焦技術用のデジタル画像処理に基づくことがあり、カメラやビデオ記録など様々なタイプの画像および撮像システムに適用されることがある。深層機械学習に基づくデジタル画像処理は、複数のターゲットを効果的に認識し、ターゲットを正確に追跡することができる。シーン全体ではなく、認識されたターゲットのみに関してレーザレーダによって得られる正確な距離測定値をさらに組み合わせることによって、デバイスに関連するコストを低減することができ、マルチターゲット追跡および合焦を実現することができる。したがって、低いターゲット認識率、追跡の不安定性、および合焦の不安定性または合焦の不良など、移動物体の追跡および合焦に関連する従来の問題を解決することができる。開示する実施形態で使用するとき、「ターゲット」は、追跡される物体であり、「移動ターゲット」は、追跡に使用される撮像システムに対して移動している追跡対象の物体であり、したがって、撮像システムとターゲット物体の少なくとも一方が他方に対して移動している。
一般に、レーザレーダ距離測定は、例えば光検出および測距(LiDAR)技法を使用して、ターゲットにパルスレーザ光を照射し、センサを用いて反射パルスを測定することによって、そのターゲットまでの距離を測定するためのプロセスを表す。例えば、赤外線レーザデバイスは、物体に向けて細いビームとしてレーザパルスを送信することができ、パルスが物体で反射されてレーザパルスの送信元に戻されるまでにかかる時間が求められる。物体からレーザデバイスまでの距離は、パルスが送信された時とその反射パルスが受信された時との間の測定された経過時間と、光速とに基づいて計算することができる。開示する本開示の実施形態を、そのようなレーザレーダ距離測定を使用して述べるが、超音波距離測定など他の適切な距離測定技法を使用することもできる。
深層機械学習は、例えば画像特徴部抽出および/または変換を実施するように構成された線形および/または非線形処理デバイスまたはソフトウェアの相互接続された「層」を使用し得る機械学習アルゴリズムのクラスを表すことがあり、ここで、連続する層はそれぞれ、その入力として、前の層からの出力を使用する。深層機械学習は、教師あり(例えば分類)または教師なし(例えばパターン解析)でよく、より高次の特徴部をより低次の特徴部から導出して、データの階層表現(例えば画像の画素)を形成することができる。深層機械学習によって処理される観察データ(例えば画像や音声データなど)は、例えば画素毎の強度値のベクトル、エッジの集合、特定の形状の領域、サンプリングされた信号、スペクトル周波数など、多くの形で表現されていてよい。深層機械学習アーキテクチャは、深層ニューラルネットワーク、畳込み深層ニューラルネットワーク、ディープビリーフネットワーク(deep belief network)、再帰型ニューラルネットワークなどを含むことがある。
ニューラルネットワークは、個々のニューラルユニット(すなわちニューロン)の集合に基づく計算モデルまたはシステムである。ニューラルユニットの集合は、ニューラルユニットの異なる層、例えば、入力層、1つまたは複数の隠れ層、および出力層として編成することができる。各ニューラルユニットは、異なる層の多くの他のニューラルユニットと接続されて、活性化関数(例えば総和関数)を使用して計算されることがある。観察データ(例えば画像データまたはパターン)は、入力層を介してニューラルネットワークに提示されることがあり、入力層は、その観察データに対応する情報を1つまたは複数の隠れ層に通信し、隠れ層で、活性化関数と重み付き接続のモデルとを使用して実際の処理を行うことができる。隠れ層は、出力層にリンクすることがあり、出力層は、観察データの処理から決定された出力を提供することができる。いくつかの実施形態では、ニューラルネットワークは、自己学習型であって、例を用いて訓練されることもある。例えば、ニューラルネットワークに学習規則を適用して、入力された観察データに従って接続の1つまたは複数の重み付け(例えばスカラパラメータ)を修正することができる。
開示する実施形態では、適切なニューラルネットワークが選択され、ネットワーク内の対応する層の特性が理解される。ニューラルネットワークは、例えば、様々な環境で収集された多数のサンプルを使用して訓練されることが好ましい。訓練から得られた重み付けは、ニューラルネットワークに入力された画像データ内のターゲットを認識するために使用されることがある。さらに、様々な環境での物体の画像と、ネットワークの訓練から決定された重み付けパラメータとを使用してニューラルネットワークを試験することによって、追跡アルゴリズムを使用して画像データ内の1つまたは複数のターゲット物体を追跡することができる。いくつかの実施形態では、レーザレーダによる1つまたは複数の距離測定を使用して、撮像デバイスから、ユーザが関心を持つ特定のターゲット物体のみまでの距離を測定することができる。撮像デバイスによる所望のターゲット物体への自動合焦は、測定された距離に基づいて撮像デバイスの焦点距離を自動的に調整することによって実現することができる。
所望のターゲット物体を含む固定フォーカスウィンドウを選択するなど、対象のターゲット物体のみに合焦することによって、ターゲット物体の追跡および合焦に関連する時間および計算コストを大幅に低減することができ、背景情報による干渉を大幅に減少させることができ、リアルタイムでのターゲット追跡を可能にし、柔軟にかつ選択的に、1つまたは複数の所望のターゲット物体のみに対して合焦することを可能にする。
以下の例示的実施形態はUAVなど可動物体の文脈で述べるが、他の実装形態も可能であり、UAVを使用せずに代替の実施形態を採用することもできることを当業者は理解されよう。例えば、本明細書で開示するシステムおよび方法は、例えば移動物体もしくは静止物体に対して様々な撮像システムを使用して実施することができ、または開示する実施形態に従うより大きなシステムの一部として実施することもできる。
図1に、環境内を移動または走行するように構成され得る例示的な可動物体10を示す。可動物体10は、適切な媒体(例えば、表面、空気、水、レール、宇宙空間、地下など)の上または中を走行するように構成された任意の適切な物体、デバイス、メカニズム、システム、または機械でよい。例えば、可動物体10はUAVでよい。本明細書における例示の目的で、本明細書では可動物体10をUAVとして図示して述べるが、本開示によるいくつかの実施形態では、追加または代替として、他のタイプの可動物体(例えば、ホイール付きの物体、海上物体、移動物体、他の空中物体など)が使用されてもよい。本明細書で使用するとき、UAVという用語は、(例えば電子制御システムを介して)自動的に、および/またはオフボード人員によって手動で操作および/または制御されるように構成された空中デバイスを表すことがある。
可動物体10は、1つまたは複数の推進デバイス12を含むことがあり、搭載物14を搬送するように構成されてもよい。いくつかの実施形態では、図1に示されるように、搭載物14は、支持機構16によって可動物体10に接続される、または取り付けられることがある。支持機構16は、搭載物14と可動物体10との間での1つまたは複数の相対移動度を実現することがある。他の実施形態では、搭載物14は、支持機構16なしで可動物体10に直接取り付けられてもよい。また、可動物体10は、他の構成要素と通信する検知システム18、通信システム20、および制御装置22を含むこともある。
可動物体10は、可動物体10を推進および操舵するために様々な位置(例えば可動物体10の上、横、前、後ろ、および/または下)に位置決めされた1つまたは複数(例えば、1、2、3、3、4、5、10、15、20個)の推進デバイス12を含み得る。推進デバイス12は、制御された飛行を持続するための力を生成するように動作可能なデバイスまたはシステムでよい。推進デバイス12は、動力源を共有することがあり、または動力源をそれぞれ個別に含むことがあり、または動力源に動作可能に接続されることがある。動力源は、例えばモータ(例えば電気モータ、油圧モータ、空気圧モータなど)、エンジン(例えば内燃機関、タービンエンジンなど)、バッテリバンクなど、またはそれらの組合せである。また、各推進デバイス12は、1つまたは複数の回転構成要素24を含むこともあり、回転構成要素24は、動力源に駆動可能に接続され、制御された飛行を持続するための力の発生に関与するように構成される。例えば、回転構成要素24は、ロータ、プロペラ、ブレード、ノズルなどを含むことがあり、これらは、動力源から動力を伝達するように構成されたシャフト、軸、ホイール、油圧システム、空気圧システム、もしくは他の構成要素もしくはシステムにおいて、またはそれらによって駆動されることがある。推進デバイス12および/または回転構成要素24は、互いに対しておよび/または可動物体10に対して調整可能(例えば傾斜可能)でよい。代替として、推進デバイス12および回転構成要素24は、互いに対しておよび/または可動物体10に対して固定された向きを有することがある。いくつかの実施形態では、各推進デバイス12は同じタイプでよい。他の実施形態では、推進デバイス12は複数の異なるタイプでよい。いくつかの実施形態では、全ての推進デバイス12が一斉に(例えば、全て同じ速度および/または角度で)制御されることがある。他の実施形態では、1つまたは複数の推進デバイスが、例えば速度および/または角度に関して独立して制御されることもある。
推進デバイス12は、可動物体10を1つまたは複数の垂直方向および水平方向に推進するように、ならびに可動物体10を1つまたは複数の軸の周りで回転させるように構成されてもよい。すなわち、推進デバイス12は、可動物体10の並進運動および回転運動を生成して維持するための揚力および/または推力を提供するように構成されてもよい。例えば、推進デバイス12は、可動物体10が所望の高度を実現して維持できるようにし、全方向への移動のための推力を提供し、可動物体10の操舵を可能にするように構成されてもよい。いくつかの実施形態では、推進デバイス12は、可動物体10が垂直離陸および着陸(すなわち、水平推力なしの離陸および着陸)を行うことを可能にすることがある。他の実施形態では、可動物体10は、飛行を実現して持続するために、一定の最小水平推力を必要とすることがある。推進デバイス12は、複数の軸に沿ったおよび/または複数の軸の周りでの可動物体10の動きを可能にするように構成されてもよい。
搭載物14は、1つまたは複数の感知デバイス19を含み得る。感知デバイス19は、ターゲット(例えば物体、風景、写真またはビデオ撮影の被写体など)の画像またはビデオの調査、追跡、および捕捉など、データまたは情報を収集または生成するためのデバイスを含み得る。感知デバイス19は、画像を生成するために使用することができるデータを収集するように構成された撮像デバイスを含み得る。例えば、撮像デバイスは、写真カメラ、ビデオカメラ、赤外線撮像デバイス、紫外線撮像デバイス、X線デバイス、超音波撮像デバイス、レーダデバイスなどを含み得る。追加または代替として、感知デバイス19は、マイクロフォンまたは超音波検出器など、音声データを捕捉するためのデバイスを含むこともある。追加または代替として、感知デバイス19は、視覚信号、音声信号、および/または電磁信号を捕捉するための他の適切なセンサを含むこともある。撮像デバイスは、望ましい画像品質でターゲットを撮像するために焦点距離を調整することによって、ターゲットへのオートフォーカスを実施することが可能であり得る。感知デバイス19は、撮像デバイスからターゲットまでの距離を測定する1つまたは複数の距離測定デバイスを含むことがある。距離測定デバイスは、レーザレーダデバイス、超音波デバイス、および/またはそれらの組合せを実装することがある。
支持機構16は、搭載物14を保持するように、および/または可動物体10に対して搭載物14を調整(例えば回転)できるように構成された1つまたは複数のデバイスを含み得る。例えば、支持機構16はジンバルでよい。支持機構16は、以下に述べるように、搭載物14を1つまたは複数の軸の周りで回転させるように構成されてもよい。いくつかの実施形態では、支持機構16は、搭載物14の観点をより大きく制御できるようにするために、各軸の周りで360°の回転を可能にするように構成されてもよい。他の実施形態では、支持機構16は、搭載物14の回転範囲を、搭載物14の軸の1つまたは複数の周りで360°未満(例えば、≦270°、≦210°、≦180°、≦120°、≦90°、≦45°、≦30°、≦15°など)に制限することがある。
支持機構16は、フレームアセンブリ26と、1つまたは複数のアクチュエータ部材28と、1つまたは複数の支持機構センサ30とを含み得る。フレームアセンブリ26は、搭載物14を可動物体10に結合し、いくつかの実施形態では、可動物体10に対して搭載物14が動くことを可能にするように構成されてもよい。いくつかの実施形態では、フレームアセンブリ26は、互いに対して可動な1つまたは複数のサブフレームまたは構成要素を含み得る。作動部材28は、可動物体10に対する搭載物14の並進運動および/または回転運動を可能にするために、フレームアセンブリの構成要素を互いに対して駆動させるように構成されてもよい。他の実施形態では、アクチュエータ部材28は、搭載物14に直接作用して、フレームアセンブリ26および可動物体10に対する搭載物14の運動を生じさせるように構成されてもよい。アクチュエータ部材28は、適切なアクチュエータおよび/または力伝達構成要素でよく、またはそれらを含んでいてもよい。例えば、アクチュエータ部材28は、電気モータを含むことがあり、電気モータは、軸、シャフト、レール、ベルト、チェーン、ギア、および/または他の構成要素と協働して、フレームアセンブリ26および/または搭載物14の構成要素に直線運動または回転運動を行わせるように構成される。
支持機構センサ30は、支持機構16および/または搭載物14の状態情報を測定、検知、検出、または決定するように構成されたデバイスを含み得る。状態情報は、位置情報(例えば相対位置、向き、姿勢、直線変位、角度変位など)、速度情報(例えば直線速度、角速度など)、加速度情報(例えば直線加速度、角加速度など)、および/または可動物体10に対する支持機構16または搭載物14の動き制御に関する他の情報を含み得る。支持機構センサ30は、ポテンショメータ、光センサ、ビジョンセンサ、磁気センサ、運動または回転センサ(例えばジャイロスコープ、加速度計、慣性センサなど)など、1つまたは複数のタイプの適切なセンサを含み得る。支持機構センサ30は、フレームアセンブリ26の構成要素もしくはアクチュエータ部材28など支持機構16の様々な構成要素、もしくは可動物体10に関連付けられるか、またはそれらに取り付けられることがある。支持機構センサ30は、有線または無線接続(例えばRFID、Bluetooth(登録商標)、Wi−Fi、ラジオ、携帯電話など)を介してデータおよび情報を制御装置22と通信するように構成されてもよい。支持機構センサ30によって生成され、制御装置22に通信されるデータおよび情報は、可動物体10および/またはターゲットの状態情報の決定など、さらなる処理のために制御装置22によって使用されることがある。
支持機構16は、1つまたは複数の減衰要素を介して可動物体10に結合されることがあり、減衰要素は、可動物体10から搭載物14への望ましくない衝撃または他の力伝達を低減または除去するように構成される。減衰要素は、能動的、受動的、またはハイブリッド(すなわち能動的な特性と受動的な特性とを備える)でよい。減衰要素は、固体、液体、および気体を含む任意の適切な材料または材料の組合せから形成されることがある。ゴム、ばね、ゲル、発泡材、および/または他の材料など圧縮可能または変形可能な材料が、減衰要素として使用されることがある。減衰要素は、搭載物14を可動物体10から隔離する、および/または可動物体10から搭載物14への力の伝播を消散させる働きをすることがある。また、減衰要素は、ピストン、ばね、油圧デバイス、空気圧デバイス、ダッシュポット、ショックアブソーバ、および/または他のデバイス、またはそれらの組合せなど、減衰効果を提供するように構成されたメカニズムまたはデバイスを含むこともある。
検知システム18は、可動デバイス10の1つまたは複数の構成要素または他のシステムに関連する1つまたは複数のセンサを含み得る。例えば、検知システムは、可動物体10および/またはターゲットに関する位置情報、速度情報、および加速度情報を決定するためのセンサを含み得る。いくつかの実施形態では、検知システムは、支持機構センサ30を含むこともある。検知システム18の構成要素は、可動物体10、その構成要素、またはそのターゲットに関する追加情報を決定するために使用される(例えば制御装置22または別のデバイスによって処理される)ことがあるデータおよび情報を生成するように構成されてもよい。検知システム18は、可動物体10の動きの1つまたは複数の態様を検知するための1つまたは複数のセンサを含み得る。例えば、検知システム18は、上で論じた搭載物14に関連する感知デバイス、および/または追加の感知デバイス、例えば、測位システム(例えばGPS、GLONASS、Galileo、Beidou、GAGANなど)用の測位センサ、運動センサ、慣性センサ(例えばIMUセンサ)、近接センサ、イメージセンサなどを含み得る。検知システム18はまた、天候情報(例えば温度、気圧、湿度など)、照明条件(例えば光源周波数)、空気成分、もしくは近くの障害物(例えば物体、構造物、人物、他の車両など)など、周囲環境に関係するデータもしくは情報を提供するためにセンサを含むこともあり、またはそのようなデータもしくは情報を提供するように構成されることもある。
検知システム18は、可動物体からターゲット物体までの距離を決定するためにLiDAR測定を行うなど、レーザレーダ距離測定を実施するための1つまたは複数の発光素子およびセンサを含むことがある。いくつかの実施形態では、LiDARレーザおよび対応するセンサは、可動物体10の任意の場所に取り付けられることがあり、または、別個のモジュールとして(例えば支持機構16を用いて)可動物体に取り付けられる、もしくは可動物体にある任意の他のデバイスもしくはセンサに含まれることがある。
通信システム20は、制御装置22とオフボードエンティティとの間でデータ、情報、コマンド、および/または他のタイプの信号の通信を可能にするように構成されてもよい。通信システム20は、1方向または2方向通信を行うように構成された受信機、送信機、または送受信機など、信号を送信および/または受信するように構成された1つまたは複数の構成要素を含み得る。通信システム20の構成要素は、データ、情報、もしくはコマンドを示す信号、および/または他の信号を送信するのに有用な1つまたは複数の通信ネットワーク(ラジオ、携帯電話、Bluetooth、Wi−Fi、RFID、および/または他のタイプの通信ネットワークなど)を介してオフボードエンティティと通信するように構成されてもよい。例えば、通信システム20は、飛行中に可動物体10を制御するための入力を提供するためのデバイス、例えば制御端末(「端末」)32との通信を可能にするように構成されてもよい。
端末32は、ユーザからの入力(すなわちユーザ入力)などの入力を受信し、入力を示す信号を制御装置22に通信するように構成されてもよい。端末32は、入力を受信して、1つまたは複数のタイプの情報を示す対応する信号を生成するように構成されることがあり、そのような情報は、例えば、(例えば推進デバイス12を介して)可動デバイス10、搭載物14、および/または支持機構16を動かすまたは操縦するための制御データ(例えば信号)などである。また、端末32は、動作データ、例えば位置データ、速度データ、加速度データ、感知データ、ならびに可動物体10、その構成要素、および/またはその周囲環境に関係する他のデータおよび情報など、可動物体10からのデータおよび情報を受信するように構成されることもある。端末32は、飛行パラメータを制御するように構成された物理的スティックを備えたリモートコントローラでよく、または同じ目的のための仮想制御機能を備えたタッチスクリーンデバイス(例えばスマートフォンもしくはタブレット)でよく、ならびにスマートフォンもしくはタブレット上のアプリケーション、またはそれらの組合せに用いられてもよい。
いくつかの実施形態では、端末32はスマートアイグラスでよい。本明細書で使用するとき、スマートアイグラスは、着用者が見る画像またはシーンに追加情報を提供することができる任意のウェアラブルコンピュータグラスまたは他のウェアラブルアイテムを含むことがある。スマートアイグラスは、透明ヘッドアップディスプレイ(HUD)または拡張現実(AR)オーバレイ機能を有する光学ヘッドマウントディスプレイ(OHMD)または組込みワイヤレスグラスを含むことがあり、そのようなディスプレイは、投影されたデジタル画像を反射する機能を有し、また、ユーザがディスプレイを通して見る、またはディスプレイを用いてより良く見ることができるようにする機能を有する。スマートアイグラスは、例えば、セルラ技術またはWi−Fiを介して可動物体10から受信された画像、ビデオ、および他のデータまたは情報のためのフロントエンドディスプレイとして機能することがある。いくつかの実施形態では、スマートアイグラスは、自然言語音声コマンドおよび/またはスマートアイグラスのタッチボタンの使用によって可動物体10を制御することもできる。
図2Aおよび2Bに示される例では、端末32は、端末32と可動物体10または別の端末32など他のエンティティとの間での情報の通信を容易にする通信デバイス34を含み得る。通信デバイス34は、信号を送信または受信するように構成されたアンテナまたは他のデバイスを含み得る。また、端末32は、可動物体10に通信するためにユーザからの入力を受信するように構成された1つまたは複数の入力デバイス36を含むこともある。図2Aは、可動物体10またはその構成要素の所望の動きを示すユーザ入力を受信するように構成された複数の入力デバイス38、40、42、および44を備える入力デバイス36を有する端末32の一例示的実施形態を示す。しかし、端末の他の可能な実施形態またはレイアウトも可能であり得て、本開示の範囲内にあることを理解されたい。
端末32は、入力デバイスを含むことがあり、入力デバイスは、例えば、入力レバー38および40、ボタン42、トリガ44、および/またはユーザから1つもしくは複数の入力を受信するための他のタイプの入力デバイスである。端末32の各入力デバイスは、制御装置22に通信可能であり、処理のための入力として制御装置22によって使用可能な入力信号を生成するように構成されてもよい。飛行制御入力に加えて、端末32は、手動制御設定、自動制御設定、制御支援設定など他の情報のユーザ入力を受信するために使用されることもあり、これらのユーザ入力は、例えばボタン42および/またはトリガ44を介して受信されることがある。端末32は、ボタン、スイッチ、ダイヤル、レバー、トリガ、タッチパッド、タッチスクリーン、ソフトキー、マウス、キーボード、音声認識デバイス、および/または他のタイプの入力デバイスなど、他のまたは追加の入力デバイスを含むことがあることを理解されたい。
図2Bに示されるように、端末32はまた、ユーザへのおよび/またはユーザからの情報を表示および/または受信するように構成されたディスプレイデバイス46を含むこともある。例えば、端末32は、可動物体10から信号を受信するように構成されることがあり、この信号は、可動物体10の動きに関する情報もしくはデータ、および/または(例えば搭載物14と共に)可動物体10を使用して捕捉されたデータ(例えば撮像データ)を示すことがある。いくつかの実施形態では、ディスプレイデバイス46は、多機能画面48上に情報を表示し、多機能画面48を介してユーザ入力を受信するように構成された多機能ディスプレイデバイスでよい。例えば、一実施形態では、ディスプレイデバイス46は、多機能画面48を介して1つまたは複数のユーザ入力を受信するように構成されてもよい。別の実施形態では、多機能画面48は、ユーザ入力を受信するための唯一の入力デバイスであり得る。
いくつかの実施形態では、端末32は、1つまたは複数のユーザ入力を受信するための対話式グラフィカルインタフェースでよく、またはそれを含んでいてもよい。すなわち、端末32は、グラフィカルユーザインタフェース(GUI)でよく、および/またはユーザ入力を受信するための入力デバイス36の1つまたは複数のグラフィカルバージョンを含んでいてもよい。端末32および/または入力デバイス36のグラフィカルバージョンは、ディスプレイデバイス(例えばディスプレイデバイス46)または多機能画面(例えば多機能画面48)に表示可能であり、対話式グラフィカルフィーチャ(例えばグラフィカルボタン、テキストボックス、ドロップダウンメニュー、対話式画像など)のグラフィカルフィーチャを含む。例えば、一実施形態では、端末32は、入力レバー38および40、ボタン42、ならびにトリガ44のグラフィカル表現を含むことがあり、これらのグラフィカル表現は、多機能画面48に表示され、多機能画面48を介してユーザ入力を受信するように構成されてもよい。いくつかの実施形態では、端末32は、入力デバイス36のグラフィカルバージョンなど、グラフィカル入力デバイスを介して全てのユーザ入力を受信するように構成されてもよい。端末32は、任意の適切な電子デバイス(例えば携帯電話やタブレットなど)のディスプレイデバイスまたは多機能画面に対話式インターフェースを提供するために、コンピュータアプリケーション(例えば「アプリ」)と協働して入力デバイス36のグラフィカルバージョンを生成するように構成されてもよい。
いくつかの実施形態では、ディスプレイデバイス46は、端末32の一体構成要素でよい。すなわち、ディスプレイデバイス46は、端末32に取り付けられる、または固定されることがある。他の実施形態では、ディスプレイデバイスは、端末32に接続可能(および端末32から切断可能)でよい。すなわち、端末32は、(例えば接続ポートまたは無線通信リンクを介して)ディスプレイデバイス46に電子的に接続可能であり、および/または他の方法で、取付デバイス50によって、例えばクランプ留め、クリップ留め、掛け留め、フック留め、接着、または他のタイプの取付デバイスによって端末32に接続可能である。
いくつかの実施形態では、端末32は、可動物体10の動きおよび/または他の動作態様を制御するように構成可能な電子デバイスと通信するように構成されてもよい。例えば、ディスプレイデバイス46は、携帯電話、タブレット、パーソナルデジタルアシスタント、ラップトップコンピュータ、または他のデバイスなど、電子デバイスのディスプレイ構成要素でよい。このようにすると、ユーザは、他の電子デバイスの機能を可動物体10の制御の態様に組み込むことができることがあり、これは、より柔軟で適応性のある制御方式を使用できるようにする。例えば、端末32は、メモリおよび少なくとも1つのプロセッサを有する電子デバイスと通信するように構成されることがあり、このとき、これらの制御デバイスを使用して、電子デバイスに関連する入力デバイス(例えば多機能ディスプレイ、ボタン、記憶されたアプリ、ウェブベースのアプリケーションなど)を介してユーザ入力を提供することができる。また、端末32と電子デバイスとの間の通信は、ソフトウェア更新パッケージおよび/または他の情報を受信し、次いで(例えば通信システム20を介して)制御装置22に通信できるように構成されることもある。
望みであれば、端末32を介して受信された入力を可動デバイス10の所望のまたは実際の動きに関係付ける他の制御規則が使用されることもあることに留意されたい。
図3に示されるように、制御装置22は、1つまたは複数の構成要素、例えばメモリ52および少なくとも1つのプロセッサ54を含み得る。メモリ52は、非一時的なコンピュータ可読媒体でよく、またはそれを含んでいてよく、さらに、非一時的なコンピュータ可読媒体の1つまたは複数のメモリユニットを含むことができる。メモリ52の非一時的なコンピュータ可読媒体は、フロッピーディスク、光ディスク、DVD、CD−ROM、マイクロドライブ、および光磁気ディスク、ROM、RAM、EPROM、EEPROM、DRAM、VRAM、フラッシュメモリデバイス、磁気または光カード、ナノシステム(分子メモリICを含む)、または命令および/またはデータを記憶するのに適した任意のタイプの媒体もしくはデバイスを含めた任意のタイプの揮発性または不揮発性メモリデバイスでよく、またはそれを含んでいてよい。メモリユニットは、非一時的なコンピュータ可読媒体の永久的部分および/またはリムーバブル部分(例えば、SDカードやRAMなどのリムーバブルメディアまたは外部ストレージ)を含み得る。
検知システム18からの情報およびデータは、メモリ52の非一時的なコンピュータ可読媒体に通信されて記憶されることがある。また、メモリ52に関連付けられたコンピュータ可読媒体は、本明細書で述べる方法の任意の適切な実施形態を実施するためにプロセッサ54によって実行可能な論理、コード、および/またはプログラム命令を記憶するように構成されることもある。例えば、メモリ52に関連付けられたコンピュータ可読媒体は、プロセッサ54によって実行されるときに、1つまたは複数のステップを含む方法をプロセッサに実施させるコンピュータ可読命令を記憶するように構成されてもよい。非一時的なコンピュータ可読媒体に記憶されている命令に基づいてプロセッサによって実施される方法は、メモリ52の非一時的なコンピュータ可読媒体に記憶されているデータまたは情報の入力、端末32から受信された入力、検知システム18から受信された入力(例えば、検知システムから直接受信されるか、またはメモリから検索される)、および/または通信システム20を介して受信された他の入力などの入力を処理することを含み得る。非一時的なコンピュータ可読媒体は、処理ユニットによって処理すべき検知モジュールからの検知データを記憶するように構成されてもよい。いくつかの実施形態では、非一時的なコンピュータ可読媒体を使用して、処理ユニットによって生成された処理結果を記憶することができる。
図1での感知デバイス19は、図3の例示的実施形態での撮像システム19によって具現化されることがある。開示するこの実施形態では、撮像システム19は、画像を生成するために使用することができるデータを収集して、ターゲット(例えば、物体、風景、写真またはビデオ撮影の被写体など)の画像またはビデオを調査、追跡、および捕捉するように構成された撮像デバイスを含むことがある。例えば、撮像デバイスは、写真カメラ、ビデオカメラ、赤外線撮像デバイス、紫外線撮像デバイス、X線デバイス、超音波撮像デバイス、レーダデバイスなどを含むことがある。この例示的実施形態では、撮像デバイスは、ターゲットを識別および追跡するためにターゲットの光学データを生成するように構成されることがある。例えば、撮像デバイスは、カメラまたはビデオカメラなどの光学デバイスでよい。撮像デバイスは、ターゲットの1つまたは複数の特徴部を示す撮像データを生成するように構成されることがある。撮像システム19は、有線または無線接続(例えば、RFID、Bluetooth、Wi−Fi、ラジオ、セルラなど)を介して制御装置22とデータ(例えば画像フレーム)および情報を通信するようにさらに構成されることがある。撮像システム19によって生成され、制御装置22に通信されるデータおよび情報は、さらなる処理のために制御装置22が使用することができる。
プロセッサ54は、1つまたは複数のプロセッサを含むことがあり、プログラム可能なプロセッサ、例えば中央処理装置(CPU)を具現化することがある。プロセッサ54は、メモリ52または別のメモリデバイスに動作可能に結合されることがあり、このメモリは、1つまたは複数の方法ステップを実施するためにプロセッサ54によって実行可能なプログラムまたは命令を記憶するように構成される。本明細書で述べる方法ステップは、メモリ52に記憶され、プロセッサ54によって実施されるように構成されることがあり、プロセッサ54によって方法ステップが実施されることに留意されたい。
いくつかの実施形態では、プロセッサ54は、ターゲット認識モジュール56、ターゲット追跡モジュール58、ターゲット距離モジュール60、およびターゲット合焦モジュール62など、1つまたは複数の制御モジュールを含むことがあり、および/または代替としてそれらの制御モジュールに動作可能に結合されることがある。ターゲット認識モジュール56、ターゲット追跡モジュール58、ターゲット距離モジュール60、およびターゲット合焦モジュール62は、プロセッサ54で実行するためのソフトウェアとして実装されても、プロセッサ54(図示せず)とは別のハードウェアおよび/またはソフトウェアコンポーネントとして実装されてもよい。
ターゲット認識モジュール56は、撮像システム19によって捕捉された画像またはビデオに現れる1つまたは複数のターゲットを認識するように構成されることがある。ターゲット認識モジュールは、限定はしないが深層機械学習を含む任意の適切な技法によって実装されることがある。例えば、深層機械学習の例では、入力として完全な画像またはビデオフレームがニューラルネットワークによって受信され、ニューラルネットワークは、完全な画像またはビデオフレームを様々な領域に分割することができる。ニューラルネットワークはさらに、各領域のバウンディングボックスと、領域内にターゲットが現れる確率とを予測することができる。本明細書で使用される深層機械学習アルゴリズムは、任意の適切な深層機械学習アルゴリズムでよく、そのような深層機械学習アルゴリズムは、市販の深層機械学習ソフトウェアパッケージ、例えばYOLO(You Only Look Once)リアルタイムターゲット検出システムを含むことがある。
例えば、YOLO(バージョン2)のニューラルネットワークは32層を含み、ここで、22層が畳込み層であり、これらの層は、ターゲットを効率的に識別し、ターゲット物体を含むターゲット領域を検出することができる。このニューラルネットワークを使用して、開示する実施形態に従ってターゲットを正確に追跡することができる。
いくつかの実施形態では、深層機械学習のニューラルネットワークのオフライン訓練を行うことができる。例えば、様々な訓練サンプルを用意して、それらにラベルを付けることができる。訓練サンプルは、様々な環境、状況、シーンで捕捉された多数のサンプルを含むことがある。ラベルを付けられた訓練サンプルは、多数の物体特徴部を学習するためにオフライン訓練用にニューラルネットワークに入力することができ、それにより、多数のターゲットをUAVによってリアルタイムで正確に認識することができる。訓練後の重み付けを試験することができる。複数回反復した後、入力された訓練サンプルに基づいて、有効な重み付けパラメータセットを得ることができる。図4Aは、ニューラルネットワークを使用して画像内の複数の物体(例えば犬、車、自転車)およびそれらの対応する領域(バウンディングボックス)が識別され得る概略図を示す。次いで、これらの識別された物体の1つまたは複数を、追跡対象のターゲット物体として指定することができる。
いくつかの実施形態では、画像フレームレート処理を改良するために異なるニューラルネットワークを使用することができる。例えば、Tiny YOLOニューラルネットワークを利用することができ、これは、8層の畳込み層を含めた17層を含む。図4Bは、画像フレームレート処理を改良するように構成されたニューラルネットワークを使用して、画像内の複数のターゲット物体(例えば、牛、人、羊)およびそれらの対応する領域(バウンディングボックス)が識別され得る概略図を示す。
ターゲット追跡モジュール58は、ターゲット認識モジュール56によって既に正確に認識されている1つまたは複数のターゲットを追跡するように構成することができる。1つまたは複数のターゲットが認識されると、ターゲット追跡モジュール58は、ターゲット追跡アルゴリズムを使用してターゲットを追跡することができる。そのような追跡アルゴリズムは、可動物体10の推進デバイス12の制御を助け、6自由度(例えば、可動物体10の座標軸に沿った3つの並進方向および可動物体10の座標軸の周りでの3つの回転方向)に関する可動物体10の空間的配置、速度、および/または加速度を調整して、可動物体10が所望のターゲット物体を自動的に追跡できるようにする。
図5を参照すると、ターゲット追跡は、可動物体10に接続されたカメラ64などの感知デバイス(すなわち、図1での感知デバイス19および図3での撮像システム19)と共に実施することができる。カメラ64は、画像座標系67の像面66で、ターゲット物体(例えば、図4Aでの犬または図4Bでの羊)を含む画像を捕捉するように構成されることがある。ターゲット物体のターゲット画像65が像面66内に形成されることがあり、ターゲット画像65の周囲にバウンディングボックス68が生成されることがある。
ターゲット画像65は、開口撮像モデルに基づいて表されることがあり、このモデルは、3次元空間内の物体点からの光線を2次元像面上に投影して画像点を形成することができると仮定する。カメラ64は、例えばカメラの中心70から測定される光軸69と、焦点距離72とを含むことがある。光軸69がカメラ中心70と像面66の中心との両方を通過するとき、カメラ中心70と像面66の中心との間の距離は、カメラの焦点距離72と等しい、または実質的に同じ距離になり得る。
次いで、カメラ中心70とターゲット80との間の地面上での投影相対距離74(例えば、カメラ64からターゲット物体までの距離)を、幾何学的関係および座標変換に基づいて決定することができる。例えば、ターゲット80は、ワールド座標系における上側ターゲットポイント(x,y,z)および下側ターゲットポイント(x,y,z)を有することがあり、これらは、それぞれ上側画像点(u,v)および下側画像点(u,v)として像面66上に投影することができる。上側の線は、ワールド座標系のZ軸に対して第1の傾斜角76でカメラ中心70および上側画像点を通過する。また、下側の線は、Z軸からの第2の傾斜角78でカメラ中心70および下側画像点を通過する。
カメラ64からターゲット画像65の上側および下側までの上側および下側の線を表す方向ベクトル
Figure 2020522002
は、以下のように表すことができる。
Figure 2020522002
ここで、Kはカメラの固有の行列を表し、Rはカメラの回転を表す。
次いで、カメラの高さhと画像座標系67でのバウンディングボックス68の位置とに基づいて、ターゲットまでの距離74を決定することができる。例えば、ターゲット物体80までの距離74は、d=−h/z*Pとして計算することができ、ターゲット高さは、h=h+zd/Pとして計算することができ、ここで、hは、測定されたまたは実効のカメラ高さであり、Pは、地面での
Figure 2020522002
の投影長さであり、Pは、地面での
Figure 2020522002
の投影長さである。これらは以下のように定義される。
Figure 2020522002
その後、システムは、ターゲット高度が変化する(例えば、ターゲットが荒い地形、傾斜、階段を通って進む、物体に登る、様々な高度で浮遊または飛行する)ときでさえ、ターゲットまでの(例えばX軸に沿った)直線距離74を推定することができる。ターゲット物体80と可動物体10との間の地面での投影相対距離74は、h/dhとして計算することができ、ここで、dhは、カメラから単位距離にあるターゲットの推定高さを表し、以下の式を使用して計算することができる。
Figure 2020522002
いくつかの実施形態によれば、ターゲット追跡を可能にするために、制御装置22は、飛行中に所望の値またはデフォルト値で一定の距離74を維持するために、ターゲット追跡モジュール60によって推進デバイス12を自動的に制御するように構成することができる。例えば、ターゲット追跡モジュール60は、距離74を連続的または定期的に計算し、フィードバック制御(例えばPID制御)を使用して、距離74を所望の値(例えば端末32を介してユーザによって入力される)またはデフォルト値で保つように構成することができる。ターゲット追跡中に可動物体が荒れた地形、斜面、その他の物体を横切るときなど、可動物体10の高さが変化するときでさえ、ターゲット追跡を行うことができる。
いくつかの実施形態では、撮像システム19が1つまたは複数の画像を捕捉するプロセス中であっても、追跡を行うことができる。1つまたは複数の画像は、画像内の第1のターゲットに焦点を有することがあり、その一方で、いくつかの他のターゲットについて追跡を行うことができる。例えば、各ターゲットは、それぞれのバウンディングボックスで取り囲まれている。そのような実施形態では、第1のターゲットから、いくつかの他のターゲットの1つである第2のターゲット(例えば1つまたは複数の画像内の別のターゲット)に焦点が切り替えられるとき、システムは、第2のターゲットに対して測定された距離に基づいて再合焦操作を行うことができる。開示したこれらの実施形態に加えて、第2のターゲットまでの距離の測定は、画像の全領域を走査するのではなく、第2のターゲットを取り囲むバウンディングボックス内の領域を走査することによって決定することもできる。したがって、これらの実施形態でのシステムは、処理時間およびコストの低減の面でさらなる利点を有することができる。
また、いくつかの実施形態では、例えばコストを低減し、フレームレートを増加させるために、対象のターゲットに関してのみ追跡を行うことができる。そのようなシナリオでは、対象のターゲットは、画像の特定の領域内の対象のターゲットを認識する(例えば図4Aでのバウンディングボックス内の犬を認識する)深層機械学習のニューラルネットワークによって識別されることがある。そのような実施形態では、システムは、対象のターゲットを追跡、合焦、および撮像するための計算コストを低減することができる。これらの実施形態に加えて、対象のターゲットが例えば第1のターゲット(例えば図4Aでの犬)から第2のターゲット(例えば図4Aでの車)に切り替えられるとき、第2のターゲット(例えば車)の追跡は、第2のターゲットが第1のターゲットに近接しているので迅速かつ効率的に行うことができ、それにより、第2のターゲットの追跡、合焦、および撮像に関連する計算コストを低減するだけでなく、撮像ターゲットのフレームレートを増加させる。
いくつかの実施形態では、追跡は、UAVの動きを伴うことがあり、または静止物体から行われることもある。
ターゲット距離モジュール60は、例えば撮像システム19からターゲット物体までの距離を決定するように構成されることがある。ターゲットが識別、認識、および追跡された後、ターゲットの高品質画像を取得するために正確な合焦が用いられる。ターゲット物体と可動物体10との相対運動により、撮像システム19からターゲット物体までの距離は絶えず変化し得る。ターゲットへの正確な合焦を得るためには、ターゲットまでの距離をリアルタイムで測定する必要がある。
図6Aは、ターゲット物体に対して移動する前にターゲット物体の画像を生成するための例示的実施形態の概略図を示す。図6Aに示されるように、撮像面上にターゲットSの像S'が形成される。ターゲット物体および像から像面までの距離は、それぞれ−lおよび−l'である。画像S'の高さは、式(1)で定義されるように、−h'である。
Figure 2020522002
ここで、
Figure 2020522002
は像倍率である。ターゲット物体が動くと、図6Bに示されるように、物体距離および像距離がそれぞれ−l+Δl'およびl'−Δl'に変化する。ターゲットSの像S'の高さは、式(2)で定義されるように、−h'に変わる。
Figure 2020522002
ここで、
Figure 2020522002
は、ターゲットの移動後の像倍率である。ターゲットの移動により、ターゲット像が変化していることが分かる。
式(1)と(2)を組み合わせることによって、以下のように式(3)を決定することができる。
Figure 2020522002
したがって、像高のオフセットは、以下のように式(4)で表すことができる。
Figure 2020522002
式(4)から、初期像高と画角が同じであるターゲットでは、ターゲット物体距離が大きくなるほど像高オフセットが小さくなることが分かる。しかし、ターゲット物体距離が無限遠であっても、式(5)で示されるように像高オフセットが依然として存在する。
Figure 2020522002
したがって、ターゲットが動くとき、ターゲット物体距離を正確に測定しなければならず、その測定した物体距離に基づいて、撮像システム19内のフォーカス制御メカニズムを駆動させることによって正確な合焦を実現することができる。
いくつかの実施形態では、コストを低減し、フレームレートを増加させるために、距離測定は、対象のターゲット物体に関してのみ行われることがある。例えば、深層機械学習のニューラルネットワークは、対象のターゲットと、対象のターゲットを含む領域(すなわちバウンディングボックス)とを認識する。バウンディングボックスに従って、図7Aに示されるように、ターゲット物体の中心位置と中心位置の方向とを計算することができる。図7Aでは、ターゲット物体の中心位置tが、中心点Pおよび画像座標系を有する像面上に示されており、カメラの中心C(例えば、撮像システム19)をターゲット物体の中心位置tにつなぐことによって、中心位置の方向が示されている。図7Bで、画像座標系でのターゲット中心位置tの画素位置を(u,v)と仮定すると、vは、式(6)で表すことができる。
Figure 2020522002
ここで、fは、カメラを較正することによって得ることができるカメラの焦点距離であり、YおよびZは、カメラ座標系(すなわちワールド座標系)での座標である。ターゲットの中心位置tの方向の角度αは、以下のように式(7)で決定することができる。
Figure 2020522002
中心位置方向の範囲内でターゲットまでの距離を測定するために、図7Bに示されるようなレーザレーダなどの距離測定デバイスが使用される。測定デバイスをカメラのごく近傍に配置することができ、それにより、レーザレーダは、例えば図7Bに示されるΨの角度範囲内で、中心位置方向の角度αに基づいて特定の範囲を走査することによって、対象のターゲットまでの距離を測定することができる。ターゲット合焦モジュール62は、撮像システム19内のフォーカス制御メカニズム/モジュールを制御するように構成することができる。フォーカス制御メカニズムは、撮像システム10の内蔵メカニズムでよく、または当業者に知られている任意のフォーカス制御メカニズムでもよい。ターゲット物体までの距離が決定された後、フォーカス制御メカニズムを作動させて、撮像システム19の焦点距離を自動的に調整して、測定された距離に応じて対象のターゲットに対する正確な合焦を実現することができる。
プロセッサ54は、通信システム20に動作可能に結合して、1つまたは複数の外部デバイス(例えば端末32、ディスプレイデバイス46、または他のリモートコントローラ)からデータを送信および/または受信するように構成することができる。有線通信または無線通信など任意の適切な通信手段を使用して、制御装置22との間でデータおよび情報を転送することができる。例えば、通信システム20は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、赤外線、無線、Wi−Fi、ポイントツーポイント(P2P)ネットワーク、電気通信ネットワーク、クラウド通信などの1つまたは複数を利用することができる。任意選択で、タワー、衛星、または移動局などの中継局を使用することができる。無線通信は、近接依存性でも近接独立性でもよい。いくつかの実施形態では、通信のために視線が必要とされることも、必要とされないこともある。通信システム20は、検知システム18からの検知データ、プロセッサ54によって生成された処理結果、所定の制御データ、端末32またはリモートコントローラからのユーザコマンドなどの1つまたは複数を送信および/または受信することができる。
制御装置22の構成要素は、任意の適切な構成で配置することができる。例えば、制御装置22の構成要素の1つまたは複数は、可動物体10、支持機構16、搭載物14、端末32、検知システム18、または上記の1つもしくは複数と通信する追加の外部デバイスに位置させることができる。いくつかの実施形態では、1つまたは複数のプロセッサまたはメモリデバイスは、可動物体10、支持機構16、搭載物14、端末32、検知システム18、上記の1つまたは複数と通信する追加の外部デバイス、またはそれらの適切な組合せなど、様々な位置に配置することができ、それにより、システムによって実施される処理および/またはメモリ機能の任意の適切な態様が前述の位置の1つまたは複数で行われ得る。
開示する実施形態によれば、図8は、深層機械学習およびレーザレーダに基づいてターゲットを認識、追跡、および合焦するために使用され得る例示的な方法800を示す。ここでは、単に例として1つのターゲットを述べるが、方法800を複数のターゲットに適用することもできる。
ステップ802において、ターゲット物体が画像内で認識される。ターゲットは、図4Aでの犬または車など、画像内で識別された任意の物体でよく、撮像システムに対して移動することがある。ターゲット物体は、撮像システムによって、1つまたは複数の画像、またはビデオに捕捉されることがある。上述したように、ターゲット物体は、ニューラルネットワークおよび深層機械学習技法のアルゴリズムによって、1つまたは複数の画像またはビデオフレーム内で識別および認識することができる。深層機械学習技法のニューラルネットワークおよびアルゴリズムは、可動物体10の制御装置22に実装することができる。
ステップ804で、ターゲットが追跡される。上述したように、ターゲットが移動している間にターゲットを追跡することは、可動物体10の推進デバイス12を制御して、6自由度(例えば、可動物体10の座標軸に沿った3つの並進方向および可動物体10の座標軸の周りでの3つの回転方向)に関して可動物体10の空間的配置、速度、および/または加速度を調整して、可動物体10がターゲットを自動的に追跡できるようにすることによって実現することができる。
ステップ806で、撮像システム19からターゲットまでの距離を決定することができる。対象のターゲットを追跡することができると、例えばレーザレーダデバイスによって、撮像システム10からターゲットまでの距離を測定することができる。レーザレーダデバイスは、撮像システム19に埋め込まれても、撮像システム19に取り付けられてもよい。代替として、レーザレーダシステムは、距離を測定するために撮像システムと連係動作するスタンドアローンデバイスでもよい。レーザレーダデバイスは、赤外線レーザパルスまたは任意の他のレーザパルスもしくはビームを所望の周波数でターゲットに向けて放出し、ターゲット物体で反射した光ビームを受光することができる。ターゲットとレーザレーダデバイスとの間を往復する光ビームの総移動時間と、光速とを用いて、レーザレーダデバイス/撮像システム19からターゲットまでの距離を計算することができる。
ステップ808で、決定された距離に基づいてターゲットへの合焦が行われる。移動ターゲットに関して距離が決定されると、測定された距離に基づいて、撮像システム19のフォーカス制御メカニズムによって撮像システムの焦点距離を自動的に調整することができる。
開示する本開示の実施形態は、深層機械学習のニューラルネットワークに基づいて複数のターゲットを識別および認識するための方法およびシステムを提供する。様々な環境、状況、およびシーンで複数のターゲットを効果的に認識することができる。レーザレーダデバイスは、単純であり信頼性が高く、レーザレーダデバイスによって決定される距離に基づいて正確な合焦を自動的に実現することができる。高品質の撮像デバイスを使用して、移動ターゲット物体の画像を捕捉することができる。さらに、暗色の物体またはガラスの後ろの物体も、開示する実施形態に従ってオートフォーカスすることができる。したがって、開示する本開示の実施形態は、レーザ測距と、物体追跡のためのニューラルネットワーク/深層学習との組合せを採用する。
開示する方法およびシステムに対して様々な変更および変形を施すことができることが当業者には明らかであろう。他の実施形態は、本明細書の考察、ならびに開示する方法およびシステムの実施から当業者には明らかになろう。本明細書および上記の例は、単に例示とみなされ、真の範囲は、添付の特許請求の範囲およびそれらの均等物によって示されることが意図される。
開示する方法およびシステムに対して様々な変更および変形を施すことができることが当業者には明らかであろう。他の実施形態は、本明細書の考察、ならびに開示する方法およびシステムの実施から当業者には明らかになろう。本明細書および上記の例は、単に例示とみなされ、真の範囲は、添付の特許請求の範囲およびそれらの均等物によって示されることが意図される。
[項目1]
移動ターゲットを認識、追跡、および合焦するための方法であって、
撮像デバイスに対して移動する上記移動ターゲットを認識するステップと、
上記移動ターゲットを追跡するステップと、
上記撮像デバイスから上記移動ターゲットまでの距離を決定するステップと
を含む方法。
[項目2]
上記決定された距離に基づいて上記移動ターゲットに合焦するステップをさらに含む、項目1に記載の方法。
[項目3]
上記移動ターゲットを認識するステップが深層機械学習のニューラルネットワークによって行われる、項目1に記載の方法。
[項目4]
上記ニューラルネットワークが1つまたは複数の畳込み層を含む、項目3に記載の方法。
[項目5]
上記ニューラルネットワークが多数のサンプル画像によって訓練される、項目3に記載の方法。
[項目6]
上記撮像デバイスが可動物体に設置される、項目1に記載の方法。
[項目7]
上記移動ターゲットを追跡するステップが、上記可動物体の推進デバイスを制御することによって行われる、項目6に記載の方法。
[項目8]
上記距離を決定するステップがレーザ測定デバイスによって行われる、項目1に記載の方法。
[項目9]
上記距離を決定するステップが超音波測定デバイスによって行われる、項目1に記載の方法。
[項目10]
上記移動ターゲットに合焦するステップが、上記撮像デバイスの焦点距離を調整することによって行われる、項目2に記載の方法。
[項目11]
上記移動ターゲットが、複数の移動ターゲットのうちの1つまたは複数である、項目1に記載の方法。
[項目12]
移動ターゲットを認識、追跡、および合焦するためのシステムであって、
制御装置を備え、上記制御装置が、1つまたは複数のプロセッサを有し、
撮像デバイスに対して移動する上記移動ターゲットを認識すること、
上記移動ターゲットを追跡すること、および
上記撮像デバイスから上記移動ターゲットまでの距離を決定すること
を行うように構成される、システム。
[項目13]
上記制御装置が、上記決定された距離に基づいて上記移動ターゲットに合焦するようにさらに構成される、項目12に記載のシステム。
[項目14]
上記移動ターゲットの認識が深層機械学習のニューラルネットワークによって行われる、項目12に記載のシステム。
[項目15]
上記ニューラルネットワークが1つまたは複数の畳込み層を含む、項目14に記載のシステム。
[項目16]
上記ニューラルネットワークが多数のサンプル画像によって訓練される、項目14に記載のシステム。
[項目17]
上記撮像デバイスが可動物体に設置される、項目12に記載のシステム。
[項目18]
上記移動ターゲットを追跡することが、上記可動物体の推進デバイスを制御することによって行われる、項目17に記載のシステム。
[項目19]
上記距離を決定することがレーザ測定デバイスによって行われる、項目12に記載のシステム。
[項目20]
上記距離を決定することが超音波測定デバイスによって行われる、項目12に記載のシステム。
[項目21]
上記制御装置が、上記撮像デバイスの焦点距離を調整するようにさらに構成される、項目13に記載のシステム。
[項目22]
上記移動ターゲットが、複数の移動ターゲットの1つまたは複数である、項目12に記載のシステム。
[項目23]
複数のデバイスと通信し、移動ターゲットを認識、追跡、および合焦するように構成された制御装置を備える無人航空機(UAV)システムであって、上記制御装置が、1つまたは複数のプロセッサを備え、上記プロセッサが、
撮像デバイスに対して移動する上記移動ターゲットを認識すること、
上記移動ターゲットを追跡すること、および
上記撮像デバイスから上記移動ターゲットまでの距離を決定すること
を行うように構成される、無人航空機(UAV)システム。
[項目24]
上記制御装置が、上記決定された距離に基づいて上記移動ターゲットに合焦するようにさらに構成される、項目23に記載のUAV。
[項目25]
上記移動ターゲットを認識することが深層機械学習のニューラルネットワークによって行われる、項目23に記載のUAV。
[項目26]
上記ニューラルネットワークが1つまたは複数の畳込み層を含む、項目25に記載のUAV。
[項目27]
上記ニューラルネットワークが多数のサンプル画像によって訓練される、項目25に記載のUAV。
[項目28]
上記距離を決定することがレーザ測定デバイスによって行われる、項目23に記載のUAV。
[項目29]
上記制御装置が、上記撮像デバイスの焦点距離を調整するようにさらに構成される、項目24に記載のUAV。
[項目30]
実行されるときに、移動ターゲットを認識、追跡、合焦するための方法をコンピュータに実施させる命令を記憶する非一時的なコンピュータ可読媒体であって、上記方法が、
撮像デバイスに対して移動する上記移動ターゲットを認識するステップと、
上記移動ターゲットを追跡するステップと、
上記撮像デバイスから上記移動ターゲットまでの距離を決定するステップと
を含む、非一時的なコンピュータ可読媒体。

Claims (30)

  1. 移動ターゲットを認識、追跡、および合焦するための方法であって、
    撮像デバイスに対して移動する前記移動ターゲットを認識するステップと、
    前記移動ターゲットを追跡するステップと、
    前記撮像デバイスから前記移動ターゲットまでの距離を決定するステップと
    を含む方法。
  2. 前記決定された距離に基づいて前記移動ターゲットに合焦するステップをさらに含む、請求項1に記載の方法。
  3. 前記移動ターゲットを認識するステップが深層機械学習のニューラルネットワークによって行われる、請求項1に記載の方法。
  4. 前記ニューラルネットワークが1つまたは複数の畳込み層を含む、請求項3に記載の方法。
  5. 前記ニューラルネットワークが多数のサンプル画像によって訓練される、請求項3に記載の方法。
  6. 前記撮像デバイスが可動物体に設置される、請求項1に記載の方法。
  7. 前記移動ターゲットを追跡するステップが、前記可動物体の推進デバイスを制御することによって行われる、請求項6に記載の方法。
  8. 前記距離を決定するステップがレーザ測定デバイスによって行われる、請求項1に記載の方法。
  9. 前記距離を決定するステップが超音波測定デバイスによって行われる、請求項1に記載の方法。
  10. 前記移動ターゲットに合焦するステップが、前記撮像デバイスの焦点距離を調整することによって行われる、請求項2に記載の方法。
  11. 前記移動ターゲットが、複数の移動ターゲットのうちの1つまたは複数である、請求項1に記載の方法。
  12. 移動ターゲットを認識、追跡、および合焦するためのシステムであって、
    制御装置を備え、前記制御装置が、1つまたは複数のプロセッサを有し、
    撮像デバイスに対して移動する前記移動ターゲットを認識すること、
    前記移動ターゲットを追跡すること、および
    前記撮像デバイスから前記移動ターゲットまでの距離を決定すること
    を行うように構成される、システム。
  13. 前記制御装置が、前記決定された距離に基づいて前記移動ターゲットに合焦するようにさらに構成される、請求項12に記載のシステム。
  14. 前記移動ターゲットの認識が深層機械学習のニューラルネットワークによって行われる、請求項12に記載のシステム。
  15. 前記ニューラルネットワークが1つまたは複数の畳込み層を含む、請求項14に記載のシステム。
  16. 前記ニューラルネットワークが多数のサンプル画像によって訓練される、請求項14に記載のシステム。
  17. 前記撮像デバイスが可動物体に設置される、請求項12に記載のシステム。
  18. 前記移動ターゲットを追跡することが、前記可動物体の推進デバイスを制御することによって行われる、請求項17に記載のシステム。
  19. 前記距離を決定することがレーザ測定デバイスによって行われる、請求項12に記載のシステム。
  20. 前記距離を決定することが超音波測定デバイスによって行われる、請求項12に記載のシステム。
  21. 前記制御装置が、前記撮像デバイスの焦点距離を調整するようにさらに構成される、請求項13に記載のシステム。
  22. 前記移動ターゲットが、複数の移動ターゲットの1つまたは複数である、請求項12に記載のシステム。
  23. 複数のデバイスと通信し、移動ターゲットを認識、追跡、および合焦するように構成された制御装置を備える無人航空機(UAV)システムであって、前記制御装置が、1つまたは複数のプロセッサを備え、前記プロセッサが、
    撮像デバイスに対して移動する前記移動ターゲットを認識すること、
    前記移動ターゲットを追跡すること、および
    前記撮像デバイスから前記移動ターゲットまでの距離を決定すること
    を行うように構成される、無人航空機(UAV)システム。
  24. 前記制御装置が、前記決定された距離に基づいて前記移動ターゲットに合焦するようにさらに構成される、請求項23に記載のUAV。
  25. 前記移動ターゲットを認識することが深層機械学習のニューラルネットワークによって行われる、請求項23に記載のUAV。
  26. 前記ニューラルネットワークが1つまたは複数の畳込み層を含む、請求項25に記載のUAV。
  27. 前記ニューラルネットワークが多数のサンプル画像によって訓練される、請求項25に記載のUAV。
  28. 前記距離を決定することがレーザ測定デバイスによって行われる、請求項23に記載のUAV。
  29. 前記制御装置が、前記撮像デバイスの焦点距離を調整するようにさらに構成される、請求項24に記載のUAV。
  30. 実行されるときに、移動ターゲットを認識、追跡、合焦するための方法をコンピュータに実施させる命令を記憶する非一時的なコンピュータ可読媒体であって、前記方法が、
    撮像デバイスに対して移動する前記移動ターゲットを認識するステップと、
    前記移動ターゲットを追跡するステップと、
    前記撮像デバイスから前記移動ターゲットまでの距離を決定するステップと
    を含む、非一時的なコンピュータ可読媒体。
JP2019563569A 2017-06-02 2017-06-02 移動ターゲットを認識、追跡、および合焦するための方法及びシステム Pending JP2020522002A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2017/086948 WO2018218640A1 (en) 2017-06-02 2017-06-02 Systems and methods for multi-target tracking and autofocusing based on deep machine learning and laser radar

Publications (1)

Publication Number Publication Date
JP2020522002A true JP2020522002A (ja) 2020-07-27

Family

ID=64454310

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019563569A Pending JP2020522002A (ja) 2017-06-02 2017-06-02 移動ターゲットを認識、追跡、および合焦するための方法及びシステム

Country Status (5)

Country Link
US (2) US11006033B2 (ja)
EP (1) EP3613208A4 (ja)
JP (1) JP2020522002A (ja)
CN (1) CN109479088A (ja)
WO (1) WO2018218640A1 (ja)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9758246B1 (en) * 2016-01-06 2017-09-12 Gopro, Inc. Systems and methods for adjusting flight control of an unmanned aerial vehicle
JP7157054B2 (ja) * 2017-01-26 2022-10-19 モービルアイ ビジョン テクノロジーズ リミテッド 整合画像及びlidar情報に基づいた車両ナビゲーション
US10491824B2 (en) 2017-09-26 2019-11-26 Gopro, Inc. Combined mechanical and electronic image stabilization
US11496684B2 (en) 2017-12-11 2022-11-08 Gopro, Inc. Combined mechanical and electronic image stabilization
US10678238B2 (en) * 2017-12-20 2020-06-09 Intel IP Corporation Modified-reality device and method for operating a modified-reality device
US10827123B1 (en) 2018-01-05 2020-11-03 Gopro, Inc. Modular image capture systems
US11747481B2 (en) * 2018-07-20 2023-09-05 The Boeing Company High performance three dimensional light detection and ranging (LIDAR) system for drone obstacle avoidance
WO2020049575A1 (en) * 2018-09-09 2020-03-12 Viewnetic Ltd. Inspection system for use in monitoring plants in plant growth areas
US11159734B2 (en) * 2018-12-06 2021-10-26 Heimavista Inc. Automatic object tracking system and automatic object tracking method
US10855926B2 (en) * 2018-12-06 2020-12-01 Heimavista Inc. Automatic object tracking system and automatic object tracking method
CN109765939A (zh) * 2018-12-21 2019-05-17 中国科学院自动化研究所南京人工智能芯片创新研究院 无人机的云台控制方法、装置和存储介质
WO2020137802A1 (ja) * 2018-12-28 2020-07-02 株式会社荏原製作所 パッド温度調整装置、パッド温度調整方法、研磨装置、および研磨システム
CN109831622B (zh) * 2019-01-03 2021-06-22 华为技术有限公司 一种拍摄方法及电子设备
CN109934848B (zh) * 2019-03-07 2023-05-23 贵州大学 一种基于深度学习的运动物体精准定位的方法
CN110133663B (zh) * 2019-05-08 2023-03-10 西安联丰迅声信息科技有限责任公司 一种分布式声像联合校准定位方法
CN110147122A (zh) * 2019-06-14 2019-08-20 深圳市道通智能航空技术有限公司 一种移动目标的追踪方法、装置及无人机
JP7408303B2 (ja) * 2019-06-18 2024-01-05 株式会社ミツトヨ 測定装置
CN110232371B (zh) * 2019-06-24 2021-08-31 北京理工大学 基于小样本的高精度hrrp雷达多目标识别方法
KR102239134B1 (ko) * 2019-06-28 2021-04-12 (주)스마트모션 드론에 부착된 vr 카메라를 이용하여 촬영한 운동 경기 영상을 제공하는 방송 시스템
WO2021031159A1 (zh) * 2019-08-21 2021-02-25 深圳市大疆创新科技有限公司 比赛拍摄方法、电子设备、无人机与存储介质
CN112136312A (zh) * 2019-10-21 2020-12-25 深圳市大疆创新科技有限公司 一种获取目标距离的方法、控制装置及移动平台
CN111602138B (zh) * 2019-10-30 2024-04-09 深圳市大疆创新科技有限公司 基于人工神经网络的物体检测的系统及方法
CN110992731B (zh) * 2019-12-12 2021-11-05 苏州智加科技有限公司 基于激光雷达的3d车辆检测方法、装置及存储介质
CN111136648B (zh) * 2019-12-27 2021-08-27 深圳市优必选科技股份有限公司 一种移动机器人的定位方法、定位装置及移动机器人
KR20210094798A (ko) * 2020-01-22 2021-07-30 한화테크윈 주식회사 사용자 피드백에 기초한 도어벨 카메라 시스템에 의한 이벤트 생성
CN111539991B (zh) * 2020-04-28 2023-10-20 北京市商汤科技开发有限公司 目标跟踪方法及装置、存储介质
CN113671981A (zh) * 2020-05-14 2021-11-19 北京理工大学 远程激光制导飞行器控制系统及其控制方法
US11758272B2 (en) * 2020-06-02 2023-09-12 Intelligent Fusion Technology, Inc. Apparatus and method for target detection and localization
WO2022015238A1 (en) * 2020-07-15 2022-01-20 Singapore University Of Technology And Design Aerial vehicle and method of forming the same, method of determining dimension of object
CN112040128A (zh) * 2020-09-03 2020-12-04 浙江大华技术股份有限公司 工作参数的确定方法及装置、存储介质、电子装置
EP4229546A4 (en) * 2020-10-14 2024-04-10 One Cup Productions Ltd ANIMAL VISUAL IDENTIFICATION, TRACKING, SURVEILLANCE AND EVALUATION SYSTEMS AND ASSOCIATED METHODS
CN111935412B (zh) * 2020-10-19 2021-04-13 广东科凯达智能机器人有限公司 一种巡检目标自动识别跟踪的方法、系统及机器人
CN112307921B (zh) * 2020-10-22 2022-05-17 桂林电子科技大学 一种车载端多目标识别跟踪预测方法
CN112312113B (zh) * 2020-10-29 2022-07-15 贝壳技术有限公司 用于生成三维模型的方法、装置和系统
CN112822469B (zh) * 2020-12-31 2022-04-12 广景视睿科技(深圳)有限公司 一种自动对焦投影方法及系统
CN112926382B (zh) * 2021-01-08 2022-06-24 浙江大学 一种改善目标聚类特性的深度学习激光水下目标识别仪
US11611707B2 (en) * 2021-05-24 2023-03-21 Anduril Industries, Inc. Auto-focus tracking for remote flying targets
US11606492B2 (en) 2021-05-24 2023-03-14 Anduril Industries, Inc. Auto-focus acquisition for remote flying targets
CN115412652B (zh) * 2021-05-26 2024-03-22 哈尔滨工业大学(深圳) 用于无人售货机的图像数据采集装置和方法
JP2023003033A (ja) * 2021-06-23 2023-01-11 キヤノン株式会社 電子機器および電子機器の制御方法
CN113608232B (zh) * 2021-06-30 2024-06-04 湖南宏动光电有限公司 一种激光动态扫描测距方法及系统
CN113610924B (zh) * 2021-10-09 2021-12-17 中南大学 顾及地形效应的线性逼近高精度坐标反算方法、设备和介质
CN113920197A (zh) * 2021-10-18 2022-01-11 山东新一代信息产业技术研究院有限公司 一种激光雷达辅助摄像机自动调焦聚焦的方法
CN114363599A (zh) * 2022-02-24 2022-04-15 北京蜂巢世纪科技有限公司 基于电子变焦的追焦距方法、系统、终端及存储介质
CN114463686B (zh) * 2022-04-11 2022-06-17 西南交通大学 基于复杂背景下的移动目标检测方法和系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10187930A (ja) * 1996-12-19 1998-07-21 Hitachi Ltd 走行環境認識装置
JP2000172997A (ja) * 1998-12-03 2000-06-23 Hitachi Ltd 走行環境認識装置
JP2004040514A (ja) * 2002-07-04 2004-02-05 Nippon Hoso Kyokai <Nhk> 自動追尾撮像装置及び自動追尾撮像方法
JP2004265432A (ja) * 2004-04-05 2004-09-24 Hitachi Ltd 走行環境認識装置
JP2013149175A (ja) * 2012-01-22 2013-08-01 Suzuki Motor Corp オプティカルフロー処理装置及び表示半径マップ生成装置
JP2015005799A (ja) * 2013-06-19 2015-01-08 キヤノン株式会社 被写体検出装置およびその制御方法、撮像装置、被写体検出装置の制御プログラムおよび記憶媒体
JP2016191979A (ja) * 2015-03-30 2016-11-10 エヌ・ティ・ティ・コムウェア株式会社 感性評価装置、感性評価方法、およびプログラム
JP2017076193A (ja) * 2015-10-13 2017-04-20 株式会社国際電気通信基礎技術研究所 脳活動解析装置、脳活動解析方法および脳活動解析プログラム
WO2017066927A1 (en) * 2015-10-20 2017-04-27 SZ DJI Technology Co., Ltd. Systems, methods, and devices for setting camera parameters

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8244469B2 (en) * 2008-03-16 2012-08-14 Irobot Corporation Collaborative engagement for target identification and tracking
EP2482250B1 (en) * 2009-04-15 2015-05-20 Toyota Jidosha Kabushiki Kaisha Object detection device
CN101790048B (zh) * 2010-02-10 2013-03-20 深圳先进技术研究院 智能摄像系统及方法
JP2014081420A (ja) * 2012-10-15 2014-05-08 Olympus Imaging Corp 追尾装置及びその方法
WO2014194345A1 (en) 2013-01-30 2014-12-11 Newsouth Innovations Pty Limited Real-time rotation, shift, scale and skew visual recognition system
DE102013224704A1 (de) * 2013-12-03 2015-06-03 Robert Bosch Gmbh Verfahren zur automatischen Fokussierung einer Kamera
WO2016014548A1 (en) * 2014-07-25 2016-01-28 Robert Bosch Gmbh Method for mitigating radar sensor limitations with video camera input for active braking for pedestrians
JP6784434B2 (ja) * 2014-07-30 2020-11-11 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 方法、uav制御プログラム、無人航空機、及び制御システム
US20160224703A1 (en) * 2015-01-30 2016-08-04 AgriSight, Inc. Growth stage determination system and method
CN204859351U (zh) * 2015-03-31 2015-12-09 深圳市莫孚康技术有限公司 基于视频目标跟踪的自动跟焦装置
CN104811667A (zh) * 2015-04-29 2015-07-29 深圳市保千里电子有限公司 一种无人机跟踪目标的方法及系统
CN104766481A (zh) * 2015-04-29 2015-07-08 深圳市保千里电子有限公司 一种无人机进行车辆跟踪的方法及系统
CN104796672B (zh) * 2015-05-09 2018-04-20 合肥工业大学 一种无人机应急监控云台装置
EP3353706A4 (en) * 2015-09-15 2019-05-08 SZ DJI Technology Co., Ltd. SYSTEM AND METHOD FOR MONITORING UNIFORM TARGET TRACKING
CN105391939B (zh) * 2015-11-04 2017-09-29 腾讯科技(深圳)有限公司 无人机拍摄控制方法和装置、无人机拍摄方法和无人机
CN105391927A (zh) * 2015-12-11 2016-03-09 天津十彩动画科技有限公司 具有自动追踪定位功能的3d摄影机
CN105744163B (zh) * 2016-02-23 2019-01-25 湖南拓视觉信息技术有限公司 一种基于深度信息跟踪对焦的摄像机及摄像方法
CN106249267A (zh) * 2016-09-30 2016-12-21 南方科技大学 一种目标定位追踪方法和装置
CN106603914B (zh) * 2016-12-14 2020-01-14 山东锦程航空科技有限公司 一种基于光机电一体化无人机定焦系统及定焦方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10187930A (ja) * 1996-12-19 1998-07-21 Hitachi Ltd 走行環境認識装置
JP2000172997A (ja) * 1998-12-03 2000-06-23 Hitachi Ltd 走行環境認識装置
JP2004040514A (ja) * 2002-07-04 2004-02-05 Nippon Hoso Kyokai <Nhk> 自動追尾撮像装置及び自動追尾撮像方法
JP2004265432A (ja) * 2004-04-05 2004-09-24 Hitachi Ltd 走行環境認識装置
JP2013149175A (ja) * 2012-01-22 2013-08-01 Suzuki Motor Corp オプティカルフロー処理装置及び表示半径マップ生成装置
JP2015005799A (ja) * 2013-06-19 2015-01-08 キヤノン株式会社 被写体検出装置およびその制御方法、撮像装置、被写体検出装置の制御プログラムおよび記憶媒体
JP2016191979A (ja) * 2015-03-30 2016-11-10 エヌ・ティ・ティ・コムウェア株式会社 感性評価装置、感性評価方法、およびプログラム
JP2017076193A (ja) * 2015-10-13 2017-04-20 株式会社国際電気通信基礎技術研究所 脳活動解析装置、脳活動解析方法および脳活動解析プログラム
WO2017066927A1 (en) * 2015-10-20 2017-04-27 SZ DJI Technology Co., Ltd. Systems, methods, and devices for setting camera parameters

Also Published As

Publication number Publication date
EP3613208A1 (en) 2020-02-26
WO2018218640A1 (en) 2018-12-06
CN109479088A (zh) 2019-03-15
US20210250490A1 (en) 2021-08-12
US20180352144A1 (en) 2018-12-06
US11283986B2 (en) 2022-03-22
US11006033B2 (en) 2021-05-11
EP3613208A4 (en) 2020-06-24

Similar Documents

Publication Publication Date Title
US11283986B2 (en) Systems and methods for multi-target tracking and autofocusing based on deep machine learning and laser radar
US11704812B2 (en) Methods and system for multi-target tracking
US11635775B2 (en) Systems and methods for UAV interactive instructions and control
US20210065400A1 (en) Selective processing of sensor data
US10599149B2 (en) Salient feature based vehicle positioning
US11263761B2 (en) Systems and methods for visual target tracking
US10447912B2 (en) Systems, methods, and devices for setting camera parameters
US10914590B2 (en) Methods and systems for determining a state of an unmanned aerial vehicle
US10466718B2 (en) Camera configuration on movable objects
WO2016187760A1 (en) Sensor fusion using inertial and image sensors
US11310412B2 (en) Autofocusing camera and systems
EP3158417A1 (en) Sensor fusion using inertial and image sensors
CN104854428A (zh) 传感器融合
JP2019050007A (ja) 移動体の位置を判断する方法および装置、ならびにコンピュータ可読媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191125

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211227

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220201