JP7262503B2 - 小目標を検出するための方法及び装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム - Google Patents

小目標を検出するための方法及び装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム Download PDF

Info

Publication number
JP7262503B2
JP7262503B2 JP2021051677A JP2021051677A JP7262503B2 JP 7262503 B2 JP7262503 B2 JP 7262503B2 JP 2021051677 A JP2021051677 A JP 2021051677A JP 2021051677 A JP2021051677 A JP 2021051677A JP 7262503 B2 JP7262503 B2 JP 7262503B2
Authority
JP
Japan
Prior art keywords
training
detection model
targets
network
samples
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021051677A
Other languages
English (en)
Other versions
JP2021179971A (ja
Inventor
ガン ヘ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apollo Intelligent Connectivity Beijing Technology Co Ltd
Original Assignee
Apollo Intelligent Connectivity Beijing Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apollo Intelligent Connectivity Beijing Technology Co Ltd filed Critical Apollo Intelligent Connectivity Beijing Technology Co Ltd
Publication of JP2021179971A publication Critical patent/JP2021179971A/ja
Application granted granted Critical
Publication of JP7262503B2 publication Critical patent/JP7262503B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/54Interprogram communication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/63Scene text, e.g. street names
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/09Recognition of logos

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Description

本開示の実施例は、コンピュータ技術の分野に関し、具体的には小目標を検出するための方法及び装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラムに関する。
目標の検出は、自動運転分野における重要な研究の方向である。その主な検出の目標は、静止目標および運動目標の2種類に分類される。静止目標として、信号、交通標識、車道、障害物などが挙げられ、運動目標として、車、歩行者、非自動車などが挙げられる。ここで、交通標識の検出は、無人運転車が走行中に豊富かつ必要なナビゲーション情報を提供するものであり、重要な意味を持つ基礎的な仕事である。
ARナビゲーションなどのアプリケーションでは、現在の区間の交通標識をリアルタイムで検出し、ユーザーに対して相応のヒントを与えることが重要である。車載ビデオでは、交通標識のサイズ分布範囲が広く、かつ大量の小目標(20画素以下)が存在し、小目標の検出は、検出アルゴリズムそのものだけでなく、画像の高い解像度を維持することも求め、これは車載マシンの有限な計算の性能に対しても大きな試練である。
交通標識の認識の実効性を保証するために、既存の方式の多くは、YOLOモデルを使って入力画像をトレーニングし、得られた予測値から交通標識が属する分類を予測することによって識別する。YOLOモデルのトレーニングネットワークがC1ーC7の計7層の畳み込みトレーニング層と2層の全結合層を含むCNNモデルであるため、比較的速い速度で認識を完成できるが、交通標識が通常、収集されたオリジナル画像のごく一部を占めるだけであり、特徴マップが畳み込み層を通過するたびにサイズが縮小され、したがって、既存のYOLOモデルを採用する方法では、多層の畳み込みを通過した後に小さい画像の特徴を失いやすく、交通標識の認識の成功率に影響を与える。
本開示の実施例は、小目標を検出するための方法及び装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラムを提案する。
第1態様において、本開示の実施例は、小目標を含むオリジナル画像を取得することと、オリジナル画像を低解像度画像に縮小することと、軽量級の分割ネットワークを用いて、低解像度画像から小目標を含む候補領域を識別することと、候補領域に対応するオリジナル画像の領域を関心領域とし、予めトレーニングされた検出モデルを関心領域上で実行することにより、オリジナル画像における小目標の位置を確定することと、を含む小目標を検出するための方法に関する。
いくつかの実施例において、検出モデルは、次のような方法でトレーニングされ、即ち、初期検出モデルのネットワーク構造を確定し、且つ初期検出モデルのネットワークパラメータを初期化し、トレーニングサンプルセットを取得し、ここで、トレーニングサンプルは、サンプル画像とサンプル画像における小目標の位置を特徴付けるためのアノテーション情報とを含み、トレーニングサンプルを、コピー、マルチスケール変化、編集の少なくとも1つの方法で強化し、強化されたトレーニングサンプルセットにおけるトレーニングサンプル中のサンプル画像およびアノテーション情報をそれぞれ初期検出モデルの入力および所望の出力とし、初期検出モデルを機械学習方法でトレーニングし、トレーニングによって得られた初期検出モデルを、予めトレーニングされた検出モデルとして確定する。
いくつかの実施例において、トレーニングサンプルを以下のように編集し、即ち、サンプル画像から小目標を抽出し、小目標をスケールおよび/または回転した後、サンプル画像における他の位置にランダムに貼り付けることにより、新しいサンプル画像を得る。
いくつかの実施例において、当該方法は、分割ネットワークのトレーニングサンプルを作成する際には、タスクを検出するための矩形枠内の画素点を正のサンプルに設定し、矩形枠外の画素点を負のサンプルに設定することと、長さおよび幅方向の画素数が所定の画素数より小さい小目標の矩形枠を外側に広げることと、外側に広げられた矩形枠内の画素をいずれも正のサンプルに設定することと、をさらに含む。
いくつかの実施例において、検出モデルは、ディープニューラルネットワークである。
いくつかの実施例において、各予測層の特徴融合の後にアテンションモジュールを導入し、異なるチャネルの特徴に対し適切な重み付けを学習する。
第2態様において、本開示の実施例は、小目標を含むオリジナル画像を取得するように配置された取得ユニットと、オリジナル画像を低解像度画像に縮小するように配置された縮小ユニットと、軽量級の分割ネットワークを用いて、低解像度画像から小目標を含む候補領域を識別するように配置された第1の検出ユニットと、候補領域に対応するオリジナル画像の領域を関心領域とし、予めトレーニングされた検出モデルを関心領域上で実行することにより、オリジナル画像における小目標の位置を確定するように配置された第2の検出ユニットと、を含む小目標を検出するための装置に関する。
いくつかの実施例において、本開示の実施例に係る装置は、以下のように配置されたトレーニングユニットをさらに含み、即ち、初期検出モデルのネットワーク構造を確定し、且つ初期検出モデルのネットワークパラメータを初期化し、トレーニングサンプルセットを取得し、ここで、トレーニングサンプルは、サンプル画像とサンプル画像における小目標の位置を特徴付けるためのアノテーション情報とを含み、トレーニングサンプルを、コピー、マルチスケール変化、編集の少なくとも1つの方法で強化し、強化されたトレーニングサンプルセットにおけるトレーニングサンプル中のサンプル画像およびアノテーション情報をそれぞれ初期検出モデルの入力および所望の出力とし、初期検出モデルを機械学習方法でトレーニングし、トレーニングによって得られた初期検出モデルを、予めトレーニングされた検出モデルとして確定する。
いくつかの実施例において、トレーニングユニットは、さらに、サンプル画像から小目標を抽出し、小目標をスケールおよび/または回転した後、サンプル画像における他の位置にランダムに貼り付けることにより、新しいサンプル画像を得る、ように配置される。
いくつかの実施例において、第1の検出ユニットは、さらに、分割ネットワークのトレーニングサンプルを作成する際には、タスクを検出するための矩形枠内の画素点を正のサンプルに設定し、矩形枠外の画素点を負のサンプルに設定し、長さおよび幅方向の画素数が所定の画素数より小さい小目標の矩形枠を外側に広げ、外側に広げられた矩形枠内の画素をいずれも正のサンプルに設定する、ように配置される。
いくつかの実施例において、検出モデルは、ディープニューラルネットワークである。
いくつかの実施例において、各予測層の特徴融合の後にアテンションモジュールを導入し、異なるチャネルの特徴に対し適切な重み付けを学習する。
第3態様において、本開示の実施例は、1つ以上のプロセッサと、1つ以上のプログラムが記憶された記憶装置と、を含み、1つ以上のプログラムが1つ以上のプロセッサによって実行されるとき、第1態様のいずれかに記載の方法を1つ以上のプロセッサに実現させる小目標を検出するための電子機器に関する。
第4態様において、本開示の実施例は、コンピュータプログラムが記憶されたコンピュータ可読媒体であって、コンピュータプログラムがプロセッサによって実行されるとき、第1態様のいずれかに記載の方法を実現するコンピュータ可読記憶媒体に関する。
第5態様において、本開示の実施例は、コンピュータプログラムであって、コンピュータプログラムがプロセッサによって実行されると、第1態様のいずれかに記載の方法を実現するコンピュータプログラムに関する。
本開示の実施例による小目標を検出するための方法及び装置は、主にトレーニング方法、モデル構造、2段階の検出の3つの方面から解決され、ここで、トレーニング方法とモデル構造は、主にモデルの小目標に対する検出能力を向上させるために用いられ、2段階の検出は、画像に関係ない領域での計算量を減少させるために用いられ、この結果、演算速度を向上させる。
本発明は、ARナビゲーションプロジェクトにリアルタイムの交通標識検出アルゴリズムを提供することができ、小目標の検出においてより良いパフォーマンスを示し、ユーザのナビゲーション体験を向上させることができる。
本開示のその他の特徴、目的および利点をより明確にするために、以下の図面を参照してなされた非限定的な実施例の詳細な説明を参照する。
本開示の一実施例が適用可能な例示的なシステムアーキテクチャ図である。 本開示による小目標を検出するための方法の一実施例のフローチャートである。 本開示による小目標を検出するための方法の一応用シーンを示す概略図である。 本開示による小目標を検出するための方法の別の実施例のフローチャートである。 本開示による小目標を検出するための方法の検出モデルのネットワーク構成図である。 本開示による小目標を検出するための装置の一実施例の概略構成図である。 本開示の実施例を実現するために適用される電子機器のコンピュータシステムの概略構成図である。
以下、図面及び実施例を参照して本開示についてより詳細に説明する。ここで説明された具体的な実施例は、関連する発明を説明するためだけのものであり、この発明を制限するものではないことを理解できる。なお、説明を容易にするために、図面には関連する発明に関連する部分のみを示している。
なお、矛盾しない場合には、本開示の実施例及び実施例における特徴が互いに組み合わせることができる。以下、図面を参照して、実施例に合わせて本開示を詳細に説明する。
図1には、本発明が適用され得る、小目標を検出するための方法又は小目標を検出するための装置の実施例の例示的なシステムアーキテクチャ100が示されている。
図1に示すように、システムアーキテクチャ100は、車両101と交通標識102とを含むことができる。
車両101は、普通の自動車であってもよいし、無人運転車であってもよい。車両101に、コントローラ1011、ネットワーク1012およびセンサ1013が取り付けられてもよい。ネットワーク1012は、コントローラ1011とセンサ1013との間に通信リンクの媒体を提供するために使用される。ネットワーク1012は、例えば有線、無線通信リンク、または光ファイバケーブルなどの様々な接続タイプを含むことができる。
コントローラ(車載脳とも呼ばれる)1011は、車両101の知能制御を担当する。コントローラ1011は、例えばプログラマブルロジックコントローラ(Programmable Logic Controller、PLC)、ワンチップマイクロコンピュータ、産業用制御機などのような個別に配置されたコントローラであってもよいし、入出力ポートを有し、演算制御機能を有する他の電子デバイスで構成された装置であってもよいし、車両運転制御類のアプリケーションがインストールされたコンピュータデバイスであってもよい。コントローラには、トレーニングされた分割ネットワークと検出モデルが設置されている。
センサ1013は、例えば、カメラ、重力センサ、ホイール速度センサ、温度センサ、湿度センサ、レーザレーダ、ミリ波レーダーなどの様々なセンサであってもよい。場合によっては、車両101にはGNSS(Global Navigation Satellite System、グローバル衛星ナビゲーションシステム)機器やSINS(Strap-down Inertial Navigation System、ストラップダウン方式の慣性ナビゲーションシステム)などが搭載されてもよい。
車両101は、走行中に交通標識102を撮影する。遠距離で撮影された画像でも、近距離で撮影された画像でも、画像における交通標識は、いずれも小目標である。
車両101は、撮影した交通標識を含むオリジナル画像をコントローラに識別させることにより、交通標識の位置を確定する。OCR識別を行うことにより、交通標識の内容を識別することもできる。そして、交通標識の内容を音声や文字の形で出力する。
なお、本発明の実施例による小目標を検出するための方法は、一般的にコントローラ1011によって実行され、これに対応して、小目標を検出するための装置は、一般的にコントローラ1011に配置される。
図1のコントローラ、ネットワーク、およびセンサの数は単なる例示であることを理解すべきである。必要に応じて、任意の数のコントローラ、ネットワーク、およびセンサを備えることができる。
続けて図2を参照すると、本開示による小目標を検出するための方法の一実施例のフロー200が示されている。当該小目標を検出するための方法は、以下のステップを含む。
ステップ201において、小目標を含むオリジナル画像を取得する。
本実施例において、小目標を検出するための方法の実行主体(例えば図1に示されたコントローラ)は、車載カメラを介して前方画像を収集することができ、収集されたオリジナル画像には小目標が含まれる。小目標とは、縦横の画素数が所定値(例えば20)未満の目標物体の画像を指す。
ステップ202において、オリジナル画像を低解像度画像に縮小する。
本実施例において、オリジナル画像の縦横方向をそれぞれ4(または他の倍数)で除算することにより、低解像度画像を得ることができる。縮小中においてアスペクト比を変更しない。
ステップ203において、軽量級の分割ネットワークを用いて、低解像度画像から小目標を含む候補領域を識別する。
本実施例において、第1の段階の検出の際に、目標が存在する可能性のある大体の位置を特定するだけでよく、正確な外枠を必要としないため、軽量級の分割ネットワークを用いて実現し、その最終的な出力ヒートマップにおける一定の閾値より大きい点をターゲットの存在が疑わしい点とみなす。U-Netのような分割ネットワークを採用することができ、バックボーンネットワークは軽量化のためにshufflenetを採用する。
分割ネットワークのトレーニングサンプルを作成する際には、タスクを検出するための矩形枠内の画素点を正のサンプルに設定し、矩形枠外の画素点を負のサンプルに設定する。縦横方向のスケーリングがあるので、小目標に関するリコール率を保証するために、トレーニングサンプルを作成する際に、長さおよび幅方向の画素数が所定値、例えば20画素より小さい目標の矩形枠を外側に1倍に広げ、この後、外側に広げられた矩形枠内の画素をいずれも正のサンプルに設定する。
ステップ204において、候補領域に対応するオリジナル画像の領域を関心領域とし、予めトレーニングされた検出モデルを関心領域上で実行することにより、オリジナル画像における小目標の位置を確定する。
本実施例において、分割ネットワークから出力された結果におけるノイズポイントをフィルタリングした後、残りのすべての疑似的な目標点を囲む最小の外接矩形を形成し、当該矩形のスケールされない高解像度画像における対応する領域を関心領域とする。この後、検出モデルを当該関心領域上で実行すると、高解像度画像の一部の領域のみを処理する必要があり、この結果、計算量を低減することができる。
前述のように、小目標をより良く検出するために、より高い解像度を維持する必要があり、画像が大きいと計算量が倍になり、車載マシンの環境ではリアルタイム処理を実現することが困難である。一方、交通標識が画像上で占める割合は小さく、ほとんどは背景領域であり、背景領域での計算量は全体の計算量のかなりの割合を占め、高解像度で背景領域を処理するのは時間がかかり、無意味である。したがって、本発明は、2段階の検出方式を採用し、まず軽量級の分割ネットワークを介して低解像度の画像上で疑わしい目標の大体の位置を特定し、この後、すべての疑わしい目標を含む最小の外接矩形を求め、最後に、当該最小の外接矩形に対応する高解像度画像ブロック上で検出モデルを実行することにより、小目標に対する検出率を保証する場合、計算量を減らす。
上記の2つの段階の処理を経て、検出モデルの平均計算量は元の計算量の25%ぐらいに減少し、2つのモデルを合わせた平均計算量は、約元の計算量の45%ぐらいになる。
続けて図4を参照すると、図4は、本実施例による小目標を検出するための方法の応用シーンを示す概略図である。図4の応用シーンにおいて、車両は走行中に前方画像をリアルタイムで収集する。取得されたオリジナル画像の縦横をそれぞれ4で除算した後、低解像度画像に縮小する。低解像度画像を軽量級の分割ネットワークに入力して、交通標識を含む候補領域を識別する。この後、オリジナル画像から候補領域に対応するオリジナル画像の領域を関心領域として見出す。関心領域の画像を抽出し、予めトレーニングされた検出モデルを入力して、点線の枠に示されるように、オリジナル画像における交通標識の具体的な位置を確定する。
本開示の上記実施例による方法は、二次検出によって、計算量を低減し、識別速度と正確率を向上させる。
さらに図4を参照して、小目標を検出するための方法の別の実施例のフロー400が示されている。当該小目標を検出するための方法のフロー400は、以下のステップを含む。
ステップ401において、初期検出モデルのネットワーク構造を確定し、且つ初期検出モデルのネットワークパラメータを初期化する。
本実施例において、小目標を検出するための方法が実行される電子装置(例えば、図1に示されたコントローラ)は、検出モデルをトレーニングすることができる。サードパーティのサーバで検出モデルをトレーニングした後、車両のコントローラにインストールすることもできる。検出モデルは、ニューラルネットワークモデルであり、目標の検出のための既存のいずれかのニューラルネットワークであってもよい。
本実施例のいくつかの選択可能な実施形態において、検出モデルは、例えばYOLO系ネットワークなどのディープニューラルネットワークである。YOLO(You Only Look Once)は、ディープニューラルネットワークに基づくオブジェクト識別および位置特定アルゴリズムであり、その最大の特徴は、動作速度が速く、リアルタイムシステムに利用できることである。現在、YOLOはV3バージョン(YOLO3)に発展したが、新バージョンも元のバージョンに基づいてどんどん進化したものである。YOLO3のオリジナルの構造設計では、アップサンプリングにより低解像度特徴マップと高解像度特徴マップを融合する。しかしながら、このような融合は、高解像度特徴マップのみで発生し、異なるスケールの特徴を十分に融合することができなかった。
異なる階層の特徴をより良く融合するために、本発明は、まず、バックボーンネットワークにおけるサブサンプリングの8倍、16倍、および32倍の特徴を基本的な特徴として選択し、この後、異なるサイズの目標を予測するために、予測特徴マップのサイズをそれぞれ画像のサブサンプリングの8倍、16倍、および32倍のサイズに設定し、各予測特徴マップの特徴は、いずれも3つの基本的な特徴層からのものであり、サブサンプリングまたはアップサンプリングにより同一のサイズに統一してから融合する。画像のサブサンプリングの16倍の予測層を例にとると、その特徴は、それぞれ3つの基本的な特徴層からのものであり、同一のサイズに統一するために、サブサンプリングの8倍の基本的な特徴層に対して1倍のサブサンプリングを行い、サブサンプリングの32倍の基本的な特徴層に対して1倍のアップサンプリングを行い、この後、2つの特徴層とサブサンプリングの16倍の基本的な特徴層とを融合する。
単純に異なるスケールの特徴を融合すると、3つの予測層において特徴の比率は同じであり、それぞれの異なる予測目標に従って偏重して使用することができない。したがった、各予測層の特徴融合の後にアテンションモジュールをさらに導入し、異なるチャネルの特徴に対し適切な重み付けを学習し、これにより、各予測層は、自分が必要とする予測目標の特性に応じて、融合された後の特徴を偏重して使用することができる。ネットワーク構造を図5に示す。アテンションモジュールのパラメータの学習方式は先行技術であるため、ここでは説明を省略する。
本開示では、YOLO3を検出ネットワークとして採用することができ、このようなアンカ(anchor)に基づく検出方法においてanchorの設計と割り当ては非常に重要であり、小目標に合致できるanchorの数が少ないため、モデルによる小目標の学習が不十分になり、小目標をうまく検出できなくなる。このために、動的なanchorマッチングメカニズムを採用し、ground truth(基本真理値)の大きさに応じてanchorとground truthがマッチングしたときのIOU(信頼度スコア)閾値を適応的に選択し、目標が小さい場合、IOUの閾値を下げて、より多くの小目標がトレーニングに参加できるようにして、小目標の検出におけるモデルの性能を向上させる。トレーニングサンプルを作成する際には、目標の大きさをすでに知り、目標の大きさに応じて適切なIOUの閾値を選択する。
ステップ402において、トレーニングサンプルセットを取得する。
本実施例において、トレーニングサンプルは、サンプル画像とサンプル画像における小目標の位置を特徴付けるためのアノテーション情報とを含む。
ステップ403において、トレーニングサンプルを、コピー、マルチスケール変化、編集の少なくとも1つの方法で強化する。
本実施例において、これは主に、トレーニングデータ内の小目標の数が不十分な場合の策略である。データセットにおける小目標を含む画像を複数コピーすることにより、データにおける小目標の数を直接に増やす一方、画像における小目標を抽出してスケールや回転を行った後、画像における他の位置にランダムに貼り付けることで、小目標の数を増やすだけでなく、より多くの変化を導入し、トレーニングデータの分布を豊かにすることができる。
選択肢として、トレーニング画像を異なるスケールにスケールした後にトレーニングすることにより、元のデータセットにおける目標スケール変化を豊かにすることができ、モデルを異なるスケールの目標の検出タスクに適合させることができる。
ステップ404において、強化されたトレーニングサンプルセットにおけるトレーニングサンプル中のサンプル画像およびアノテーション情報をそれぞれ初期検出モデルの入力および所望の出力とし、初期検出モデルを機械学習方法でトレーニングする。
本実施例において、実行主体は、トレーニングサンプルセットにおけるトレーニングサンプル中のサンプル画像を初期検出モデルに入力することにより、当該サンプル画像における小目標の位置情報を得ることができ、当該トレーニングサンプルにおけるアノテーション情報を初期検出モデルの所望の出力とし、初期検出モデルを機械学習方法でトレーニングする。具体的には、まず、プリセットされた損失関数を用いて、得られた位置情報と当該トレーニングサンプルにおけるアノテーション情報との差異を計算することができ、例えば、L2ノルムを損失関数として用いて、得られた位置情報と当該トレーニングサンプルにおけるアノテーション情報との差異を計算することができる。この後、計算によって得られた差異に基づいて、初期検出モデルのネットワークパラメータを調整することができ、プリセットされたトレーニング終了条件を満たした場合、訓練を終了する。例えば、ここでプリセットされたトレーニング終了条件は、トレーニング時間がプリセット時間を超えること、トレーニング回数がプリセット回数を超えること、計算によって得られた差異がプリセット差異閾値より小さいことの少なくとも1つを含むことができるがこれに限定されない。
ここで、様々な実施形態で、生成された位置情報と当該トレーニングサンプルにおけるアノテーション情報との差異に基づいて、初期検出モデルのネットワークパラメータを調整することができる。例えば、BP(Back Propagation、逆伝播)アルゴリズムまたはSGD(Stochastic Gradient Descent、ランダム勾配降下)アルゴリズムを用いて、初期検出モデルのネットワークパラメータを調整することができる。
ステップ405において、トレーニングによって得られた初期検出モデルを、予めトレーニングされた検出モデルとして確定する。
本実施例において、トレーニングステップの実行主体は、ステップ404でトレーニングによって得られた初期検出モデルを、予めトレーニングされた検出モデルとして確定することができる。
さらに図6を参照して、上記の各図に示された方法の実現として、本発明は小目標を検出するための装置の一実施例を提供し、当該装置の実施例は、図2に示す方法実施例に対応し、当該装置は、具体的に様々な電子機器に適用できる。
図6に示すように、本実施例に係る小目標を検出するための装置600は、取得ユニット601と、縮小ユニット602と、第1の検出ユニット603と、第2の検出ユニット604とを含む。ここで、取得ユニット601は、小目標を含むオリジナル画像を取得するように配置され、縮小ユニット602は、オリジナル画像を低解像度画像に縮小するように配置され、第1の検出ユニット603は、軽量級の分割ネットワークを用いて、低解像度画像から小目標を含む候補領域を識別するように配置され、第2の検出ユニット604は、候補領域に対応するオリジナル画像の領域を関心領域とし、予めトレーニングされた検出モデルを関心領域上で実行することにより、オリジナル画像における小目標の位置を確定するように配置される。
本実施例において、小目標を検出するための装置600の取得ユニット601、縮小ユニット602、第1の検出ユニット603、及び第2の検出ユニット604の具体的な処理について、図2の対応する実施例におけるステップ201、ステップ202、ステップ203、およびステップ204を参照することができる。
本実施例のいくつかの選択可能な実施形態において、装置600は、以下のように配置されたトレーニングユニット(図示せず)をさらに含み、即ち、初期検出モデルのネットワーク構造を確定し、且つ初期検出モデルのネットワークパラメータを初期化し、トレーニングサンプルセットを取得し、ここで、トレーニングサンプルは、サンプル画像とサンプル画像における小目標の位置を特徴付けるためのアノテーション情報とを含み、トレーニングサンプルを、コピー、マルチスケール変化、編集の少なくとも1つの方法で強化し、強化されたトレーニングサンプルセットにおけるトレーニングサンプル中のサンプル画像およびアノテーション情報をそれぞれ初期検出モデルの入力および所望の出力とし、初期検出モデルを機械学習方法でトレーニングし、トレーニングによって得られた初期検出モデルを、予めトレーニングされた検出モデルとして確定する。
本実施例のいくつかの選択可能な実施形態において、トレーニングユニットは、さらに、サンプル画像から小目標を抽出し、小目標をスケールおよび/または回転した後、サンプル画像における他の位置にランダムに貼り付けることにより、新しいサンプル画像を得る、ように配置される。
本実施例のいくつかの選択可能な実施形態において、第1の検出ユニットは、さらに、分割ネットワークのトレーニングサンプルを作成する際には、タスクを検出するための矩形枠内の画素点を正のサンプルに設定し、矩形枠外の画素点を負のサンプルに設定し、長さおよび幅方向の画素数が所定の画素数より小さい小目標の矩形枠を外側に広げ、外側に広げられた矩形枠内の画素をいずれも正のサンプルに設定する、ように配置される。
本実施例のいくつかの選択可能な実施形態において、検出モデルは、ディープニューラルネットワークである。
本実施例のいくつかの選択可能な実施形態において、各予測層の特徴融合の後にアテンションモジュールを導入し、異なるチャネルの特徴に対し適切な重み付けを学習する。
以下、図7を参照して、本開示の実施例を実現するために適用される電子機器(例えば図1に示されたコントローラ)700の概略構成図が示されている。図7に示されたコントローラは、単なる例にすぎ、本開示の実施例の機能および使用範囲を制限するものではない。
図7に示すように、電子機器700は、読み出し専用メモリ(ROM)702に記憶されているプログラムまたは記憶部708からランダムアクセスメモリ(RAM)703にロードされたプログラムに従って各種の適切な動作と処理を行うことができる処理装置(例えば中央処理装置、グラフィックスプロセッサなど)701を含むことができる。RAM703には、電子機器700の操作に必要な様々なプログラムとデータが記憶されている。処理装置701、ROM702、およびRAM703は、バス704によって相互に接続されている。入力/出力(I/O)インターフェース705もバス704に接続されている。
通常、I/Oインターフェース705には、例えばタッチスクリーン、タッチパネル、キーボード、マウス、カメラ、マイク、加速度計、ジャイロなどを含む入力装置706と、例えば液晶ディスプレイ(LCD)、スピーカー、振動器などを含む出力装置707と、例えば磁気テープ、ハードディスクなどを含む記憶装置708と、通信装置709とが接続されている。通信装置709は、データを交換するために電子機器700が他の機器と無線通信または有線通信することを許可できる。図7は、様々な装置を有する電子機器700を示しているが、図示されたすべての装置を実施または備えることが要求されないことを理解されたい。代わりに、より多くまたはより少ない装置を実施または備えることができる。図7に示した各ブロックは、1つの装置を表してもよく、必要に応じて複数の装置を表してもよい。
特に、本開示の実施例によると、上記のフローチャートを参照して説明されたプロセスは、コンピュータソフトウェアのプログラムとして実現されることができる。例えば、本開示の実施例は、コンピュータ可読媒体に担持されたコンピュータプログラムを含むコンピュータプログラム製品を含み、当該コンピュータプログラムは、フローチャートに示された方法を実行するためのプログラムコードを含む。このような実施例では、このコンピュータプログラムは、通信装置709を介してネットワークからダウンロードされてインストールされ、または記憶装置708からインストールされ、またはROM702からインストールされることができる。このコンピュータプログラムが処理装置701によって実行されるときに、本開示の実施例の方法で限定された上記の機能を実行する。なお、本開示の実施例に記載のコンピュータ可読媒体は、コンピュータ可読信号媒体、あるいはコンピュータ可読記憶媒体、または上記の両方の任意の組合せであってもよい。コンピュータ可読記憶媒体は、例えば、電気、磁気、光、電磁気、赤外線、あるいは半導体のシステム、装置またはデバイス、あるいは上記の任意の組合せであってもよいが、これらに限らない。コンピュータ可読記憶媒体のより具体的な例には、1本以上のワイヤによる電気的接続、携帯型コンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROMまたはフラッシュメモリ)、光ファイバ、コンパクトディスク読み取り専用メモリ(CD-ROM)、光記憶装置、磁気記憶装置、または上記の任意の組み合わせが含まれるが、これらに限らない。本開示の実施例では、コンピュータ可読記憶媒体は、プログラムを含むかまたは記憶する任意の有形の媒体であることができ、このプログラムは、指令実行システム、装置またはデバイスによって使用され、またはそれらと組み合わせて使用されることができる。本開示の実施例では、コンピュータが読み取り可能な信号媒体は、コンピュータが読み取り可能なプログラムコードを担持した、ベースバンド内でまたは搬送波の一部として伝播されるデータ信号を含んでもよい。このような伝播されたデータ信号は、多種の形式を採用でき、電磁気信号、光信号、または上記の任意の適切な組み合わせを含むが、これらに限らない。コンピュータが読み取り可能な信号媒体は、コンピュータ可読記憶媒体以外のいかなるコンピュータ可読媒体であってもよく、このコンピュータ可読信号媒体は、指令実行システム、装置またはデバイスによって使用され、またはそれらと組み合わせて使用されるためのプログラムを送信、伝播または伝送することができる。コンピュータ可読媒体に含まれるプログラムコードは、任意の適切な媒体で伝送されることができ、ワイヤ、光ファイバケーブル、RF(無線周波数)など、または上記の任意の適切な組み合わせを含むが、これらに限らない。
上記コンピュータ可読媒体は、上記電子機器に含まれてもよく、個別に存在しこの電子機器に組み込まれなくてもよい。上記のコンピュータ可読媒体は、1つ以上のプログラムを担持し、上記の1つ以上のプログラムが当該電子機器によって実行されたとき、当該電子機器は、小目標を含むオリジナル画像を取得し、オリジナル画像を低解像度画像に縮小し、候補領域に対応するオリジナル画像の領域を関心領域とし、予めトレーニングされた検出モデルを関心領域上で実行することにより、オリジナル画像における小目標の位置を確定する。
本開示の実施例の操作を実行するためのコンピュータプログラムコードを、1以上のプログラミング言語またはそれらの組み合わせで書くことができ、前記プログラミング言語には、Java、Smalltalk、C ++などのオブジェクト指向プログラミング言語を含み、さらに「C」言語または同様のプログラミング言語などの従来の手続き型プログラミング言語も含まれる。プログラムコードは、完全にユーザのコンピュータ上で、部分的にユーザのコンピュータ上、1つの単独のソフトウェアパッケージとして、部分的にユーザのコンピュータ上かつ部分的にリモートコンピュータ上で、あるいは完全に遠隔コンピュータまたはサーバー上で実行されることができる。遠隔コンピュータに関する場合には、遠隔コンピュータは、ローカルエリアネットワーク(LAN)または広域ネットワーク(WAN)を含む任意の種類のネットワークを介してユーザのコンピュータに接続されることができ、または、外部のコンピュータに接続されることができる(例えばインターネットサービスプロバイダを利用してインターネットを介して接続する)。
図の中のフローチャートおよびブロック図には、本開示の様々な実施例によるシステム、方法とコンピュータプログラム製品の実現可能なアーキテクチャ、機能、および操作が示されている。この点で、フローチャート又はブロック図の各ブロックは、1つのモジュール、プログラミングのセグメント、またはコードの一部を代表でき、当該モジュール、プログラミングのセグメント、またはコードの一部は、所定のロジック機能を実現するための1つ以上の実行可能指令を含む。また、いくつかの代替の実施例では、ブロックに示されている機能は、図面に示された順序と異なる順序で発生してもよいことに留意されたい。例えば、連続して示す2つのブロックは実際に並行して実行されてもよく、それらは係る機能に応じて時に逆の順序で実行されてもよい。ブロック図および/またはフローチャートの各ブロック、およびブロック図および/またはフローチャートのブロックの組み合わせは、特定の機能または操作を実行する専用のハードウェアによるシステムによって実現されてもよく、または専用ハードウェアとコンピュータ指令の組み合わせによって実現されてもよいことにも留意されたい。
本開示の実施例に係るユニットは、ソフトウェアによって実現されてもよく、ハードウェアによって実現されてもよい。説明されたユニットは、プロセッサに設置されてもよく、例えば、「取得ユニットと、縮小ユニットと、第1の検出ユニットと、第2の検出ユニットとを含むプロセッサである」と記載してもよい。ここで、これらのユニットの名は、ある場合にはそのユニット自体を限定しなくて、例えば、取得ユニットを「ユーザのウェブページ閲覧要求を受信するユニット」と記載してもよい。
上記の説明は、本開示の好ましい実施例および応用された技術の原理の説明にすぎない。本開示の実施例に係る発明の範囲が、上記の技術的特徴を組み合わせて得られた技術案に限定されず、同時に上記の発明の概念から逸脱しない場合に、上記の技術的特徴またはこれと同等の技術的特徴を任意に組み合わせて得られた他の技術案を含むべきであることを当業者は理解すべきである。例えば、上記の特徴が本開示において開示されているもの(しかしこれに限らず)と類似した機能を有する技術的特徴と相互に入れ替わって形成された技術案が挙げられる。

Claims (13)

  1. 小目標を含むオリジナル画像を取得することと、
    前記オリジナル画像を低解像度画像に縮小することと、
    軽量級の分割ネットワークを用いて、前記低解像度画像から前記小目標を含む候補領域を識別することと、
    前記候補領域に対応するオリジナル画像の領域を関心領域とし、予めトレーニングされた検出モデルを前記関心領域上で実行することにより、前記オリジナル画像における前記小目標の位置を確定することと、
    を含み、
    前記分割ネットワークのトレーニングサンプルを作成する際に、タスクを検出するための矩形枠内の画素点を正のサンプルとし、矩形枠外の画素点を負のサンプルとすることと、
    長さおよび幅方向の画素数が所定の画素数より小さい小目標の矩形枠の長さおよび幅を外側へ所定のサイズ広げ、外側へ広げられた矩形枠内の画素をいずれも正のサンプルとすることと、
    をさらに含む小目標を検出するための方法。
  2. 前記検出モデルは、次のような方法でトレーニングされ、即ち、
    初期検出モデルのネットワーク構造を確定し、且つ前記初期検出モデルのネットワークパラメータを初期化し、
    トレーニングサンプルセットを取得し、ここで、トレーニングサンプルは、サンプル画像とサンプル画像における小目標の位置を特徴付けるためのアノテーション情報とを含み、
    前記トレーニングサンプルを、コピー、マルチスケール変化、編集の少なくとも1つの方法で強化し、
    強化されたトレーニングサンプルセットにおけるトレーニングサンプル中のサンプル画像およびアノテーション情報をそれぞれ前記初期検出モデルの入力および所望の出力とし、前記初期検出モデルを機械学習方法でトレーニングし、
    トレーニングによって得られた前記初期検出モデルを、前記予めトレーニングされた検出モデルとして確定する、
    請求項1に記載の方法。
  3. トレーニングサンプルを以下のように編集し、即ち、
    サンプル画像から小目標を抽出し、
    小目標をスケールおよび/または回転した後、サンプル画像における他の位置にランダムに貼り付けることにより、新しいサンプル画像を得る、
    請求項2に記載の方法。
  4. 前記検出モデルは、ディープニューラルネットワークである請求項1から3のいずれか1項に記載の方法。
  5. 各予測層の特徴融合の後にアテンションモジュールを導入し、異なるチャネルの特徴に対し適切な重み付けを学習する請求項に記載の方法。
  6. 小目標を含むオリジナル画像を取得するように配置された取得ユニットと、
    前記オリジナル画像を低解像度画像に縮小するように配置された縮小ユニットと、
    軽量級の分割ネットワークを用いて、前記低解像度画像から前記小目標を含む候補領域を識別するように配置された第1の検出ユニットと、
    前記候補領域に対応するオリジナル画像の領域を関心領域とし、予めトレーニングされた検出モデルを前記関心領域上で実行することにより、前記オリジナル画像における前記小目標の位置を確定するように配置された第2の検出ユニットと、
    を含み、
    前記第1の検出ユニットは、さらに
    前記分割ネットワークのトレーニングサンプルを作成する際に、タスクを検出するための矩形枠内の画素点を正のサンプルとし、矩形枠外の画素点を負のサンプルとし、
    長さおよび幅方向の画素数が所定の画素数より小さい小目標の矩形枠の長さおよび幅を外側へ所定のサイズ広げ、外側へ広げられた矩形枠内の画素をいずれも正のサンプルとするように構成される小目標を検出するための装置。
  7. 以下のように配置されたトレーニングユニットをさらに含み、即ち、
    初期検出モデルのネットワーク構造を確定し、且つ前記初期検出モデルのネットワークパラメータを初期化し、
    トレーニングサンプルセットを取得し、ここで、トレーニングサンプルは、サンプル画像とサンプル画像における小目標の位置を特徴付けるためのアノテーション情報とを含み、
    前記トレーニングサンプルを、コピー、マルチスケール変化、編集の少なくとも1つの方法で強化し、
    強化されたトレーニングサンプルセットにおけるトレーニングサンプル中のサンプル画像およびアノテーション情報をそれぞれ前記初期検出モデルの入力および所望の出力とし、前記初期検出モデルを機械学習方法でトレーニングし、
    トレーニングによって得られた前記初期検出モデルを、前記予めトレーニングされた検出モデルとして確定する、
    請求項に記載の装置。
  8. 前記トレーニングユニットは、さらに、
    サンプル画像から小目標を抽出し、
    小目標をスケールおよび/または回転した後、サンプル画像における他の位置にランダムに貼り付けることにより、新しいサンプル画像を得る、
    ように配置される、
    請求項に記載の装置。
  9. 前記検出モデルは、ディープニューラルネットワークである請求項からのいずれか1項に記載の装置。
  10. 各予測層の特徴融合の後にアテンションモジュールを導入し、異なるチャネルの特徴に対し適切な重み付けを学習する請求項に記載の装置。
  11. 1つ以上のプロセッサと、
    1つ以上のプログラムが記憶された記憶装置と、
    を含み、
    前記1つ以上のプログラムが前記1つ以上のプロセッサによって実行されるとき、請求項1からのいずれか1項に記載の方法を前記1つ以上のプロセッサに実現させる、
    小目標を検出するための電子機器。
  12. コンピュータプログラムが記憶されたコンピュータ可読媒体であって、
    前記コンピュータプログラムがプロセッサによって実行されるとき、請求項1からのいずれか1項に記載の方法を実現する、
    コンピュータ可読媒体。
  13. コンピュータプログラムであって、
    プロセッサによって実行されると、請求項1からのいずれか1項に記載の方法を実現する、コンピュータプログラム。
JP2021051677A 2020-05-27 2021-03-25 小目標を検出するための方法及び装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム Active JP7262503B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010461384.2A CN111626208B (zh) 2020-05-27 2020-05-27 用于检测小目标的方法和装置
CN202010461384.2 2020-05-27

Publications (2)

Publication Number Publication Date
JP2021179971A JP2021179971A (ja) 2021-11-18
JP7262503B2 true JP7262503B2 (ja) 2023-04-21

Family

ID=72272663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021051677A Active JP7262503B2 (ja) 2020-05-27 2021-03-25 小目標を検出するための方法及び装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム

Country Status (3)

Country Link
JP (1) JP7262503B2 (ja)
KR (1) KR102523886B1 (ja)
CN (1) CN111626208B (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112418345B (zh) * 2020-12-07 2024-02-23 深圳小阳软件有限公司 细粒度小目标快速识别的方法和装置
CN112633218B (zh) * 2020-12-30 2023-10-13 深圳市优必选科技股份有限公司 人脸检测方法、装置、终端设备及计算机可读存储介质
CN112801169B (zh) * 2021-01-25 2024-02-06 中国人民解放军陆军工程大学 一种基于改进yolo算法的伪装目标检测方法、系统、装置及存储介质
CN113158743B (zh) * 2021-01-29 2022-07-12 中国科学院自动化研究所 基于先验知识的小目标实时检测与定位方法、系统、设备
CN113011297A (zh) * 2021-03-09 2021-06-22 全球能源互联网研究院有限公司 基于边云协同的电力设备检测方法、装置、设备及服务器
CN113223026A (zh) * 2021-04-14 2021-08-06 山东师范大学 基于轮廓的目标果实图像实例分割方法及系统
CN113095434B (zh) * 2021-04-27 2024-06-11 深圳市商汤科技有限公司 目标检测方法及装置、电子设备、存储介质
CN113139483B (zh) * 2021-04-28 2023-09-29 北京百度网讯科技有限公司 人体行为识别方法、装置、设备、存储介质以及程序产品
CN113295298A (zh) * 2021-05-19 2021-08-24 深圳市朗驰欣创科技股份有限公司 测温方法、测温装置、终端设备及存储介质
CN113221823B (zh) * 2021-05-31 2024-06-07 南通大学 一种基于改进轻量级YOLOv3的交通信号灯倒计时识别方法
CN113221925B (zh) * 2021-06-18 2022-11-11 北京理工大学 一种基于多尺度图像的目标检测方法及装置
CN113591569A (zh) * 2021-06-28 2021-11-02 北京百度网讯科技有限公司 障碍物检测方法、装置、电子设备以及存储介质
CN113360791B (zh) * 2021-06-29 2023-07-18 北京百度网讯科技有限公司 电子地图的兴趣点查询方法、装置、路侧设备及车辆
CN113553979B (zh) * 2021-07-30 2023-08-08 国电汉川发电有限公司 一种基于改进yolo v5的安全服检测方法和系统
CN113628208B (zh) * 2021-08-30 2024-02-06 北京中星天视科技有限公司 船舶检测方法、装置、电子设备和计算机可读介质
KR102660084B1 (ko) * 2021-09-30 2024-04-22 연세대학교 산학협력단 3d 객체 탐지 장치 및 방법
CN113989592A (zh) * 2021-10-28 2022-01-28 三一建筑机器人(西安)研究院有限公司 一种语义分割图像样本的扩充方法、装置及电子设备
WO2023153781A1 (en) * 2022-02-08 2023-08-17 Samsung Electronics Co., Ltd. Method and electronic device for processing input frame for on-device ai model
CN114595759A (zh) * 2022-03-07 2022-06-07 卡奥斯工业智能研究院(青岛)有限公司 一种护具识别方法、装置、电子设备及存储介质
CN114298912B (zh) * 2022-03-08 2022-10-14 北京万里红科技有限公司 图像采集方法、装置、电子设备及存储介质
CN114973288A (zh) * 2022-05-30 2022-08-30 成都人人互娱科技有限公司 一种非商品图文本检测方法、系统及计算机存储介质
CN117541771A (zh) * 2022-08-01 2024-02-09 马上消费金融股份有限公司 图像识别模型训练方法及图像识别方法
CN115731243B (zh) * 2022-11-29 2024-02-09 北京长木谷医疗科技股份有限公司 基于人工智能及注意力机制的脊柱图像分割方法及装置
CN115984084B (zh) * 2022-12-19 2023-06-06 中国科学院空天信息创新研究院 一种基于动态可拆分网络的遥感分布式数据处理方法
CN116912604B (zh) * 2023-09-12 2024-01-16 浙江大华技术股份有限公司 模型训练方法、图像识别方法、装置以及计算机存储介质
CN117671458B (zh) * 2023-12-20 2024-06-14 云南神火铝业有限公司 自动识别块状残极的块状残极检测模型构建方法及应用
CN117746191B (zh) * 2024-02-07 2024-05-10 浙江啄云智能科技有限公司 以图搜图模型训练方法和以图搜图方法
CN117746028B (zh) * 2024-02-08 2024-06-11 暗物智能科技(广州)有限公司 一种未标注物品的视觉检测方法、装置、设备及介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190209116A1 (en) 2018-01-08 2019-07-11 Progenics Pharmaceuticals, Inc. Systems and methods for rapid neural network-based image segmentation and radiopharmaceutical uptake determination
JP2020009446A (ja) 2018-07-06 2020-01-16 タタ・コンサルタンシー・サーヴィシズ・リミテッド ディープネットワークを使用する自動オブジェクトアノテーションのための方法およびシステム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4420459B2 (ja) * 2005-06-14 2010-02-24 キヤノン株式会社 画像処理装置およびその方法
CN104598912A (zh) * 2015-01-23 2015-05-06 湖南科技大学 一种基于cpu与gpu协同计算的交通灯检测识别方法
US10740607B2 (en) * 2017-08-18 2020-08-11 Autel Robotics Co., Ltd. Method for determining target through intelligent following of unmanned aerial vehicle, unmanned aerial vehicle and remote control
CN109829456B (zh) * 2017-11-23 2022-05-17 腾讯科技(深圳)有限公司 图像识别方法、装置及终端
CN108229575A (zh) * 2018-01-19 2018-06-29 百度在线网络技术(北京)有限公司 用于检测目标的方法和装置
CN110119734A (zh) * 2018-02-06 2019-08-13 同方威视技术股份有限公司 刀具检测方法及装置
WO2020020472A1 (en) * 2018-07-24 2020-01-30 Fundación Centro Tecnoloxico De Telecomunicacións De Galicia A computer-implemented method and system for detecting small objects on an image using convolutional neural networks
CN109344821A (zh) * 2018-08-30 2019-02-15 西安电子科技大学 基于特征融合和深度学习的小目标检测方法
CN110909756A (zh) * 2018-09-18 2020-03-24 苏宁 用于医学图像识别的卷积神经网络模型训练方法和装置
CN110298226B (zh) * 2019-04-03 2023-01-06 复旦大学 一种毫米波图像人体携带物的级联检测方法
CN109858472B (zh) * 2019-04-09 2023-08-04 武汉领普科技有限公司 一种嵌入式实时人形检测方法和装置
CN110503112B (zh) * 2019-08-27 2023-02-03 电子科技大学 一种增强特征学习的小目标检测及识别方法
CN110866925B (zh) * 2019-10-18 2023-05-26 拜耳股份有限公司 一种用于图像分割的方法和装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190209116A1 (en) 2018-01-08 2019-07-11 Progenics Pharmaceuticals, Inc. Systems and methods for rapid neural network-based image segmentation and radiopharmaceutical uptake determination
JP2020009446A (ja) 2018-07-06 2020-01-16 タタ・コンサルタンシー・サーヴィシズ・リミテッド ディープネットワークを使用する自動オブジェクトアノテーションのための方法およびシステム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Meng Dong,外4名,A CNN-Based Approach for Automatic License Plate Recognition in the Wild,British Machine Vision Conference 2017,2017年01月
Yingying Zhu,外3名,Cascaded Segmentation-Detection Networks for Text-Based Traffic Sign Detection,IEEE Transactions on Intelligent Transportation Systems,Volume 19,Issue 1,2018年01月,pp. 209-219

Also Published As

Publication number Publication date
KR102523886B1 (ko) 2023-04-21
JP2021179971A (ja) 2021-11-18
CN111626208B (zh) 2023-06-13
CN111626208A (zh) 2020-09-04
KR20210042275A (ko) 2021-04-19

Similar Documents

Publication Publication Date Title
JP7262503B2 (ja) 小目標を検出するための方法及び装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム
US10599930B2 (en) Method and apparatus of detecting object of interest
US20230144209A1 (en) Lane line detection method and related device
US20200184718A1 (en) Multi-modal data fusion for enhanced 3d perception for platforms
CN112015847B (zh) 一种障碍物的轨迹预测方法、装置、存储介质及电子设备
US20210373161A1 (en) Lidar localization using 3d cnn network for solution inference in autonomous driving vehicles
US11693417B2 (en) Generating training data using simulated environments and training machine learning models for vehicle guidance
KR102539942B1 (ko) 궤적 계획 모델을 훈련하는 방법, 장치, 전자 기기, 저장 매체 및 프로그램
CN115540896B (zh) 路径规划方法、装置、电子设备和计算机可读介质
CN111476079A (zh) 将用于对象检测的地图特征与lidar合并的全面且有效的方法
CN114758502B (zh) 双车联合轨迹预测方法及装置、电子设备和自动驾驶车辆
CN112765302B (zh) 位置信息的处理方法、装置及计算机可读介质
CN112036517B (zh) 图像缺陷分类方法、装置及电子设备
US20230391362A1 (en) Decision-making for autonomous vehicle
CN108960160B (zh) 基于非结构化预测模型来预测结构化状态量的方法和装置
CN116452911A (zh) 目标检测模型训练方法及装置、目标检测方法及装置
CN116880462A (zh) 自动驾驶模型、训练方法和自动驾驶方法和车辆
US20230196749A1 (en) Training Neural Networks for Object Detection
CN113743456B (zh) 一种基于无监督学习的场景定位方法及系统
EP3876165A2 (en) Method, apparatus, and system for progressive training of evolving machine learning architectures
CN114627400A (zh) 一种车道拥堵检测方法、装置、电子设备和存储介质
CN111310660A (zh) 用于adas场景的目标检测虚警抑制方法及装置
CN115019278B (zh) 一种车道线拟合方法、装置、电子设备和介质
US11908095B2 (en) 2-D image reconstruction in a 3-D simulation
JP7324792B2 (ja) 位置情報を生成するための方法及び装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210416

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210811

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20211101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220704

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220815

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220906

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20220916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220920

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230411

R150 Certificate of patent or registration of utility model

Ref document number: 7262503

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150