JP2021179971A - Method and apparatus for detecting small target, electronic device, computer readable storage medium, and computer program - Google Patents

Method and apparatus for detecting small target, electronic device, computer readable storage medium, and computer program Download PDF

Info

Publication number
JP2021179971A
JP2021179971A JP2021051677A JP2021051677A JP2021179971A JP 2021179971 A JP2021179971 A JP 2021179971A JP 2021051677 A JP2021051677 A JP 2021051677A JP 2021051677 A JP2021051677 A JP 2021051677A JP 2021179971 A JP2021179971 A JP 2021179971A
Authority
JP
Japan
Prior art keywords
detection model
sample
image
small
small target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021051677A
Other languages
Japanese (ja)
Other versions
JP7262503B2 (en
Inventor
ガン ヘ
Gang He
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2021179971A publication Critical patent/JP2021179971A/en
Application granted granted Critical
Publication of JP7262503B2 publication Critical patent/JP7262503B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/54Interprogram communication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/63Scene text, e.g. street names
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/09Recognition of logos

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

To disclose a method and an apparatus for detecting small targets, an electronic device, a computer readable storage medium, and a computer program, in embodiments of the present disclosure.SOLUTION: A specific embodiment of a method includes: acquiring an original image containing a small target; reducing an original image to a low-resolution image; identifying a candidate area containing the small target from the low-resolution image using a lightweight division network; and determining the position of the small target in the original image by setting an area of the original image corresponding to the candidate area as an interest area and executing a detection model trained in advance on the interest area. In the embodiment, a two-stage detection method is designed, first the interest area is searched for via the lightweight division network, and next the detection model is executed on the interest area. Thereby, an amount of calculation can be substantially saved.SELECTED DRAWING: Figure 2

Description

本開示の実施例は、コンピュータ技術の分野に関し、具体的には小目標を検出するための方法及び装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラムに関する。 The embodiments of the present disclosure relate to the field of computer technology, specifically to methods and devices for detecting sub-targets, electronic devices, computer-readable storage media and computer programs.

目標の検出は、自動運転分野における重要な研究の方向である。その主な検出の目標は、静止目標および運動目標の2種類に分類される。静止目標として、信号、交通標識、車道、障害物などが挙げられ、運動目標として、車、歩行者、非自動車などが挙げられる。ここで、交通標識の検出は、無人運転車が走行中に豊富かつ必要なナビゲーション情報を提供するものであり、重要な意味を持つ基礎的な仕事である。 Target detection is an important research direction in the field of autonomous driving. The main detection targets are classified into two types: stationary targets and motor targets. Stationary targets include traffic lights, traffic signs, roadways, obstacles, and exercise targets include cars, pedestrians, and non-automobiles. Here, the detection of traffic signs is a basic task that is important because it provides abundant and necessary navigation information while an unmanned driving vehicle is driving.

ARナビゲーションなどのアプリケーションでは、現在の区間の交通標識をリアルタイムで検出し、ユーザーに対して相応のヒントを与えることが重要である。車載ビデオでは、交通標識のサイズ分布範囲が広く、かつ大量の小目標(20画素以下)が存在し、小目標の検出は、検出アルゴリズムそのものだけでなく、画像の高い解像度を維持することも求め、これは車載マシンの有限な計算の性能に対しても大きな試練である。 In applications such as AR navigation, it is important to detect traffic signs in the current section in real time and give appropriate hints to the user. In in-vehicle video, the size distribution range of traffic signs is wide and there are a large number of small targets (20 pixels or less), and detection of small targets requires not only the detection algorithm itself but also maintaining high resolution of the image. This is also a big test for the finite computational performance of in-vehicle machines.

交通標識の認識の実効性を保証するために、既存の方式の多くは、YOLOモデルを使って入力画像をトレーニングし、得られた予測値から交通標識が属する分類を予測することによって識別する。YOLOモデルのトレーニングネットワークがC1ーC7の計7層の畳み込みトレーニング層と2層の全結合層を含むCNNモデルであるため、比較的速い速度で認識を完成できるが、交通標識が通常、収集されたオリジナル画像のごく一部を占めるだけであり、特徴マップが畳み込み層を通過するたびにサイズが縮小され、したがって、既存のYOLOモデルを採用する方法では、多層の畳み込みを通過した後に小さい画像の特徴を失いやすく、交通標識の認識の成功率に影響を与える。 To ensure the effectiveness of traffic sign recognition, many existing methods identify by training the input image using a YOLO model and predicting the classification to which the traffic sign belongs from the resulting predictions. Since the training network of the YOLO model is a CNN model that includes a total of 7 convolutional training layers of C1-C7 and 2 fully connected layers, recognition can be completed at a relatively high speed, but traffic signs are usually collected. It occupies only a small part of the original image and is reduced in size each time the feature map passes through the convolutional layer, so the method of adopting the existing YOLO model is to go through the multi-layered convolutional and then the smaller image. It is easy to lose its characteristics and affects the success rate of traffic sign recognition.

本開示の実施例は、小目標を検出するための方法及び装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラムを提案する。 The embodiments of the present disclosure propose methods and devices, electronic devices, computer-readable storage media and computer programs for detecting sub-targets.

第1態様において、本開示の実施例は、小目標を含むオリジナル画像を取得することと、オリジナル画像を低解像度画像に縮小することと、軽量級の分割ネットワークを用いて、低解像度画像から小目標を含む候補領域を識別することと、候補領域に対応するオリジナル画像の領域を関心領域とし、予めトレーニングされた検出モデルを関心領域上で実行することにより、オリジナル画像における小目標の位置を確定することと、を含む小目標を検出するための方法に関する。 In a first aspect, the embodiments of the present disclosure are small from a low resolution image using an original image containing a small target, reducing the original image to a low resolution image, and using a lightweight split network. The position of the small target in the original image is determined by identifying the candidate area including the target, setting the area of the original image corresponding to the candidate area as the area of interest, and executing a pre-trained detection model on the area of interest. And how to detect small goals, including.

いくつかの実施例において、検出モデルは、次のような方法でトレーニングされ、即ち、初期検出モデルのネットワーク構造を確定し、且つ初期検出モデルのネットワークパラメータを初期化し、トレーニングサンプルセットを取得し、ここで、トレーニングサンプルは、サンプル画像とサンプル画像における小目標の位置を特徴付けるためのアノテーション情報とを含み、トレーニングサンプルを、コピー、マルチスケール変化、編集の少なくとも1つの方法で強化し、強化されたトレーニングサンプルセットにおけるトレーニングサンプル中のサンプル画像およびアノテーション情報をそれぞれ初期検出モデルの入力および所望の出力とし、初期検出モデルを機械学習方法でトレーニングし、トレーニングによって得られた初期検出モデルを、予めトレーニングされた検出モデルとして確定する。 In some embodiments, the detection model is trained in the following way, i.e., determining the network structure of the initial detection model, initializing the network parameters of the initial detection model, and obtaining a training sample set. Here, the training sample contains a sample image and annotation information for characterizing the position of the small target in the sample image, and the training sample is enhanced and enhanced by at least one method of copying, multi-scale change, and editing. The sample image and annotation information in the training sample in the training sample set are used as the input and desired output of the initial detection model, the initial detection model is trained by the machine learning method, and the initial detection model obtained by the training is pre-trained. Confirmed as a detection model.

いくつかの実施例において、トレーニングサンプルを以下のように編集し、即ち、サンプル画像から小目標を抽出し、小目標をスケールおよび/または回転した後、サンプル画像における他の位置にランダムに貼り付けることにより、新しいサンプル画像を得る。 In some examples, the training sample is edited as follows, i.e., a small target is extracted from the sample image, the small target is scaled and / or rotated, and then randomly pasted elsewhere in the sample image. This will give you a new sample image.

いくつかの実施例において、当該方法は、分割ネットワークのトレーニングサンプルを作成する際には、タスクを検出するための矩形枠内の画素点を正のサンプルに設定し、矩形枠外の画素点を負のサンプルに設定することと、長さが所定の画素数より小さい小目標の矩形枠を外側に広げることと、外側に広げられた矩形枠内の画素をいずれも正のサンプルに設定することと、をさらに含む。 In some embodiments, the method sets the pixel points within the rectangular frame for detecting the task to the positive sample and negatives the pixel points outside the rectangular frame when creating the training sample for the split network. To set the sample of, to expand the rectangular frame of the small target whose length is smaller than the predetermined number of pixels to the outside, and to set the pixels in the rectangular frame expanded to the outside to the positive sample. , Further including.

いくつかの実施例において、検出モデルは、ディープニューラルネットワークである。 In some embodiments, the detection model is a deep neural network.

いくつかの実施例において、各予測層の特徴融合の後にアテンションモジュールを導入し、異なるチャネルの特徴に対し適切な重み付けを学習する。 In some embodiments, attention modules are introduced after feature fusion of each predictor layer to learn appropriate weighting for features of different channels.

第2態様において、本開示の実施例は、小目標を含むオリジナル画像を取得するように配置された取得ユニットと、オリジナル画像を低解像度画像に縮小するように配置された縮小ユニットと、軽量級の分割ネットワークを用いて、低解像度画像から小目標を含む候補領域を識別するように配置された第1の検出ユニットと、候補領域に対応するオリジナル画像の領域を関心領域とし、予めトレーニングされた検出モデルを関心領域上で実行することにより、オリジナル画像における小目標の位置を確定するように配置された第2の検出ユニットと、を含む小目標を検出するための装置に関する。 In the second aspect, the embodiments of the present disclosure include an acquisition unit arranged to acquire an original image including a small target, a reduction unit arranged to reduce the original image to a low resolution image, and a lightweight class. The first detection unit arranged to identify the candidate area including the small target from the low-resolution image and the area of the original image corresponding to the candidate area as the area of interest were pre-trained using the divided network of. It relates to a second detection unit arranged to determine the position of the small target in the original image by running the detection model on the region of interest, and a device for detecting the small target including.

いくつかの実施例において、本開示の実施例に係る装置は、以下のように配置されたトレーニングユニットをさらに含み、即ち、初期検出モデルのネットワーク構造を確定し、且つ初期検出モデルのネットワークパラメータを初期化し、トレーニングサンプルセットを取得し、ここで、トレーニングサンプルは、サンプル画像とサンプル画像における小目標の位置を特徴付けるためのアノテーション情報とを含み、トレーニングサンプルを、コピー、マルチスケール変化、編集の少なくとも1つの方法で強化し、強化されたトレーニングサンプルセットにおけるトレーニングサンプル中のサンプル画像およびアノテーション情報をそれぞれ初期検出モデルの入力および所望の出力とし、初期検出モデルを機械学習方法でトレーニングし、トレーニングによって得られた初期検出モデルを、予めトレーニングされた検出モデルとして確定する。 In some embodiments, the apparatus according to the embodiments of the present disclosure further comprises a training unit arranged as follows, i.e., determining the network structure of the initial detection model and providing the network parameters of the initial detection model. Initialize and get the training sample set, where the training sample contains the sample image and annotation information to characterize the position of the small target in the sample image, and at least copy, multiscale change, edit the training sample. The sample images and annotation information in the training sample in the training sample enhanced by one method are used as the input and desired output of the initial detection model, respectively, and the initial detection model is trained by the machine learning method and obtained by training. The initial detection model obtained is determined as a pre-trained detection model.

いくつかの実施例において、トレーニングユニットは、さらに、サンプル画像から小目標を抽出し、小目標をスケールおよび/または回転した後、サンプル画像における他の位置にランダムに貼り付けることにより、新しいサンプル画像を得る、ように配置される。 In some embodiments, the training unit further extracts a small target from the sample image, scales and / or rotates the small target, and then randomly pastes it elsewhere in the sample image to create a new sample image. Is arranged to get.

いくつかの実施例において、第1の検出ユニットは、さらに、分割ネットワークのトレーニングサンプルを作成する際には、タスクを検出するための矩形枠内の画素点を正のサンプルに設定し、矩形枠外の画素点を負のサンプルに設定し、長さが所定の画素数より小さい小目標の矩形枠を外側に広げ、外側に広げられた矩形枠内の画素をいずれも正のサンプルに設定する、ように配置される。 In some embodiments, the first detection unit further sets the pixel points within the rectangular frame for detecting the task to the positive sample when creating the training sample for the split network, and outside the rectangular frame. Pixel points are set as a negative sample, a rectangular frame with a small target whose length is smaller than a predetermined number of pixels is expanded outward, and all the pixels in the rectangular frame expanded outward are set as positive samples. Arranged like this.

いくつかの実施例において、検出モデルは、ディープニューラルネットワークである。 In some embodiments, the detection model is a deep neural network.

いくつかの実施例において、各予測層の特徴融合の後にアテンションモジュールを導入し、異なるチャネルの特徴に対し適切な重み付けを学習する。 In some embodiments, attention modules are introduced after feature fusion of each predictor layer to learn appropriate weighting for features of different channels.

第3態様において、本開示の実施例は、1つ以上のプロセッサと、1つ以上のプログラムが記憶された記憶装置と、を含み、1つ以上のプログラムが1つ以上のプロセッサによって実行されるとき、第1態様のいずれかに記載の方法を1つ以上のプロセッサに実現させる小目標を検出するための電子機器に関する。 In a third aspect, the embodiments of the present disclosure include one or more processors and a storage device in which one or more programs are stored, and one or more programs are executed by one or more processors. When it comes to electronic devices for detecting sub-targets that enable one or more processors to implement the method according to any one of the first embodiments.

第4態様において、本開示の実施例は、コンピュータプログラムが記憶されたコンピュータ可読媒体であって、コンピュータプログラムがプロセッサによって実行されるとき、第1態様のいずれかに記載の方法を実現するコンピュータ可読記憶媒体に関する。 In a fourth aspect, an embodiment of the present disclosure is a computer-readable medium in which a computer program is stored, which realizes the method according to any one of the first aspects when the computer program is executed by a processor. Regarding storage media.

第5態様において、本開示の実施例は、コンピュータプログラムであって、コンピュータプログラムがプロセッサによって実行されると、第1態様のいずれかに記載の方法を実現するコンピュータプログラムに関する。 In a fifth aspect, the embodiments of the present disclosure relate to a computer program that, when executed by a processor, realizes the method according to any one of the first aspects.

本開示の実施例による小目標を検出するための方法及び装置は、主にトレーニング方法、モデル構造、2段階の検出の3つの方面から解決され、ここで、トレーニング方法とモデル構造は、主にモデルの小目標に対する検出能力を向上させるために用いられ、2段階の検出は、画像に関係ない領域での計算量を減少させるために用いられ、この結果、演算速度を向上させる。 The methods and devices for detecting sub-targets according to the embodiments of the present disclosure are mainly solved from three aspects of training method, model structure, and two-step detection, where the training method and model structure are mainly described. Used to improve the ability of the model to detect small targets, two-step detection is used to reduce the amount of computation in areas unrelated to the image, resulting in increased computational speed.

本発明は、ARナビゲーションプロジェクトにリアルタイムの交通標識検出アルゴリズムを提供することができ、小目標の検出においてより良いパフォーマンスを示し、ユーザのナビゲーション体験を向上させることができる。 The present invention can provide real-time traffic sign detection algorithms for AR navigation projects, show better performance in detecting small targets, and improve the user's navigation experience.

本開示のその他の特徴、目的および利点をより明確にするために、以下の図面を参照してなされた非限定的な実施例の詳細な説明を参照する。
本開示の一実施例が適用可能な例示的なシステムアーキテクチャ図である。 本開示による小目標を検出するための方法の一実施例のフローチャートである。 本開示による小目標を検出するための方法の一応用シーンを示す概略図である。 本開示による小目標を検出するための方法の別の実施例のフローチャートである。 本開示による小目標を検出するための方法の検出モデルのネットワーク構成図である。 本開示による小目標を検出するための装置の一実施例の概略構成図である。 本開示の実施例を実現するために適用される電子機器のコンピュータシステムの概略構成図である。
To better clarify the other features, objectives and advantages of the present disclosure, reference is made to the detailed description of the non-limiting examples made with reference to the following drawings.
It is an exemplary system architecture diagram to which one embodiment of the present disclosure is applicable. It is a flowchart of one Embodiment of the method for detecting a small target by this disclosure. It is a schematic diagram which shows one application scene of the method for detecting a small target by this disclosure. It is a flowchart of another embodiment of the method for detecting a small target by this disclosure. It is a network configuration diagram of the detection model of the method for detecting a small target by this disclosure. It is a schematic block diagram of an Example of the apparatus for detecting a small target by this disclosure. It is a schematic block diagram of the computer system of the electronic device applied to realize the embodiment of this disclosure.

以下、図面及び実施例を参照して本開示についてより詳細に説明する。ここで説明された具体的な実施例は、関連する発明を説明するためだけのものであり、この発明を制限するものではないことを理解できる。なお、説明を容易にするために、図面には関連する発明に関連する部分のみを示している。 Hereinafter, the present disclosure will be described in more detail with reference to the drawings and examples. It can be understood that the specific examples described herein are for illustration purposes only and are not intended to limit the invention. For ease of explanation, the drawings show only the parts related to the related invention.

なお、矛盾しない場合には、本開示の実施例及び実施例における特徴が互いに組み合わせることができる。以下、図面を参照して、実施例に合わせて本開示を詳細に説明する。 If there is no contradiction, the embodiments of the present disclosure and the features of the embodiments can be combined with each other. Hereinafter, the present disclosure will be described in detail according to examples with reference to the drawings.

図1には、本発明が適用され得る、小目標を検出するための方法又は小目標を検出するための装置の実施例の例示的なシステムアーキテクチャ100が示されている。 FIG. 1 shows an exemplary system architecture 100 of an embodiment of a method for detecting a small target or an apparatus for detecting a small target to which the present invention may be applied.

図1に示すように、システムアーキテクチャ100は、車両101と交通標識102とを含むことができる。 As shown in FIG. 1, the system architecture 100 can include a vehicle 101 and a traffic sign 102.

車両101は、普通の自動車であってもよいし、無人運転車であってもよい。車両101に、コントローラ1011、ネットワーク1012およびセンサ1013が取り付けられてもよい。ネットワーク1012は、コントローラ1011とセンサ1013との間に通信リンクの媒体を提供するために使用される。ネットワーク1012は、例えば有線、無線通信リンク、または光ファイバケーブルなどの様々な接続タイプを含むことができる。 The vehicle 101 may be an ordinary automobile or an unmanned driving vehicle. The controller 1011 and the network 1012 and the sensor 1013 may be attached to the vehicle 101. The network 1012 is used to provide a medium for communication links between the controller 1011 and the sensor 1013. The network 1012 can include various connection types such as, for example, wired, wireless communication links, or fiber optic cables.

コントローラ(車載脳とも呼ばれる)1011は、車両101の知能制御を担当する。コントローラ1011は、例えばプログラマブルロジックコントローラ(Programmable Logic Controller、PLC)、ワンチップマイクロコンピュータ、産業用制御機などのような個別に配置されたコントローラであってもよいし、入出力ポートを有し、演算制御機能を有する他の電子デバイスで構成された装置であってもよいし、車両運転制御類のアプリケーションがインストールされたコンピュータデバイスであってもよい。コントローラには、トレーニングされた分割ネットワークと検出モデルが設置されている。 The controller (also called an in-vehicle brain) 1011 is in charge of intelligent control of the vehicle 101. The controller 1011 may be an individually arranged controller such as a programmable logic controller (PLC), a one-chip computer, an industrial controller, or the like, or may have an input / output port and perform an operation. It may be a device composed of other electronic devices having a control function, or it may be a computer device in which an application of vehicle driving control is installed. The controller is equipped with a trained split network and detection model.

センサ1013は、例えば、カメラ、重力センサ、ホイール速度センサ、温度センサ、湿度センサ、レーザレーダ、ミリ波レーダーなどの様々なセンサであってもよい。場合によっては、車両101にはGNSS(Global Navigation Satellite System、グローバル衛星ナビゲーションシステム)機器やSINS(Strap-down Inertial Navigation System、ストラップダウン方式の慣性ナビゲーションシステム)などが搭載されてもよい。 The sensor 1013 may be, for example, various sensors such as a camera, a gravity sensor, a wheel speed sensor, a temperature sensor, a humidity sensor, a laser radar, and a millimeter wave radar. In some cases, the vehicle 101 may be equipped with GNSS (Global Navigation Satellite System) equipment, SINS (Strap-down Inertial Navigation System, strap-down type inertial navigation system), or the like.

車両101は、走行中に交通標識102を撮影する。遠距離で撮影された画像でも、近距離で撮影された画像でも、画像における交通標識は、いずれも小目標である。 The vehicle 101 photographs the traffic sign 102 while traveling. Traffic signs in images, whether taken at long distances or at short distances, are both small targets.

車両101は、撮影した交通標識を含むオリジナル画像をコントローラに識別させることにより、交通標識の位置を確定する。OCR識別を行うことにより、交通標識の内容を識別することもできる。そして、交通標識の内容を音声や文字の形で出力する。 The vehicle 101 determines the position of the traffic sign by causing the controller to identify the original image including the captured traffic sign. By performing OCR identification, the content of the traffic sign can also be identified. Then, the content of the traffic sign is output in the form of voice or characters.

なお、本発明の実施例による小目標を検出するための方法は、一般的にコントローラ1011によって実行され、これに対応して、小目標を検出するための装置は、一般的にコントローラ1011に配置される。 The method for detecting a small target according to the embodiment of the present invention is generally executed by the controller 1011. Correspondingly, the device for detecting the small target is generally arranged in the controller 1011. Will be done.

図1のコントローラ、ネットワーク、およびセンサの数は単なる例示であることを理解すべきである。必要に応じて、任意の数のコントローラ、ネットワーク、およびセンサを備えることができる。 It should be understood that the number of controllers, networks, and sensors in FIG. 1 is merely exemplary. It can be equipped with any number of controllers, networks, and sensors as needed.

続けて図2を参照すると、本開示による小目標を検出するための方法の一実施例のフロー200が示されている。当該小目標を検出するための方法は、以下のステップを含む。 Subsequently, with reference to FIG. 2, a flow 200 of an embodiment of the method for detecting a small target according to the present disclosure is shown. The method for detecting the sub-target includes the following steps.

ステップ201において、小目標を含むオリジナル画像を取得する。 In step 201, an original image including a small goal is acquired.

本実施例において、小目標を検出するための方法の実行主体(例えば図1に示されたコントローラ)は、車載カメラを介して前方画像を収集することができ、収集されたオリジナル画像には小目標が含まれる。小目標とは、縦横の画素数が所定値(例えば20)未満の目標物体の画像を指す。 In this embodiment, the execution subject of the method for detecting a small target (for example, the controller shown in FIG. 1) can collect a front image via an in-vehicle camera, and the collected original image is small. The goal is included. The small target refers to an image of a target object having a number of vertical and horizontal pixels less than a predetermined value (for example, 20).

ステップ202において、オリジナル画像を低解像度画像に縮小する。 In step 202, the original image is reduced to a low resolution image.

本実施例において、オリジナル画像の縦横方向をそれぞれ4(または他の倍数)で除算することにより、低解像度画像を得ることができる。縮小中においてアスペクト比を変更しない。 In this embodiment, a low resolution image can be obtained by dividing the vertical and horizontal directions of the original image by 4 (or other multiples). Do not change the aspect ratio during reduction.

ステップ203において、軽量級の分割ネットワークを用いて、低解像度画像から小目標を含む候補領域を識別する。 In step 203, a lightweight divided network is used to identify candidate regions containing small goals from low resolution images.

本実施例において、第1の段階の検出の際に、目標が存在する可能性のある大体の位置を特定するだけでよく、正確な外枠を必要としないため、軽量級の分割ネットワークを用いて実現し、その最終的な出力ヒートマップにおける一定の閾値より大きい点をターゲットの存在が疑わしい点とみなす。U-Netのような分割ネットワークを採用することができ、バックボーンネットワークは軽量化のためにshufflenetを採用する。 In this embodiment, during the detection of the first stage, it is only necessary to identify the approximate position where the target may exist, and an accurate outer frame is not required. Therefore, a lightweight divided network is used. The point larger than a certain threshold value in the final output heat map is regarded as the point where the existence of the target is suspicious. A split network such as U-Net can be adopted, and the backbone network adopts a shufflenet for weight reduction.

分割ネットワークのトレーニングサンプルを作成する際には、タスクを検出するための矩形枠内の画素点を正のサンプルに設定し、矩形枠外の画素点を負のサンプルに設定する。縦横方向のスケーリングがあるので、小目標に関するリコール率を保証するために、トレーニングサンプルを作成する際に、縦横が所定値、例えば20画素より小さい目標の矩形枠を外側に1倍に広げ、この後、外側に広げられた矩形枠内の画素をいずれも正のサンプルに設定する。 When creating a training sample for a divided network, the pixel points inside the rectangular frame for detecting the task are set as positive samples, and the pixel points outside the rectangular frame are set as negative samples. Since there is vertical and horizontal scaling, in order to guarantee the recall rate for small goals, when creating a training sample, the rectangular frame of the target whose vertical and horizontal dimensions are smaller than a predetermined value, for example, 20 pixels, is expanded outward by 1 time. After that, all the pixels in the rectangular frame spread outward are set as positive samples.

ステップ204において、候補領域に対応するオリジナル画像の領域を関心領域とし、予めトレーニングされた検出モデルを関心領域上で実行することにより、オリジナル画像における小目標の位置を確定する。 In step 204, the region of the original image corresponding to the candidate region is set as the region of interest, and the position of the small target in the original image is determined by executing the pre-trained detection model on the region of interest.

本実施例において、分割ネットワークから出力された結果におけるノイズポイントをフィルタリングした後、残りのすべての疑似的な目標点を囲む最小の外接矩形を形成し、当該矩形のスケールされない高解像度画像における対応する領域を関心領域とする。この後、検出モデルを当該関心領域上で実行すると、高解像度画像の一部の領域のみを処理する必要があり、この結果、計算量を低減することができる。 In this example, after filtering the noise points in the result output from the split network, a minimum circumscribed rectangle surrounding all the remaining pseudo target points is formed, which corresponds to the unscaled high resolution image of the rectangle. The area is the area of interest. After that, when the detection model is executed on the region of interest, it is necessary to process only a part of the high-resolution image, and as a result, the amount of calculation can be reduced.

前述のように、小目標をより良く検出するために、より高い解像度を維持する必要があり、画像が大きいと計算量が倍になり、車載マシンの環境ではリアルタイム処理を実現することが困難である。一方、交通標識が画像上で占める割合は小さく、ほとんどは背景領域であり、背景領域での計算量は全体の計算量のかなりの割合を占め、高解像度で背景領域を処理するのは時間がかかり、無意味である。したがって、本発明は、2段階の検出方式を採用し、まず軽量級の分割ネットワークを介して低解像度の画像上で疑わしい目標の大体の位置を特定し、この後、すべての疑わしい目標を含む最小の外接矩形を求め、最後に、当該最小の外接矩形に対応する高解像度画像ブロック上で検出モデルを実行することにより、小目標に対する検出率を保証する場合、計算量を減らす。 As mentioned earlier, higher resolutions need to be maintained in order to better detect small targets, larger images double the amount of computation, and real-time processing is difficult to achieve in an in-vehicle machine environment. be. On the other hand, traffic signs occupy a small proportion on the image, most of which is the background area, the amount of calculation in the background area occupies a considerable proportion of the total amount of calculation, and it takes time to process the background area with high resolution. It takes and is meaningless. Therefore, the present invention employs a two-step detection method, first identifying the approximate location of a suspicious target on a low resolution image via a lightweight split network, and then a minimum including all suspicious targets. If the detection rate for a small target is guaranteed by finding the circumscribing rectangle of, and finally running the detection model on the high-resolution image block corresponding to the smallest circumscribing rectangle, the amount of calculation is reduced.

上記の2つの段階の処理を経て、検出モデルの平均計算量は元の計算量の25%ぐらいに減少し、2つのモデルを合わせた平均計算量は、約元の計算量の45%ぐらいになる。 After the above two steps, the average complexity of the detection model is reduced to about 25% of the original complexity, and the combined complexity of the two models is about 45% of the original complexity. Become.

続けて図4を参照すると、図4は、本実施例による小目標を検出するための方法の応用シーンを示す概略図である。図4の応用シーンにおいて、車両は走行中に前方画像をリアルタイムで収集する。取得されたオリジナル画像の縦横をそれぞれ4で除算した後、低解像度画像に縮小する。低解像度画像を軽量級の分割ネットワークに入力して、交通標識を含む候補領域を識別する。この後、オリジナル画像から候補領域に対応するオリジナル画像の領域を関心領域として見出す。関心領域の画像を抽出し、予めトレーニングされた検出モデルを入力して、点線の枠に示されるように、オリジナル画像における交通標識の具体的な位置を確定する。 With reference to FIG. 4, FIG. 4 is a schematic diagram showing an application scene of the method for detecting a small target according to the present embodiment. In the application scene of FIG. 4, the vehicle collects a front image in real time while driving. After dividing the vertical and horizontal directions of the acquired original image by 4, the image is reduced to a low resolution image. Input a low-resolution image into a lightweight split network to identify candidate areas containing traffic signs. After that, the area of the original image corresponding to the candidate area is found as the area of interest from the original image. An image of the region of interest is extracted and a pre-trained detection model is entered to determine the specific position of the traffic sign in the original image, as shown by the dotted frame.

本開示の上記実施例による方法は、二次検出によって、計算量を低減し、識別速度と正確率を向上させる。 The method according to the above embodiment of the present disclosure reduces the amount of calculation and improves the discrimination speed and the accuracy rate by the secondary detection.

さらに図4を参照して、小目標を検出するための方法の別の実施例のフロー400が示されている。当該小目標を検出するための方法のフロー400は、以下のステップを含む。 Further, with reference to FIG. 4, a flow 400 of another embodiment of the method for detecting a small target is shown. Flow 400 of the method for detecting the sub-target includes the following steps.

ステップ401において、初期検出モデルのネットワーク構造を確定し、且つ初期検出モデルのネットワークパラメータを初期化する。 In step 401, the network structure of the initial detection model is determined, and the network parameters of the initial detection model are initialized.

本実施例において、小目標を検出するための方法が実行される電子装置(例えば、図1に示されたコントローラ)は、検出モデルをトレーニングすることができる。サードパーティのサーバで検出モデルをトレーニングした後、車両のコントローラにインストールすることもできる。検出モデルは、ニューラルネットワークモデルであり、目標の検出のための既存のいずれかのニューラルネットワークであってもよい。 In this embodiment, an electronic device (eg, the controller shown in FIG. 1) in which the method for detecting a small target is performed can train a detection model. You can also train the detection model on a third-party server and then install it on the vehicle's controller. The detection model is a neural network model and may be any existing neural network for target detection.

本実施例のいくつかの選択可能な実施形態において、検出モデルは、例えばYOLO系ネットワークなどのディープニューラルネットワークである。YOLO(You Only Look Once)は、ディープニューラルネットワークに基づくオブジェクト識別および位置特定アルゴリズムであり、その最大の特徴は、動作速度が速く、リアルタイムシステムに利用できることである。現在、YOLOはV3バージョン(YOLO3)に発展したが、新バージョンも元のバージョンに基づいてどんどん進化したものである。YOLO3のオリジナルの構造設計では、アップサンプリングにより低解像度特徴マップと高解像度特徴マップを融合する。しかしながら、このような融合は、高解像度特徴マップのみで発生し、異なるスケールの特徴を十分に融合することができなかった。 In some selectable embodiments of this embodiment, the detection model is a deep neural network, such as a YOLO network. YOLO (You Only Look None) is an object identification and positioning algorithm based on a deep neural network, and its greatest feature is that it operates at a high speed and can be used in a real-time system. Currently, YOLO has evolved into the V3 version (YOLO3), but the new version has also evolved steadily based on the original version. In YOLO3's original structural design, low-resolution feature maps and high-resolution feature maps are fused by upsampling. However, such fusion occurred only in the high resolution feature map and could not sufficiently fuse features of different scales.

異なる階層の特徴をより良く融合するために、本発明は、まず、バックボーンネットワークにおけるサブサンプリングの8倍、16倍、および32倍の特徴を基本的な特徴として選択し、この後、異なるサイズの目標を予測するために、予測特徴マップのサイズをそれぞれ画像のサブサンプリングの8倍、16倍、および32倍のサイズに設定し、各予測特徴マップの特徴は、いずれも3つの基本的な特徴層からのものであり、サブサンプリングまたはアップサンプリングにより同一のサイズに統一してから融合する。画像のサブサンプリングの16倍の予測層を例にとると、その特徴は、それぞれ3つの基本的な特徴層からのものであり、同一のサイズに統一するために、サブサンプリングの8倍の基本的な特徴層に対して1倍のサブサンプリングを行い、サブサンプリングの32倍の基本的な特徴層に対して1倍のアップサンプリングを行い、この後、2つの特徴層とサブサンプリングの16倍の基本的な特徴層とを融合する。 In order to better integrate the features of different hierarchies, the invention first selects features 8x, 16x, and 32x the subsampling in the backbone network as basic features, followed by different sizes. In order to predict the target, the size of the predicted feature map is set to 8 times, 16 times, and 32 times the size of the subsampling of the image, respectively, and the features of each predicted feature map are all three basic features. It is from a layer and is unified to the same size by subsampling or upsampling before fusion. Taking the prediction layer 16 times the subsampling of the image as an example, the features are from each of the three basic feature layers, and the basics are 8 times the subsampling in order to unify them to the same size. 1x subsampling for a typical feature layer, 1x upsampling for a basic feature layer 32x the subsampling, then 16x the two feature layers and subsampling It fuses with the basic feature layer of.

単純に異なるスケールの特徴を融合すると、3つの予測層において特徴の比率は同じであり、それぞれの異なる予測目標に従って偏重して使用することができない。したがった、各予測層の特徴融合の後にアテンションモジュールをさらに導入し、異なるチャネルの特徴に対し適切な重み付けを学習し、これにより、各予測層は、自分が必要とする予測目標の特性に応じて、融合された後の特徴を偏重して使用することができる。ネットワーク構造を図5に示す。アテンションモジュールのパラメータの学習方式は先行技術であるため、ここでは説明を省略する。 By simply fusing features of different scales, the proportions of features are the same in the three prediction layers and cannot be weighted according to their different prediction goals. Therefore, after the feature fusion of each prediction layer, an attention module is further introduced to learn appropriate weighting for the features of different channels, so that each prediction layer depends on the characteristics of the prediction target that it needs. Therefore, the characteristics after fusion can be used with a heavy weight. The network structure is shown in FIG. Since the method of learning the parameters of the attention module is prior art, the description thereof is omitted here.

本開示では、YOLO3を検出ネットワークとして採用することができ、このようなアンカ(anchor)に基づく検出方法においてanchorの設計と割り当ては非常に重要であり、小目標に合致できるanchorの数が少ないため、モデルによる小目標の学習が不十分になり、小目標をうまく検出できなくなる。このために、動的なanchorマッチングメカニズムを採用し、ground truth(基本真理値)の大きさに応じてanchorとground truthがマッチングしたときのIOU(信頼度スコア)閾値を適応的に選択し、目標が小さい場合、IOUの閾値を下げて、より多くの小目標がトレーニングに参加できるようにして、小目標の検出におけるモデルの性能を向上させる。トレーニングサンプルを作成する際には、目標の大きさをすでに知り、目標の大きさに応じて適切なIOUの閾値を選択する。 In the present disclosure, YOLO3 can be adopted as a detection network, and the design and allocation of anchors are very important in such anchor-based detection methods, and the number of anchors that can meet the sub-goals is small. , The learning of the small goal by the model becomes insufficient, and the small goal cannot be detected well. For this purpose, a dynamic anchor matching mechanism is adopted, and the IOU (reliability score) threshold value when the anchor and the ground truth are matched according to the magnitude of the ground truth (basic truth value) is adaptively selected. If the goal is small, lower the IOU threshold to allow more sub-goals to participate in the training, improving the performance of the model in detecting sub-goals. When creating a training sample, you already know the size of the target and select the appropriate IOU threshold according to the size of the target.

ステップ402において、トレーニングサンプルセットを取得する。 In step 402, a training sample set is obtained.

本実施例において、トレーニングサンプルは、サンプル画像とサンプル画像における小目標の位置を特徴付けるためのアノテーション情報とを含む。 In this example, the training sample contains a sample image and annotation information for characterizing the position of the small target in the sample image.

ステップ403において、トレーニングサンプルを、コピー、マルチスケール変化、編集の少なくとも1つの方法で強化する。 In step 403, the training sample is enhanced by at least one method of copying, multiscale variation, and editing.

本実施例において、これは主に、トレーニングデータ内の小目標の数が不十分な場合の策略である。データセットにおける小目標を含む画像を複数コピーすることにより、データにおける小目標の数を直接に増やす一方、画像における小目標を抽出してスケールや回転を行った後、画像における他の位置にランダムに貼り付けることで、小目標の数を増やすだけでなく、より多くの変化を導入し、トレーニングデータの分布を豊かにすることができる。 In this example, this is primarily a trick when the number of sub-goals in the training data is inadequate. By copying multiple images containing small goals in the data set, you can directly increase the number of small goals in the data, while extracting the small goals in the image, scaling and rotating them, and then randomly locating them elsewhere in the image. By pasting in, you can not only increase the number of small goals, but also introduce more changes and enrich the distribution of training data.

選択肢として、トレーニング画像を異なるスケールにスケールした後にトレーニングすることにより、元のデータセットにおける目標スケール変化を豊かにすることができ、モデルを異なるスケールの目標の検出タスクに適合させることができる。 As an option, training images can be scaled to different scales and then trained to enrich the target scale changes in the original dataset and adapt the model to the task of detecting targets of different scales.

ステップ404において、強化されたトレーニングサンプルセットにおけるトレーニングサンプル中のサンプル画像およびアノテーション情報をそれぞれ初期検出モデルの入力および所望の出力とし、初期検出モデルを機械学習方法でトレーニングする。 In step 404, the sample images and annotation information in the training sample in the enhanced training sample set are used as inputs and desired outputs of the initial detection model, and the initial detection model is trained by a machine learning method.

本実施例において、実行主体は、トレーニングサンプルセットにおけるトレーニングサンプル中のサンプル画像を初期検出モデルに入力することにより、当該サンプル画像における小目標の位置情報を得ることができ、当該トレーニングサンプルにおけるアノテーション情報を初期検出モデルの所望の出力とし、初期検出モデルを機械学習方法でトレーニングする。具体的には、まず、プリセットされた損失関数を用いて、得られた位置情報と当該トレーニングサンプルにおけるアノテーション情報との差異を計算することができ、例えば、L2ノルムを損失関数として用いて、得られた位置情報と当該トレーニングサンプルにおけるアノテーション情報との差異を計算することができる。この後、計算によって得られた差異に基づいて、初期検出モデルのネットワークパラメータを調整することができ、プリセットされたトレーニング終了条件を満たした場合、訓練を終了する。例えば、ここでプリセットされたトレーニング終了条件は、トレーニング時間がプリセット時間を超えること、トレーニング回数がプリセット回数を超えること、計算によって得られた差異がプリセット差異閾値より小さいことの少なくとも1つを含むことができるがこれに限定されない。 In this embodiment, the execution subject can obtain the position information of the small target in the sample image by inputting the sample image in the training sample in the training sample set into the initial detection model, and the annotation information in the training sample. Is the desired output of the initial detection model, and the initial detection model is trained by a machine learning method. Specifically, first, the difference between the obtained position information and the annotation information in the training sample can be calculated using the preset loss function. For example, the L2 norm can be used as the loss function to obtain the difference. It is possible to calculate the difference between the obtained position information and the annotation information in the training sample. After this, the network parameters of the initial detection model can be adjusted based on the differences obtained by the calculation, and if the preset training end conditions are met, the training ends. For example, the training end condition preset here includes at least one that the training time exceeds the preset time, the number of trainings exceeds the preset number, and the difference obtained by the calculation is smaller than the preset difference threshold. However, it is not limited to this.

ここで、様々な実施形態で、生成された位置情報と当該トレーニングサンプルにおけるアノテーション情報との差異に基づいて、初期検出モデルのネットワークパラメータを調整することができる。例えば、BP(Back Propagation、逆伝播)アルゴリズムまたはSGD(Stochastic Gradient Descent、ランダム勾配降下)アルゴリズムを用いて、初期検出モデルのネットワークパラメータを調整することができる。 Here, in various embodiments, the network parameters of the initial detection model can be adjusted based on the difference between the generated location information and the annotation information in the training sample. For example, a BP (Backpropagation) algorithm or an SGD (Stochastic Gradient Descent) algorithm can be used to adjust the network parameters of the initial detection model.

ステップ405において、トレーニングによって得られた初期検出モデルを、予めトレーニングされた検出モデルとして確定する。 In step 405, the initial detection model obtained by training is determined as a pre-trained detection model.

本実施例において、トレーニングステップの実行主体は、ステップ404でトレーニングによって得られた初期検出モデルを、予めトレーニングされた検出モデルとして確定することができる。 In this embodiment, the execution subject of the training step can determine the initial detection model obtained by training in step 404 as a pre-trained detection model.

さらに図6を参照して、上記の各図に示された方法の実現として、本発明は小目標を検出するための装置の一実施例を提供し、当該装置の実施例は、図2に示す方法実施例に対応し、当該装置は、具体的に様々な電子機器に適用できる。 Further, with reference to FIG. 6, as an embodiment of the method shown in each of the above figures, the present invention provides an embodiment of an apparatus for detecting a small target, and an embodiment of the apparatus is shown in FIG. Corresponding to the method embodiment shown, the apparatus can be specifically applied to various electronic devices.

図6に示すように、本実施例に係る小目標を検出するための装置600は、取得ユニット601と、縮小ユニット602と、第1の検出ユニット603と、第2の検出ユニット604とを含む。ここで、取得ユニット601は、小目標を含むオリジナル画像を取得するように配置され、縮小ユニット602は、オリジナル画像を低解像度画像に縮小するように配置され、第1の検出ユニット603は、軽量級の分割ネットワークを用いて、低解像度画像から小目標を含む候補領域を識別するように配置され、第2の検出ユニット604は、候補領域に対応するオリジナル画像の領域を関心領域とし、予めトレーニングされた検出モデルを関心領域上で実行することにより、オリジナル画像における小目標の位置を確定するように配置される。 As shown in FIG. 6, the apparatus 600 for detecting the small target according to the present embodiment includes an acquisition unit 601, a reduction unit 602, a first detection unit 603, and a second detection unit 604. .. Here, the acquisition unit 601 is arranged to acquire the original image including the small target, the reduction unit 602 is arranged to reduce the original image to a low resolution image, and the first detection unit 603 is lightweight. A class division network is used to identify candidate regions containing small targets from low-resolution images, and the second detection unit 604 pre-trains the region of the original image corresponding to the candidate region as the region of interest. By executing the detected detection model on the region of interest, it is arranged so as to determine the position of the small target in the original image.

本実施例において、小目標を検出するための装置600の取得ユニット601、縮小ユニット602、第1の検出ユニット603、及び第2の検出ユニット604の具体的な処理について、図2の対応する実施例におけるステップ201、ステップ202、ステップ203、およびステップ204を参照することができる。 In the present embodiment, the corresponding implementation of FIG. 2 relates to the specific processing of the acquisition unit 601, the reduction unit 602, the first detection unit 603, and the second detection unit 604 of the device 600 for detecting the small target. You can refer to step 201, step 202, step 203, and step 204 in the example.

本実施例のいくつかの選択可能な実施形態において、装置600は、以下のように配置されたトレーニングユニット(図示せず)をさらに含み、即ち、初期検出モデルのネットワーク構造を確定し、且つ初期検出モデルのネットワークパラメータを初期化し、トレーニングサンプルセットを取得し、ここで、トレーニングサンプルは、サンプル画像とサンプル画像における小目標の位置を特徴付けるためのアノテーション情報とを含み、トレーニングサンプルを、コピー、マルチスケール変化、編集の少なくとも1つの方法で強化し、強化されたトレーニングサンプルセットにおけるトレーニングサンプル中のサンプル画像およびアノテーション情報をそれぞれ初期検出モデルの入力および所望の出力とし、初期検出モデルを機械学習方法でトレーニングし、トレーニングによって得られた初期検出モデルを、予めトレーニングされた検出モデルとして確定する。 In some selectable embodiments of this embodiment, the apparatus 600 further comprises a training unit (not shown) arranged as follows, i.e., determining and initializing the network structure of the initial detection model. Initialize the network parameters of the detection model and obtain the training sample set, where the training sample contains the sample image and annotation information to characterize the position of the small target in the sample image, copy the training sample, multi. Enhanced by at least one method of scaling and editing, the sample images and annotation information in the training sample in the enhanced training sample set are the input and desired output of the initial detection model, respectively, and the initial detection model is machine-learned. Train and establish the initial detection model obtained by training as a pre-trained detection model.

本実施例のいくつかの選択可能な実施形態において、トレーニングユニットは、さらに、サンプル画像から小目標を抽出し、小目標をスケールおよび/または回転した後、サンプル画像における他の位置にランダムに貼り付けることにより、新しいサンプル画像を得る、ように配置される。 In some selectable embodiments of this example, the training unit further extracts a small target from the sample image, scales and / or rotates the small target, and then randomly pastes it elsewhere in the sample image. By attaching, it is arranged so as to obtain a new sample image.

本実施例のいくつかの選択可能な実施形態において、第1の検出ユニットは、さらに、分割ネットワークのトレーニングサンプルを作成する際には、タスクを検出するための矩形枠内の画素点を正のサンプルに設定し、矩形枠外の画素点を負のサンプルに設定し、長さが所定の画素数より小さい小目標の矩形枠を外側に広げ、外側に広げられた矩形枠内の画素をいずれも正のサンプルに設定する、ように配置される。 In some selectable embodiments of this embodiment, the first detection unit further positively sets the pixel points in the rectangular frame for detecting the task when creating a training sample of the split network. Set it as a sample, set the pixel points outside the rectangular frame to the negative sample, expand the small target rectangular frame whose length is smaller than the predetermined number of pixels to the outside, and all the pixels inside the rectangular frame expanded to the outside. Arranged to set to a positive sample.

本実施例のいくつかの選択可能な実施形態において、検出モデルは、ディープニューラルネットワークである。 In some selectable embodiments of this embodiment, the detection model is a deep neural network.

本実施例のいくつかの選択可能な実施形態において、各予測層の特徴融合の後にアテンションモジュールを導入し、異なるチャネルの特徴に対し適切な重み付けを学習する。 In some selectable embodiments of this embodiment, attention modules are introduced after feature fusion of each predictor layer to learn appropriate weighting for features of different channels.

以下、図7を参照して、本開示の実施例を実現するために適用される電子機器(例えば図1に示されたコントローラ)700の概略構成図が示されている。図7に示されたコントローラは、単なる例にすぎ、本開示の実施例の機能および使用範囲を制限するものではない。 Hereinafter, with reference to FIG. 7, a schematic configuration diagram of an electronic device (for example, the controller shown in FIG. 1) 700 applied to realize the embodiment of the present disclosure is shown. The controller shown in FIG. 7 is merely an example and does not limit the functionality and scope of use of the embodiments of the present disclosure.

図7に示すように、電子機器700は、読み出し専用メモリ(ROM)702に記憶されているプログラムまたは記憶部708からランダムアクセスメモリ(RAM)703にロードされたプログラムに従って各種の適切な動作と処理を行うことができる処理装置(例えば中央処理装置、グラフィックスプロセッサなど)701を含むことができる。RAM703には、電子機器700の操作に必要な様々なプログラムとデータが記憶されている。処理装置701、ROM702、およびRAM703は、バス704によって相互に接続されている。入力/出力(I/O)インターフェース705もバス704に接続されている。 As shown in FIG. 7, the electronic device 700 performs various appropriate operations and processes according to a program stored in the read-only memory (ROM) 702 or a program loaded into the random access memory (RAM) 703 from the storage unit 708. A processing unit capable of performing the above (for example, a central processing unit, a graphics processor, etc.) 701 can be included. The RAM 703 stores various programs and data necessary for operating the electronic device 700. The processing apparatus 701, ROM 702, and RAM 703 are connected to each other by a bus 704. The input / output (I / O) interface 705 is also connected to the bus 704.

通常、I/Oインターフェース705には、例えばタッチスクリーン、タッチパネル、キーボード、マウス、カメラ、マイク、加速度計、ジャイロなどを含む入力装置706と、例えば液晶ディスプレイ(LCD)、スピーカー、振動器などを含む出力装置707と、例えば磁気テープ、ハードディスクなどを含む記憶装置708と、通信装置709とが接続されている。通信装置709は、データを交換するために電子機器700が他の機器と無線通信または有線通信することを許可できる。図7は、様々な装置を有する電子機器700を示しているが、図示されたすべての装置を実施または備えることが要求されないことを理解されたい。代わりに、より多くまたはより少ない装置を実施または備えることができる。図7に示した各ブロックは、1つの装置を表してもよく、必要に応じて複数の装置を表してもよい。 Typically, the I / O interface 705 includes an input device 706 including, for example, a touch screen, touch panel, keyboard, mouse, camera, microphone, accelerometer, gyro, etc., and, for example, a liquid crystal display (LCD), speaker, vibrator, etc. An output device 707, a storage device 708 including, for example, a magnetic tape and a hard disk, and a communication device 709 are connected. The communication device 709 can allow the electronic device 700 to perform wireless or wired communication with other devices for exchanging data. FIG. 7 shows an electronic device 700 with various devices, but it should be understood that it is not required to implement or equip all the devices shown. Alternatively, more or less equipment can be implemented or equipped. Each block shown in FIG. 7 may represent one device, or may represent a plurality of devices as needed.

特に、本開示の実施例によると、上記のフローチャートを参照して説明されたプロセスは、コンピュータソフトウェアのプログラムとして実現されることができる。例えば、本開示の実施例は、コンピュータ可読媒体に担持されたコンピュータプログラムを含むコンピュータプログラム製品を含み、当該コンピュータプログラムは、フローチャートに示された方法を実行するためのプログラムコードを含む。このような実施例では、このコンピュータプログラムは、通信装置709を介してネットワークからダウンロードされてインストールされ、または記憶装置708からインストールされ、またはROM702からインストールされることができる。このコンピュータプログラムが処理装置701によって実行されるときに、本開示の実施例の方法で限定された上記の機能を実行する。なお、本開示の実施例に記載のコンピュータ可読媒体は、コンピュータ可読信号媒体、あるいはコンピュータ可読記憶媒体、または上記の両方の任意の組合せであってもよい。コンピュータ可読記憶媒体は、例えば、電気、磁気、光、電磁気、赤外線、あるいは半導体のシステム、装置またはデバイス、あるいは上記の任意の組合せであってもよいが、これらに限らない。コンピュータ可読記憶媒体のより具体的な例には、1本以上のワイヤによる電気的接続、携帯型コンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROMまたはフラッシュメモリ)、光ファイバ、コンパクトディスク読み取り専用メモリ(CD−ROM)、光記憶装置、磁気記憶装置、または上記の任意の組み合わせが含まれるが、これらに限らない。本開示の実施例では、コンピュータ可読記憶媒体は、プログラムを含むかまたは記憶する任意の有形の媒体であることができ、このプログラムは、指令実行システム、装置またはデバイスによって使用され、またはそれらと組み合わせて使用されることができる。本開示の実施例では、コンピュータが読み取り可能な信号媒体は、コンピュータが読み取り可能なプログラムコードを担持した、ベースバンド内でまたは搬送波の一部として伝播されるデータ信号を含んでもよい。このような伝播されたデータ信号は、多種の形式を採用でき、電磁気信号、光信号、または上記の任意の適切な組み合わせを含むが、これらに限らない。コンピュータが読み取り可能な信号媒体は、コンピュータ可読記憶媒体以外のいかなるコンピュータ可読媒体であってもよく、このコンピュータ可読信号媒体は、指令実行システム、装置またはデバイスによって使用され、またはそれらと組み合わせて使用されるためのプログラムを送信、伝播または伝送することができる。コンピュータ可読媒体に含まれるプログラムコードは、任意の適切な媒体で伝送されることができ、ワイヤ、光ファイバケーブル、RF(無線周波数)など、または上記の任意の適切な組み合わせを含むが、これらに限らない。 In particular, according to the embodiments of the present disclosure, the process described with reference to the flowchart above can be implemented as a program of computer software. For example, the embodiments of the present disclosure include a computer program product comprising a computer program carried on a computer readable medium, the computer program including program code for performing the method shown in the flowchart. In such an embodiment, the computer program can be downloaded and installed from the network via the communication device 709, installed from the storage device 708, or installed from the ROM 702. When this computer program is executed by the processor 701, it performs the above functions limited by the methods of the embodiments of the present disclosure. The computer-readable medium described in the examples of the present disclosure may be a computer-readable signal medium, a computer-readable storage medium, or any combination of both of the above. The computer-readable storage medium may be, for example, an electrical, magnetic, optical, electromagnetic, infrared, or semiconductor system, device or device, or any combination of the above, but is not limited thereto. More specific examples of computer-readable storage media include electrical connections with one or more wires, portable computer disks, hard disks, random access memory (RAM), read-only memory (ROM), erasable programmable read-only memory. (EPROM or flash memory), optical fiber, compact disk read-only memory (CD-ROM), optical storage, magnetic storage, or any combination of the above, but not limited to these. In the embodiments of the present disclosure, the computer-readable storage medium can be any tangible medium containing or storing a program, which program is used by, or combined with, a command execution system, device or device. Can be used. In the embodiments of the present disclosure, the computer-readable signal medium may include a data signal propagating within the baseband or as part of a carrier wave carrying a computer-readable program code. Such propagated data signals can adopt a variety of formats, including, but not limited to, electromagnetic signals, optical signals, or any suitable combination described above. The computer-readable signal medium may be any computer-readable medium other than a computer-readable storage medium, which is used by, or in combination with, a command execution system, device or device. Can send, propagate or transmit a program for. The program code contained on a computer-readable medium can be transmitted on any suitable medium, including wires, fiber optic cables, RF (radio frequency), etc., or any suitable combination described above. Not exclusively.

上記コンピュータ可読媒体は、上記電子機器に含まれてもよく、個別に存在しこの電子機器に組み込まれなくてもよい。上記のコンピュータ可読媒体は、1つ以上のプログラムを担持し、上記の1つ以上のプログラムが当該電子機器によって実行されたとき、当該電子機器は、小目標を含むオリジナル画像を取得し、オリジナル画像を低解像度画像に縮小し、候補領域に対応するオリジナル画像の領域を関心領域とし、予めトレーニングされた検出モデルを関心領域上で実行することにより、オリジナル画像における小目標の位置を確定する。 The computer-readable medium may be included in the electronic device, or may exist individually and may not be incorporated in the electronic device. The computer-readable medium carries one or more programs, and when the one or more programs are executed by the electronic device, the electronic device acquires an original image including a small target and the original image. Is reduced to a low resolution image, the area of the original image corresponding to the candidate area is set as the area of interest, and the position of the small target in the original image is determined by executing the pre-trained detection model on the area of interest.

本開示の実施例の操作を実行するためのコンピュータプログラムコードを、1以上のプログラミング言語またはそれらの組み合わせで書くことができ、前記プログラミング言語には、Java、Smalltalk、C ++などのオブジェクト指向プログラミング言語を含み、さらに「C」言語または同様のプログラミング言語などの従来の手続き型プログラミング言語も含まれる。プログラムコードは、完全にユーザのコンピュータ上で、部分的にユーザのコンピュータ上、1つの単独のソフトウェアパッケージとして、部分的にユーザのコンピュータ上かつ部分的にリモートコンピュータ上で、あるいは完全に遠隔コンピュータまたはサーバー上で実行されることができる。遠隔コンピュータに関する場合には、遠隔コンピュータは、ローカルエリアネットワーク(LAN)または広域ネットワーク(WAN)を含む任意の種類のネットワークを介してユーザのコンピュータに接続されることができ、または、外部のコンピュータに接続されることができる(例えばインターネットサービスプロバイダを利用してインターネットを介して接続する)。 Computer program code for performing the operations of the embodiments of the present disclosure can be written in one or more programming languages or combinations thereof, and the programming languages include object-oriented programming languages such as Java, Smalltalk, and C ++. Also includes traditional procedural programming languages such as the "C" language or similar programming languages. The program code is entirely on the user's computer, partly on the user's computer, as a single software package, partly on the user's computer and partly on the remote computer, or entirely on the remote computer or It can be run on the server. When it comes to remote computers, the remote computer can be connected to the user's computer via any type of network, including a local area network (LAN) or wide area network (WAN), or to an external computer. Can be connected (eg, connect via the Internet using an internet service provider).

図の中のフローチャートおよびブロック図には、本開示の様々な実施例によるシステム、方法とコンピュータプログラム製品の実現可能なアーキテクチャ、機能、および操作が示されている。この点で、フローチャート又はブロック図の各ブロックは、1つのモジュール、プログラミングのセグメント、またはコードの一部を代表でき、当該モジュール、プログラミングのセグメント、またはコードの一部は、所定のロジック機能を実現するための1つ以上の実行可能指令を含む。また、いくつかの代替の実施例では、ブロックに示されている機能は、図面に示された順序と異なる順序で発生してもよいことに留意されたい。例えば、連続して示す2つのブロックは実際に並行して実行されてもよく、それらは係る機能に応じて時に逆の順序で実行されてもよい。ブロック図および/またはフローチャートの各ブロック、およびブロック図および/またはフローチャートのブロックの組み合わせは、特定の機能または操作を実行する専用のハードウェアによるシステムによって実現されてもよく、または専用ハードウェアとコンピュータ指令の組み合わせによって実現されてもよいことにも留意されたい。 The flowcharts and block diagrams in the figure show the feasible architectures, functions, and operations of the systems, methods, and computer program products according to the various embodiments of the present disclosure. In this regard, each block of the flowchart or block diagram can represent one module, programming segment, or part of code, and that module, programming segment, or part of code implements a given logic function. Includes one or more actionable directives to do so. Also note that in some alternative embodiments, the functions shown in the blocks may occur in a different order than shown in the drawings. For example, two blocks shown in succession may actually be executed in parallel, and they may sometimes be executed in reverse order depending on the function concerned. Each block of block diagrams and / or flowcharts, and a combination of blocks of block diagrams and / or flowcharts, may be implemented by a system of dedicated hardware that performs specific functions or operations, or dedicated hardware and a computer. It should also be noted that this may be achieved by a combination of directives.

本開示の実施例に係るユニットは、ソフトウェアによって実現されてもよく、ハードウェアによって実現されてもよい。説明されたユニットは、プロセッサに設置されてもよく、例えば、「取得ユニットと、縮小ユニットと、第1の検出ユニットと、第2の検出ユニットとを含むプロセッサである」と記載してもよい。ここで、これらのユニットの名は、ある場合にはそのユニット自体を限定しなくて、例えば、取得ユニットを「ユーザのウェブページ閲覧要求を受信するユニット」と記載してもよい。 The units according to the embodiments of the present disclosure may be realized by software or hardware. The described unit may be installed in a processor and may be described as, for example, "a processor including an acquisition unit, a reduction unit, a first detection unit, and a second detection unit". .. Here, the names of these units are not limited to the units themselves in some cases, and for example, the acquisition unit may be described as "a unit that receives a user's web page browsing request".

上記の説明は、本開示の好ましい実施例および応用された技術の原理の説明にすぎない。本開示の実施例に係る発明の範囲が、上記の技術的特徴を組み合わせて得られた技術案に限定されず、同時に上記の発明の概念から逸脱しない場合に、上記の技術的特徴またはこれと同等の技術的特徴を任意に組み合わせて得られた他の技術案を含むべきであることを当業者は理解すべきである。例えば、上記の特徴が本開示において開示されているもの(しかしこれに限らず)と類似した機能を有する技術的特徴と相互に入れ替わって形成された技術案が挙げられる。 The above description is merely a description of the preferred embodiments of the present disclosure and the principles of the applied technique. The scope of the invention according to the embodiment of the present disclosure is not limited to the technical proposal obtained by combining the above technical features, and at the same time, the above technical features or the above technical features shall not deviate from the concept of the above invention. Those skilled in the art should understand that other technical proposals obtained by any combination of equivalent technical features should be included. For example, there may be a technical proposal in which the above features are interchangeably formed with technical features having functions similar to those disclosed in the present disclosure (but not limited to this).

Claims (15)

小目標を含むオリジナル画像を取得することと、
前記オリジナル画像を低解像度画像に縮小することと、
軽量級の分割ネットワークを用いて、前記低解像度画像から前記小目標を含む候補領域を識別することと、
前記候補領域に対応するオリジナル画像の領域を関心領域とし、予めトレーニングされた検出モデルを前記関心領域上で実行することにより、前記オリジナル画像における前記小目標の位置を確定することと、
を含む小目標を検出するための方法。
To get the original image including the small goal,
Reducing the original image to a low resolution image and
Using a lightweight split network to identify candidate regions containing the small target from the low resolution image,
By using the region of the original image corresponding to the candidate region as the region of interest and executing a pre-trained detection model on the region of interest, the position of the small target in the original image can be determined.
A method for detecting small goals, including.
前記検出モデルは、次のような方法でトレーニングされ、即ち、
初期検出モデルのネットワーク構造を確定し、且つ前記初期検出モデルのネットワークパラメータを初期化し、
トレーニングサンプルセットを取得し、ここで、トレーニングサンプルは、サンプル画像とサンプル画像における小目標の位置を特徴付けるためのアノテーション情報とを含み、
前記トレーニングサンプルを、コピー、マルチスケール変化、編集の少なくとも1つの方法で強化し、
強化されたトレーニングサンプルセットにおけるトレーニングサンプル中のサンプル画像およびアノテーション情報をそれぞれ前記初期検出モデルの入力および所望の出力とし、前記初期検出モデルを機械学習方法でトレーニングし、
トレーニングによって得られた前記初期検出モデルを、前記予めトレーニングされた検出モデルとして確定する、
請求項1に記載の方法。
The detection model is trained in the following way, i.e.
The network structure of the initial detection model is fixed, and the network parameters of the initial detection model are initialized.
Obtain a training sample set, where the training sample contains the sample image and annotation information to characterize the position of the small goal in the sample image.
The training sample was enhanced by at least one method of copying, multiscale variation, and editing.
The sample images and annotation information in the training sample in the enhanced training sample set are used as inputs and desired outputs of the initial detection model, respectively, and the initial detection model is trained by a machine learning method.
The initial detection model obtained by training is determined as the pre-trained detection model.
The method according to claim 1.
トレーニングサンプルを以下のように編集し、即ち、
サンプル画像から小目標を抽出し、
小目標をスケールおよび/または回転した後、サンプル画像における他の位置にランダムに貼り付けることにより、新しいサンプル画像を得る、
請求項2に記載の方法。
Edit the training sample as follows, ie
Extract small goals from sample images and
Obtain a new sample image by scaling and / or rotating the small target and then randomly pasting it elsewhere in the sample image.
The method according to claim 2.
前記分割ネットワークのトレーニングサンプルを作成する際には、タスクを検出するための矩形枠内の画素点を正のサンプルに設定し、矩形枠外の画素点を負のサンプルに設定することと、
長さが所定の画素数より小さい小目標の矩形枠を外側に広げることと、
外側に広げられた矩形枠内の画素をいずれも正のサンプルに設定することと、
をさらに含む請求項1に記載の方法。
When creating the training sample of the divided network, the pixel points inside the rectangular frame for detecting the task are set to the positive sample, and the pixel points outside the rectangular frame are set to the negative sample.
Expanding the rectangular frame of the small target whose length is smaller than the predetermined number of pixels to the outside,
Setting all the pixels in the rectangular frame spread out to be positive samples,
The method according to claim 1, further comprising.
前記検出モデルは、ディープニューラルネットワークである請求項1から3のいずれか1項に記載の方法。 The method according to any one of claims 1 to 3, wherein the detection model is a deep neural network. 各予測層の特徴融合の後にアテンションモジュールを導入し、異なるチャネルの特徴に対し適切な重み付けを学習する請求項5に記載の方法。 The method of claim 5, wherein an attention module is introduced after feature fusion of each predictor layer to learn appropriate weighting for features of different channels. 小目標を含むオリジナル画像を取得するように配置された取得ユニットと、
前記オリジナル画像を低解像度画像に縮小するように配置された縮小ユニットと、
軽量級の分割ネットワークを用いて、前記低解像度画像から前記小目標を含む候補領域を識別するように配置された第1の検出ユニットと、
前記候補領域に対応するオリジナル画像の領域を関心領域とし、予めトレーニングされた検出モデルを前記関心領域上で実行することにより、前記オリジナル画像における前記小目標の位置を確定するように配置された第2の検出ユニットと、
を含む小目標を検出するための装置。
With the acquisition unit arranged to acquire the original image including the small target,
A reduction unit arranged to reduce the original image to a low resolution image, and
A first detection unit arranged to identify a candidate region containing the small target from the low resolution image using a lightweight divided network.
A region of the original image corresponding to the candidate region is set as the region of interest, and a pre-trained detection model is executed on the region of interest to determine the position of the small target in the original image. 2 detection units and
A device for detecting small targets, including.
以下のように配置されたトレーニングユニットをさらに含み、即ち、
初期検出モデルのネットワーク構造を確定し、且つ前記初期検出モデルのネットワークパラメータを初期化し、
トレーニングサンプルセットを取得し、ここで、トレーニングサンプルは、サンプル画像とサンプル画像における小目標の位置を特徴付けるためのアノテーション情報とを含み、
前記トレーニングサンプルを、コピー、マルチスケール変化、編集の少なくとも1つの方法で強化し、
強化されたトレーニングサンプルセットにおけるトレーニングサンプル中のサンプル画像およびアノテーション情報をそれぞれ前記初期検出モデルの入力および所望の出力とし、前記初期検出モデルを機械学習方法でトレーニングし、
トレーニングによって得られた前記初期検出モデルを、前記予めトレーニングされた検出モデルとして確定する、
請求項7に記載の装置。
It further includes training units arranged as follows, i.e.
The network structure of the initial detection model is fixed, and the network parameters of the initial detection model are initialized.
Obtain a training sample set, where the training sample contains the sample image and annotation information to characterize the position of the small goal in the sample image.
The training sample was enhanced by at least one method of copying, multiscale variation, and editing.
The sample images and annotation information in the training sample in the enhanced training sample set are used as inputs and desired outputs of the initial detection model, respectively, and the initial detection model is trained by a machine learning method.
The initial detection model obtained by training is determined as the pre-trained detection model.
The device according to claim 7.
前記トレーニングユニットは、さらに、
サンプル画像から小目標を抽出し、
小目標をスケールおよび/または回転した後、サンプル画像における他の位置にランダムに貼り付けることにより、新しいサンプル画像を得る、
ように配置される、
請求項8に記載の装置。
The training unit further
Extract small goals from sample images and
Obtain a new sample image by scaling and / or rotating the small target and then randomly pasting it elsewhere in the sample image.
Arranged like
The device according to claim 8.
前記第1の検出ユニットは、さらに、
前記分割ネットワークのトレーニングサンプルを作成する際には、タスクを検出するための矩形枠内の画素点を正のサンプルに設定し、矩形枠外の画素点を負のサンプルに設定し、
長さが所定の画素数より小さい小目標の矩形枠を外側に広げ、
外側に広げられた矩形枠内の画素をいずれも正のサンプルに設定する、
ように配置される、
請求項7に記載の装置。
The first detection unit further
When creating the training sample of the divided network, the pixel points inside the rectangular frame for detecting the task are set as positive samples, and the pixel points outside the rectangular frame are set as negative samples.
Expand the rectangular frame of the small target whose length is smaller than the predetermined number of pixels to the outside,
Set all the pixels in the rectangular frame spread outward as a positive sample,
Arranged like
The device according to claim 7.
前記検出モデルは、ディープニューラルネットワークである請求項7から10のいずれか1項に記載の装置。 The apparatus according to any one of claims 7 to 10, wherein the detection model is a deep neural network. 各予測層の特徴融合の後にアテンションモジュールを導入し、異なるチャネルの特徴に対し適切な重み付けを学習する請求項11に記載の装置。 11. The apparatus of claim 11, wherein an attention module is introduced after feature fusion of each predictor layer to learn appropriate weighting for features of different channels. 1つ以上のプロセッサと、
1つ以上のプログラムが記憶された記憶装置と、
を含み、
前記1つ以上のプログラムが前記1つ以上のプロセッサによって実行されるとき、請求項1から6のいずれか1項に記載の方法を前記1つ以上のプロセッサに実現させる、
小目標を検出するための電子機器。
With one or more processors
A storage device in which one or more programs are stored, and
Including
When the one or more programs are executed by the one or more processors, the method according to any one of claims 1 to 6 is realized in the one or more processors.
An electronic device for detecting small targets.
コンピュータプログラムが記憶されたコンピュータ可読媒体であって、
前記コンピュータプログラムがプロセッサによって実行されるとき、請求項1から6のいずれか1項に記載の方法を実現する、
コンピュータ可読媒体。
A computer-readable medium in which a computer program is stored.
The method according to any one of claims 1 to 6 is realized when the computer program is executed by a processor.
Computer-readable medium.
コンピュータプログラムであって、
プロセッサによって実行されると、請求項1から6のいずれか1項に記載の方法を実現する、コンピュータプログラム。
It ’s a computer program,
A computer program that, when executed by a processor, implements the method of any one of claims 1-6.
JP2021051677A 2020-05-27 2021-03-25 Method and apparatus, electronic device, computer readable storage medium and computer program for detecting small targets Active JP7262503B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010461384.2A CN111626208B (en) 2020-05-27 2020-05-27 Method and device for detecting small objects
CN202010461384.2 2020-05-27

Publications (2)

Publication Number Publication Date
JP2021179971A true JP2021179971A (en) 2021-11-18
JP7262503B2 JP7262503B2 (en) 2023-04-21

Family

ID=72272663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021051677A Active JP7262503B2 (en) 2020-05-27 2021-03-25 Method and apparatus, electronic device, computer readable storage medium and computer program for detecting small targets

Country Status (3)

Country Link
JP (1) JP7262503B2 (en)
KR (1) KR102523886B1 (en)
CN (1) CN111626208B (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113221823A (en) * 2021-05-31 2021-08-06 南通大学 Traffic signal lamp countdown identification method based on improved lightweight YOLOv3
CN113295298A (en) * 2021-05-19 2021-08-24 深圳市朗驰欣创科技股份有限公司 Temperature measuring method, temperature measuring device, terminal equipment and storage medium
CN114595759A (en) * 2022-03-07 2022-06-07 卡奥斯工业智能研究院(青岛)有限公司 Protective tool identification method and device, electronic equipment and storage medium
CN115731243A (en) * 2022-11-29 2023-03-03 北京长木谷医疗科技有限公司 Spine image segmentation method and device based on artificial intelligence and attention mechanism
CN116912604A (en) * 2023-09-12 2023-10-20 浙江大华技术股份有限公司 Model training method, image recognition device and computer storage medium
WO2024027535A1 (en) * 2022-08-01 2024-02-08 马上消费金融股份有限公司 Processing method for image recognition model, and related product
CN117671458A (en) * 2023-12-20 2024-03-08 云南神火铝业有限公司 Construction method and application of block anode scrap detection model capable of automatically identifying block anode scrap
CN117746028A (en) * 2024-02-08 2024-03-22 暗物智能科技(广州)有限公司 Visual detection method, device, equipment and medium for unlabeled articles
CN117746191A (en) * 2024-02-07 2024-03-22 浙江啄云智能科技有限公司 Graph searching model training method and graph searching method

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112418345B (en) * 2020-12-07 2024-02-23 深圳小阳软件有限公司 Method and device for quickly identifying small targets with fine granularity
CN112633218B (en) * 2020-12-30 2023-10-13 深圳市优必选科技股份有限公司 Face detection method, face detection device, terminal equipment and computer readable storage medium
CN112801169B (en) * 2021-01-25 2024-02-06 中国人民解放军陆军工程大学 Camouflage target detection method, system, device and storage medium based on improved YOLO algorithm
CN113158743B (en) * 2021-01-29 2022-07-12 中国科学院自动化研究所 Small target real-time detection and positioning method, system and equipment based on priori knowledge
CN113011297A (en) * 2021-03-09 2021-06-22 全球能源互联网研究院有限公司 Power equipment detection method, device, equipment and server based on edge cloud cooperation
CN113223026A (en) * 2021-04-14 2021-08-06 山东师范大学 Contour-based target fruit image example segmentation method and system
CN113095434A (en) * 2021-04-27 2021-07-09 深圳市商汤科技有限公司 Target detection method and device, electronic equipment and storage medium
CN113139483B (en) * 2021-04-28 2023-09-29 北京百度网讯科技有限公司 Human behavior recognition method, device, apparatus, storage medium, and program product
CN113221925B (en) * 2021-06-18 2022-11-11 北京理工大学 Target detection method and device based on multi-scale image
CN113591569A (en) * 2021-06-28 2021-11-02 北京百度网讯科技有限公司 Obstacle detection method, obstacle detection device, electronic apparatus, and storage medium
CN113360791B (en) * 2021-06-29 2023-07-18 北京百度网讯科技有限公司 Interest point query method and device of electronic map, road side equipment and vehicle
CN113553979B (en) * 2021-07-30 2023-08-08 国电汉川发电有限公司 Safety clothing detection method and system based on improved YOLO V5
CN113628208B (en) * 2021-08-30 2024-02-06 北京中星天视科技有限公司 Ship detection method, device, electronic equipment and computer readable medium
KR102660084B1 (en) * 2021-09-30 2024-04-22 연세대학교 산학협력단 Apparatus and Method for Detecting 3D Object
CN113989592A (en) * 2021-10-28 2022-01-28 三一建筑机器人(西安)研究院有限公司 Expansion method and device for semantically segmenting image sample and electronic equipment
WO2023153781A1 (en) * 2022-02-08 2023-08-17 Samsung Electronics Co., Ltd. Method and electronic device for processing input frame for on-device ai model
CN114298912B (en) * 2022-03-08 2022-10-14 北京万里红科技有限公司 Image acquisition method and device, electronic equipment and storage medium
CN115620157A (en) * 2022-09-21 2023-01-17 清华大学 Representation learning method and device for satellite images
CN115984084B (en) * 2022-12-19 2023-06-06 中国科学院空天信息创新研究院 Remote sensing distributed data processing method based on dynamic detachable network

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190209116A1 (en) * 2018-01-08 2019-07-11 Progenics Pharmaceuticals, Inc. Systems and methods for rapid neural network-based image segmentation and radiopharmaceutical uptake determination
JP2020009446A (en) * 2018-07-06 2020-01-16 タタ・コンサルタンシー・サーヴィシズ・リミテッド Method and system for automatic object annotation using deep network

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4420459B2 (en) * 2005-06-14 2010-02-24 キヤノン株式会社 Image processing apparatus and method
CN104598912A (en) * 2015-01-23 2015-05-06 湖南科技大学 Traffic light detection and recognition method based CPU and GPU cooperative computing
US10740607B2 (en) * 2017-08-18 2020-08-11 Autel Robotics Co., Ltd. Method for determining target through intelligent following of unmanned aerial vehicle, unmanned aerial vehicle and remote control
CN109829456B (en) * 2017-11-23 2022-05-17 腾讯科技(深圳)有限公司 Image identification method and device and terminal
CN108229575A (en) * 2018-01-19 2018-06-29 百度在线网络技术(北京)有限公司 For detecting the method and apparatus of target
CN110119734A (en) * 2018-02-06 2019-08-13 同方威视技术股份有限公司 Cutter detecting method and device
ES2908944B2 (en) * 2018-07-24 2023-01-09 Fund Centro Tecnoloxico De Telecomunicacions De Galicia A COMPUTER IMPLEMENTED METHOD AND SYSTEM FOR DETECTING SMALL OBJECTS IN AN IMAGE USING CONVOLUTIONAL NEURAL NETWORKS
CN109344821A (en) * 2018-08-30 2019-02-15 西安电子科技大学 Small target detecting method based on Fusion Features and deep learning
CN110909756A (en) * 2018-09-18 2020-03-24 苏宁 Convolutional neural network model training method and device for medical image recognition
CN110298226B (en) * 2019-04-03 2023-01-06 复旦大学 Cascading detection method for millimeter wave image human body carried object
CN109858472B (en) * 2019-04-09 2023-08-04 武汉领普科技有限公司 Embedded real-time humanoid detection method and device
CN110503112B (en) * 2019-08-27 2023-02-03 电子科技大学 Small target detection and identification method for enhancing feature learning
CN110866925B (en) * 2019-10-18 2023-05-26 拜耳股份有限公司 Method and device for image segmentation

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190209116A1 (en) * 2018-01-08 2019-07-11 Progenics Pharmaceuticals, Inc. Systems and methods for rapid neural network-based image segmentation and radiopharmaceutical uptake determination
JP2020009446A (en) * 2018-07-06 2020-01-16 タタ・コンサルタンシー・サーヴィシズ・リミテッド Method and system for automatic object annotation using deep network

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MENG DONG,外4名: "A CNN-Based Approach for Automatic License Plate Recognition in the Wild", BRITISH MACHINE VISION CONFERENCE 2017, JPN6022036310, January 2017 (2017-01-01), ISSN: 0004877417 *
YINGYING ZHU,外3名: "Cascaded Segmentation-Detection Networks for Text-Based Traffic Sign Detection", IEEE TRANSACTIONS ON INTELLIGENT TRANSPORTATION SYSTEMS, vol. Volume 19,Issue 1, JPN6022036311, January 2018 (2018-01-01), pages 209 - 219, ISSN: 0004877418 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113295298A (en) * 2021-05-19 2021-08-24 深圳市朗驰欣创科技股份有限公司 Temperature measuring method, temperature measuring device, terminal equipment and storage medium
CN113221823A (en) * 2021-05-31 2021-08-06 南通大学 Traffic signal lamp countdown identification method based on improved lightweight YOLOv3
CN114595759A (en) * 2022-03-07 2022-06-07 卡奥斯工业智能研究院(青岛)有限公司 Protective tool identification method and device, electronic equipment and storage medium
WO2024027535A1 (en) * 2022-08-01 2024-02-08 马上消费金融股份有限公司 Processing method for image recognition model, and related product
CN115731243A (en) * 2022-11-29 2023-03-03 北京长木谷医疗科技有限公司 Spine image segmentation method and device based on artificial intelligence and attention mechanism
CN115731243B (en) * 2022-11-29 2024-02-09 北京长木谷医疗科技股份有限公司 Spine image segmentation method and device based on artificial intelligence and attention mechanism
CN116912604A (en) * 2023-09-12 2023-10-20 浙江大华技术股份有限公司 Model training method, image recognition device and computer storage medium
CN116912604B (en) * 2023-09-12 2024-01-16 浙江大华技术股份有限公司 Model training method, image recognition device and computer storage medium
CN117671458A (en) * 2023-12-20 2024-03-08 云南神火铝业有限公司 Construction method and application of block anode scrap detection model capable of automatically identifying block anode scrap
CN117746191A (en) * 2024-02-07 2024-03-22 浙江啄云智能科技有限公司 Graph searching model training method and graph searching method
CN117746191B (en) * 2024-02-07 2024-05-10 浙江啄云智能科技有限公司 Graph searching model training method and graph searching method
CN117746028A (en) * 2024-02-08 2024-03-22 暗物智能科技(广州)有限公司 Visual detection method, device, equipment and medium for unlabeled articles

Also Published As

Publication number Publication date
KR20210042275A (en) 2021-04-19
KR102523886B1 (en) 2023-04-21
CN111626208A (en) 2020-09-04
CN111626208B (en) 2023-06-13
JP7262503B2 (en) 2023-04-21

Similar Documents

Publication Publication Date Title
JP2021179971A (en) Method and apparatus for detecting small target, electronic device, computer readable storage medium, and computer program
CN112015847B (en) Obstacle trajectory prediction method and device, storage medium and electronic equipment
US20230144209A1 (en) Lane line detection method and related device
KR102539942B1 (en) Method and apparatus for training trajectory planning model, electronic device, storage medium and program
JP7329572B2 (en) TRAFFIC STATE ACQUISITION METHOD AND DEVICE, ROAD SIDE DEVICE, AND CLOUD CONTROL PLATFORM
JP7273129B2 (en) Lane detection method, device, electronic device, storage medium and vehicle
CN112307978B (en) Target detection method and device, electronic equipment and readable storage medium
JP2021140822A (en) Vehicle control method, vehicle control device, and vehicle
KR102143034B1 (en) Method and system for tracking object in video through prediction of future motion of object
Arunpriyan et al. Real-time speed bump detection using image segmentation for autonomous vehicles
CN108960160B (en) Method and device for predicting structured state quantity based on unstructured prediction model
CN116343169A (en) Path planning method, target object motion control device and electronic equipment
CN116452911A (en) Target detection model training method and device, target detection method and device
CN116880462A (en) Automatic driving model, training method, automatic driving method and vehicle
US11908095B2 (en) 2-D image reconstruction in a 3-D simulation
US20210383213A1 (en) Prediction device, prediction method, computer program product, and vehicle control system
CN114627400A (en) Lane congestion detection method and device, electronic equipment and storage medium
Ma et al. Vehicle-based machine vision approaches in intelligent connected system
Ge et al. Theory and method of data collection for mixed traffic flow based on image processing technology
CN112215042A (en) Parking space limiter identification method and system and computer equipment
CN115019278B (en) Lane line fitting method and device, electronic equipment and medium
Bhatia et al. Road Image Segmentation for Autonomous Car
CN116110008A (en) Vehicle detection method, vehicle flow statistics method and device
WO2020050502A1 (en) Method and system for learning when it is possible to change traffic lanes on basis of camera, and method and system for providing notification as to whether it is possible to change traffic lanes
CN117496513A (en) Image anomaly detection method, device and storage medium in semantic segmentation

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210416

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210811

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20211101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220704

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220815

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220906

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20220916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220920

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230411

R150 Certificate of patent or registration of utility model

Ref document number: 7262503

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150