JP2023536025A - Target detection method, device and roadside equipment in road-vehicle cooperation - Google Patents

Target detection method, device and roadside equipment in road-vehicle cooperation Download PDF

Info

Publication number
JP2023536025A
JP2023536025A JP2022535786A JP2022535786A JP2023536025A JP 2023536025 A JP2023536025 A JP 2023536025A JP 2022535786 A JP2022535786 A JP 2022535786A JP 2022535786 A JP2022535786 A JP 2022535786A JP 2023536025 A JP2023536025 A JP 2023536025A
Authority
JP
Japan
Prior art keywords
candidate target
regions
region
iou
confidence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022535786A
Other languages
Japanese (ja)
Other versions
JP7436670B2 (en
Inventor
春▲ロン▼ 夏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apollo Intelligent Connectivity Beijing Technology Co Ltd
Original Assignee
Apollo Intelligent Connectivity Beijing Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apollo Intelligent Connectivity Beijing Technology Co Ltd filed Critical Apollo Intelligent Connectivity Beijing Technology Co Ltd
Publication of JP2023536025A publication Critical patent/JP2023536025A/en
Application granted granted Critical
Publication of JP7436670B2 publication Critical patent/JP7436670B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

本開示は、路車協調における目標検出方法、装置及び路側機器を提供し、高度交通の分野に関し、特に画像検出技術の分野に関する。具体的な技術案は、画像に対して目標検出を行い、前記画像内の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得することと、候補目標領域間のIoUと候補目標領域の被遮蔽度とに基づいて、候補目標領域の信頼度値を更新することと、更新された信頼度値に基づいて、候補目標領域から前記画像内の目標を検出することとを含む。本開示の実施例による技術案を用いて目標検出を行うと、目標検出の精度を高めることができる。【選択図】図1The present disclosure provides a target detection method, device, and roadside equipment in road-vehicle coordination, and relates to the field of intelligent transportation, and particularly to the field of image detection technology. A specific technical proposal is to perform target detection on an image, obtain a candidate target area in the image, a reliability value of the candidate target area, a degree of occlusion of the candidate target area, and detect the candidate target area. updating a confidence value of a candidate target region based on the IoU between regions and the degree of occlusion of the candidate target region; and extracting a target in the image from the candidate target region based on the updated confidence value. and detecting. When target detection is performed using the technical solution according to the embodiment of the present disclosure, the accuracy of target detection can be improved. [Selection diagram] Figure 1

Description

関連出願の相互参照Cross-reference to related applications

本願は、2021年06月28日に中国特許庁に提出された、出願番号が202110721853.4であり、発明の名称が「路車協調における目標検出方法、装置及び路側機器」である中国特許出願に基づき優先権を主張し、その全ての内容が援用により本願に組み込まれる。 This application is a Chinese patent application with application number 202110721853.4 and titled "Target Detection Method, Device and Roadside Device in Road-Vehicle Cooperation" filed with the Chinese Patent Office on June 28, 2021. , the entire contents of which are incorporated herein by reference.

本開示は、高度道路交通技術分野に関し、特に画像検出技術分野に関する。 The present disclosure relates to the field of intelligent traffic technology, and more particularly to the field of image detection technology.

路車協調V2X(Vehicle to everything、車両用無線通信技術)による道路監視や車
両の経路計画等の適用シナリオにおいて、画像収集装置により収集された画像を取得した後、画像内の人物、動物、車両等の目標を検出することで画像内の目標を位置決める必要があり、さらに、上記目標に対する処理操作をトリガーし、又は上記目標を結び付けて車両の経路計画等を行う。そのため、画像内の目標を検出するための路車協調における目標検出方法が必要である。
In application scenarios such as road monitoring and vehicle route planning using road-to-vehicle cooperation V2X (Vehicle to everything, wireless communication technology for vehicles), after acquiring an image collected by an image collection device, people, animals, and vehicles in the image are identified. It is necessary to locate a target in an image by detecting such a target, and to trigger further processing operations on said target, or to link said targets to perform such things as vehicle path planning. Therefore, there is a need for a target detection method in road-vehicle cooperation for detecting targets in images.

本開示は、路車協調における目標検出方法、装置及び路側機器を提供する。 The present disclosure provides a target detection method, apparatus and roadside equipment in road-vehicle cooperation.

本開示の一様態では、路車協調における目標検出方法を提供する。前記方法は、
画像に対して目標検出を行い、前記画像内の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得することと、
候補目標領域間のIoU(Intersection over Union、物体検出における評価指標)と候補目標領域の被遮蔽度とに基づいて、候補目標領域の信頼度値を更新することと、
更新された信頼度値に基づいて、候補目標領域から前記画像内の目標を検出することと、を含む。
One aspect of the present disclosure provides a target detection method in road-vehicle cooperation. The method includes:
performing target detection on an image to obtain a candidate target region in the image, a confidence value for the candidate target region, and an occlusion degree for the candidate target region;
updating the confidence values of the candidate target regions based on the IoU (Intersection over Union, evaluation index in object detection) between the candidate target regions and the degree of occlusion of the candidate target regions;
detecting targets in the image from candidate target regions based on the updated confidence values.

本開示の一様態では、路車協調における目標検出装置を提供する。前記装置は、
画像に対して目標検出を行い、前記画像内の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得するための情報取得モジュールと、
候補目標領域間のIoUと候補目標領域の被遮蔽度とに基づいて、候補目標領域の信頼度値を更新するための信頼度値更新モジュールと、
更新された信頼度値に基づいて、候補目標領域から前記画像内の目標を検出するための目標検出モジュールと、を含む。
One aspect of the present disclosure provides a target detection apparatus in road-vehicle cooperation. The device comprises:
an information acquisition module for performing target detection on an image to acquire candidate target regions in the image, confidence values for the candidate target regions, and occlusion degrees for the candidate target regions;
a confidence value update module for updating the confidence values of the candidate target regions based on the IoU between the candidate target regions and the degree of occlusion of the candidate target regions;
a target detection module for detecting targets in the image from the candidate target regions based on the updated confidence values.

本開示の別の様態では、電子デバイスを提供する。前記電子デバイスは、
少なくとも1つのプロセッサーと、
前記少なくとも1つのプロセッサーと通信しているメモリと、を含み、
前記メモリには、前記少なくとも1つのプロセッサーによって実行される命令が記憶されており、前記命令が前記少なくとも1つのプロセッサーによって実行されることで、前記少なくとも1つのプロセッサーに路車協調における目標検出方法を実現させる。
In another aspect of the disclosure, an electronic device is provided. The electronic device
at least one processor;
a memory in communication with the at least one processor;
The memory stores instructions to be executed by the at least one processor, and the instructions are executed by the at least one processor to instruct the at least one processor to perform a target detection method in road-vehicle cooperation. make it happen.

本開示の別の様態では、コンピューター命令が記憶されている非一時的なコンピューター可読記憶媒体を提供する。前記コンピューター命令は、前記コンピューターに路車協調における目標検出方法を実行させるために用いられる。 Another aspect of the present disclosure provides a non-transitory computer-readable storage medium having computer instructions stored thereon. The computer instructions are used to cause the computer to perform a target detection method in road-vehicle coordination.

本開示の別の様態では、コンピュータープログラム製品を提供する。前記コンピュータープログラム製品は、コンピュータープログラムを含み、前記コンピュータープログラムがプロセッサーによって実行されると、路車協調における目標検出方法を実現する。 According to another aspect of the disclosure, a computer program product is provided. The computer program product comprises a computer program, and when the computer program is executed by a processor, implements a target detection method in road-vehicle cooperation.

本開示の別の様態では、上記電子デバイスを含む路側機器を提供する。 Another aspect of the present disclosure provides roadside equipment including the electronic device described above.

本開示の別の様態では、上記電子デバイスを含むクラウドコントロールプラットフォームを提供する。 Another aspect of the present disclosure provides a crowd control platform including the electronic device described above.

上記から分かるように、本開示の実施例による技術案を用いて目標検出を行う際に、まず、候補目標領域間のIoUと候補目標領域の被遮蔽度とに基づいて、候補目標領域の信頼度値を更新し、次に、更新された信頼度値に基づいて、候補目標領域から画像内の目標を検出する。候補目標領域間のIoUが各候補目標領域間の重複度を反映でき、候補目標領域の被遮蔽度が候補目標領域の遮蔽される程度を反映できるため、上記のIoUと被遮蔽度とに基づいて、候補目標領域の信頼度値を更新する際に目標領域間の重なり具合を参考でき、候補目標領域の更新された信頼度値をより実際の状況に近づけることで、更新された信頼度値により画像に対して目標検出を行い、目標検出の精度を高めることができる。 As can be seen from the above, when performing target detection using the technical solution according to the embodiments of the present disclosure, first, based on the IoU between the candidate target regions and the degree of occlusion of the candidate target regions, the reliability of the candidate target regions and then detect targets in the image from the candidate target regions based on the updated confidence values. Since the IoU between candidate target areas can reflect the degree of overlap between each candidate target area, and the degree of occlusion of a candidate target area can reflect the degree of occlusion of the candidate target area, based on the IoU and the degree of occlusion: can refer to the degree of overlap between the target regions when updating the confidence values of the candidate target regions. By performing target detection on an image, the accuracy of target detection can be improved.

この部分で記述された内容は、本開示の実施例の要旨又は重要な特徴を特定することを意図しておらず、本開示の範囲に対しても限定しないことを理解できる。本開示の他の特徴は、以下の細書によって容易に理解される。 It will be understood that nothing described in this section is intended to identify key features or key features of embodiments of the disclosure, nor is it intended to limit the scope of the disclosure. Other features of the present disclosure will be readily understood by the following specification.

以下の図面は、本技術案をより理解するためのものであり、本開示に対する限定にならない。
図1は、本開示の実施例による路車協調における目標検出方法の概略フローチャートである。 図2は、本開示の実施例による画像の模式図である。 図3aは、本開示の実施例によるネットワークモデルの構造の模式図である。 図3bは、本開示の実施例による別のネットワークモデルの構造の模式図である。 図4は、本開示の実施例による路車協調における目標検出装置の構造の模式図である。 図5は、本開示の実施例による電子機器の構造の模式図である。
The following drawings are for better understanding of the present technical solution and are not limiting for the present disclosure.
FIG. 1 is a schematic flow chart of a target detection method in road-vehicle cooperation according to an embodiment of the present disclosure. FIG. 2 is a schematic diagram of an image according to an embodiment of the present disclosure; FIG. 3a is a schematic diagram of the structure of a network model according to an embodiment of the present disclosure; FIG. 3b is a schematic diagram of another network model structure according to an embodiment of the present disclosure. FIG. 4 is a schematic diagram of the structure of a target detection device in road-vehicle cooperation according to an embodiment of the present disclosure. FIG. 5 is a schematic diagram of the structure of an electronic device according to an embodiment of the present disclosure.

以下、図面を参照しながら、本開示の例示的な実施例を説明する。本開示の実施例の様々な詳細は、本開示を理解し易いために含まれており、単に例示的なものとみなされるべきである。そのため、当業者は、本開示の範囲及び精神から逸脱することなく、本明細書に記載された実施例に対して様々な変更及び修正を行うことができることを理解できる。また、以下の説明では、明確且つ簡潔にするために、公知の機能や構造に関する説明を省略する。 Illustrative embodiments of the present disclosure will now be described with reference to the drawings. Various details of embodiments of the disclosure are included for ease of understanding of the disclosure and should be considered as exemplary only. As such, those skilled in the art will appreciate that various changes and modifications can be made to the examples described herein without departing from the scope and spirit of this disclosure. Also, in the following description, descriptions of well-known functions and structures are omitted for clarity and brevity.

本開示の実施例は、路車協調における目標検出方法、装置及び路側機器を提供する。 Embodiments of the present disclosure provide a target detection method, apparatus and roadside equipment in road-vehicle coordination.

本開示の一実施例では、路車協調の目標検出方法を提供する。当該方法は、
画像に対して目標検出を行い、画像内の候補目標領域と、候補目標領域の信頼度値と、
候補目標領域の被遮蔽度とを取得することと、
候補目標領域間のIoU(Intersection over Union、オーバーラップ率とも呼ばれる
)と候補目標領域の被遮蔽度とに基づいて、候補目標領域の信頼度値を更新することと、
更新された信頼度値に基づいて、候補目標領域から画像内の目標を検出することと、
を含む。
An embodiment of the present disclosure provides a target detection method for road-vehicle cooperation. The method is
performing target detection on the image, a candidate target region in the image, a confidence value for the candidate target region;
obtaining the degree of occlusion of the candidate target area;
updating the confidence values of the candidate target regions based on the IoU (Intersection over Union, also called overlap ratio) between the candidate target regions and the degree of occlusion of the candidate target regions;
detecting a target in the image from the candidate target regions based on the updated confidence values;
including.

候補目標領域間のIoUは各候補目標領域間の重複度を反映でき、候補目標領域の被遮蔽度は候補目標領域の遮蔽される程度を反映できるため、上記のIoUと被遮蔽度とに基づいて候補目標領域の信頼度値を更新する際に、候補目標領域の更新された信頼度値がより実際の状況に近づくように、目標領域間の重なり具合を参考できることで、更新された信頼度値により画像に対して目標検出を行い、目標検出の精度を高めることができる。 The IoU between candidate target areas can reflect the degree of overlap between each candidate target area, and the degree of occlusion of a candidate target area can reflect the degree of occlusion of the candidate target area. When updating the confidence values of the candidate target regions by using the Target detection can be performed on the image by the value to increase the accuracy of the target detection.

以下、本開示の実施例に係る実行主体を説明する。 An execution subject according to an embodiment of the present disclosure will be described below.

本開示の実施例に係る実行主体は、目標検出機能が搭載された電子機器であってよい。ここで、上記電子機器は、卓上型コンピュ-タ、ノートパソコン、サーバー、画像収集装
置等であってよい。そのうち、画像収集装置は、ビデオカメラ、カメラ、ドライブレコーダー等を含んでよい。
An execution subject according to an embodiment of the present disclosure may be an electronic device equipped with a target detection function. Here, the electronic device may be a desktop computer, a notebook computer, a server, an image acquisition device, or the like. Among them, the image collecting device may include a video camera, a camera, a driving recorder, and the like.

本開示の実施例による技術案は、路車協調V2Xによる道路監視、車両の経路計画等の適用シナリオにおいて収集された画像に対して目標検出を行うことに用いられる。 The technical solutions according to the embodiments of the present disclosure are used to perform target detection on collected images in application scenarios such as road monitoring by road-vehicle cooperation V2X, vehicle route planning, and so on.

また、本開示の実施例による技術案は、他のシナリオにおいて収集された画像に対して目標検出を行うことにも用いられる。例えば、上記した他のシナリオは、地下鉄駅、デパート、コンサートなどの人混みの多いシナリオであってよい。このようなシナリオに対して画像の収集を行うと、収集された画像に含まれる人が密集する場合が多く、一部の人の顔が他の人の顔によって遮られることが発生し易い。また、上記シナリオは、博物館の入り口、銀行のロビーなどの人が比較的に密集するシナリオでもよい。このようなシナリオに対して画像収集を行うと、収集された画像において、人の顔が他の人又は建物等によって遮られる可能性がある。 The technical solution according to the embodiments of the present disclosure can also be used to perform target detection on the collected images in other scenarios. For example, the other scenarios mentioned above may be crowded scenarios such as subway stations, department stores, concerts, and the like. When images are collected for such a scenario, the people included in the collected images are often densely packed, and it is likely that some people's faces will be blocked by other people's faces. Also, the above scenarios may be scenarios where people are relatively dense, such as museum entrances and bank lobbies. When image acquisition is performed for such a scenario, a person's face may be obscured by other people, buildings, or the like in the acquired image.

上記は、本開示の実施例に係る適用シナリオの一例に過ぎず、本開示を限定するものではない。 The above is merely an example of application scenarios according to embodiments of the present disclosure and is not intended to limit the present disclosure.

上記目標は、人の顔、動物、車両等でよい。 The target may be a human face, an animal, a vehicle, or the like.

以下、具体的に本開示の実施例による路車協調における目標検出方法を説明する。 Hereinafter, a target detection method in road-vehicle cooperation according to an embodiment of the present disclosure will be specifically described.

図1を参照すると、図1は、本開示の実施例による路車協調の目標検出方法の概略フローチャートであり、上記方法は、以下のステップS101~ステップS103を含む。 Referring to FIG. 1, FIG. 1 is a schematic flow chart of a road-vehicle cooperation target detection method according to an embodiment of the present disclosure, which includes steps S101 to S103 as follows.

ステップS101では、画像に対して目標検出を行い、画像内の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得する。 In step S101, target detection is performed on the image to obtain candidate target regions in the image, reliability values of the candidate target regions, and occlusion degrees of the candidate target regions.

上記画像は、具体的なシナリオに対する画像収集によって取得された画像であってよい。上記シナリオは、車両走行シナリオや駐車場のシナリオ等を含んでよく、この場合、上記目標は、車両であってよい。上記シナリオは、さらに、地下鉄駅や高速鉄道駅等の公共空間のシナリオを含んでよく、この場合、上記目標は、人であってよい。 The images may be images obtained by image acquisition for a specific scenario. The scenarios may include vehicle driving scenarios, parking lot scenarios, etc. In this case, the target may be a vehicle. The scenarios may also include scenarios of public spaces such as subway stations or high-speed train stations, in which case the target may be a person.

目標検出を行う場合、一実施形態では、予め設定された目標検出アルゴリズムを用いて
画像に対して目標検出を行い、画像内の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得してよい。
When target detection is performed, in one embodiment target detection is performed on the image using a preset target detection algorithm to determine candidate target regions in the image, confidence values for the candidate target regions, candidate target regions may be acquired.

上記予め設定された目標検出アルゴリズムは、異なる種類の目標に対して採用される検出アルゴリズムであってよい。例えば、目標が人である場合、顔検出アルゴリズムや人体検出アルゴリズム等を採用してよい。目標が車両である場合、車両検出アルゴリズムや番号プレート検出アルゴリズム等を採用してよい。 The preset target detection algorithms may be detection algorithms employed for different types of targets. For example, if the target is a person, a face detection algorithm, a human body detection algorithm, or the like may be employed. If the target is a vehicle, vehicle detection algorithms, license plate detection algorithms, etc. may be employed.

目標検出を行う他の実施形態については、後述の実施例を参照すればよく、ここでは詳述しない。 Other embodiments of target detection can be found in the examples below and will not be described in detail here.

候補目標領域とは、目標検出により目標が存在する可能性があると判断された領域を指す。図2を例とすると、図2における各矩形枠で囲まれた領域は、画像に対して動物検出を行うことで得られた候補目標領域である。 A candidate target region refers to a region where target detection determines that a target may be present. Taking FIG. 2 as an example, the areas surrounded by respective rectangular frames in FIG. 2 are candidate target areas obtained by performing animal detection on the image.

候補目標領域の信頼度値は、候補目標領域に目標が存在する可能性の大きさを反映している。上記信頼度値は、小数、パーセント等で表してよい。信頼度値の値が大きいほど、候補目標領域に目標が存在する可能性が高いことを示す。 A confidence value for a candidate target area reflects the likelihood that a target exists in the candidate target area. The confidence value may be expressed as a decimal number, percentage, or the like. A higher value of the confidence value indicates a higher probability that a target is present in the candidate target region.

例えば、目標が人である場合、候補目標領域Aの信頼度値が候補目標領域Bの信頼度値より大きいことは、候補目標領域Aに人が存在する可能性が候補目標領域Bに人が存在する可能性より高いことを示す。 For example, if the target is a person, the confidence value for candidate target area A being greater than the confidence value for candidate target area B indicates the likelihood that a person is present in candidate target area A. Indicates more than likely to exist.

候補目標領域の被遮蔽度は、候補目標領域が遮蔽される程度を反映している。上記被遮蔽度は、小数、パーセント等で表してもよく、被遮蔽レベル番号で表してもよい。例えば、被遮蔽レベル番号には1、2、3を含む場合、番号1は被遮蔽レベルが重度の遮蔽であること表し、番号2は被遮蔽レベルが中度の遮蔽であること表し、番号3は被遮蔽レベルが軽度の遮蔽であることを表してよい。 The degree of occlusion of a candidate target area reflects the extent to which the candidate target area is occluded. The degree of shielding may be represented by a decimal number, a percentage, or the like, or may be represented by a shielding level number. For example, if the shielding level numbers include 1, 2, and 3, number 1 indicates that the shielding level is heavy shielding, number 2 indicates that the shielding level is medium shielding, and number 3 indicates that the shielding level is medium shielding. may represent that the shielding level is light shielding.

ステップS102では、候補目標領域間のIoUと候補目標領域の被遮蔽度とに基づいて、候補目標領域の信頼度値を更新する。 In step S102, the reliability values of the candidate target regions are updated based on the IoU between the candidate target regions and the degree of occlusion of the candidate target regions.

候補目標領域間のIoUは、2つの候補目標領域の間の重複度を表すためのものである。IoUが高いほど、2つの候補目標領域の間の重複度が高いことを示す。IoUが低いほど、2つの候補目標領域の間の重複度が低いことを示す。 The IoU between candidate target areas is to represent the degree of overlap between two candidate target areas. A higher IoU indicates a higher degree of overlap between the two candidate target regions. A lower IoU indicates less overlap between the two candidate target regions.

具体的に、2つの候補目標領域の間の重なり面積を計算して第1面積を取得し、2つの候補目標領域の面積の合計を計算して第2面積を取得し、そして、第2面積と第1面積の差を計算して第3面積を取得し、第1面積と第3面積の比を候補目標領域間のIoUとして確定する。 Specifically, the overlapping area between two candidate target regions is calculated to obtain a first area, the sum of the areas of the two candidate target regions is calculated to obtain a second area, and the second area is and the first area to obtain a third area, and determine the ratio of the first area to the third area as the IoU between the candidate target regions.

例えば、候補目標領域Aの面積が48であり、候補目標領域Bの面積が32である場合、候補目標領域Aと候補目標領域Bの重なり面積が16であり、即ち、第1面積が16である。候補目標領域Aの面積と候補目標領域Bの面積の合計が(46+32)=80であ
り、即ち、第2面積が80である。第2面積と第1面積の差を計算した結果が(80-16)=64であり、即ち、第3面積が64である。第1面積と第3面積の比を計算した結果が16/64=0.25であり、この0.25が候補目標領域間のIoUである。
For example, if the area of candidate target area A is 48 and the area of candidate target area B is 32, then the overlapping area of candidate target area A and candidate target area B is 16, i.e. the first area is 16. be. The sum of the area of candidate target area A and the area of candidate target area B is (46+32)=80, ie the second area is 80; The result of calculating the difference between the second area and the first area is (80-16)=64, ie the third area is 64. The result of calculating the ratio of the first area to the third area is 16/64=0.25, where 0.25 is the IoU between the candidate target regions.

一実施形態では、各候補目標領域から基準領域を選択し、各候補目標領域における基準領域以外の他の候補目標領域のそれぞれに対して、当該他の候補目標領域と基準領域のI
oUを計算し、計算によって得られたIoUを、当該候補目標領域の信頼度値を更新するためのIoUとして確定することができる。
In one embodiment, a reference region is selected from each candidate target region, and for each other candidate target region other than the reference region in each candidate target region, the I
The oU may be calculated and the calculated IoU may be determined as the IoU for updating the confidence value for that candidate target region.

上記基準領域は、各候補目標領域において、信頼度値が最も大きい領域であってよい。 The reference region may be the region with the highest confidence value in each candidate target region.

別の実施形態では、候補目標領域のそれぞれに対して、当該候補目標領域と他の各候補目標領域の間のIoUから1つのIoUを選択し、選択されたIoUを、当該候補目標領域の信頼度値を更新するためのIoUとして確定することもできる。 In another embodiment, for each candidate target area, select one IoU from the IoUs between that candidate target area and each of the other candidate target areas, and assign the selected IoU to the confidence of that candidate target area. It can also be determined as an IoU for updating the degree value.

例えば、上記複数のIoUから、最大IoU、平均IoU、中央IoU、又は最小IoU等を選択してよい。 For example, a maximum IoU, an average IoU, a median IoU, a minimum IoU, etc. may be selected from the plurality of IoUs.

候補目標領域の信頼度値を更新する場合に、一実施形態では、候補目標領域間のIoUと候補目標領域の被遮蔽度とに基づいて、予め設定された第1重み及び第2重みに従って調整係数を計算し、計算によって得られた調整係数に基づいて、候補目標領域の信頼度値を更新してよい。 When updating the confidence values of the candidate target regions, in one embodiment, they are adjusted according to the first and second preset weights based on the IoU between the candidate target regions and the degree of occlusion of the candidate target regions. A factor may be calculated and the confidence value for the candidate target region may be updated based on the calculated adjustment factor.

具体的に、候補目標領域間のIoUと第1重みの間の積を計算し、候補目標領域の被遮蔽度と第2重みの間の積を計算し、計算によって得られた2つの積の合計を調整係数とする。 Specifically, calculating the product between the IoU between the candidate target areas and the first weight, calculating the product between the degree of occlusion of the candidate target area and the second weight, and calculating the product of the two products obtained by the calculation. Let the sum be the adjustment factor.

例えば、候補目標領域間のIoUが80%であり、候補目標領域の被遮蔽度が50%であり、予め設定された第1重みが0.8であり、予め設定された第2重みが0.2である場合、候補目標領域間のIoUと第1重みの間の積を計算した結果が0.8*80%=6
4%であり、候補目標領域の被遮蔽度と第2重みの間の積を計算した結果が0.2*50
%=10%であり、計算によって得られた2つの積の合計が64%+10%=74%であ
るため、調整係数が74%であることが得られる。
For example, the IoU between the candidate target areas is 80%, the degree of occlusion of the candidate target areas is 50%, the preset first weight is 0.8, and the preset second weight is 0. .2, the result of computing the product between the IoU between the candidate target regions and the first weight is 0.8*80%=6
4%, and the result of calculating the product between the degree of occlusion of the candidate target area and the second weight is 0.2*50
Since %=10% and the sum of the two products obtained by calculation is 64%+10%=74%, we obtain an adjustment factor of 74%.

計算によって調整係数が得られた後、調整係数と候補目標領域の信頼度値の間の積を計算して、候補目標領域の更新された信頼度値としてよい。 After the adjustment factor is obtained from the calculation, the product between the adjustment factor and the confidence value of the candidate target region may be calculated to be the updated confidence value of the candidate target region.

候補目標領域の信頼度値を更新する他の実施形態については、後述の実施例を参照すればよく、ここでは詳述しない。 Other embodiments for updating the confidence values of candidate target regions can be found in the examples below and will not be described in detail here.

ステップS103では、更新された信頼度値に基づいて、候補目標領域から画像内の目標を検出する。 In step S103, targets in the image are detected from the candidate target regions based on the updated confidence values.

本開示の一実施例では、更新された信頼度値が予め設定された信頼度閾値より大きい候補目標領域を選択し、選択された候補目標領域における目標を画像内の目標として確定してよい。 In one embodiment of the present disclosure, candidate target regions with updated confidence values greater than a preset confidence threshold may be selected, and targets in the selected candidate target regions may be established as targets in the image.

上記予め設定された信頼度閾値は、操作者により経験に基づいて設定される。例えば、信頼度値をパーセントで表す場合、予め設定された信頼度閾値が90%、95%等であってよい。 The preset reliability threshold is set by the operator based on experience. For example, if the confidence value is expressed as a percentage, the preset confidence threshold may be 90%, 95%, and so on.

一例を挙げて、上記目標を確定する過程を説明する。仮に、更新された各候補目標領域の信頼度値が、それぞれ、80%、70%、90%、95%であり、予め設定された信頼度閾値が85%であり、85%より大きい更新された信頼度値が90%、95%であり、ここで、領域1の更新された信頼度値が90%であり、領域2の更新された信頼度値が95%であるとすると、領域1における目標及び領域2における目標が画像内の目標である
An example will be given to explain the process of determining the above target. Suppose the confidence value of each updated candidate target region is 80%, 70%, 90%, 95%, respectively, the preset confidence threshold is 85%, and the updated value is greater than 85%. 90%, 95%, where the updated confidence value for region 1 is 90% and the updated confidence value for region 2 is 95%, then region 1 The target in and the target in region 2 are the targets in the image.

このように、信頼度値が予め設定された信頼度閾値より大きい候補目標領域について、これらの候補目標領域に目標が含まれる可能性は、他の候補目標領域に目標が含まれる可能性より高い。このため、信頼度値が予め設定された信頼度閾値より大きい候補目標領域における目標を、画像内の目標として確定し、得られた目標の正確度が高くなる。 Thus, for candidate target regions whose confidence values are greater than the preset confidence threshold, the probability that these candidate target regions contain the target is higher than the probability that other candidate target regions contain the target. . Therefore, targets in candidate target regions with confidence values greater than a preset confidence threshold are determined as targets in the image, and the accuracy of the obtained targets is increased.

本開示の一実施例では、更新された信頼度値が最も高い候補目標領域をプリセットした数で選択し、選択された候補目標領域における目標を画像内の目標として確定してもよい。 In one embodiment of the present disclosure, a preset number of candidate target regions with the highest updated confidence values may be selected, and targets in the selected candidate target regions may be established as targets in the image.

上記プリセットした数は、操作者によって経験に基づいて設定してよい。例えば、上記プリセットした数が1つ、3つ、5つ等であってよい。 The preset number may be empirically set by the operator. For example, the preset number may be one, three, five, or the like.

一例を挙げて、上記目標を確定する過程を説明する。仮に、目標領域の信頼度値がそれぞれ80%、70%、90%、95%であり、プリセットした数が3個であるとすると、更新された信頼度値が最も大きい順に並べる上位3個は、それぞれ、95%、90%、80%であり、更新された信頼度値が95%、90%、80%である候補目標領域における目標を画像内の目標として確定する。 An example will be given to explain the process of determining the above target. Assuming that the reliability values of the target regions are 80%, 70%, 90%, and 95%, respectively, and the preset number is 3, the top 3 with the highest updated reliability values are , 95%, 90%, and 80%, respectively, and establish targets in candidate target regions with updated confidence values of 95%, 90%, and 80% as targets in the image.

このように、信頼度値が最も大きいものから始まるプリセットした数の候補目標領域について、これらの候補目標領域に目標が含まれる可能性は他の候補領域に目標が含まれる可能性より高い。このため、信頼度値が最も大きいものから始まるプリセットした数の候補目標領域における目標を画像内の目標として確定し、得られた目標の正確度が高くなる。 Thus, for a preset number of candidate target areas starting with the highest confidence value, the probability that these candidate target areas contain the target is higher than the probability that other candidate areas contain the target. Thus, targets in a preset number of candidate target regions starting with the highest confidence value are established as targets in the image, and the accuracy of the obtained targets is increased.

上記から分かるように、本開示の実施例による技術案を用いて目標検出を行う際に、まず、候補目標領域間のIoUと候補目標領域の被遮蔽度とに基づいて、候補目標領域の信頼度値を更新し、次に、更新された信頼度値に基づいて、候補目標領域から画像内の目標を検出する。候補目標領域間のIoUが各候補目標領域間の重複度を反映でき、候補目標領域の被遮蔽度が候補目標領域の遮蔽される程度を反映できるため、上記のIoUと被遮蔽度とに基づいて、候補目標領域の信頼度値を更新する際に、候補目標領域間の重なり具合を参考でき、候補目標領域の更新された信頼度値がより実際の状況に近づけることで、更新された信頼度値に基づいて画像に対して目標検出を行い、目標検出の精度を高めることができる。 As can be seen from the above, when performing target detection using the technical solution according to the embodiments of the present disclosure, first, based on the IoU between the candidate target regions and the degree of occlusion of the candidate target regions, the reliability of the candidate target regions and then detect targets in the image from the candidate target regions based on the updated confidence values. Since the IoU between candidate target areas can reflect the degree of overlap between each candidate target area, and the degree of occlusion of a candidate target area can reflect the degree of occlusion of the candidate target area, based on the IoU and the degree of occlusion: can refer to the degree of overlap between the candidate target regions when updating the confidence values of the candidate target regions. Target detection can be performed on the image based on the degree value to increase the accuracy of target detection.

なお、例えば人が密集しているシナリオや車両が密集しているシナリオ等のような密集シナリオでは、目標が遮蔽された状況は特に深刻である。これらの密集シナリオにおける画像について、各候補目標領域の被遮蔽度が高いため、候補目標領域内の目標が不完全であり、得られた候補目標領域の信頼度値には大きい誤差がある。候補目標領域の被遮蔽度によって候補目標領域の信頼度値を更新することにより、各候補目標領域が遮蔽された時に信頼度値への誤差の影響を効果的に除去できるため、更新された信頼度値の正確度を高めて、さらに、検出によって正確な目標を取得することができる。そのため、本開示の実施例による技術案は、密集シナリオにおいて遮蔽される場合によりよく適用されることができ、目標検出の正確度を高めることができる。 It should be noted that the target occluded situation is particularly serious in high-density scenarios such as, for example, high-density scenarios of people and high-density vehicles. For images in these dense scenarios, the occlusion of each candidate target region is high, so the targets within the candidate target regions are imperfect and the confidence values obtained for the candidate target regions have large errors. Updating the confidence values of the candidate target regions by the degree of occlusion of the candidate target regions effectively removes the effect of errors on the confidence values when each candidate target region is occluded, thus the updated confidence The accuracy of the degree value can be increased and the detection can also obtain a precise target. Therefore, the technical solutions according to the embodiments of the present disclosure can be better applied in the case of occlusion in dense scenarios, and can enhance the accuracy of target detection.

候補目標領域の信頼度値に対する更新を正確に行うために、本開示の一実施例では、領域セットから信頼度値が最も高い第1領域を選択し、領域セットにおける他の領域と第1領域との間のIoUと他の領域の被遮蔽度とに基づいて、他の領域の信頼度値を更新し、そして一回の信頼度値更新操作を完了する。領域セットには1つの領域が含まれるまで上
記操作を繰り返して行う。一回の信頼度値更新操作を1サイクルと称してよい。
To accurately update the confidence values of candidate target regions, one embodiment of the present disclosure selects the first region with the highest confidence value from the region set, and compares the first region with the other regions in the region set. update the confidence values of other regions according to the IoU between and the degree of occlusion of other regions, and complete one confidence value update operation. The above operation is repeated until the region set contains one region. One reliability value update operation may be referred to as one cycle.

上記領域セットには、候補目標領域内の選択されていない領域を含む。具体的に、第1サイクルの開始時に、領域セットにはステップS101で得られた各候補目標領域を含む。各サイクルで領域セットから第1領域を選択した後、既に選択された第1領域が領域セットに含まれなくなる。 The region set includes non-selected regions within the candidate target regions. Specifically, at the beginning of the first cycle, the region set includes each candidate target region obtained in step S101. After selecting the first region from the region set in each cycle, the previously selected first region is no longer included in the region set.

第1サイクルの開始時に、第1領域は、ステップS101で得られた各候補目標領域における信頼度値が最も高い領域である。後続の各サイクルにおいて、第1領域は、前回のサイクルによって得られた更新された各領域における信頼度値が最も高い領域である。 At the beginning of the first cycle, the first region is the region with the highest confidence value for each candidate target region obtained in step S101. In each subsequent cycle, the first region is the region with the highest confidence value in each updated region obtained by the previous cycle.

上記他の領域とは、領域セットにおける第1領域以外の領域である。例えば、領域セットには、領域1、領域2、領域3を含み、ここで、領域1が第1領域であり、領域2、領域3が第1領域以外の領域である場合、領域2、領域3が他の領域である。 The other area is an area other than the first area in the area set. For example, the region set includes region 1, region 2, region 3, where region 1 is the first region and region 2, region 3 are regions other than the first region, then region 2, region 3 is the other area.

各サイクルでは、領域セットにおける各領域に亘って、各領域の信頼度値を高いものから低いものへ並び替えて、信頼度値が最も高い領域を第1領域として確定してよい。また、第1領域を予測セットに保存してよく、サイクル数の増加に伴って、予測セットに保存されている第1領域の数も増加する。 In each cycle, over each region in the region set, the confidence value of each region may be sorted from highest to lowest, and the region with the highest confidence value may be determined as the first region. Also, the first regions may be stored in the prediction set, and as the number of cycles increases, the number of first regions stored in the prediction set also increases.

以下、具体的な例を参照しながら、上記サイクルの過程を説明する。 The process of the above cycle will now be described with reference to a specific example.

仮に、ステップS101で得られた各候補目標領域がb1、b2、b3、…bnである。 Suppose each candidate target area obtained in step S101 is b1, b2, b3, . . . bn.

第1サイクルの開始時に、領域セットB={b1、b2、b3、…、bn}である。ここで、各候補目標領域における信頼度値が最も高い領域は領域b1であるため、領域b1を第1領域とする。領域セットBにおける領域b1以外の領域がb2、b3、…、bnであるため、{b2、b3、…、bn}が他の領域である。 At the beginning of the first cycle, region set B={b1, b2, b3, . . . , bn}. Here, since the region b1 has the highest reliability value among the candidate target regions, the region b1 is defined as the first region. Since the areas other than the area b1 in the area set B are b2, b3, . . . , bn, {b2, b3, .

他の領域{b2、b3、…、bn}と領域b1との間のIoUと、他の領域{b2、b3
、…、bn}の被遮蔽度とに基づいて、他の領域{b2、b3、…、bn}の信頼度値を更
新する。そして、第1領域b1を予測セットDに追加してよく、追加された予測セットD={b1}である。
The IoU between the other areas {b2, b3, . . . , bn} and the area b1, and the other areas {b2, b3
, bn}, the reliability values of the other regions {b2, b3, . . . , bn} are updated. Then, the first region b1 may be added to the prediction set D, and the added prediction set D={b1}.

第2サイクルの開始時に、領域b1が第1領域として既に選択されているため、領域セットBには領域b1を含んでおらず、領域セットB={b2、b3、…、bn}である。ここで、更新された{b2、b3、…、bn}における信頼度値が最も高い領域が領域b2であるため、領域b2を第1領域とする。領域セットBにおける領域b2以外の領域がb3、…、bnであるため、{b3、…、bn}が他の領域である。 At the start of the second cycle, region b1 has already been selected as the first region, so region set B does not include region b1, and region set B={b2, b3, . . . , bn}. Here, since the region b2 has the highest reliability value in the updated {b2, b3, . . . , bn}, the region b2 is defined as the first region. Since the areas other than the area b2 in the area set B are b3, . . . , bn, {b3, .

他の領域{b3、…、bn}と領域b2との間のIoUと、他の領域{b3、…、bn}の被遮蔽度とに基づいて、他の領域{ b3、…、bn}の信頼度値を更新する。そして、第
1領域b2を予測セットDに追加してよく、追加された予測セットD={b1、b2}である。
Based on the IoU between the other regions {b3, . Update the confidence value. Then, the first region b2 may be added to the prediction set D, and the added prediction set D={b1, b2}.

第3サイクルの開始時に、領域b1、領域b2が第1領域として既に選択されているため、領域セットB={ b3、…、bn }である。ここで、更新された{ b3、…、bn}
における信頼度値が最も高い領域が領域b3であるため、領域b3を第1領域とする。領域セットBにおける領域b3以外の領域がb4、…、bnであるため、{b4、…、bn}
が他の領域である。
At the start of the third cycle, the region set B={b3, . where the updated {b3,...,bn}
Since the region b3 has the highest reliability value in , the region b3 is set as the first region. Since the regions other than region b3 in region set B are b4, . . . , bn, {b4, .
is the other area.

他の領域{b4、…、bn}と領域b3との間のIoUと、他の領域{b4、…、bn}の被遮蔽度とに基づいて、他の領域{ b4、…、bn}の信頼度値を更新する。そして、第
1領域b3を予測セットDに追加してよく、追加された予測セットD={b1,b2,b
3}である。
Based on the IoU between the other regions {b4, . . . , bn} and the region b3 and the degree of shielding of the other regions {b4, . Update the confidence value. Then, the first region b3 may be added to the prediction set D, and the added prediction set D={b1, b2, b
3}.

類似な方式によって、領域セットBにおける領域の数が1になるまで、上記処理を繰り返し、領域セットBにおける唯一の領域を直接に予測セットDに追加し、サイクルが終わり、更新された各領域の信頼度値を取得した。 In a similar fashion, the above process is repeated until the number of regions in region set B is 1, adding only one region in region set B directly to prediction set D, the cycle ends and each updated region Confidence value obtained.

このように、各サイクルでは、領域セットにおける他の領域と第1領域との間のIoUと他の領域の被遮蔽度とに基づいて、領域セットにおける領域の信頼度値を更新する。ここで、他の領域の被遮蔽度が他の領域の遮蔽される程度を反映しており、領域が遮蔽された時に、検出によって得られた領域の信頼度値の正確度が低いため、他の領域の被遮蔽度を導入することで、更新された候補目標領域の信頼度値の正確度を高めることができる。そして、他の領域と第1領域との間のIoUは他の領域と第1領域との間の重複度を反映しており、且つ、第1領域は信頼度値が最も高い領域であるため、信頼度値が最も高い領域との間の重複度によって、他の領域の信頼度値を効果的に調整することもできる。このため、各サイクルでは、上記IoUと被遮蔽度とに基づいて、他の領域の信頼度値を効果的に更新することができる。そして、更新の過程を繰り替えすことで、更新された信頼度値の正確度をさらに高めることができる。 Thus, in each cycle, the confidence values of the regions in the region set are updated based on the IoU between the other regions in the region set and the first region and the degree of occlusion of the other regions. Here, the degree of occlusion of other regions reflects the degree of occlusion of other regions, and when a region is occluded, the accuracy of the reliability value of the region obtained by detection is low. The accuracy of the updated candidate target region confidence values can be increased by introducing the occlusion of the regions of . Since the IoU between the other region and the first region reflects the degree of overlap between the other region and the first region, and the first region is the region with the highest reliability value, , the reliability values of other regions can be effectively adjusted according to the degree of overlap with the region with the highest reliability value. Therefore, in each cycle, the reliability values of other regions can be effectively updated based on the IoU and the degree of shielding. By repeating the updating process, the accuracy of the updated reliability value can be further improved.

本開示の一実施例では、サイクル毎に他の領域の信頼度値を更新する際に、以下のステップA1-ステップA4によって実現することができる。 In one embodiment of the present disclosure, updating the reliability values of other regions in each cycle can be achieved by the following steps A1-A4.

ステップA1では、領域セットにおける他の領域と第1領域との間のIoUを計算する。
具体的に、まず、他の領域と第1領域との間の重なり面積を計算し、他の領域と第1領域の面積の合計を計算する。次に、上記面積の合計と重なり面積との差を計算して目標面積を取得し、重複面積と目標面積との間の比を候補目標領域間のIoUとして確定する。
In step A1, the IoU between the other regions in the region set and the first region is calculated.
Specifically, first, the overlapping area between the other area and the first area is calculated, and the total area of the other area and the first area is calculated. Next, the difference between the sum of the areas and the overlapping area is calculated to obtain the target area, and the ratio between the overlapping area and the target area is established as the IoU between the candidate target regions.

ステップA2では、IoUと予め設定されたIoU閾値とに基づいて、第1信頼度調整値を確定する。
上記予め設定されたIoU閾値は、操作者により経験に基づいて設定することができる。例えば、IoU閾値が90%、95%等であってよい。
At step A2, a first reliability adjustment value is determined based on the IoU and a preset IoU threshold.
The preset IoU threshold can be set by the operator based on experience. For example, the IoU threshold may be 90%, 95%, and so on.

一実施形態では、IoUが予め設定されたIoU閾値より小さいか否やかを判断し、IoUが予め設定されたIoU閾値より小さい場合、第1信頼度値調節値を第1プリセット値として確定し、IoUが予め設定されたIoU閾値以上の場合、第1信頼度調整値を第2プリセット値として確定してよい。
上記第1プリセット値及び第2プリセット値は、いずれも操作者により経験に基づいて設定されたものである。
In one embodiment, determining whether the IoU is less than a preset IoU threshold, if the IoU is less than the preset IoU threshold, determine a first reliability value adjustment value as a first preset value; If the IoU is greater than or equal to a preset IoU threshold, the first reliability adjustment value may be determined as the second preset value.
Both the first preset value and the second preset value are set by the operator based on experience.

本開示の一実施例では、IoUが予め設定されたIoU閾値より小さいか否やかを判断し、IoUが予め設定されたIoU閾値より小さい場合、第1信頼度調整値を1として確定し、IoUが予め設定されたIoU閾値以上の場合、第1信頼度調整値を1とIoUの差として確定してよい。
例えば、仮に、予め設定されたIoU閾値が90%であるとすると、他の領域と第1領域との間のIoUが95%である場合、IoU95%が予め設定されたIoU閾値90%
より大きいため、第1信頼度調整値が1-95%=5%であると確定し、他の領域と第1領域との間のIoUが50%である場合、IoU50%が予め設定されたIoU閾値90%より小さいため、第1信頼度調整値を1として確定する。
In an embodiment of the present disclosure, it is determined whether the IoU is less than a preset IoU threshold, and if the IoU is less than the preset IoU threshold, the first reliability adjustment value is determined as 1, and the IoU is greater than or equal to a preset IoU threshold, a first confidence adjustment value may be established as the difference between 1 and the IoU.
For example, if the preset IoU threshold is 90%, and the IoU between the other area and the first area is 95%, IoU 95% is the preset IoU threshold 90%.
is greater than, determine that the first reliability adjustment value is 1-95%=5%, and if the IoU between the other region and the first region is 50%, IoU 50% is preset Since it is less than the IoU threshold of 90%, the first reliability adjustment value is determined as 1.

このように、IoUが予め設定されたIoU閾値より小さい場合、他の領域と第1領域との間の重複度が小さいことを示し、他の領域における小部分の画像の内容が遮蔽され、検出によって得られた当該他の領域の信頼度値の正確度が高いことを意味し、この場合、当該他の領域の信頼度値を調整しなくてもよい。第1信頼度調整値を1に設定することで、領域の信頼度値を調整しないことを実現できる。IoUが予め設定されたIoU閾値以上の場合、他の領域と第1領域との間の重複度が大きいことを示し、他の領域における大部分の画像の内容が遮蔽され、検出によって得られた当該他の領域の信頼度値の正確度が低いことを意味し、この場合、他の領域の信頼度値を調整する必要があり、第1信頼度調整値を1とIoUの差として設定することで、調整された信頼度値を実際の状況に近づけることができる。 Thus, if the IoU is less than the preset IoU threshold, it indicates that the degree of overlap between the other region and the first region is small, and a small portion of the image content in the other region is masked and detected. means that the reliability value of the other region obtained by is highly accurate, in which case the reliability value of the other region need not be adjusted. By setting the first reliability adjustment value to 1, it is possible to realize that the reliability value of the region is not adjusted. If the IoU is greater than or equal to the preset IoU threshold, it indicates that the degree of overlap between the other region and the first region is large, and most of the image content in the other region is occluded, resulting in the detection It means that the accuracy of the reliability value of the other region is low, in which case the reliability value of the other region needs to be adjusted, and the first reliability adjustment value is set as the difference between 1 and IoU This allows the adjusted confidence values to be closer to the actual situation.

ステップA3では、他の領域の被遮蔽度に基づいて、第2信頼度調整値を確定する。 In step A3, a second reliability adjustment value is determined based on the degree of shielding of other regions.

一実施形態では、他の領域の被遮蔽度と予め設定された調整係数との間の積を計算して、第2信頼度調整値とする。 In one embodiment, the second reliability adjustment value is calculated by multiplying the degree of occlusion of the other regions and a preset adjustment factor.

上記予め設定された調整係数は、操作者により経験に基づいて設定してよく、例えば、予め設定された調整係数が1.2、1.5等であってよい。 The preset adjustment coefficient may be set by the operator based on experience, and for example, the preset adjustment coefficient may be 1.2, 1.5, or the like.

本開示の一実施例では、以下の式に従って第2信頼度調整値g(occ_pred)を確定することもできる。
ここで、occ_predが他の領域の被遮蔽度であり、αが予め設定された常数であ
り、α>1である。
In one embodiment of the present disclosure, the second reliability adjustment value g(occ_pred) can also be determined according to the following equation.
Here, occ_pred is the degree of occlusion of other regions, α is a preset constant, and α>1.

α>1であるため、第2信頼度調整値g(occ_pred)は、他の領域の被遮蔽度が増加するにつれて増加する。 Since α>1, the second reliability adjustment value g(occ_pred) increases as the degree of occlusion of other regions increases.

領域の被遮蔽度が高い場合、当該領域の信頼度値の正確度が低いため、当該領域の信頼度値を大幅に調整することで、調整された信頼度値を実際の状況に近づけることが必要である。また、第2信頼度調整値g(occ_pred)が他の領域の被遮蔽度が増加するにつれて増加し、即ち他の領域の被遮蔽度が高いほど、第2信頼度調整値が大きいため、当該他の領域の信頼度値を大幅に調整することで、調整された他の領域の信頼度値実際の状況に近づけることができる。 If the occlusion of an area is high, the accuracy of the confidence value of the area is low, so the confidence value of the area can be adjusted significantly to bring the adjusted confidence value closer to the actual situation. is necessary. In addition, the second reliability adjustment value g(occ_pred) increases as the degree of occlusion of other regions increases. By adjusting the confidence values of the other regions by a large amount, the adjusted confidence values of the other regions can be closer to the actual situation.

ステップA4では、第1信頼度調整値と第2信頼度調整値とを用いて、他の領域の信頼度値を調整する。 In step A4, the reliability values of other regions are adjusted using the first reliability adjustment value and the second reliability adjustment value.

本開示の一実施例では、以下の式に従って他の領域の信頼度値を調整することができる。
S’=S*T1*T2
ここで、S’は調整された他の領域の信頼度値を表し、Sは調整される前の他の領域の信頼度値を表し、T1は第1信頼度調整値を表し、T2は第2信頼度調整値を表す。
In one embodiment of the present disclosure, confidence values for other regions may be adjusted according to the following formula.
S'=S*T1*T2
Here, S′ represents the confidence value of the adjusted other region, S represents the confidence value of the other region before adjustment, T1 represents the first confidence adjustment value, and T2 represents the second confidence value. 2 Represents the confidence adjustment value.

このように、調整された信頼度値は、第1信頼度調整値と、第2信頼度調整値と、他の領域の信頼度値との間の積であるため、また、第1信頼度調整値、第2信頼度調整値は、異なる角度から他の領域の遮蔽される状況を反映しているため、上記調整された信頼度値が他の領域の遮蔽される状況を参考することで、調整された信頼度値をさらに実際の状況に近づける。 Thus, since the adjusted confidence value is the product of the first confidence adjustment value, the second confidence adjustment value, and the confidence value of the other region, the first confidence value Since the adjustment value and the second reliability adjustment value reflect the occlusion situation of other areas from different angles, the adjusted reliability value can refer to the occlusion situation of other areas. , to bring the adjusted confidence values closer to the real situation.

他の一実施形態では、第1信頼度調整値と、第2信頼度調整値と、他の領域の信頼度値との間の積を計算して参考信頼度値とし、予め設定された信頼度値誤差値によって上記参考信頼度値を調整して、調整された参考信頼度値を取得して、他の領域の調整された信頼度値とすることもできる。
具体的に、予め設定された信頼度値誤差値とパラメータ信頼度値の間の積を計算し、計算によって得られた積を他の領域の調整された信頼度値として確定することができる。
In another embodiment, the reference reliability value is calculated by multiplying the first reliability adjustment value, the second reliability adjustment value, and the reliability value of the other region to obtain the preset reliability value. The reference reliability value may be adjusted according to the degree error value to obtain an adjusted reference reliability value, which is used as an adjusted reliability value for another region.
Specifically, the product between the preset reliability value error value and the parameter reliability value can be calculated, and the product obtained by the calculation can be determined as the adjusted reliability value of the other region.

このように、第1信頼度調整値が他の領域と第1領域との間のIoUとによって確定され、IoUが他の領域と第1領域の重複度を反映しているため、且つ、第2信頼度調整値が他の領域の被遮蔽度によって確定され、被遮蔽度が他の領域の遮蔽される程度を反映しているため、第1信頼度調整値と第2信頼度調整値はいずれも、異なる角度から他の領域の遮蔽される状況を反映できる。このため、第1信頼度調整値と第2信頼度調整値とを用いて他の領域の信頼度値を調整する時に、第1信頼度調整値と第2信頼度調整値は、異なる角度から他の領域の遮蔽される状況を反映しているため、第1信頼度調整値と第2信頼度調整値とを用いて調整すると、より正確な他の領域の遮蔽される状況に基づいて信頼度値を調整することで、調整された信頼度値をさらに実際の状況に近づける。 Thus, since the first reliability adjustment value is determined by the IoU between the other region and the first region, and the IoU reflects the degree of overlap between the other region and the first region, and 2 Since the reliability adjustment value is determined by the degree of occlusion of other regions, and the degree of occlusion reflects the degree of occlusion of other regions, the first reliability adjustment value and the second reliability adjustment value are Both can reflect the occluded situation of other regions from different angles. Therefore, when adjusting the reliability values of other regions using the first reliability adjustment value and the second reliability adjustment value, the first reliability adjustment value and the second reliability adjustment value are obtained from different angles. Since it reflects the occlusion situation of other areas, if the first reliability adjustment value and the second reliability adjustment value are used for adjustment, the reliability can be more accurately determined based on the occlusion situation of other areas. Adjusting the confidence value brings the adjusted confidence value closer to the actual situation.

以下、1つの具体的な実現過程によって、上記サイクルで信頼度値を更新する方式について説明する。 Hereinafter, a method for updating the reliability value in the above cycle will be described according to a specific implementation process.

仮に、各候補目標領域がb1、b2、b3であり、予め設定されたIoU閾値Ntが90%であり、各候補目標領域の信頼度値及び被遮蔽度が以下の表1に示すとする。
Suppose each candidate target area is b1, b2, b3, the preset IoU threshold Nt is 90%, and the reliability value and occlusion degree of each candidate target area are shown in Table 1 below.

第1サイクルの開始時に、領域セットB={b1、b2、b3}であり、ここで、領域b1の信頼度値Cv1が最も高く、領域b1が第1領域であり、領域b2、領域b3が他の領域である。 At the beginning of the first cycle, region set B={b1, b2, b3}, where region b1 has the highest confidence value Cv1, region b1 is the first region, regions b2, b3 are Another area.

領域b2に対して、領域b2と領域b1との間のIoUを計算し、上記IoUと予め設定されたIoU閾値90%とに基づいて、第1信頼度調整値を確定する。領域b2の被遮蔽度Co2に基づいて、第2信頼度調整値を確定する。第1信頼度調整値と第2信頼度調整値とに基づいて、領域b2の信頼度値Cv2を調整し、更新された信頼度値がCv21である。 For the area b2, calculate the IoU between the area b2 and the area b1, and determine the first reliability adjustment value based on the IoU and the preset IoU threshold of 90%. A second reliability adjustment value is determined based on the degree of shielding Co2 of the region b2. The reliability value Cv2 of the region b2 is adjusted based on the first reliability adjustment value and the second reliability adjustment value, and the updated reliability value is Cv21.

領域b3に対して、領域b3と領域b1との間のIoUを計算し、上記IoUと予め設
定されたIoU閾値90%とに基づいて、第1信頼度調整値を確定する。領域b3の被遮蔽度Co3に基づいて、第2信頼度調整値を確定する。第1信頼度調整値と第2信頼度調整値とに基づいて、領域b3の信頼度値Cv3を調整し、更新された信頼度値がCv31である。
For the area b3, calculate the IoU between the area b3 and the area b1, and determine the first reliability adjustment value based on the IoU and the preset IoU threshold of 90%. A second reliability adjustment value is determined based on the shielding degree Co3 of the region b3. The reliability value Cv3 of the region b3 is adjusted based on the first reliability adjustment value and the second reliability adjustment value, and the updated reliability value is Cv31.

第1サイクルで得られた更新された各候補目標領域の信頼度値は、以下の表2に示す。
The updated confidence values for each candidate target region obtained in the first cycle are shown in Table 2 below.

第2サイクルの開始時に、領域b1が既に選択されたため、領域セットB={b2、b
3}である。ここで、領域b2の信頼度値Cv21が最も高く、領域b2が第1領域であ
り、領域b3が他の領域である。
At the beginning of the second cycle, region b1 was already selected, so region set B = {b2, b
3}. Here, the region b2 has the highest reliability value Cv21, the region b2 is the first region, and the region b3 is the other region.

領域b3に対して、領域b3と領域b2との間のIoUを計算し、上記IoUと予め設定されたIoU閾値90%とに基づいて、第1信頼度調整値を確定する。領域b3の被遮蔽度Co3に基づいて、第2信頼度調整値を確定する。第1信頼度調整値と第2信頼度調整値とに基づいて、領域b3の信頼度値Cv31を調整し、更新された信頼度値がCv311である。 For the area b3, calculate the IoU between the area b3 and the area b2, and determine the first reliability adjustment value based on the IoU and the preset IoU threshold of 90%. A second reliability adjustment value is determined based on the shielding degree Co3 of the region b3. The reliability value Cv31 of the region b3 is adjusted based on the first reliability adjustment value and the second reliability adjustment value, and the updated reliability value is Cv311.

領域b1、領域b3が既に選択されたため、領域セットB={b3}であり、1つの領域を含み、サイクルが終わる。 Since regions b1, b3 have already been selected, region set B={b3}, containing one region, the cycle ends.

最終的に得られた更新された各候補目標領域の信頼度値は、以下の表3に示す。
The resulting updated confidence value for each candidate target region is shown in Table 3 below.

本開示の一実施例では、上記ステップS101で異なる目標尺度ごとに、画像に対して目標検出を行い、画像内の異なる尺度の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得することができる。 In one embodiment of the present disclosure, for each different target scale in step S101 above, target detection is performed on the image, and the candidate target regions of different scales in the image, the confidence values of the candidate target regions, and the candidate target regions can be obtained.

目標尺度とは、目標の寸法を指す。
目標尺度は、予め設定された尺度値であってよく、例えば、目標尺度は、16x16、32x32、64x64であってよい。
Target scale refers to the dimensions of a target.
The target scale may be a preset scale value, for example, the target scale may be 16x16, 32x32, 64x64.

具体的に、画像に対して多層特徴抽出を行って、そして、異なる特徴に対して特徴融合を行って、異なる尺度の特徴を取得してよい。異なる尺度の特徴を用いて画像に対して目
標検出を行い、異なる尺度の候補目標領域を取得し、異なる尺度の候補目標領域の信頼度値及び被遮蔽度を取得する。
Specifically, multi-layer feature extraction may be performed on the image, and feature fusion may be performed on different features to obtain features of different scales. Target detection is performed on the image using features of different scales to obtain candidate target regions of different scales, and confidence values and degrees of occlusion of the candidate target regions of different scales are obtained.

このように、異なる尺度の候補目標領域に含まれる画像特徴情報が異なるため、画像内の異なる尺度の候補目標領域を取得することで、候補目標領域の異なる尺度における特徴情報を強化した。 Thus, because candidate target regions of different scales contain different image feature information, obtaining candidate target regions of different scales in the image enhanced the feature information of the candidate target regions at different scales.

本開示の一実施例では、予め訓練によって得られた目標検出モデルに画像を入力して、目標検出モデルによって出力された画像内の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得することができる。 In one embodiment of the present disclosure, an image is input to a pre-trained target detection model, and candidate target regions in the image output by the target detection model, confidence values for the candidate target regions, and candidate targets The degree of occlusion of the area can be obtained.

上記目標検出モデルには、画像内の候補目標領域を検出するための目標検出層と、候補目標領域の被遮蔽度を予測するための遮蔽度予測層と、を含む。 The target detection model includes a target detection layer for detecting candidate target regions in an image and an occlusion prediction layer for predicting occlusion of candidate target regions.

一実施形態では、目標検出層は、画像内の候補目標領域を検出することに加えて、候補目標領域の信頼度値を計算することもできる。この場合、目標検出モデルのネットワーク構造は、図3aのように示す。目標検出モデルには、目標検出層と遮蔽度予測層とを含む。 In one embodiment, the target detection layer, in addition to detecting candidate target regions within an image, may also compute confidence values for the candidate target regions. In this case, the network structure of the target detection model is shown as in Fig. 3a. The target detection model includes a target detection layer and a shielding degree prediction layer.

具体的に、画像が目標検出モデルに入力された後、モデルにおける目標検出層は、画像内の候補目標領域を検出し、候補目標領域の信頼度値を計算し、検出結果を遮蔽度予測層に伝送する。遮蔽度予測層は、各候補目標領域の被遮蔽度を予測する。目標検出モデルは、候補目標領域と、候補目標領域の信頼度値及び被遮蔽度とを出力する。 Specifically, after an image is input to the target detection model, the target detection layer in the model detects candidate target regions in the image, calculates confidence values for the candidate target regions, and sends the detection results to the occlusion prediction layer. transmit to The occlusion prediction layer predicts the occlusion of each candidate target region. The target detection model outputs candidate target regions and confidence values and degrees of occlusion for the candidate target regions.

前述した実施例から分かるように、画像に対して目標検出を行う際に、目標尺度ごとに、異なる尺度の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得する。この場合、上記ネットワークモデルの上にFPN(Feature Pyr
amid Networks)を追加してよく、FPNは、各種の異なる尺度の候補目標
領域と、候補目標領域の信頼度値及び被遮蔽度とを取得するために用いられる。
As can be seen from the above-described embodiments, when performing target detection on an image, for each target scale, candidate target regions with different scales, reliability values of the candidate target regions, and degrees of occlusion of the candidate target regions are used. to get In this case, FPN (Feature Pyr
amid Networks), and the FPN is used to obtain various different scales of candidate target regions, as well as confidence values and occlusions of candidate target regions.

FPNを追加したネットワークモデルのネットワーク構造は、図3bのように示す。図3bに示すネットワーク構造は、バックボーン(Backbone)とFPNとを含む。
ここで、バックボーンは、画像に対して特徴抽出を行い、画像内の異なる層の画像特徴を取得し、異なる層の画像特徴をFPNに入力するために用いられる。
The network structure of the network model with the addition of FPN is shown in Fig. 3b. The network structure shown in FIG. 3b includes a Backbone and an FPN.
Here, the backbone is used to perform feature extraction on the image, obtain the image features of different layers in the image, and input the image features of different layers to the FPN.

例えば、バックボーンが畳み込みニューラルネットワークである場合、畳み込みニューラルネットワークの各畳み込み層は、いずれも画像に対して畳み込み操作を行うことで、異なる層の画像特徴を取得することができる。 For example, if the backbone is a convolutional neural network, each convolutional layer of the convolutional neural network can perform a convolution operation on an image to obtain image features of different layers.

FPNは、異なる層の画像特徴に対して特徴融合を行い、異なる尺度の画像特徴を取得し、異なる尺度の画像特徴に基づいて目標検出を行い、異なる尺度の候補目標領域を取得し、候補目標領域の信頼度値及び被遮蔽度を取得するために用いられ、異なる層の画像特徴に対して分割統治処理を行うことを実現する。 FPN performs feature fusion on image features of different layers, obtains image features of different scales, performs target detection based on the image features of different scales, obtains candidate target regions of different scales, obtains candidate targets It is used to obtain the confidence value and occlusion of a region, and implements the divide-and-conquer process for image features in different layers.

目標検出際に、サンプル画像を訓練サンプルとし、サンプル画像内の真の候補目標領域及び真の被遮蔽度を訓練ラベルとして、訓練終了条件が満たされるまで、予め設定されたニューラルネットワークモデルに対して訓練を行い、訓練済み目標検出モデルを取得する。 During target detection, the sample image is taken as the training sample, and the true candidate target region and the true degree of occlusion in the sample image are taken as training labels for the preset neural network model until the training termination condition is met. Train and get a trained target detection model.

上記予め設定されたニューラルネットワークモデルは、CNN(Conv Neura
l Network)モデル、RNN(Recurrent Neural Networ
k)モデル、DNN(Deep Neural Network)モデル等であってよい。
The preset neural network model is CNN (Conv Neura
l Network) model, RNN (Recurrent Neural Network)
k) It may be a model, a DNN (Deep Neural Network) model, or the like.

具体的に、予め設定されたニューラルネットワークモデルにサンプル画像が入力された後、上記予め設定されたニューラルネットワークモデルは、サンプル画像に対して目標検出を行い、サンプル画像内の候補目標領域及び被遮蔽度を取得し、候補目標領域と真の目標領域との間の差と、候補目標領域の被遮蔽度と真の被遮蔽度との間の差を計算し、計算によって得られた差に基づいてニューラルネットワークモデルのパラメータを調整し、予め設定された訓練終了条件を満たすまで、パラメータの調整を繰り返す。 Specifically, after a sample image is input to a preset neural network model, the preset neural network model performs target detection on the sample image to determine candidate target regions and occluded regions in the sample image. and calculating the difference between the candidate target area and the true target area and the difference between the occlusion of the candidate target area and the true occlusion, and based on the calculated difference to adjust the parameters of the neural network model, and repeat parameter adjustment until a preset training termination condition is satisfied.

上記訓練終了条件は、訓練回数が予め設定された回数に達すること、モデルパラメータが予め設定されたモデルパラメータの収束条件を満たすこと等であってよい。 The training termination condition may be that the number of times of training reaches a preset number, that the model parameters satisfy a preset convergence condition of the model parameters, or the like.

目標検出モデルが大量の訓練サンプルによって訓練されたものであるため、訓練過程において、目標検出モデルは、サンプル画像内の目標領域の特徴及び遮蔽された特徴を学習した。そのため、目標検出モデルが高いロバスト性を有するため、目標検出モデルにより画像に対して目標検出を行うと、正確な候補目標領域と、候補目標領域の信頼度値及び被遮蔽度とを出力することができる。 Since the target detection model was trained with a large amount of training samples, in the training process, the target detection model learned features of target regions and occluded features in sample images. Therefore, since the target detection model has high robustness, when target detection is performed on an image by the target detection model, it outputs accurate candidate target regions, reliability values, and occlusion degrees of the candidate target regions. can be done.

上記ステップS101では、目標検出モデルにより画像に対して目標検出を行うことに加えて、画像を複数の領域に区画して、領域ごとに当該領域における画像特徴を抽出し、画像特徴に基づいて領域から候補目標領域を確定する。 In step S101, in addition to performing target detection on the image using the target detection model, the image is segmented into a plurality of regions, image features in each region are extracted, and region detection is performed based on the image features. Determine candidate target regions from .

上記画像特徴は、テクスチャ特徴、色特徴、エッジ特徴等を含む。 The image features include texture features, color features, edge features, and the like.

各候補目標領域を取得した後、各候補目標領域の画像特徴に基づいて、各目標候補の信頼度値を予測する。 After obtaining each candidate target area, predict a confidence value for each candidate target based on the image characteristics of each candidate target area.

そして、各候補目標領域が属する層及び位置情報に基づいて、各候補目標領域の被遮蔽度を計算することもできる。 Then, the occlusion degree of each candidate target area can be calculated based on the layer to which each candidate target area belongs and the position information.

具体的に、候補目標領域が属する層及び位置間の相対関係に基づいて、候補目標領域の間に遮蔽が発生するか否やかを確定し、遮蔽された面積と遮蔽された領域の面積の間の比を計算して、候補目標領域の被遮蔽度とする。 Specifically, based on the relative relationship between the layer to which the candidate target area belongs and the position, it is determined whether there is a shield between the candidate target areas, and the area between the shielded area and the area of the shielded area is determined. is calculated as the occlusion degree of the candidate target area.

例えば、候補目標領域Aが前景層にあり、候補目標領域Bが背景層にあり、且つ候補目標領域Aの位置情報と候補目標領域Bの位置情報との間に重なる場合、候補目標領域Bが遮蔽されていると確定することができ、候補目標領域Bの遮蔽された面積と候補目標領域Bの面積の比を計算し、候補目標領域Bの被遮蔽度とする。 For example, if candidate target area A is on the foreground layer, candidate target area B is on the background layer, and there is an overlap between the location information of candidate target area A and the location information of candidate target area B, then candidate target area B is It can be determined that it is occluded, and the ratio of the occluded area of the candidate target area B to the area of the candidate target area B is calculated as the occluded degree of the candidate target area B;

上記路車協調における目標検出方法に対応し、本開示の実施例は、路車協調における目標検出装置をさらに提供する。 Corresponding to the above target detection method in road-vehicle cooperation, the embodiments of the present disclosure further provide a target detection device in road-vehicle cooperation.

図4を参照すると、図4は、本開示の実施例による路車協調における目標検出装置の構造の模式図であり、上記装置は、以下のモジュール401-403を含む。
情報取得モジュール401は、画像に対して目標検出を行い、前記画像内の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得するためのものである。
信頼度値更新モジュール402は、候補目標領域間のIoUと候補目標領域の被遮蔽度とに基づいて、候補目標領域の信頼度値を更新するためのものである。
目標検出モジュール403は、更新された信頼度値に基づいて、候補目標領域から前記画像内の目標を検出するためのものである。
Referring to FIG. 4, FIG. 4 is a structural schematic diagram of a target detection device in road-vehicle cooperation according to an embodiment of the present disclosure, the device includes the following modules 401-403.
The information acquisition module 401 is for performing target detection on an image to acquire candidate target regions in said image, confidence values of the candidate target regions, and occlusion degrees of the candidate target regions.
The confidence value update module 402 is for updating the confidence values of the candidate target regions based on the IoU between the candidate target regions and the degree of occlusion of the candidate target regions.
A target detection module 403 is for detecting a target in said image from the candidate target regions based on the updated confidence value.

上記から分かるように、本開示の実施例による技術案を用いて目標検出を行う際に、まず、候補目標領域間のIoUと候補目標領域の被遮蔽度とに基づいて、候補目標領域の信頼度値を更新し、次に、更新された信頼度値に基づいて、候補目標領域から画像内の目標を検出する。候補目標領域間のIoUが各候補目標領域間の重複度を反映でき、候補目標領域の被遮蔽度が候補目標領域の遮蔽される程度を反映できるため、上記のIoUと被遮蔽度とに基づいて、候補目標領域の信頼度値を更新する際に目標領域間の重なり具合を参考でき、候補目標領域の更新された信頼度値をより実際の状況に近づける。このため、更新された信頼度値により画像に対して目標検出を行い、目標検出の精度を高めることができる。 As can be seen from the above, when performing target detection using the technical solution according to the embodiments of the present disclosure, first, based on the IoU between the candidate target regions and the degree of occlusion of the candidate target regions, the reliability of the candidate target regions and then detect targets in the image from the candidate target regions based on the updated confidence values. Since the IoU between candidate target areas can reflect the degree of overlap between each candidate target area, and the degree of occlusion of a candidate target area can reflect the degree of occlusion of the candidate target area, based on the IoU and the degree of occlusion: Therefore, the overlapping degree between the target regions can be referred to when updating the confidence value of the candidate target region, so that the updated confidence value of the candidate target region is more closely related to the actual situation. Therefore, target detection can be performed on the image based on the updated reliability value, and the accuracy of target detection can be improved.

本開示の一実施例では、前記信頼度値更新モジュール402は、具体的に、領域セットから信頼度値が最も高い第1領域を選択し、領域セットにおける他の領域と前記第1領域との間のIoUと他の領域の被遮蔽度とに基づいて、他の領域の信頼度値を更新することを、前記領域セットに1つの領域が含まれるまで繰り返すために用いられる。ここで、前記領域セットには、候補目標領域における選択されていない領域を含む。 In one embodiment of the present disclosure, the confidence value update module 402 specifically selects a first region with the highest confidence value from a region set, and compares other regions in the region set with the first region. It is used to repeat updating the confidence values of other regions based on the IoU between them and the degree of occlusion of other regions until a region is included in the region set. Here, the region set includes non-selected regions in the candidate target regions.

このように、各サイクルでは、領域セットにおける他の領域と第1領域との間のIoUと他の領域の被遮蔽度とに基づいて、領域セットにおける領域の信頼度値を更新する。ここで、他の領域の被遮蔽度が他の領域の遮蔽される程度を反映しており、領域が遮蔽された時に、検出によって得られた領域の信頼度値の正確度が低いため、他の領域の被遮蔽度を導入することで、更新された候補目標領域の信頼度値の正確度を高めることができる。そして、他の領域と第1領域との間のIoUが他の領域と第1領域との間の重複度を反映しており、且つ、第1領域が信頼度値が最も高い領域であるため、信頼度値が最も高い領域との間の重複度によって、他の領域の信頼度値を効果的に調整することもできる。このため、各サイクルでは、上記IoUと被遮蔽度とに基づいて、他の領域の信頼度値を効果的に更新することができる。そして、更新の過程を繰り替えすことで、更新された信頼度値の正確度をさらに高めることができる。 Thus, in each cycle, the confidence values of the regions in the region set are updated based on the IoU between the other regions in the region set and the first region and the degree of occlusion of the other regions. Here, the degree of occlusion of other regions reflects the degree of occlusion of other regions, and when a region is occluded, the accuracy of the reliability value of the region obtained by detection is low. The accuracy of the updated candidate target region confidence values can be increased by introducing the occlusion of the regions of . Since the IoU between the other region and the first region reflects the degree of overlap between the other region and the first region, and the first region has the highest reliability value, , the reliability values of other regions can be effectively adjusted according to the degree of overlap with the region with the highest reliability value. Therefore, in each cycle, the reliability values of other regions can be effectively updated based on the IoU and the degree of shielding. By repeating the updating process, the accuracy of the updated reliability value can be further improved.

本開示の一実施例では、前記信頼度値更新モジュール402は、
領域セットにおける他の領域と前記第1領域との間のIoUを計算するためのIoU計算手段と、
前記IoUと予め設定されたIoU閾値とに基づいて、第1信頼度調整値を確定するための第1調整値確定手段と、
他の領域の被遮蔽度に基づいて、第2信頼度調整値を確定するための第2調整値確定手段と、
前記第1信頼度調整値と第2信頼度調整値とを用いて、他の領域の信頼度値を調整するための信頼度値調整手段と、を含む。
In one embodiment of the present disclosure, the confidence value update module 402 includes:
IoU calculation means for calculating the IoU between other regions in the region set and the first region;
a first adjustment value determination means for determining a first reliability adjustment value based on the IoU and a preset IoU threshold;
a second adjustment value determining means for determining a second reliability adjustment value based on the degree of shielding of other regions;
confidence value adjustment means for adjusting confidence values of other regions using the first confidence adjustment value and the second confidence adjustment value.

このように、第1信頼度調整値が他の領域と第1領域との間のIoUとによって確定され、IoUが他の領域と第1領域の重複度を反映しているため、且つ、第2信頼度調整値が他の領域の被遮蔽度によって確定され、被遮蔽度が他の領域の遮蔽される程度を反映しているため、第1信頼度調整値と第2信頼度調整値はいずれも、異なる角度から他の領域の遮蔽される状況を反映できる。このため、第1信頼度調整値と第2信頼度調整値とを用いて他の領域の信頼度値を調整する時に、第1信頼度調整値、第2信頼度調整値は、異なる角度から他の領域の遮蔽される状況を反映しているため、第1信頼度調整値と第2信頼度調整値とを用いて調整すると、より正確な他の領域の遮蔽される状況に基づいて信頼度値を調整することで、調整された信頼度値をさらに実際の状況に近づける。 Thus, since the first reliability adjustment value is determined by the IoU between the other region and the first region, and the IoU reflects the degree of overlap between the other region and the first region, and 2 Since the reliability adjustment value is determined by the degree of occlusion of other regions, and the degree of occlusion reflects the degree of occlusion of other regions, the first reliability adjustment value and the second reliability adjustment value are Both can reflect the occluded situation of other regions from different angles. Therefore, when adjusting the reliability values of other regions using the first reliability adjustment value and the second reliability adjustment value, the first reliability adjustment value and the second reliability adjustment value are obtained from different angles. Since it reflects the occlusion situation of other areas, if the first reliability adjustment value and the second reliability adjustment value are used for adjustment, the reliability can be more accurately determined based on the occlusion situation of other areas. Adjusting the confidence value brings the adjusted confidence value closer to the actual situation.

本開示の一実施例では、前記第1調整値確定手段は、具体的に、前記IoUが予め設定されたIoU閾値より小さいか否やかを判断することと、前記IoUが予め設定されたIoU閾値より小さい場合、第1信頼度調整値を1として確定することと、前記IoUが予め設定されたIoU閾値以上の場合、前記第1信頼度調整値を1と前記IoUの差として確定することと、に用いられる。 In an embodiment of the present disclosure, the first adjustment value determination means specifically determines whether the IoU is smaller than a preset IoU threshold, if less, determining a first reliability adjustment value as 1; and if the IoU is greater than or equal to a preset IoU threshold, determining the first reliability adjustment value as the difference between 1 and the IoU. , is used for

このように、IoUが予め設定されたIoU閾値より小さい場合、他の領域と第1領域との間の重複度が小さいことを示し、他の領域における小部分の画像の内容が遮蔽され、検出によって得られた当該他の領域の信頼度値の正確度が高いことを意味し、この場合、当該他の領域の信頼度値を調整しなくてもよい。第1信頼度調整値を1に設定することで、領域の信頼度値を調整しないことを実現できる。IoUが予め設定されたIoU閾値以上の場合、他の領域と第1領域との間の重複度が大きいことを示し、他の領域における大部分の画像の内容が遮蔽され、検出によって得られた当該他の領域の信頼度値の正確度が低いことを意味し、この場合、他の領域の信頼度値を調整する必要があり、第1信頼度調整値を1とIoUの差として設定することで、調整された信頼度値を実際の状況に近づけることができる。 Thus, if the IoU is less than the preset IoU threshold, it indicates that the degree of overlap between the other region and the first region is small, and a small portion of the image content in the other region is masked and detected. means that the reliability value of the other region obtained by is highly accurate, in which case the reliability value of the other region need not be adjusted. By setting the first reliability adjustment value to 1, it is possible to realize that the reliability value of the region is not adjusted. If the IoU is greater than or equal to the preset IoU threshold, it indicates that the degree of overlap between the other region and the first region is large, and most of the image content in the other region is occluded, resulting in the detection It means that the accuracy of the reliability value of the other region is low, in which case the reliability value of the other region needs to be adjusted, and the first reliability adjustment value is set as the difference between 1 and IoU This allows the adjusted confidence values to be closer to the actual situation.

本開示の一実施例では、前記第2調整値確定手段は、具体的に、以下の式に従って第2信頼度調整値g(occ_pred)を確定することに用いられる。
ここで、occ_predが他の領域の被遮蔽度であり、αが予め設定された常数であ
り、α>1である。
In one embodiment of the present disclosure, the second adjustment value determining means is specifically used to determine the second reliability adjustment value g(occ_pred) according to the following formula.
Here, occ_pred is the degree of occlusion of other regions, α is a preset constant, and α>1.

領域の被遮蔽度が高い場合、当該領域の信頼度値の正確度が低いため、当該領域の信頼度値を大幅に調整することで、調整された信頼度値を実際の状況に近づけることが必要である。また、第2信頼度調整値g(occ_pred)が他の領域の被遮蔽度が増加するにつれて増加し、即ち他の領域の被遮蔽度が高いほど、第2信頼度調整値が大きいため、当該他の領域の信頼度値を大幅に調整することで、調整された他の領域の信頼度値実際の状況に近づけることができる。 If the occlusion of an area is high, the accuracy of the confidence value of the area is low, so the confidence value of the area can be adjusted significantly to bring the adjusted confidence value closer to the actual situation. is necessary. In addition, the second reliability adjustment value g(occ_pred) increases as the degree of occlusion of other regions increases. By adjusting the confidence values of the other regions by a large amount, the adjusted confidence values of the other regions can be closer to the actual situation.

本開示の一実施例では、前記信頼度値調整手段は、具体的に、以下の式に従って他の領域の信頼度値を調整することに用いられる。
S’=S*T1*T2
ここで、S’は調整された他の領域の信頼度値を表し、Sは調整される前の他の領域の信頼度値を表し、T1は前記第1信頼度調整値を表し、T2は前記第2信頼度調整値を表す。
In one embodiment of the present disclosure, the reliability value adjusting means is specifically used to adjust the reliability value of other regions according to the following formula.
S'=S*T1*T2
Here, S′ represents the adjusted confidence value of the other region, S represents the confidence value of the other region before adjustment, T1 represents the first confidence adjustment value, and T2 is represents the second reliability adjustment value;

このように、調整された信頼度値は、第1信頼度調整値と、第2信頼度調整値と他の領域の信頼度値との間の積であるため、また、第1信頼度調整値、第2信頼度調整値は、異なる角度から他の領域の遮蔽される状況を反映しているため、上記調整された信頼度値が他の領域が遮蔽される状況を参考することで、調整された信頼度値をさらに実際の状況に近づける。 Thus, since the adjusted confidence value is the product of the first confidence adjustment value, the second confidence adjustment value, and the confidence value of the other region, also the first confidence adjustment Since the value and the second reliability adjustment value reflect the situation where other areas are blocked from different angles, the adjusted reliability value refers to the situation where other areas are blocked, Make the adjusted confidence values more closely match the actual situation.

本開示の一実施例では、前記目標検出モジュール403は、具体的に、更新された信頼度値が予め設定された信頼度閾値より大きい候補目標領域を選択し、選択された候補目標
領域における目標を前記画像内の目標として確定すること、又は、更新された信頼度値が最も高い候補目標領域プリセットした数で選択し、選択された候補目標領域における目標を前記画像内の目標として確定することに用いられる。
In one embodiment of the present disclosure, the target detection module 403 specifically selects candidate target regions whose updated confidence values are greater than a preset confidence threshold, and detects targets in the selected candidate target regions. as a target in said image, or selecting a preset number of candidate target regions with the highest updated confidence value and establishing a target in the selected candidate target region as a target in said image. used for

このように、信頼度値が予め設定された信頼度閾値より大きい候補目標領域について、これらの候補目標領域に目標が含まれる可能性が他の候補目標領域に目標が含まれる可能性より高い。このため、信頼度値が予め設定された信頼度閾値より大きい候補目標領域における目標を画像内の目標として確定する場合、得られた目標正確度が高い。信頼度値が最も大きいものから始まるプリセットした数の候補目標領域について、これらの候補目標領域に目標が含まれる可能性が他の候補領域に目標が含まれる可能性より高い。このため、信頼度値が最も大きいものから始まるプリセットした数の候補目標領域における目標を画像内の目標として確定する場合、得られた目標の正確度が高い。 Thus, for candidate target areas whose confidence values are greater than a preset confidence threshold, those candidate target areas are more likely to contain the target than other candidate target areas are likely to contain the target. Thus, when a target in a candidate target region with a confidence value greater than a preset confidence threshold is determined as a target in the image, the resulting target accuracy is high. For a preset number of candidate target areas starting with the highest confidence value, these candidate target areas are more likely to contain the target than other candidate areas to contain the target. Thus, if the targets in a preset number of candidate target regions starting with the highest confidence value are established as targets in the image, the accuracy of the targets obtained is high.

本開示の一実施例では、前記情報取得モジュール401は、具体的に、異なる目標尺度ごとに、画像に対して目標検出を行い、前記画像内の異なる尺度の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得することに用いられる。 In one embodiment of the present disclosure, the information acquisition module 401 specifically performs target detection on an image for each different target scale, and includes candidate target regions of different scales in the image and target regions of the candidate target regions. It is used to obtain the confidence value and the degree of occlusion of the candidate target area.

このように、異なる尺度の候補目標領域に含まれる画像特徴情報が異なるため、画像内の異なる尺度の候補目標領域を取得することで、候補目標領域の異なる尺度における特徴情報を強化にした。 Thus, because candidate target regions of different scales contain different image feature information, obtaining candidate target regions of different scales in the image enhances the feature information of the candidate target regions at different scales.

本開示の一実施例では、前記情報取得モジュール401は、具体的に、予め訓練によって得られた目標検出モデルに画像を入力して、前記目標検出モデルによって出力された前記画像内の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得することに用いられる。ここで、前記目標検出モデルには、画像内の候補目標領域を検出するための目標検出層と、候補目標領域の被遮蔽度を予測するための遮蔽度予測層と、を含む。 In one embodiment of the present disclosure, the information acquisition module 401 specifically inputs an image to a pre-trained target detection model, and calculates candidate target regions in the image output by the target detection model. is used to obtain the confidence value of the candidate target area and the occlusion degree of the candidate target area. Here, the target detection model includes a target detection layer for detecting candidate target regions in an image and a degree of occlusion prediction layer for predicting the degree of occlusion of the candidate target region.

このように、目標検出モデルが大量の訓練サンプルによって訓練されたものであるため、訓練過程において、目標検出モデルは、サンプル画像内の目標領域の特徴及び遮蔽された特徴を学習した。そのため、目標検出モデルが高いロバストを有するため、目標検出モデルにより画像に対して目標検出を行うと、正確な候補目標領域と、候補目標領域の信頼度値及び被遮蔽度とを出力することができる。 Thus, during the training process, the target detection model learned features of target regions and occluded features in the sample images because the target detection model was trained with a large number of training samples. Therefore, since the target detection model has a high robustness, when the target detection model performs target detection on an image, it can output accurate candidate target regions, confidence values, and occlusion degrees of the candidate target regions. can.

本開示の技術案において、ユーザーの個人情報に対する収集、保存、使用、加工、伝送、提供及び開示等の処理は、いずれも関連する法律および規制に準拠しており、公序良俗に違反することではない。 In the technical solution of this disclosure, the collection, storage, use, processing, transmission, provision and disclosure of the user's personal information shall comply with relevant laws and regulations and shall not violate public order and morals. .

本開示の実施例によれば、本開示は、デバイス、可読記憶媒体、及びコンピュータープログラム製品をさらに提供する。 According to embodiments of the disclosure, the disclosure further provides devices, readable storage media, and computer program products.

本開示の一実施例では、電子デバイスを提供する。
前記電子デバイスは、
少なくとも1つのプロセッサーと、
前記少なくとも1つのプロセッサーと通信しているメモリと、を含み、
前記メモリには、前記少なくとも1つのプロセッサーによって実行される命令が記憶されており、前記命令が前記少なくとも1つのプロセッサーによって実行されることで、前記少なくとも1つのプロセッサーに前述した方法の実施例の何れか1つの路車協調における目標検出方法を実行させることができる。
SUMMARY In one embodiment of the present disclosure, an electronic device is provided.
The electronic device
at least one processor;
a memory in communication with the at least one processor;
The memory stores instructions to be executed by the at least one processor, the instructions being executed by the at least one processor to cause the at least one processor to perform any of the foregoing method embodiments. or one target detection method in road-vehicle cooperation can be executed.

本開示の一実施例では、コンピューター命令が記憶されている非一時的なコンピューター可読記憶媒体を提供する。前記コンピューター命令は、前記コンピューターに前述した方法の実施例の何れか1つの路車協調における目標検出方法を実行させるために用いられる。 One embodiment of the present disclosure provides a non-transitory computer-readable storage medium having computer instructions stored thereon. The computer instructions are used to cause the computer to perform the target detection method in road-vehicle coordination of any one of the method embodiments described above.

本開示の一実施例では、コンピュータープログラム製品を提供する。前記コンピュータープログラム製品は、コンピュータープログラムを含み、前記コンピュータープログラムがプロセッサーによって実行されると、前述した方法の実施例の何れか1つの路車協調における目標検出方法を実現する。 In one embodiment of the disclosure, a computer program product is provided. The computer program product comprises a computer program, and when the computer program is executed by a processor, implements the target detection method in road-vehicle cooperation of any one of the aforementioned method embodiments.

本開示の一実施例では、上記電子デバイスを含む路側機器を提供する。 An embodiment of the present disclosure provides roadside equipment including the above electronic device.

本開示の一実施例では、上記電子デバイスを含むクラウドコントロールプラットフォームを提供する。 An embodiment of the present disclosure provides a cloud control platform including the above electronic device.

図5は、本開示の実施例を実施するための例示の電子デバイス500の模式的なブロック図を示す。電子デバイスとしては、例えば、ラップトップパソコン、デスクトップパソコン、ワークステーション、パーソナルデジタルアシスタント、サーバー、ブレードサーバー、メインフレームコンピューター、及び他の適当なコンピューターなど、様々な形態のデジタルコンピューターである。電子デバイスとしては、さらに、例えば、パーソナルデジタルアシスタント、セルフォン、スマートフォン、ウェアラブル機器、及び他の類似の計算装置など、様々な形態のモバイル装置である。本明細書に記載のコンポーネント、その接続関係、及びその機能は例示的なものに過ぎず、本開示の実施に関して本明細書に記載及び/又は主張された内容に限定するものではない。 FIG. 5 shows a schematic block diagram of an exemplary electronic device 500 for implementing embodiments of the present disclosure. Electronic devices include various forms of digital computers such as, for example, laptop computers, desktop computers, workstations, personal digital assistants, servers, blade servers, mainframe computers, and other suitable computers. Electronic devices also include various forms of mobile devices such as, for example, personal digital assistants, cell phones, smart phones, wearable devices, and other similar computing devices. The components, their connections, and their functionality described herein are exemplary only, and are not limiting of what is described and/or claimed herein with respect to the practice of this disclosure.

図5に示すように、デバイス500は、リードオンリーメモリ(ROM)502に記憶されているコンピュータープログラム、又は記憶手段508からランダムアクセスメモリ(RAM)503にロードされたコンピュータープログラムによって、各種の適当な動作や処理を実行する、計算手段501を含む。RAM 503には、さらに、デバイス50
0を操作するための各種のプログラムやデータが記憶されていることもできる。計算手段501、ROM 502及びRAM 503は、それぞれ、バス504によって接続する。入力/出力(I/O)インターフェース505も、バス504に接続されている。
As shown in FIG. 5, device 500 can be operated in any suitable manner by a computer program stored in read only memory (ROM) 502 or loaded from storage means 508 into random access memory (RAM) 503 . It includes computing means 501 for performing operations and processes. The RAM 503 also contains the device 50
Various programs and data for manipulating 0 can also be stored. Computing means 501 , ROM 502 and RAM 503 are each connected by a bus 504 . Input/output (I/O) interface 505 is also connected to bus 504 .

デバイス500における複数のコンポーネントは、I/Oインターフェース505に接続されている。前記複数のコンポーネントは、キーボード、マウス等の入力手段506と、各種の型のディスプレー、スピーカー等の出力手段507と、ディスク、光ディスク等の記憶手段508と、通信手段509、例えばネットワークカード、モデム、無線通信トランシーバ等の通信手段509と、を含む。通信手段509によって、デバイス500は、例えばインターネット等のコンピューターネットワーク、及び/又は各種の通信ネットワークを介して、他のデバイスと情報/データを交換することが可能である。 Multiple components in device 500 are connected to I/O interface 505 . The plurality of components include input means 506 such as a keyboard and mouse, output means 507 such as various types of displays and speakers, storage means 508 such as disks and optical disks, and communication means 509 such as network cards, modems, and communication means 509, such as a wireless communication transceiver. Communication means 509 allows device 500 to exchange information/data with other devices, eg, via computer networks, such as the Internet, and/or various communication networks.

計算手段501は、処理及び計算能力を有する、各種の汎用な及び/又は専用な処理コンポーネントであってよい。計算手段501のいくつかの例示は、中央処理ユニット(CPU)、画像処理ユニット(GPU)、各種の専用な人工知能(AI)演算チップ、機械学習モデルアルゴリズムを実行する各種の演算ユニット、デジタルシグナルプロセッサー(DSP)、及び任意の適当なプロセッサー、コントローラ、マイクロコントローラ等を含むが、これに限定されない。計算手段501は、上述した各方法や処理、例えば路車協調の目標検出方法を実行する。例えば、いくつかの実施例では、路車協調の目標検出方法は、コンピューターソフトウェアプログラムとして実現されることができ、例えば記憶手段508等の機械可読媒体に有形的に含まれている。いくつかの実施例では、コンピュー
タープログラムの部分又は全部は、ROM 502及び/又は通信手段509を介して、
デバイス500にロード及び/又はインストールされている。コンピュータープログラムは、RAM 503にロードされ、計算手段501によって実行されると、上述した路車
協調の目標検出方法の1つ又は複数のステップを実行することができる。選択的に、他の実施例では、計算手段501は、他の任意の適当な方式によって(例えば、ファームウェアによって)、実行路車協調の目標検出方法を実行するように構成されてよい。
Computing means 501 may be various general purpose and/or special purpose processing components having processing and computing capabilities. Some examples of computing means 501 are a central processing unit (CPU), a graphics processing unit (GPU), various specialized artificial intelligence (AI) computing chips, various computing units that run machine learning model algorithms, digital signals Including, but not limited to, a processor (DSP), and any suitable processor, controller, microcontroller, or the like. The calculation means 501 executes each of the methods and processes described above, for example, the road-vehicle cooperation target detection method. For example, in some embodiments, a vehicle-road coordination target detection method can be implemented as a computer software program, tangibly embodied in a machine-readable medium, such as storage means 508 . In some embodiments, part or all of the computer program, via ROM 502 and/or communication means 509,
loaded and/or installed on the device 500; The computer program, when loaded into the RAM 503 and executed by the computing means 501, can perform one or more steps of the road-vehicle coordination target detection method described above. Alternatively, in other embodiments, the computing means 501 may be configured to perform the target detection method for road-vehicle coordination in any other suitable manner (eg, by firmware).

本明細書において、上述したシステムや技術の各種実施形態は、デジタル電子回路システム、集積回路システム、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準製品(ASSP)、システムオンチップ(SOC)、複合プログラマブルロジックデバイス(CPLD)、コンピューターハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせにおいて実現できる。これらの各種実施形態は、次のものを含んでもよい。1つ以上のコンピュータープログラムにおいて実施されており、当該1つ以上のコンピュータープログラムは、少なくとも1つのプログラマブルプロセッサーを含むプログラマブルシステムにおいて実行及び/又は解釈されてよく、当該プログラマブルプロセッサーは、専用又は汎用のプログラマブルプロセッサーであってよく、記憶システム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、データ及び命令当該記憶システム、当該少なくとも1つの入力装置、及び当該少なくとも1つの出力装置に伝送してよい。 As used herein, various embodiments of the systems and techniques described above include digital electronic circuit systems, integrated circuit systems, field programmable gate arrays (FPGAs), application specific integrated circuits (ASICs), application specific standard products (ASSPs) , system-on-chip (SOC), complex programmable logic device (CPLD), computer hardware, firmware, software, and/or combinations thereof. These various embodiments may include the following. embodied in one or more computer programs, the one or more computer programs may be executed and/or interpreted in a programmable system including at least one programmable processor, which may be a dedicated or general purpose programmable a processor, receiving data and instructions from a storage system, at least one input device, and at least one output device; may be transmitted to

好ましくは、路側機器は、電子デバイスを含むことのほか、通信コンポーネント等をさらに含んでよい。電子デバイスは、通信コンポーネントと一体化させてもよく、別々に構成されてもよい。電子デバイスは、感知デバイス(例えば、路側カメラ)のデータ、例えばピクチャーやビデオ等を取得することで、画像ビデオ処理及びデータ計算を行うことをできる。好ましくは、電子デバイス自体は、感知データを取得する機能や通信機能を有するものであってよく、例えば、AIカメラである。電子デバイスは、取得した感知データに基づいて、直接に画像ビデオ処理やデータ計算を行うことができる。 Preferably, in addition to including electronic devices, the roadside equipment may further include communication components and the like. Electronic devices may be integrated with communication components or configured separately. Electronic devices are capable of image video processing and data computation by acquiring data, such as pictures and videos, from sensing devices (eg, roadside cameras). Preferably, the electronic device itself may have a function of acquiring sensing data and a communication function, such as an AI camera. Electronic devices can directly perform image video processing and data calculations based on the acquired sensory data.

好ましくは、クラウドコントロールプラットフォームは、クラウド側で処理を実行する。クラウドコントロールプラットフォームに含まれる電子デバイスは、感知デバイス(例えば、路側カメラ)のデータ、例えばピクチャーやビデオ等を取得することで、画像ビデオ処理及びデータ計算を行うことをできる。クラウドコントロールプラットフォームは、路車協調管理プラットフォーム、エッジ計算プラットフォーム、クラウド計算プラットフォーム、センターシステム、クラウド側サーバー等と称してもよい。 Preferably, the cloud control platform performs processing on the cloud side. Electronic devices included in the cloud control platform can acquire data, such as pictures and videos, from sensing devices (eg, roadside cameras) to perform image video processing and data computation. The cloud control platform may also be called a road-vehicle coordinated management platform, an edge computing platform, a cloud computing platform, a center system, a cloud-side server, and the like.

本開示の方法を実施するためのプログラムコードは、1つ以上のプログラミング言語の任意の組み合わせを用いて編集してよい。これらのプログラムコードは、汎用コンピューター、専用コンピューター又は他のプログラマブルデータ処理装置のプロセッサー又はコントローラに提供されることで、プログラムコードがプロセッサー又はコントローラによって実行されると、フローチャート図及び/又はブロック図で規定された機能/操作を実施されることができる。プログラムコードは、完全的に機械で実行されることができ、部分的に機械で実行されることができ、独立なパッケージソフトウェアとして部分的に機械で実行され且つ部分的にリモート機械で実行される、又は完全的にリモート機械やサーバーで実行されることができる。 Program code for implementing the methods of the present disclosure may be compiled using any combination of one or more programming languages. These program codes may be provided to a processor or controller of a general purpose computer, special purpose computer or other programmable data processing apparatus such that when the program code is executed by the processor or controller, it may be defined in flowchart illustrations and/or block diagrams. functions/operations can be performed. The program code can be fully machine-executed, partially machine-executed, partially machine-executed as an independent software package, and partially machine-executed and partially remote machine-executed. , or can be executed entirely on a remote machine or server.

本開示の文脈では、機械可読媒体は、命令実行システム、装置又はデバイスが使用され、又は、命令実行システム、装置又はデバイスと結合して使用されるプログラムを含み又は記憶されている、有形の媒体であってよい。機械可読媒体は、機械可読シグナル媒体、又は機械可読記憶媒体であってよい。機械可読媒体は、電子、磁気、光学、電磁、赤外線、又は半導体のシステム、装置又はデバイス、又はこれらの任意の適当な組み合わせを含
んでよいが、これに限定されない。。機械可読記憶媒体のより具体的な例示としては、1本以上のワイヤに基づく電気接続、携帯型コンピューターディスク、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能なプログラマブルリードオンリーメモリ(EPROM又はフラッシュメモリ)、光ファイバー、携帯型コンパクトディスクリードオンリーメモリ(CD-ROM)、光学記憶デバイス、磁気記憶デバイス、又はこれらの任意の適当な組み合わせを含んでよい。
In the context of the present disclosure, a machine-readable medium is a tangible medium that contains or stores a program with which an instruction execution system, apparatus, or device is used, or that is used in conjunction with an instruction execution system, apparatus, or device. can be A machine-readable medium may be a machine-readable signal medium or a machine-readable storage medium. Machine-readable media may include, but are not limited to, electronic, magnetic, optical, electromagnetic, infrared, or semiconductor systems, apparatus or devices, or any suitable combination thereof. . More specific examples of machine-readable storage media include electrical connections based on one or more wires, portable computer disks, hard disks, random access memory (RAM), read-only memory (ROM), erasable programmable read-only memory. It may include memory (EPROM or flash memory), fiber optics, portable compact disc read only memory (CD-ROM), optical storage devices, magnetic storage devices, or any suitable combination thereof.

ユーザーとのインタラクションを提供するために、上述したシステム及び技術は、コンピューターで実施することができる。当該コンピューターは、ユーザーに情報を表示することに用いられる表示装置(例えば、CRT(ブラウン管)又はLCD(液晶ディスプレイ)モニター)と、キーボード及びポインティングデバイス(例えば、マウス又はトラックボール)とを有し、ユーザーは、当該キーボード及び当該ポインティングデバイスによって、コンピューターに入力情報を提供することができる。ユーザーとのインタラクションを提供するために、他の種類の装置も使える。例えば、ユーザーに提供されるフィードバックは、任意の形式の感覚フィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってよい。また、任意の形式(音入力、音声入力、触覚入力を含む)によって、ユーザーからの入力を受信してよい。 To provide for user interaction, the systems and techniques described above can be computer-implemented. The computer has a display device (e.g. CRT (cathode ray tube) or LCD (liquid crystal display) monitor) used to display information to the user, a keyboard and pointing device (e.g. mouse or trackball), A user can provide input information to the computer through the keyboard and the pointing device. Other types of devices can also be used to provide interaction with the user. For example, the feedback provided to the user may be any form of sensory feedback (eg, visual, auditory, or tactile feedback). It may also receive input from the user in any form (including audible, audio, and tactile input).

ここで記述したシステム及び技術は、バックグラウンドコンポーネントを含む計算システム(例えば、データサーバーとして)、又は中間コンポーネントを含む計算システム(例えば、アプリケーションサーバー)、又はフロントエンドコンポーネントを含む計算システム(例えば、グラフィカルユーザーインタフェース又はウェブブラウザーを備えるユーザーコンピューターであって、ユーザーは、当該グラフィカルユーザーインタフェース又は当該ウェブブラウザーによってここで記述したシステム及び技術の実施形態とインタラクションを行うことができる)、又はこのようなバックグラウンドコンポーネント、中間コンポーネント、又はフロントエンドコンポーネントの任意の組み合わせを含む計算システムで、実施することができる。任意の形式又は媒体によるデジタルデータ通信(例えば、通信ネットワーク)を介して、システムのコンポーネントを互いに接続することができる。通信ネットワークの例示としては、ローカル領域ネットワーク(LAN)と、ワイド領域ネットワーク(WAN)と、インターネットとを含む。 The systems and techniques described herein may be computing systems that include background components (e.g., as data servers), or computing systems that include intermediate components (e.g., application servers), or computing systems that include front-end components (e.g., graphical a user computer with a user interface or web browser, through which a user can interact with embodiments of the systems and techniques described herein, or such background It can be implemented in a computing system including any combination of components, intermediate components, or front-end components. The components of the system can be connected together via digital data communication (eg, a communication network) in any form or medium. Examples of communication networks include local area networks (LANs), wide area networks (WANs), and the Internet.

コンピューターシステムは、クライアントとサーバーとを含んでよい。クライアントとサーバーとは、通常、互いに離れており、通信ネットワークを介してインタラクションを行う。対応するコンピューターにおいて互いにクライアント-サーバー関係を有するコンピュータープログラムを実行することで、クライアントとサーバーとの関係を確立する。サーバーは、クラウドサーバー、分散システムのサーバー、又はブロックチェーンを結合したサーバーであってよい。 The computer system can include clients and servers. A client and server are generally remote from each other and interact through a communication network. A client and server relationship is established by executing computer programs on the corresponding computers and having a client-server relationship to each other. The server may be a cloud server, a distributed system server, or a blockchain-linked server.

なお、上記の様々なプロセスを踏まえて、ステップを並べ替え、追加、又は削除することができる。例えば、本開示に記載の各ステップは同時に実行されてもよいし、順に実行されてもよいし、他の順番で実行されてもよく、本開示の技術的解決手段の所望の結果を得られるものであれば、本明細書では特に限定しない。 Note that steps may be rearranged, added, or deleted in light of the various processes described above. For example, each step described in the present disclosure can be performed simultaneously, sequentially, or in any other order, and the desired result of the technical solution of the present disclosure can be obtained. There is no particular limitation in the present specification as long as it is a material.

上記具体的な実施形態は、本開示の保護範囲を限定するものと見なされない。当業者が理解したように、設計上の要件や他の要素に基づいて、様々な修正や、組み合わせ、置き換えを行うことができる。本開示の趣旨においてなされた修正、同等な置き換えや改善等は、いずれも本開示の保護範囲に含まれる。 The above specific embodiments are not considered to limit the protection scope of the present disclosure. As those skilled in the art will appreciate, various modifications, combinations, and substitutions can be made based on design requirements and other factors. Any modification, equivalent replacement, improvement, etc. made within the spirit of the present disclosure shall fall within the protection scope of the present disclosure.

Claims (23)

画像に対して目標検出を行い、前記画像内の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得することと、
候補目標領域間のIoUと候補目標領域の被遮蔽度とに基づいて、候補目標領域の信頼度値を更新することと、
更新された信頼度値に基づいて、候補目標領域から前記画像内の目標を検出することと、を含む、
路車協調における目標検出方法。
performing target detection on an image to obtain a candidate target region in the image, a confidence value for the candidate target region, and an occlusion degree for the candidate target region;
updating confidence values for the candidate target regions based on the IoU between the candidate target regions and the degree of occlusion of the candidate target regions;
detecting targets in the image from candidate target regions based on the updated confidence values;
A target detection method in road-vehicle cooperation.
前記候補目標領域間のIoUと候補目標領域の被遮蔽度とに基づいて、候補目標領域の信頼度値を更新することは、
領域セットから信頼度値が最も高い第1領域を選択し、領域セットにおける他の領域と前記第1領域との間のIoUと他の領域の被遮蔽度とに基づいて、他の領域の信頼度値を更新することを、前記領域セットに1つの領域が含まれるまで繰り返すこと、を含み、
前記領域セットには、候補目標領域における選択されていない領域を含む、
請求項1に記載の方法。
Updating a confidence value for a candidate target region based on the IoU between the candidate target regions and the degree of occlusion of the candidate target region comprises:
Select a first region with the highest confidence value from the region set, and determine the confidence of the other regions based on the IoU between the other regions in the region set and the first region and the degree of occlusion of the other regions repeating updating the degree value until the region set includes one region;
wherein the region set includes unselected regions in candidate target regions;
The method of claim 1.
前記領域セットにおける他の領域と前記第1領域との間のIoUと他の領域の被遮蔽度とに基づいて、他の領域の信頼度値を更新することは、
領域セットにおける他の領域と前記第1領域との間のIoUを計算することと、
前記IoUと予め設定されたIoU閾値とに基づいて、第1信頼度調整値を確定することと、
他の領域の被遮蔽度に基づいて、第2信頼度調整値を確定することと、
前記第1信頼度調整値と第2信頼度調整値とを用いて、他の領域の信頼度値を調整することと、を含む、
請求項2に記載の方法。
Updating confidence values of other regions based on IoU between other regions in the region set and the first region and degrees of occlusion of other regions,
calculating IoU between other regions in a region set and the first region;
determining a first reliability adjustment value based on the IoU and a preset IoU threshold;
Determining a second reliability adjustment value based on the degree of occlusion of other regions;
adjusting confidence values for other regions using the first confidence adjustment and the second confidence adjustment;
3. The method of claim 2.
前記IoUと予め設定されたIoU閾値とに基づいて、第1信頼度調整値を確定することは、
前記IoUが予め設定されたIoU閾値より小さいか否やかを判断することと、
前記IoUが予め設定されたIoU閾値より小さい場合、第1信頼度調整値を1として確定することと、
前記IoUが予め設定されたIoU閾値以上の場合、前記第1信頼度調整値を1と前記IoUの差として確定することと、を含む、
請求項3に記載の方法。
Determining a first reliability adjustment value based on the IoU and a preset IoU threshold includes:
determining whether the IoU is less than a preset IoU threshold;
determining a first reliability adjustment value as 1 if the IoU is less than a preset IoU threshold;
determining the first reliability adjustment value as the difference between 1 and the IoU if the IoU is greater than or equal to a preset IoU threshold;
4. The method of claim 3.
前記他の領域の被遮蔽度に基づいて、第2信頼度調整値を確定することは、
以下の式に従って第2信頼度調整値g(occ_pred)を確定することを含み、
ここで、occ_predが他の領域の被遮蔽度であり、αが予め設定された常数であり、α
>1である、
請求項3に記載の方法。
Determining a second reliability adjustment value based on the degree of occlusion of the other region,
determining a second reliability adjustment value g(occ_pred) according to the formula:
where occ_pred is the degree of occlusion of other regions, α is a preset constant, and α
>1
4. The method of claim 3.
前記第1信頼度調整値と第2信頼度調整値とを用いて、他の領域の信頼度値を調整することは、
以下の式に従って、他の領域の信頼度値を調整することを含み、
S’=S*T1*T2
ここで、S’は調整された他の領域の信頼度値を表し、Sは調整される前の他の領域の信頼度値を表し、T1は前記第1信頼度調整値を表し、T2は前記第2信頼度調整値を表す、
請求項3-5のいずれか1つに記載の方法。
Adjusting the reliability values of other regions using the first reliability adjustment value and the second reliability adjustment value includes:
including adjusting confidence values for other regions according to the formula:
S'=S*T1*T2
Here, S′ represents the adjusted confidence value of the other region, S represents the confidence value of the other region before adjustment, T1 represents the first confidence adjustment value, and T2 is representing the second confidence adjustment value;
A method according to any one of claims 3-5.
前記更新された信頼度値に基づいて、候補目標領域から前記画像内の目標を検出することは、
更新された信頼度値が予め設定された信頼度閾値より大きい候補目標領域を選択し、選択された候補目標領域における目標を前記画像内の目標として確定すること、
又は、
更新された信頼度値が最も高い候補目標領域をプリセットした数で選択し、選択された候補目標領域における目標を前記画像内の目標として確定すること、を含む、
請求項1-5のいずれか1つに記載の方法。
Detecting targets in the image from candidate target regions based on the updated confidence values comprises:
selecting candidate target regions for which the updated confidence value is greater than a preset confidence threshold, and establishing targets in the selected candidate target regions as targets in the image;
or
selecting a preset number of candidate target regions with the highest updated confidence values, and establishing targets in the selected candidate target regions as targets in the image;
A method according to any one of claims 1-5.
前記画像に対して目標検出を行い、前記画像内の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得することは、
異なる目標尺度ごとに、画像に対して目標検出を行い、前記画像内の異なる尺度の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得すること、を含む、
請求項1-5のいずれか1つに記載の方法。
performing target detection on the image to obtain candidate target regions in the image, confidence values of the candidate target regions, and degrees of occlusion of the candidate target regions;
performing target detection on an image for each different target scale to obtain candidate target regions of different scales in the image, confidence values of the candidate target regions, and degrees of occlusion of the candidate target regions; include,
A method according to any one of claims 1-5.
前記画像に対して目標検出を行い、前記画像内の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得することは、
予め訓練によって得られた目標検出モデルに画像を入力して、前記目標検出モデルによって出力された前記画像内の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得し、ここで、前記目標検出モデルには、画像内の候補目標領域を検出するための目標検出層と、候補目標領域の被遮蔽度を予測するための遮蔽度予測層とを含むこと、を含む、
請求項1-5のいずれか1つに記載の方法。
performing target detection on the image to obtain candidate target regions in the image, confidence values of the candidate target regions, and degrees of occlusion of the candidate target regions;
An image is input to a target detection model obtained by pre-training, and a candidate target region in the image output by the target detection model, a confidence value of the candidate target region, and an occlusion degree of the candidate target region are obtained. wherein the target detection model includes a target detection layer for detecting candidate target regions in an image and an occlusion prediction layer for predicting occlusion of candidate target regions. ,including,
A method according to any one of claims 1-5.
画像に対して目標検出を行い、前記画像内の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得するための情報取得モジュールと、
候補目標領域間のIoUと候補目標領域の被遮蔽度とに基づいて、候補目標領域の信頼度値を更新するための信頼度値更新モジュールと、
更新された信頼度値に基づいて、候補目標領域から前記画像内の目標を検出するための目標検出モジュールと、を含む、
路車協調における目標検出装置。
an information acquisition module for performing target detection on an image to acquire candidate target regions in the image, confidence values for the candidate target regions, and occlusion degrees for the candidate target regions;
a confidence value update module for updating the confidence values of the candidate target regions based on the IoU between the candidate target regions and the degree of occlusion of the candidate target regions;
a target detection module for detecting targets in said image from candidate target regions based on updated confidence values;
A target detection device for road-vehicle cooperation.
前記信頼度値更新モジュールは、領域セットから信頼度値が最も高い第1領域を選択し、領域セットにおける他の領域と前記第1領域との間のIoUと他の領域の被遮蔽度とに基づいて、他の領域の信頼度値を更新することを、前記領域セットに1つの領域が含まれるまで繰り返すことに用いられ、
前記領域セットには、候補目標領域における選択されていない領域を含む、
請求項10に記載の装置。
The confidence value update module selects a first region with the highest confidence value from a region set, and determines the IoU between other regions in the region set and the first region and the degree of occlusion of the other regions. and updating confidence values of other regions based on iterating until one region is included in the region set;
wherein the region set includes unselected regions in candidate target regions;
11. Apparatus according to claim 10.
前記信頼度値更新モジュールは、
領域セットにおける他の領域と前記第1領域との間のIoUを計算するためのIoU計算手段と、
前記IoUと予め設定されたIoU閾値とに基づいて、第1信頼度調整値を確定するた
めの第1調整値確定手段と、
他の領域の被遮蔽度に基づいて、第2信頼度調整値を確定するための第2調整値確定手段と、
前記第1信頼度調整値と第2信頼度調整値とを用いて、他の領域の信頼度値を調整するための信頼度値調整手段と、を含む、
請求項11に記載の装置。
The confidence value update module includes:
IoU calculation means for calculating the IoU between other regions in the region set and the first region;
a first adjustment value determination means for determining a first reliability adjustment value based on the IoU and a preset IoU threshold;
a second adjustment value determining means for determining a second reliability adjustment value based on the degree of shielding of other regions;
reliability value adjustment means for adjusting reliability values of other regions using the first reliability adjustment value and the second reliability adjustment value;
12. Apparatus according to claim 11.
前記第1調整値確定手段は、前記IoUが予め設定されたIoU閾値より小さいか否やかを判断することと、前記IoUが予め設定されたIoU閾値より小さい場合、第1信頼度調整値を1として確定することと、前記IoUが予め設定されたIoU閾値以上の場合、前記第1信頼度調整値を1と前記IoUの差として確定することと、に用いられる、
請求項12に記載の装置。
The first adjustment value determination means determines whether or not the IoU is smaller than a preset IoU threshold, and sets the first reliability adjustment value to 1 if the IoU is smaller than the preset IoU threshold. and determining the first reliability adjustment value as the difference between 1 and the IoU if the IoU is greater than or equal to a preset IoU threshold.
13. Apparatus according to claim 12.
前記第2調整値確定手段は、以下の式に従って第2信頼度調整値g(occ_pred)を確定
することに用いられ、
ここで、occ_predが他の領域の被遮蔽度であり、αが予め設定された常数であり、α>1である、
請求項12に記載の装置。
The second adjustment value determination means is used to determine a second reliability adjustment value g(occ_pred) according to the following formula,
where occ_pred is the degree of occlusion of other regions, α is a preset constant, and α>1;
13. Apparatus according to claim 12.
前記信頼度値調整手段は、以下の式に従って、他の領域の信頼度値を調整することに用いられ、
S’=S*T1*T2
ここで、S’は調整された他の領域の信頼度値を表し、Sは調整される前の他の領域の信頼度値を表し、T1は前記第1信頼度調整値を表し、T2は前記第2信頼度調整値を表す、
請求項12-14のいずれか1つに記載の装置。
The reliability value adjusting means is used to adjust the reliability values of other regions according to the following formula:
S'=S*T1*T2
Here, S′ represents the adjusted confidence value of the other region, S represents the confidence value of the other region before adjustment, T1 represents the first confidence adjustment value, and T2 is representing the second confidence adjustment value;
Apparatus according to any one of claims 12-14.
前記目標検出モジュールは、
更新された信頼度値が予め設定された信頼度閾値より大きい候補目標領域を選択し、選択された候補目標領域における目標を前記画像内の目標として確定すること、
又は、
更新された信頼度値が最も高い候補目標領域をプリセットした数で選択し、選択された候補目標領域における目標を前記画像内の目標として確定すること、に用いられる、
請求項10-14のいずれか1つに記載の装置
The target detection module includes:
selecting candidate target regions for which the updated confidence value is greater than a preset confidence threshold, and establishing targets in the selected candidate target regions as targets in the image;
or
selecting a preset number of candidate target regions with the highest updated confidence values, and establishing targets in the selected candidate target regions as targets in the image;
Apparatus according to any one of claims 10-14
前記情報取得モジュールは、異なる目標尺度ごとに、画像に対して目標検出を行い、前記画像内の異なる尺度の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得することに用いられる、
請求項10-14のいずれか1つに記載の装置。
The information acquisition module performs target detection on an image for each different target scale, and includes candidate target regions of different scales in the image, confidence values of the candidate target regions, and degrees of occlusion of the candidate target regions. used to get the
A device according to any one of claims 10-14.
前記情報取得モジュールは、予め訓練によって得られた目標検出モデルに画像を入力して、前記目標検出モデルによって出力された前記画像内の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得することに用いられ、
前記目標検出モデルには、画像内の候補目標領域を検出するための目標検出層と、候補目標領域の被遮蔽度を予測するための遮蔽度予測層と、を含む、
請求項10-14のいずれか1つに記載の装置。
The information acquisition module inputs an image to a pre-trained target detection model, and extracts candidate target regions in the image output by the target detection model, confidence values of the candidate target regions, and candidate targets. It is used to obtain the degree of occlusion of the area,
The target detection model includes a target detection layer for detecting candidate target regions in an image and an occlusion prediction layer for predicting occlusion of candidate target regions,
A device according to any one of claims 10-14.
少なくとも1つのプロセッサーと、
前記少なくとも1つのプロセッサーと通信しているメモリと、を含み、
前記メモリには、前記少なくとも1つのプロセッサーによって実行される命令が記憶されており、前記命令が前記少なくとも1つのプロセッサーによって実行されることで、前記少なくとも1つのプロセッサーに請求項1-9のいずれか1つに記載の方法を実行させる、
電子デバイス。
at least one processor;
a memory in communication with the at least one processor;
The memory stores instructions to be executed by the at least one processor, and the execution of the instructions by the at least one processor causes the at least one processor to perform any one of claims 1 to 9. carrying out the method of one;
electronic device.
コンピューター命令が記憶されている非一時的なコンピューター可読記憶媒体であって、前記コンピューター命令は、前記コンピューターに請求項1-9のいずれか1つに記載の方法を実行させることに用いられる、
非一時的なコンピューター可読記憶媒体。
A non-transitory computer-readable storage medium having computer instructions stored thereon, said computer instructions being used to cause said computer to perform the method of any one of claims 1-9,
A non-transitory computer-readable storage medium.
コンピュータープログラムを含み、前記コンピュータープログラムがプロセッサーによって実行されると、請求項1-9のいずれか1つに記載の方法を実現する、
コンピュータープログラム製品。
comprising a computer program which, when executed by a processor, implements the method of any one of claims 1-9,
computer program product.
請求項19に記載の電子デバイスを含む、路側機器。 Roadside equipment comprising the electronic device of claim 19 . 請求項19に記載の電子デバイスを含む、クラウドコントロールプラットフォーム。

A crowd control platform comprising the electronic device of claim 19 .

JP2022535786A 2021-06-28 2021-10-25 Target detection method, device, and roadside equipment in road-vehicle coordination Active JP7436670B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202110721853.4 2021-06-28
CN202110721853.4A CN113420682B (en) 2021-06-28 2021-06-28 Target detection method and device in vehicle-road cooperation and road side equipment
PCT/CN2021/126163 WO2023273041A1 (en) 2021-06-28 2021-10-25 Target detection method and apparatus in vehicle-road coordination, and roadside device

Publications (2)

Publication Number Publication Date
JP2023536025A true JP2023536025A (en) 2023-08-23
JP7436670B2 JP7436670B2 (en) 2024-02-21

Family

ID=77717817

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022535786A Active JP7436670B2 (en) 2021-06-28 2021-10-25 Target detection method, device, and roadside equipment in road-vehicle coordination

Country Status (4)

Country Link
JP (1) JP7436670B2 (en)
KR (1) KR20220091607A (en)
CN (1) CN113420682B (en)
WO (1) WO2023273041A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113420682B (en) * 2021-06-28 2023-08-15 阿波罗智联(北京)科技有限公司 Target detection method and device in vehicle-road cooperation and road side equipment
CN114063079B (en) * 2021-10-12 2022-06-21 福瑞泰克智能系统有限公司 Target confidence coefficient acquisition method and device, radar system and electronic device
WO2023065312A1 (en) * 2021-10-22 2023-04-27 深圳市速腾聚创科技有限公司 Obstacle recognition method and apparatus, storage medium, and electronic device
CN114005095B (en) * 2021-10-29 2023-06-30 北京百度网讯科技有限公司 Vehicle attribute identification method, device, electronic equipment and medium
CN116071724B (en) * 2023-03-03 2023-08-04 安徽蔚来智驾科技有限公司 Vehicle-mounted camera shielding scene recognition method, electronic equipment, storage medium and vehicle
CN116363631B (en) * 2023-05-19 2023-09-05 小米汽车科技有限公司 Three-dimensional target detection method and device and vehicle

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109101859A (en) * 2017-06-21 2018-12-28 北京大学深圳研究生院 The method for punishing pedestrian in detection image using Gauss
CN110222764A (en) * 2019-06-10 2019-09-10 中南民族大学 Shelter target detection method, system, equipment and storage medium
US20200097756A1 (en) * 2018-09-26 2020-03-26 Toyota Jidosha Kabushiki Kaisha Object detection device and object detection method
CN111986252A (en) * 2020-07-16 2020-11-24 浙江工业大学 Method for accurately positioning candidate bounding box in target segmentation network
US20210042592A1 (en) * 2019-08-08 2021-02-11 Toyota Jidosha Kabushiki Kaisha Object detection device, object detection method, and computer program for object detection
CN113011417A (en) * 2021-01-08 2021-06-22 湖南大学 Target matching method based on intersection ratio coverage rate loss and repositioning strategy

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI393074B (en) * 2009-12-10 2013-04-11 Ind Tech Res Inst Apparatus and method for moving object detection
CN102044151B (en) * 2010-10-14 2012-10-17 吉林大学 Night vehicle video detection method based on illumination visibility identification
CN110009060B (en) * 2019-04-17 2021-07-23 东北大学 Robustness long-term tracking method based on correlation filtering and target detection
CN110428007B (en) * 2019-08-01 2020-11-24 科大讯飞(苏州)科技有限公司 X-ray image target detection method, device and equipment
CN110659600B (en) * 2019-09-19 2022-04-29 北京百度网讯科技有限公司 Object detection method, device and equipment
CN111182491B (en) * 2019-12-31 2022-03-22 淮安中科晶上智能网联研究院有限公司 Radio frequency tomography-based equipment-free target positioning method and device
CN113033456B (en) * 2021-04-08 2023-12-19 阿波罗智联(北京)科技有限公司 Method and device for determining grounding point of vehicle wheel, road side equipment and cloud control platform
CN113420682B (en) * 2021-06-28 2023-08-15 阿波罗智联(北京)科技有限公司 Target detection method and device in vehicle-road cooperation and road side equipment

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109101859A (en) * 2017-06-21 2018-12-28 北京大学深圳研究生院 The method for punishing pedestrian in detection image using Gauss
US20200097756A1 (en) * 2018-09-26 2020-03-26 Toyota Jidosha Kabushiki Kaisha Object detection device and object detection method
CN110222764A (en) * 2019-06-10 2019-09-10 中南民族大学 Shelter target detection method, system, equipment and storage medium
US20210042592A1 (en) * 2019-08-08 2021-02-11 Toyota Jidosha Kabushiki Kaisha Object detection device, object detection method, and computer program for object detection
CN111986252A (en) * 2020-07-16 2020-11-24 浙江工业大学 Method for accurately positioning candidate bounding box in target segmentation network
CN113011417A (en) * 2021-01-08 2021-06-22 湖南大学 Target matching method based on intersection ratio coverage rate loss and repositioning strategy

Also Published As

Publication number Publication date
WO2023273041A1 (en) 2023-01-05
JP7436670B2 (en) 2024-02-21
KR20220091607A (en) 2022-06-30
CN113420682B (en) 2023-08-15
CN113420682A (en) 2021-09-21

Similar Documents

Publication Publication Date Title
JP7436670B2 (en) Target detection method, device, and roadside equipment in road-vehicle coordination
CN111626350B (en) Target detection model training method, target detection method and device
WO2021249071A1 (en) Lane line detection method, and related apparatus
JP2022526513A (en) Video frame information labeling methods, appliances, equipment and computer programs
CN111259779B (en) Video motion detection method based on center point track prediction
JP7273129B2 (en) Lane detection method, device, electronic device, storage medium and vehicle
CN113780270B (en) Target detection method and device
CN113901911B (en) Image recognition method, image recognition device, model training method, model training device, electronic equipment and storage medium
CN112001287A (en) Method and device for generating point cloud information of obstacle, electronic device and medium
WO2022228142A1 (en) Object density determination method and apparatus, computer device and storage medium
JP2022023910A (en) Method for acquiring traffic state and apparatus thereof, roadside device, and cloud control platform
WO2023273344A1 (en) Vehicle line crossing recognition method and apparatus, electronic device, and storage medium
CN112863187B (en) Detection method of perception model, electronic equipment, road side equipment and cloud control platform
CN111368634B (en) Human head detection method, system and storage medium based on neural network
CN115797736A (en) Method, device, equipment and medium for training target detection model and target detection
CN115690545B (en) Method and device for training target tracking model and target tracking
CN114742280B (en) Road condition prediction method and corresponding model training method, device, equipment and medium
US20230245429A1 (en) Method and apparatus for training lane line detection model, electronic device and storage medium
CN113591569A (en) Obstacle detection method, obstacle detection device, electronic apparatus, and storage medium
AU2021204584A1 (en) Methods, apparatuses, devices and storage media for detecting correlated objects involved in image
CN111310595B (en) Method and device for generating information
CN117611795A (en) Target detection method and model training method based on multi-task AI large model
EP4080479A2 (en) Method for identifying traffic light, device, cloud control platform and vehicle-road coordination system
Cao et al. A long-memory pedestrian target tracking algorithm incorporating spatiotemporal trajectory feature enhancement model
CN114429631A (en) Three-dimensional object detection method, device, equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240208

R150 Certificate of patent or registration of utility model

Ref document number: 7436670

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150