JP2022545962A - Fog Recognition Method and Apparatus, Electronic Device, Storage Medium and Computer Program Product - Google Patents

Fog Recognition Method and Apparatus, Electronic Device, Storage Medium and Computer Program Product Download PDF

Info

Publication number
JP2022545962A
JP2022545962A JP2022513667A JP2022513667A JP2022545962A JP 2022545962 A JP2022545962 A JP 2022545962A JP 2022513667 A JP2022513667 A JP 2022513667A JP 2022513667 A JP2022513667 A JP 2022513667A JP 2022545962 A JP2022545962 A JP 2022545962A
Authority
JP
Japan
Prior art keywords
fog
image
scene
scene image
level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022513667A
Other languages
Japanese (ja)
Inventor
ヨンレイ ジャオ
チョンカイ ジュー
イージュン ホン
ジュン リー
ウェイ ウー
Original Assignee
シャンハイ センスタイム インテリジェント テクノロジー カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャンハイ センスタイム インテリジェント テクノロジー カンパニー リミテッド filed Critical シャンハイ センスタイム インテリジェント テクノロジー カンパニー リミテッド
Publication of JP2022545962A publication Critical patent/JP2022545962A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/32Normalisation of the pattern dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/182Level alarms, e.g. alarms responsive to variables exceeding a threshold
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/048Detecting movement of traffic to be counted or controlled with provision for compensation of environmental or other condition, e.g. snow, vehicle stopped at detector
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Evolutionary Biology (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Analysis (AREA)

Abstract

本発明は団霧認識方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム製品を提供し、前記方法は、目標場面の場面画像を取得するステップと、場面画像に対して特徴抽出を行い、全局特徴情報を得るステップと、全局特徴情報に対して分類処理を行い、場面画像内の団霧及び団霧に対応する団霧レベルを決定するステップと、を含む。The present invention provides a fog cloud recognition method and apparatus, an electronic device, a storage medium, and a computer program product, the method comprising the steps of acquiring a scene image of a target scene, performing feature extraction on the scene image, and performing global feature and performing a classification process on the global feature information to determine agglomeration in the scene image and a corresponding agglomeration level.

Description

(関連出願の相互参照)
本願は、出願番号が202010699922.1であり、出願日が2020年07月17日であり、出願名称が「団霧認識方法及び装置、電子機器、記憶媒体」である中国特許出願に基づいて提出され、該中国特許出願の優先権を主張し、該中国特許出願の全てが参照によって本願に組み込まれる。
(Cross reference to related applications)
This application is filed based on a Chinese patent application with application number 202010699922.1, dated July 17, 2020, and titled "Fog Recognition Method and Apparatus, Electronic Device, Storage Medium" and claiming priority of the Chinese patent application, which is incorporated herein by reference in its entirety.

本開示はコンピュータビジョンの技術分野に関し、具体的には団霧認識方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム製品に関する。 TECHNICAL FIELD The present disclosure relates to the technical field of computer vision, and in particular to fogging recognition methods and apparatus, electronic devices, storage media, and computer program products.

「団霧」は、塊状霧とも呼ばれ、局所区域の微気候環境の影響下で、大霧の中、数十メートルから百メートル程の局所範囲内に発生する視程がより低くなる霧である。団霧は、区域性が強く、予測と予報が困難であるという特徴を有し、高速道路では、団霧により視程が急変することがあり、高速道路の交通安全に深刻なリスクをもたらし、重大な交通事故を招きやすい。 "Column fog", also called mass fog, is a fog with lower visibility that occurs within a local range of several tens to hundreds of meters in large fog under the influence of the microclimate environment of the local area. . Fog coagulation is characterized by strong locality and is difficult to predict and forecast. prone to traffic accidents.

現在、光電センサ等の専用ハードウェアや、カメラを用いて団霧を認識することが可能である。高コストで、大規模な普及が困難な専用ハードウェアによる解決手段に比べて、カメラで画像情報を取得し、団霧を認識する解決手段は、より高い実現可能性を有する。 At present, it is possible to recognize fog cloud using dedicated hardware such as photoelectric sensors and cameras. A solution that captures image information with a camera and recognizes fog clusters has a higher feasibility than dedicated hardware solutions that are expensive and difficult to deploy on a large scale.

しかしながら、カメラで団霧認識を実現する解決手段は、ダークチャネル事前確率又は手動による特徴選択等の方法が採用されることが多く、カメラで収集された画像から画像の浅層特徴を取得することは、光線やカメラ角度等の要因から影響を受けやすいため、認識効果が低い。 However, the solution to realize fog cloud recognition with camera often adopts methods such as dark channel prior probability or manual feature selection, which is to obtain shallow layer features of the image from the image collected by the camera. is susceptible to factors such as light rays and camera angles, so its recognition effect is low.

本開示の実施例は、団霧認識方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム製品を提供することを目的とする。 Embodiments of the present disclosure aim to provide a method and apparatus for recognizing fog, an electronic device, a storage medium, and a computer program product.

本開示の実施例の技術的解決手段は以下のように実現される。 The technical solutions of the embodiments of the present disclosure are implemented as follows.

本開示の実施例は団霧認識方法を提供する。前記団霧認識方法は、
目標場面の場面画像を取得するステップと、
前記場面画像に対して特徴抽出を行い、全局特徴情報を得るステップと、
前記全局特徴情報に対して分類処理を行い、前記場面画像内の団霧及び前記団霧に対応する団霧レベルを決定するステップと、を含む。
Embodiments of the present disclosure provide a method for recognizing fog. The fog recognition method includes:
obtaining a scene image of a target scene;
performing feature extraction on the scene image to obtain global feature information;
performing a classification process on the global feature information to determine fog in the scene image and a fog level corresponding to the fog.

上記団霧認識方法では、前記場面画像に対して特徴抽出を行い、全局特徴情報を得る前に、前記方法は、
前記場面画像に対して画像前処理を行い、処理済み画像を得るステップをさらに含み、
対応的に、前記場面画像に対して特徴抽出を行い、全局特徴情報を得るステップは、
前記処理済み画像に対して特徴抽出を行い、前記全局特徴情報を得るステップを含む。
In the above fog cloud recognition method, before performing feature extraction on the scene image to obtain global feature information, the method includes:
further comprising performing image preprocessing on the scene image to obtain a processed image;
Correspondingly, the step of performing feature extraction on the scene image to obtain global feature information includes:
performing feature extraction on the processed image to obtain the global feature information.

上記団霧認識方法では、前記場面画像に対して画像前処理を行い、処理済み画像を得るステップは、
前記場面画像に対して画素サンプリングを行い、目標サイズのサンプリング画像を得るステップと、
前記サンプリング画像を正規化処理し、前記処理済み画像を得るステップと、を含む。
In the above fog cloud recognition method, the step of performing image preprocessing on the scene image to obtain a processed image includes:
pixel sampling the scene image to obtain a sampled image of a target size;
normalizing the sampled image to obtain the processed image.

上記団霧認識方法では、前記全局特徴情報に対して分類処理を行い、前記場面画像内の団霧及び前記団霧に対応する団霧レベルを決定するステップは、
前記全局特徴情報に対して平均プーリングを行い、全局平均特徴情報を得るステップと、
前記全局平均特徴情報を分類し、前記団霧及び前記団霧レベルを決定するステップと、を含む。
In the above method for recognizing fog, the step of performing a classification process on the feature information of all stations to determine fog in the scene image and a fog level corresponding to the fog,
performing average pooling on the all-station feature information to obtain all-station average feature information;
classifying the global mean feature information to determine the fog and the fog level.

上記団霧認識方法では、前記場面画像内の団霧及び前記団霧に対応する団霧レベルを決定した後に、前記方法は、
予め設定された団霧レベルと視程範囲との対応関係に基づき、前記団霧レベルに対応する第1視程範囲を取得するステップと、
前記第1視程範囲が予め設定された視程範囲より低い場合、前記団霧レベルに対応する第1警報情報を取得するステップと、
前記第1警報情報を出力するステップと、をさらに含む。
In the above method for recognizing fog, after determining fog in the scene image and a fog level corresponding to the fog, the method includes:
obtaining a first visibility range corresponding to the fog level based on a preset correspondence relationship between the fog level and the visibility range;
obtaining first alarm information corresponding to the fog level if the first visibility range is lower than a preset visibility range;
and outputting the first alarm information.

上記団霧認識方法では、前記場面画像は複数の時刻における複数の画像を含み、前記団霧レベルは前記複数の画像に対応する複数のレベルを含み、前記場面画像内の団霧及び前記団霧に対応する団霧レベルを決定した後に、前記方法は、
前記複数のレベルと前記複数の時刻とが正の相関である場合、第2警報情報を取得するステップと、
前記目標場面内の警報注意喚起機器を取得するステップと、
前記第2警報情報を前記警報注意喚起機器に送信するステップと、をさらに含む。
In the above fog cloud recognition method, the scene image includes a plurality of images at a plurality of times, the fog cloud level includes a plurality of levels corresponding to the plurality of images, and the fog cloud in the scene image and the fog cloud After determining the fog level corresponding to the method, the method includes:
obtaining second alarm information if the plurality of levels and the plurality of times are positively correlated;
obtaining an alert reminder device within the target scene;
and sending the second alert information to the alert reminder device.

上記団霧認識方法では、前記場面画像は複数の時刻における複数の画像を含み、前記団霧レベルは前記複数の画像に対応する複数のレベルを含み、前記場面画像内の団霧及び前記団霧に対応する団霧レベルを決定した後に、前記方法は、
前記複数のレベルを統計し、統計結果を得るステップと、
前記統計結果に基づき、前記目標場面の団霧発生頻度を決定するステップと、をさらに含む。
In the above fog cloud recognition method, the scene image includes a plurality of images at a plurality of times, the fog cloud level includes a plurality of levels corresponding to the plurality of images, and the fog cloud in the scene image and the fog cloud After determining the fog level corresponding to the method, the method includes:
Statisticalizing the plurality of levels to obtain statistical results;
and determining a fog aggregation frequency of the target scene based on the statistical results.

本開示の実施例は団霧認識装置を提供する。前記団霧認識装置は、
目標場面の場面画像を取得するように構成される画像取得モジュールと、
前記場面画像に対して特徴抽出を行い、全局特徴情報を得るように構成される特徴抽出モジュールと、
前記全局特徴情報に対して分類処理を行い、前記場面画像内の団霧及び前記団霧に対応する団霧レベルを決定するように構成される分類処理モジュールと、を含む。
Embodiments of the present disclosure provide a fog recognition system. The fog recognition device includes:
an image capture module configured to capture a scene image of a target scene;
a feature extraction module configured to perform feature extraction on the scene image to obtain global feature information;
a classification processing module configured to perform a classification process on the global feature information to determine fog in the scene image and a fog level corresponding to the fog.

上記団霧認識装置では、画像処理モジュールをさらに含み、
前記画像処理モジュールは、前記場面画像に対して画像前処理を行い、処理済み画像を得るように構成され、
対応的に、前記特徴抽出モジュールは、具体的には、前記処理済み画像に対して特徴抽出を行い、前記全局特徴情報を得るように構成される。
The fog recognition device further includes an image processing module,
the image processing module is configured to perform image pre-processing on the scene image to obtain a processed image;
Correspondingly, the feature extraction module is specifically configured to perform feature extraction on the processed image to obtain the global feature information.

上記団霧認識装置では、前記画像処理モジュールは、具体的には、前記場面画像に対して画素サンプリングを行い、目標サイズのサンプリング画像を得て、そして前記サンプリング画像を正規化処理し、前記処理済み画像を得るように構成される。 In the above apparatus for recognizing fog, the image processing module specifically performs pixel sampling on the scene image to obtain a sampled image of a target size, normalizes the sampled image, and processes the configured to obtain a finished image.

上記団霧認識装置では、前記分類処理モジュールは、具体的には、前記全局特徴情報に対して平均プーリングを行い、全局平均特徴情報を得て、そして前記全局平均特徴情報を分類し、前記団霧及び前記団霧レベルを決定するように構成される。 In the above fog cluster recognition apparatus, the classification processing module specifically performs average pooling on the all-station feature information to obtain all-station average feature information, classifies the all-station average feature information, and classifies the group. configured to determine fog and said fog level;

上記団霧認識装置では、情報出力モジュールをさらに含み、
前記情報出力モジュールは、予め設定された団霧レベルと視程範囲との対応関係に基づき、前記団霧レベルに対応する第1視程範囲を取得し、前記第1視程範囲が予め設定された視程範囲より低い場合、前記団霧レベルに対応する第1警報情報を取得し、そして前記第1警報情報を出力するように構成される。
The fog recognition device further includes an information output module,
The information output module obtains a first visibility range corresponding to the fog level based on a correspondence relationship between a preset fog level and a visibility range, and the first visibility range is the preset visibility range. If it is lower, it is configured to obtain first warning information corresponding to said fog level and output said first warning information.

上記団霧認識装置では、情報出力モジュールをさらに含み、前記場面画像は複数の時刻における複数の画像を含み、前記団霧レベルは前記複数の画像に対応する複数のレベルを含み、
前記情報出力モジュールは、前記複数のレベルと前記複数の時刻とが正の相関である場合、第2警報情報を取得し、前記目標場面内の警報注意喚起機器を取得し、そして前記第2警報情報を前記警報注意喚起機器に送信するように構成される。
The apparatus for recognizing fog fog further comprises an information output module, wherein the scene image comprises a plurality of images at a plurality of times, the fog level comprises a plurality of levels corresponding to the plurality of images,
The information output module obtains second alarm information when the plurality of levels and the plurality of times are positively correlated, obtains alarm alerting devices in the target scene, and obtains the second alarm. configured to transmit information to the alarm reminder device;

上記団霧認識装置では、統計処理モジュールをさらに含み、前記場面画像は複数の時刻における複数の画像を含み、前記団霧レベルは前記複数の画像に対応する複数のレベルを含み、
前記統計処理モジュールは、前記複数のレベルを統計し、統計結果を得て、そして前記統計結果に基づき、前記目標場面の団霧発生頻度を決定するように構成される。
The fog cloud recognition apparatus further includes a statistical processing module, the scene image includes a plurality of images at a plurality of times, the fog cloud level includes a plurality of levels corresponding to the plurality of images,
The statistic processing module is configured to statisticize the plurality of levels, obtain a statistic result, and determine a fogging frequency of the target scene based on the statistic result.

本開示の実施例は電子機器を提供する。前記電子機器はプロセッサ、メモリ及び通信バスを含み、
前記通信バスは、前記プロセッサと前記メモリの間の接続通信を実現するように構成され、
前記プロセッサは、前記メモリに記憶されている団霧認識プログラムを実行することにより、上記団霧認識方法を実現するように構成される。
An embodiment of the disclosure provides an electronic device. the electronic device includes a processor, memory and a communication bus;
the communication bus is configured to provide connection communication between the processor and the memory;
The processor is configured to implement the above method for recognizing fog by executing a fog confluence recognition program stored in the memory.

本開示の実施例はコンピュータ可読記憶媒体を提供する。前記コンピュータ可読記憶媒体には、1つ又は複数のプロセッサに実行されることにより上記団霧認識方法を実現可能な1つ又は複数のプログラムが記憶されている。 Embodiments of the disclosure provide a computer-readable storage medium. The computer-readable storage medium stores one or more programs capable of realizing the above-described fog swarm recognition method by being executed by one or more processors.

本開示の実施例はコンピュータプログラム製品を提供する。前記コンピュータプログラム製品は、コンピュータで実行されると、前記コンピュータに上記団霧認識方法を実行させるコンピュータプログラム又は命令を含む。 An embodiment of the disclosure provides a computer program product. The computer program product comprises a computer program or instructions which, when executed on a computer, cause the computer to perform the above method for recognizing fog.

本開示の実施例は団霧認識方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム製品を提供し、前記方法は、目標場面の場面画像を取得するステップと、場面画像に対して特徴抽出を行い、全局特徴情報を得るステップと、全局特徴情報に対して分類処理を行い、場面画像内の団霧及び団霧に対応する団霧レベルを決定するステップと、を含む。本開示の実施例により提供される技術的解決手段は、画像の全局的な深層特徴を抽出し、団霧を表す情報の有効性を向上させ、画像内の団霧認識に無関係な情報の干渉を低減し、団霧認識の正確性が向上する。 Embodiments of the present disclosure provide a fog cloud recognition method and apparatus, an electronic device, a storage medium and a computer program product, the method comprising obtaining a scene image of a target scene and performing feature extraction on the scene image. , obtaining global feature information, and performing a classification process on the global feature information to determine fog and fog level corresponding to the fog in the scene image. The technical solution provided by the embodiments of the present disclosure is to extract the global depth features of the image, improve the effectiveness of the information representing fog coagulation, and prevent the interference of information irrelevant to fog coagulation recognition in the image. is reduced and the accuracy of cloud cluster recognition is improved.

本開示の実施例により提供される団霧認識方法のフローチャートである。4 is a flow chart of a fog cloud recognition method provided by an embodiment of the present disclosure; 本開示の実施例により提供される例示的な画像処理プロセスの模式図である。1 is a schematic diagram of an exemplary image processing process provided by embodiments of the present disclosure; FIG. 本開示の実施例により提供される団霧認識装置の構成図1である。FIG. 1 is a block diagram 1 of a fog cloud recognition device provided by an embodiment of the present disclosure; 本開示の実施例により提供される団霧認識装置の構成図2である。FIG. 2 is a block diagram 2 of a fog cloud recognition device provided by an embodiment of the present disclosure; 本開示の実施例により提供される電子機器の構成図である。1 is a configuration diagram of an electronic device provided by an embodiment of the present disclosure; FIG.

以上、本開示の実施例又は背景技術における技術的解決手段をより明瞭に説明するために、本開示の実施例又は背景技術に用いられる図面について説明した。 In the above, the drawings used in the embodiments of the present disclosure or the background art have been described in order to more clearly describe the technical solutions in the embodiments of the present disclosure or the background art.

上記図面は明細書に組み込まれて明細書の一部を構成し、これらの図面は本開示に合致する実施例を示し、明細書と共に本開示の技術的解決手段を説明するために用いられる。 The above drawings are incorporated into and constitute a part of the specification, and these drawings show embodiments consistent with the present disclosure and are used together with the specification to explain the technical solutions of the present disclosure.

以下において、本開示の実施例における図面を参照しながら、本開示の実施例における技術的解決手段を明確に、完全に説明する。 The following clearly and completely describes the technical solutions in the embodiments of the present disclosure with reference to the drawings in the embodiments of the present disclosure.

本開示の実施例は団霧認識方法を提供し、その実行本体は団霧認識装置であってもよく、団霧認識方法は、例えば、ユーザ側装置(User Equipment:UEと略称)、携帯機器、ユーザ端末、端末、セルラー電話、コードレス電話機、携帯情報端末(Personal Digital Assistant:PDAと略称)、携帯型デバイス、計算装置、車載装置、ウェアラブル装置等の端末装置又はサーバ又は他の電子機器により実行してもよい。いくつかの可能な実施形態では、該団霧認識方法はプロセッサによりメモリに記憶されたコンピュータ可読命令を呼び出すことで実現してもよい。 Embodiments of the present disclosure provide a method for recognizing fog, the execution body of which can be a device for recognizing fog, and the method for recognizing fog can be applied to, for example, User Equipment (UE), mobile devices , user terminals, terminals, cellular telephones, cordless telephones, personal digital assistants (abbreviated as PDA), portable devices, computing devices, in-vehicle devices, wearable devices, or other terminal devices or servers or other electronic devices You may In some possible embodiments, the method of recognizing fog may be implemented by a processor invoking computer readable instructions stored in memory.

本開示の実施例は団霧認識方法を提供する。図1は、本開示の実施例により提供される団霧認識方法のフローチャートである。図1に示すように、団霧認識方法は主に以下のステップを含む。 Embodiments of the present disclosure provide a method for recognizing fog. FIG. 1 is a flow chart of a fog cloud recognition method provided by an embodiment of the present disclosure. As shown in FIG. 1, the fog cluster recognition method mainly includes the following steps.

S101で、目標場面の場面画像を取得する。 At S101, a scene image of a target scene is acquired.

本開示の実施例では、団霧認識装置は目標場面の場面画像を取得できる。 In embodiments of the present disclosure, the fog cluster recognizer can acquire a scene image of the target scene.

説明すべきものとして、本開示の実施例では、場面画像は団霧認識を必要とする場面、即ち目標場面に対応する画像である。団霧認識方法を高速道路監視の場面に応用する場合、場面画像は実質的に高速道路の監視画像であり、後続の団霧認識は専用ハードウェアに制限されず、大規模な応用が可能である。具体的な目標場面及び目標場面の場面画像について、本開示の実施例では限定しない。 By way of explanation, in the embodiments of the present disclosure, the scene image is the image corresponding to the scene requiring fog cluster recognition, ie, the target scene. When the fog coagulation method is applied to the highway surveillance scene, the scene image is actually the highway surveillance image, and the subsequent fog coagulation recognition is not limited to dedicated hardware, and can be applied on a large scale. be. A specific target scene and a scene image of the target scene are not limited in the embodiments of the present disclosure.

説明すべきものとして、本開示の実施例では、場面画像は、団霧認識装置によって収集されてもよく、独立したカメラ、サーバ又はクラウド等の装置によって取得されて、団霧認識装置に送信される画像であってもよい。具体的な場面画像の供給元について、本開示の実施例では限定しない。 By way of illustration, in embodiments of the present disclosure, scene images may be collected by a fog confluence recognizer, captured by a separate camera, server, cloud, or other device and sent to the confluence recognizer. It may be an image. The specific scene image supplier is not limited in the embodiments of the present disclosure.

S102で、場面画像に対して特徴抽出を行い、全局特徴情報を得る。 In S102, feature extraction is performed on the scene image to obtain all-station feature information.

本開示の実施例では、団霧認識装置は場面画像を得た後、場面画像に対して特徴抽出を行い、場面画像内の全局特徴情報を得ることができる。 In an embodiment of the present disclosure, after obtaining a scene image, the fog cluster recognizer can perform feature extraction on the scene image to obtain global feature information in the scene image.

説明すべきものとして、本開示の実施例では、団霧認識装置は、場面画像に対して特徴抽出を行い、全局特徴情報を得る前に、場面画像に対して画像前処理を行い、処理済み画像を得るステップをさらに実行してもよく、対応的に、団霧認識装置が場面画像に対して特徴抽出を行い、全局特徴情報を得るステップは、処理済み画像に対して特徴抽出を行い、全局特徴情報を得るステップを含む。 By way of illustration, in embodiments of the present disclosure, the fog cloud recognizer performs image pre-processing on the scene image to perform feature extraction on the scene image and before obtaining global feature information, the processed image Correspondingly, the step of the fog cluster recognizer performing feature extraction on the scene image and obtaining global feature information includes performing feature extraction on the processed image and obtaining global feature information. Obtaining feature information.

具体的には、本開示の実施例では、団霧認識装置が場面画像に対して画像前処理を行い、処理済み画像を得るステップは、場面画像に対して画素サンプリングを行い、目標サイズのサンプリング画像を得るステップと、サンプリング画像を正規化処理し、処理済み画像を得るステップと、を含む。 Specifically, in an embodiment of the present disclosure, the step of performing image preprocessing on the scene image by the fog recognition device to obtain the processed image includes pixel sampling the scene image and sampling to a target size. obtaining an image; and normalizing the sampled image to obtain a processed image.

説明すべきものとして、本開示の実施例では、団霧認識装置が場面画像に対して画素サンプリングを行うことは、本質的には、場面画像のサイズを特定の大きさ、即ち目標サイズに改めて形成し、それによって、得られた画像をサンプリング画像とすることである。団霧認識装置は、バイリニア補間アルゴリズムを用いて場面画像の画素に対してサンプリングを行ってもよく、当然ながら、他のサンプリングアルゴリズムを用いて画素サンプリングを実現し、サンプリング画像を得てもよい。具体的な目標サイズ、及び画素サンプリングの方式は実際の必要に応じて選択でき、本開示の実施例では限定しない。 By way of illustration, in embodiments of the present disclosure, the pixel sampling of the scene image by the fog confluence recognizer essentially resizes the scene image to a specific size, i.e., a target size. and the resulting image is used as a sampling image. The fog recognizer may use a bilinear interpolation algorithm to sample the pixels of the scene image, or of course other sampling algorithms may be used to implement the pixel sampling to obtain the sampled image. The specific target size and pixel sampling method can be selected according to actual needs, and are not limited in the embodiments of the present disclosure.

説明すべきものとして、本開示の実施例では、団霧認識装置がサンプリング画像を正規化処理することは、本質的には、サンプリング画像内の各画素点の画素値を0-1の範囲内の値に変換することで、異なる画素点の画素値を同じ所定範囲内にマッピングすることである。 By way of illustration, in embodiments of the present disclosure, the normalization process of the sampled image by the fog confluence recognizer essentially translates the pixel value of each pixel point in the sampled image into a range of 0-1. By converting into values, the pixel values of different pixel points are mapped within the same predetermined range.

本開示の実施例では、団霧認識装置により場面画像に対して画素サンプリング及び正規化処理を行うことで得られた処理済み画像は、サイズ及び画素の表現方式において一定の標準を満たすことができ、これにより後続の特徴抽出を容易にすることができ、特徴抽出の効率が向上することが理解される。 In embodiments of the present disclosure, the processed image obtained by subjecting the scene image to pixel sampling and normalization by the fog cluster recognizer can meet certain standards in terms of size and pixel representation. , it will be appreciated that this can facilitate subsequent feature extraction and improve the efficiency of feature extraction.

説明すべきものとして、本開示の実施例では、団霧認識装置には、予め設定された深層ニューラルネットワークが記憶されている。予め設定された深層ニューラルネットワークは、画像内の全局的な深層特徴の抽出を実現でき、予め設定された深層ニューラルネットワークとして具体的には、大量のサンプル画像を用いて特徴抽出トレーニングを行うことで得られてもよく、本願の実施例ではこれを限定しない。 By way of illustration, in embodiments of the present disclosure, the fog confluence recognizer is stored with a preconfigured deep neural network. The preset deep neural network can realize the extraction of global deep features in the image. may be obtained, and the examples herein do not limit this.

説明すべきものとして、本開示の実施例では、予め設定された深層ニューラルネットワークは、特徴抽出の深度の浅い順で順次に接続される複数組の畳み込み層を含んでもよく、団霧認識装置は、複数組の畳み込み層を用いて、処理済み画像に対して複数回の反復畳み込み処理を行い、特徴画像を得て、その後、特徴画像を全局特徴情報として決定してもよい。 By way of illustration, in embodiments of the present disclosure, the preconfigured deep neural network may include sets of convolutional layers connected sequentially in order of decreasing depth of feature extraction, wherein the fog recognizer: Multiple sets of convolution layers may be used to perform multiple iterative convolutions on the processed image to obtain feature images, which may then be determined as global feature information.

図2は、本開示の実施例により提供される例示的な画像処理プロセスの模式図である。図2に示すように、予め設定された深層ニューラルネットワークは5組の畳み込み層を含み、それぞれ第1組の畳み込み層、第2組の畳み込み層、第3組の畳み込み層、第4組の畳み込み層及び第5組の畳み込み層である。そのうち、第1組の畳み込み層は、7×7サイズのフィルタを用いており、入力された2チャネルの処理済み画像を畳み込んで、64チャネルの画像を得るとともに、画像サイズを1/2にダウンサンプリングすることができ、第2組から第5組の畳み込み層は、それぞれ1-3層の畳み込み層を含み、畳み込みカーネルのサイズは3×3であり、且つ畳み込み出力チャネルの数は順次に64、128、256及び512であり、各組の畳み込み層から出力された畳み込み結果である出力画像は、処理済み画像の1/4、1/8、1/16及び1/32に変えることができ、処理済み画像は、5組の畳み込み層によって処理された後、画像サイズが段階的に小さくなり、チャネルが段階的に深くなり、特徴レベルがより高くなる。 FIG. 2 is a schematic diagram of an exemplary image processing process provided by embodiments of the present disclosure. As shown in FIG. 2, the preset deep neural network includes five sets of convolutional layers, respectively a first set of convolutional layers, a second set of convolutional layers, a third set of convolutional layers and a fourth set of convolutional layers. layers and a fifth set of convolutional layers. Among them, the first set of convolution layers uses a 7×7 size filter to convolve the input 2-channel processed image to obtain a 64-channel image and reduce the image size by half. The second set to the fifth set of convolution layers each include 1-3 convolution layers, the size of the convolution kernel is 3×3, and the number of convolution output channels is sequentially 64, 128, 256 and 512, and the output images, which are the convolution results output from each set of convolution layers, can be changed to 1/4, 1/8, 1/16 and 1/32 of the processed image. The processed image is processed by 5 sets of convolutional layers, after which the image size becomes progressively smaller, the channel becomes progressively deeper, and the feature level becomes higher.

説明すべきものとして、本開示の実施例では、複数組の畳み込み層の各組は、畳み込み処理によって得られた画像を、接続先の次の組の畳み込み層に出力する前に、画像を最大プーリング、即ちダウンサンプリングを行ってもよく、具体的には、画像内の4つの画素ずつ1組とし、画素値が最大である画素だけを残し、これにより、ダウンサンプリングによって得られた画像の長さ及び幅は、実際には入力された画像の1/2となる。 By way of illustration, in embodiments of the present disclosure, each set of sets of convolutional layers maximally pools the images resulting from the convolution process before outputting them to the next set of convolutional layers to which they are connected. , that is, downsampling may be performed, specifically, each set of four pixels in the image is left, and only the pixel with the maximum pixel value is left, so that the length of the image obtained by downsampling is and the width is actually 1/2 of the input image.

説明すべきものとして、本開示の実施例では、予め設定された深層ニューラルネットワークに含まれる畳み込み層の組数、及び各組の畳み込み層の関連パラメータ、例えば、畳み込みカーネルのサイズ等は、実際の必要に応じて設定でき、本開示の実施例では限定しない。 By way of explanation, in the embodiments of the present disclosure, the number of sets of convolutional layers included in a preset deep neural network, and the relevant parameters of each set of convolutional layers, such as the size of the convolution kernel, are determined according to the actual needs. , and is not limited in the embodiments of the present disclosure.

本開示の実施例では、予め設定された深層ニューラルネットワークによって処理済み画像の全局特徴の抽出を実現することができ、画像の局所的な特徴を抽出する従来の解決手段に比べて、画像内の団霧情報をより効果的に表すことができ、団霧認識の正確性が向上することが理解される。 In the embodiments of the present disclosure, the extraction of global features of the processed image can be realized by a preset deep neural network, and compared to the conventional solution of extracting local features of the image, It will be appreciated that the fog information can be represented more effectively and the accuracy of fog recognition will be improved.

S103で、全局特徴情報に対して分類処理を行い、場面画像内の団霧及び団霧に対応する団霧レベルを決定する。 In S103, classification processing is performed on the all-station feature information to determine the fog in the scene image and the fog level corresponding to the fog.

本開示の実施例では、団霧認識装置は、場面画像の全局特徴情報を得た後、全局特徴情報に対して分類処理を行い、場面画像内の団霧及び団霧に対応する団霧レベルを決定してもよい。 In an embodiment of the present disclosure, the apparatus for recognizing fog clusters obtains the global feature information of the scene image, and then performs classification processing on the global feature information to determine the fog clusters in the scene image and the fog levels corresponding to the fog clusters. may be determined.

具体的には、本開示の実施例では、団霧認識装置が全局特徴情報に対して分類処理を行い、場面画像内の団霧及び団霧に対応する団霧レベルを決定するステップは、全局特徴情報に対して平均プーリングを行い、全局平均特徴情報を得るステップと、全局平均特徴情報を分類し、団霧及び団霧レベルを決定するステップと、を含む。 Specifically, in an embodiment of the present disclosure, the step of the fog recognition device performing a classification process on the global feature information to determine the fog in the scene image and the fog level corresponding to the fog performing average pooling on the feature information to obtain global average feature information; and classifying the global average feature information to determine fog and fog level.

説明すべきものとして、本開示の実施例では、図2に示すように、団霧認識装置には、全局プーリング層及び予め設定された分類器が記憶されてもよく、団霧認識装置は、全局プーリング層を用いて全局特徴情報の平均プーリングを実現してもよい。全局プーリング層は予め設定された分類器に配置されてもよく、実施において、予め設定された深層ニューラルネットワークに配置されてもよく、実現する機能が変わらない。 By way of explanation, in an embodiment of the present disclosure, the fog recognizer may be stored with global pooling layers and preset classifiers, as shown in FIG. A pooling layer may be used to achieve average pooling of all-station feature information. The global pooling layer may be placed in a preset classifier, and in implementation, may be placed in a preset deep neural network, and the function to be implemented is unchanged.

説明すべきものとして、本開示の実施例では、図2に示すように、予め設定された分類器は、全局平均特徴情報の分類を実現するための第1全結合層、第2全結合層及び正規化層を含んでもよい。全結合層は2つであってもよいし、当然ながら1つ又は2つ以上であってもよい。全結合層の具体的な数は、実際の必要に応じて設定でき、本開示の実施例では限定しない。 By way of explanation, in an embodiment of the present disclosure, as shown in FIG. 2, the preset classifier includes a first fully connected layer, a second fully connected layer, and a A normalization layer may be included. There may be two fully bonded layers, and of course there may be one or more. The specific number of all-bonded layers can be set according to actual needs, and is not limited in the embodiments of the present disclosure.

本開示の実施例では、全局特徴情報は、実質的には、畳み込み処理によって得られた特徴画像であるため、団霧認識装置は全局プーリング層を用いて全局特徴情報に対して全局平均プーリングを行うことは、特徴画像内の各チャネルを平均化することであり、これにより、結像時の局所の光線不足により、画像内の局所区域の干渉要因による団霧認識への影響を避けることができ、団霧認識の正確性を向上可能であることが理解される。 In the embodiment of the present disclosure, since the global feature information is substantially a feature image obtained by convolution processing, the fog cloud recognition apparatus performs global average pooling on the global feature information using the global pooling layer. What it does is average each channel in the feature image so that local light deficiencies during imaging avoid affecting fog perception due to local area interference factors in the image. It will be appreciated that the accuracy of fog cloud recognition can be improved.

説明すべきものとして、本開示の実施例では、団霧認識装置は、全局平均特徴情報を分類することで、場面画像内の団霧及び団霧に対応する団霧レベルを決定してもよい。全局平均特徴情報は場面画像の平均特徴を表すものであり、団霧レベルは、実質的には、場面画像の団霧状況を表すものである。 By way of illustration, in embodiments of the present disclosure, the fog recognizer may classify global average feature information to determine fog and fog levels corresponding to the fog in the scene image. The all-station average feature information represents the average feature of the scene image, and the fog level substantially represents the fog aggregation state of the scene image.

説明すべきものとして、本開示の実施例では、団霧認識装置は、実質的には、全局平均特徴情報に対して団霧を認識し、団霧を団霧レベル別に分類し、異なる団霧レベルの割合を得ている。図2に示すように、全局平均特徴情報は団霧レベル内のレベル3に合致する情報が最も多いため、最終的に決定した団霧レベルはレベル3である。また、団霧の有無や団霧濃度の結果を出力する従来の団霧認識の解決手段に比べて、出力される団霧レベルは視程に対応しており、団霧の程度をより明らか且つ柔軟に表すことができる。 By way of illustration, in embodiments of the present disclosure, the fog recognizer essentially recognizes fog with respect to global average feature information, classifies the fog by fog levels, and ratio of As shown in FIG. 2, since most of the average feature information of all stations matches level 3 within the fog level, level 3 is the finally determined fog level. In addition, compared to the conventional fog recognition solution that outputs the result of the presence or absence of fog and fog concentration, the output fog level corresponds to the visibility, making the degree of fog more clear and flexible. can be expressed as

例示的に、本開示の実施例では、予め設定された団霧レベルと視程範囲との対応関係において、レベル1の団霧レベルに対応する視程は0-50メートルとし、レベル2の団霧レベルに対応する視程は50-100メートルとし、レベル3の団霧レベルに対応する視程は100-200メートルとし、レベル4の団霧レベルに対応する視程は200-500メートルとし、レベル5の団霧レベルに対応する視程は500-1000メートルとし、霧なしの団霧レベルに対応する視程は1000メートル以上とする。 Illustratively, in the embodiment of the present disclosure, in the preset correspondence relationship between the fog level and the visibility range, the visibility corresponding to the fog level of level 1 is 0-50 meters, and the fog level of level 2 is 0-50 meters. The visibility corresponding to level 3 fog coagulation shall be 50-100 meters, the visibility corresponding to level 3 fog coagulation shall be 100-200 meters, the visibility corresponding to level 4 fog coagulation shall be 200-500 meters, and the visibility corresponding to level 5 fog coagulation shall be 200-500 meters. The visibility corresponding to the level shall be 500-1000 meters, and the visibility corresponding to the fog-free fog level shall be 1000 meters or more.

本開示の実施例では、団霧認識装置は、場面画像内の団霧及び団霧に対応する団霧レベルを決定した後に、予め設定された団霧レベルと視程範囲との対応関係に基づき、団霧レベルに対応する第1視程範囲を取得するステップと、第1視程範囲が予め設定された視程範囲より低い場合、団霧レベルに対応する第1警報情報を取得するステップと、第1警報情報を出力するステップと、をさらに実行してもよい。 In an embodiment of the present disclosure, after determining the fog in the scene image and the fog level corresponding to the fog in the scene image, the fog coagulation recognition device, based on the correspondence relationship between the preset fog level and the visibility range, obtaining a first visibility range corresponding to the fog level; obtaining first warning information corresponding to the fog level if the first visibility range is lower than a preset visibility range; and obtaining a first warning. and outputting the information.

説明すべきものとして、本開示の実施例では、予め設定された団霧レベルと視程範囲との対応関係が記憶されており、異なる団霧レベルは異なる視程範囲に対応し、団霧レベルと視程範囲との具体的な対応関係は、実際の状況に応じて予め設定でき、本開示の実施例では限定しない。 Illustratively, in embodiments of the present disclosure, preset correspondences between fog levels and visibility ranges are stored, different fog levels corresponding to different visibility ranges, and can be set in advance according to the actual situation, and is not limited in the embodiments of the present disclosure.

本開示の実施例では、団霧認識装置は、得た団霧レベルに応じて、予め設定された団霧レベルと視程範囲との対応関係から対応する視程範囲を探し出し、探し出した視程範囲を第1視程範囲としてもよいことが理解される。 In the embodiment of the present disclosure, the fog accumulator recognizing device searches for the corresponding visibility range from the corresponding relationship between the fog confluence level and the visibility range set in advance according to the obtained fog accumulation level, It is understood that there may be one line of sight range.

説明すべきものとして、本開示の実施例では、団霧認識装置には、例えば、500メートル以上等の予め設定された視程範囲が記憶されており、団霧認識装置により取得した団霧レベルがレベル4からレベル1の間にある場合、500メートル未満の視程を表すため、対応する警報情報を決定する必要がある。具体的な警報情報は、予め設定された団霧レベルと警報情報との対応関係に基づいて決定してもよく、本開示の実施例では限定しない。 By way of illustration, in embodiments of the present disclosure, the fog confluence recognizer is stored with a preset visibility range, such as, for example, 500 meters or more, and the fog level obtained by the fog confluence recognizer is the level If it is between 4 and level 1, it represents a visibility of less than 500 meters, so the corresponding warning information needs to be determined. The specific warning information may be determined based on a preset correspondence relationship between the fog level and the warning information, and is not limited in the embodiments of the present disclosure.

説明すべきものとして、本開示の実施例では、異なる団霧レベルは異なる視程に対応するため、団霧レベルに対応する視程範囲が予め設定された視程範囲より低い場合、対応する警報情報を即時に決定し、注意喚起するように警報情報を出力してもよく、団霧への対処に警報と科学的依拠を提供する。 It should be noted that in the embodiments of the present disclosure, different fog levels correspond to different visibility, so if the visibility range corresponding to the fog level is lower than the preset visibility range, the corresponding alarm information is immediately displayed. It may determine and output warning information to alert, providing warning and scientific reliance on dealing with fog clusters.

本開示の実施例では、場面画像は複数の時刻における複数の画像を含み、団霧レベルは複数の画像に対応する複数のレベルを含み、団霧認識装置は、場面画像内の団霧及び団霧に対応する団霧レベルを決定した後に、複数のレベルと複数の時刻とが正の相関である場合、第2警報情報を取得するステップと、目標場面内の警報注意喚起機器を取得するステップと、第2警報情報を警報注意喚起機器に送信するステップと、をさらに実行してもよい。 In an embodiment of the present disclosure, the scene image includes multiple images at multiple times, the fog level includes multiple levels corresponding to the multiple images, and the fog coagulation recognizer recognizes the fog and fog within the scene image. After determining the fog level corresponding to the fog, if the plurality of levels and the plurality of times are positively correlated, obtaining second alarm information, and obtaining an alarm alerting device in the target scene. and sending the second alert information to the alert alert device.

本開示の実施例では、団霧認識装置は、目標場面の一定期間内の大量の画像、例えば、高速道路の1日内の複数の画像を取得してもよく、ここで得られた画像は全て場面画像であり、つまり、場面画像は複数の時刻における複数の画像を含んでもよいことが理解される。団霧認識装置は、画像ごとに団霧認識を行い、対応する団霧レベルを得てもよく、即ち複数のレベルを得る。複数のレベルが時間の経過とともに上がる場合、つまり複数のレベルと複数の時刻とが正の相関である場合、目標場面の団霧が濃くなることを表す。団霧認識装置は、目標場面内の警報注意喚起機器、例えば、車を取得し、団霧が濃くなることを知らせる第2警報情報を警報注意喚起機器に送信してもよい。 In embodiments of the present disclosure, the fog cluster recognizer may acquire a large number of images of the target scene over a period of time, e.g. It is understood that a scene image, that is, a scene image may include multiple images at multiple times. The fog recognition device may perform fog recognition for each image and obtain a corresponding fog level, ie obtain a plurality of levels. If the levels increase over time, that is, if there is a positive correlation between the levels and the times, it indicates that the fog in the target scene is getting thicker. The fog accumulator recognizer may acquire an alert alert device, eg, a car, in the target scene and send second alert information to the alert alert device indicating that the fog ensemble is increasing.

本開示の実施例では、場面画像は複数の時刻における複数の画像を含み、団霧レベルは複数の画像に対応する複数のレベルを含み、団霧認識装置は、場面画像内の団霧及び団霧に対応する団霧レベルを決定した後に、複数のレベルを統計し、統計結果を得るステップと、統計結果に基づき、目標場面の団霧発生頻度を決定するステップと、をさらに実行してもよい。 In an embodiment of the present disclosure, the scene image includes multiple images at multiple times, the fog level includes multiple levels corresponding to the multiple images, and the fog coagulation recognizer recognizes the fog and fog within the scene image. After determining the fog level corresponding to the fog, the steps of statistically obtaining a statistical result for the plurality of levels and determining the fogging frequency of the target scene based on the statistical result may be further performed. good.

本開示の実施例では、団霧認識装置は、得られた複数の画像に対応する複数のレベルを統計分析しており、統計結果に基づき、目標場面の団霧発生頻度を決定してもよく、また、団霧が多発する区域及び時間帯を分析し、団霧発生の規則をまとめ、団霧予防図を生成してもよく、これにより、多発する区域及び時間帯において事前に予防し、団霧による損失を低減できることが理解される。 In embodiments of the present disclosure, the fog accumulator recognizer may statistically analyze multiple levels corresponding to the multiple images obtained, and determine the frequency of fog occurrence for the target scene based on the statistical results. , It may also analyze the area and time period where fog occurs frequently, summarize the rules of fog generation, and generate a fog prevention map, so as to prevent in advance in the area and time period where fog occurs frequently, It will be appreciated that losses due to fogging can be reduced.

本開示の実施例は団霧認識方法を提供し、目標場面の場面画像を取得するステップと、場面画像に対して特徴抽出を行い、全局特徴情報を得るステップと、全局特徴情報に対して分類処理を行い、場面画像内の団霧及び団霧に対応する団霧レベルを決定するステップと、を含む。本開示の実施例により提供される団霧認識方法は、深層ニューラルネットワークを用いて画像の全局特徴を抽出し、団霧を表す情報の有効性を向上させ、画像内の団霧認識に無関係な情報の干渉を低減し、団霧認識の正確性が向上する。 An embodiment of the present disclosure provides a method for recognizing fog cluster, obtaining a scene image of a target scene; performing feature extraction on the scene image to obtain global feature information; processing to determine fog in the scene image and a fog level corresponding to the fog. The method for recognizing fog coagulation provided by the embodiments of the present disclosure uses deep neural networks to extract global features of an image, improve the effectiveness of information representing It reduces information interference and improves the accuracy of cloud cluster recognition.

本開示の実施例は団霧認識装置を提供する。図3は、本開示の実施例により提供される団霧認識装置の構成図1である。図3に示すように、団霧認識装置は、
目標場面の場面画像を取得するように構成される画像取得モジュール201と、
前記場面画像に対して特徴抽出を行い、全局特徴情報を得るように構成される特徴抽出モジュール202と、
前記全局特徴情報に対して分類処理を行い、前記場面画像内の団霧及び前記団霧に対応する団霧レベルを決定するように構成される分類処理モジュール203と、を含む。
Embodiments of the present disclosure provide a fog recognition system. FIG. 3 is a block diagram 1 of a fog cloud recognition device provided by an embodiment of the present disclosure. As shown in FIG. 3, the mist cluster recognition device
an image acquisition module 201 configured to acquire a scene image of a target scene;
a feature extraction module 202 configured to perform feature extraction on the scene image to obtain global feature information;
a classification processing module 203 configured to perform a classification process on the global feature information to determine fog in the scene image and a fog level corresponding to the fog.

図4は、本願の実施例により提供される団霧認識装置の構成図2である。図4に示すように、本開示の一実施例では、前記団霧認識装置は、画像処理モジュール204をさらに含み、
前記画像処理モジュール204は、前記場面画像に対して画像前処理を行い、処理済み画像を得るように構成され、
対応的に、前記特徴抽出モジュール202は、具体的には、前記処理済み画像に対して特徴抽出を行い、前記全局特徴情報を得るように構成される。
FIG. 4 is a structural diagram 2 of a fog recognizing device provided by an embodiment of the present application. As shown in FIG. 4, in one embodiment of the present disclosure, the fog cloud recognition device further includes an image processing module 204,
the image processing module 204 is configured to perform image pre-processing on the scene image to obtain a processed image;
Correspondingly, the feature extraction module 202 is specifically configured to perform feature extraction on the processed image to obtain the global feature information.

本開示の一実施例では、前記画像処理モジュール204は、具体的には、前記場面画像に対して画素サンプリングを行い、目標サイズのサンプリング画像を得て、そして前記サンプリング画像を正規化処理し、前記処理済み画像を得るように構成される。 In one embodiment of the present disclosure, the image processing module 204 specifically performs pixel sampling on the scene image to obtain a target size sampled image, and normalizes the sampled image, configured to obtain said processed image;

本開示の一実施例では、前記分類処理モジュール203は、具体的には、前記全局特徴情報に対して平均プーリングを行い、全局平均特徴情報を得て、そして前記全局平均特徴情報を分類し、前記団霧及び前記団霧レベルを決定するように構成される。 In one embodiment of the present disclosure, the classification processing module 203 specifically performs average pooling on the all-stations feature information to obtain all-stations average feature information, and classifies the all-stations average feature information, configured to determine the fog and the fog level;

本開示の一実施例では、図4に示すように、前記団霧認識装置は、情報出力モジュール205をさらに含み、前記情報出力モジュール205は、予め設定された団霧レベルと視程範囲との対応関係に基づき、前記団霧レベルに対応する第1視程範囲を取得し、前記第1視程範囲が予め設定された視程範囲より低い場合、前記団霧レベルに対応する第1警報情報を取得し、そして前記第1警報情報を出力するように構成される。 In one embodiment of the present disclosure, as shown in FIG. 4 , the apparatus for recognizing fog accumulation further includes an information output module 205, wherein the information output module 205 is configured to determine the correspondence between a preset fog level and visibility range. obtaining a first visibility range corresponding to the fog liquefaction level according to the relationship, and obtaining first warning information corresponding to the fog confluence level if the first visibility range is lower than a preset visibility range; And it is configured to output the first alarm information.

本開示の一実施例では、前記場面画像は複数の時刻における複数の画像を含み、前記団霧レベルは前記複数の画像に対応する複数のレベルを含み、
前記情報出力モジュール205は、前記複数のレベルと前記複数の時刻とが正の相関である場合、第2警報情報を取得し、前記目標場面内の警報注意喚起機器を取得し、そして前記第2警報情報を前記警報注意喚起機器に送信するように構成される。
In one embodiment of the present disclosure, the scene images include multiple images at multiple times, the fog level includes multiple levels corresponding to the multiple images, and
The information output module 205 obtains second alarm information when the plurality of levels and the plurality of times are positively correlated, obtains alarm reminder devices in the target scene, It is configured to send alarm information to the alarm reminder device.

本開示の一実施例では、図4に示すように、前記団霧認識装置は、統計処理モジュール206をさらに含み、前記場面画像は複数の時刻における複数の画像を含み、前記団霧レベルは前記複数の画像に対応する複数のレベルを含み、
前記統計処理モジュール206は、前記複数のレベルを統計し、統計結果を得て、そして前記統計結果に基づき、前記目標場面の団霧発生頻度を決定するように構成される。
In one embodiment of the present disclosure, as shown in FIG. 4, the apparatus for recognizing fog further includes a statistical processing module 206, the images of the scene include a plurality of images at a plurality of times, and the level of fog is the Contains multiple levels corresponding to multiple images,
The statistic processing module 206 is configured to statisticize the plurality of levels, obtain a statistic result, and determine a fogging frequency of the target scene based on the statistic result.

本開示の実施例は団霧認識装置を提供し、前記装置は、目標場面の場面画像を取得し、場面画像に対して特徴抽出を行い、全局特徴情報を得て、そして全局特徴情報に対して分類処理を行い、場面画像内の団霧及び団霧に対応する団霧レベルを決定する。本開示の実施例により提供される団霧認識装置は、深層ニューラルネットワークを用いて画像の全局特徴を抽出し、団霧を表す情報の有効性を向上させ、画像内の団霧認識に無関係な情報の干渉を低減し、団霧認識の正確性が向上する。 An embodiment of the present disclosure provides an apparatus for recognizing fog cluster, which acquires a scene image of a target scene, performs feature extraction on the scene image, obtains global feature information, and to determine the fog in the scene image and the fog level corresponding to the fog in the scene image. The apparatus for recognizing fog coagulation provided by embodiments of the present disclosure uses deep neural networks to extract global features of an image to improve the effectiveness of information representative of fog It reduces information interference and improves the accuracy of cloud cluster recognition.

本開示の実施例は電子機器を提供する。図5は、本開示の実施例により提供される電子機器の構成図である。図5に示すように、電子機器は、プロセッサ301、メモリ302及び通信バス303を含み、
前記通信バス303は、前記プロセッサ301と前記メモリ302の間の接続通信を実現するように構成され、
前記プロセッサ301は、前記メモリ302に記憶されている団霧認識プログラムを実行することにより、上記団霧認識方法を実現するように構成される。
An embodiment of the disclosure provides an electronic device. FIG. 5 is a configuration diagram of an electronic device provided by an embodiment of the present disclosure. As shown in FIG. 5, the electronic device includes a processor 301, a memory 302 and a communication bus 303;
the communication bus 303 is configured to provide connection communication between the processor 301 and the memory 302;
The processor 301 is configured to implement the fog confluence recognition method by executing a fog confluence recognition program stored in the memory 302 .

本開示の実施例はコンピュータ可読記憶媒体を提供し、前記コンピュータ可読記憶媒体には、1つ又は複数のプロセッサに実行されることにより上記団霧認識方法を実現可能な1つ又は複数のプログラムが記憶されている。コンピュータ可読記憶媒体は、例えば、ランダムアクセスメモリ(Random-Access Memory:RAMと略称)のような揮発性メモリ(volatile memory)であってもよく、又は、例えば、読み取り専用メモリ(Read-Only Memory:ROMと略称)、フラッシュメモリ(flash memory)、ハードディスクドライブ(Hard Disk Drive:HDDと略称)又はソリッドステートディスク(Solid-State Drive:SSDと略称)のような非揮発性メモリ(non-volatile memory)であってもよく、さらに例えば、携帯電話、コンピュータ、タブレットデバイス、携帯情報端末等、上記メモリの1種又は任意の組み合わせを含む様々な機器であってもよい。 An embodiment of the present disclosure provides a computer-readable storage medium, in which one or more programs capable of being executed by one or more processors to implement the above fogging recognition method are provided. remembered. The computer-readable storage medium may be, for example, a volatile memory, such as a Random-Access Memory (abbreviated as RAM), or a Read-Only Memory, for example. non-volatile memory such as ROM), flash memory, hard disk drive (abbreviated as HDD) or solid-state disk (abbreviated as SSD) and various devices including one or any combination of the above memories, such as mobile phones, computers, tablet devices, personal digital assistants, and the like.

本開示の実施例はコンピュータプログラム製品を提供し、前記コンピュータプログラム製品は、コンピュータで実行されると、前記コンピュータに上記団霧認識方法を実行させるコンピュータプログラム又は命令を含む。 An embodiment of the present disclosure provides a computer program product, said computer program product comprising computer programs or instructions which, when executed on a computer, cause said computer to perform the above-described fogging recognition method.

当業者であれば、本開示の実施例が方法、システム又はコンピュータプログラム製品として提供されてよいことを理解すべきである。従って、本開示は、ハードウェア実施例、ソフトウェア実施例又はソフトウェアとハードウェアを組み合わせた実施例の形態を採用してよい。また、本開示は、コンピュータに利用可能なプログラムコードを含む1つ又は複数のコンピュータに利用可能な記憶媒体(ディスクメモリや光学的メモリ等を含むが、それらに限定されない)で実施されるコンピュータプログラム製品の形態を採用してよい。 A person skilled in the art should understand that the embodiments of the present disclosure may be provided as a method, system or computer program product. Accordingly, the present disclosure may take the form of a hardware embodiment, a software embodiment, or an embodiment combining software and hardware. The present disclosure also includes a computer program embodied in one or more computer-usable storage media (including, but not limited to, disk memory, optical memory, etc.) containing computer-usable program code. The form of the product may be adopted.

本開示は本開示の実施例に係る方法、装置(システム)及びコンピュータプログラム製品のフローチャート及び/又はブロック図を参照して説明している。フローチャート及び/又はブロック図におけるそれぞれのフロー及び/又はブロック、並びにフローチャート及び/又はブロック図におけるフロー及び/又はブロックの組み合わせはコンピュータプログラム命令によって実現できることを理解すべきである。これらのコンピュータプログラム命令は、機械を製造するために、共通コンピュータ、専用コンピュータ、組み込みプロセッサ又は他のプログラマブル信号処理装置のプロセッサへ提供されてもよく、それにより、コンピュータ又は他のプログラマブル信号処理装置のプロセッサによって実行される命令は、フローチャートの一つ又は複数のフロー及び/又はブロック図の一つ又は複数のブロックにおいて指定された機能を実現する手段を創出する。 The present disclosure is described with reference to flowchart illustrations and/or block diagrams of methods, apparatus (systems) and computer program products according to embodiments of the disclosure. It is to be understood that each flow and/or block in the flowchart and/or block diagrams, and combinations of the flows and/or blocks in the flowchart and/or block diagrams, can be implemented by computer program instructions. These computer program instructions may be provided to the processor of a common computer, special purpose computer, embedded processor or other programmable signal processing device to produce the machine, thereby rendering the computer or other programmable signal processing device The instructions executed by the processor create the means to perform the functions specified in one or more of the flows in the flowcharts and/or one or more blocks of the block diagrams.

これらのコンピュータプログラム命令は、コンピュータ又は他のプログラマブル信号処理装置を特定の方式で動作させるように指導可能なコンピュータ可読メモリに記憶されてもよく、それによって該コンピュータ可読メモリに記憶された命令は、フローチャートの一つ又は複数のフロー及び/又はブロック図の一つ又は複数のブロックにおいて指定された機能を実現する命令手段を含む製品を創出する。 These computer program instructions may be stored in a computer readable memory capable of directing a computer or other programmable signal processing apparatus to operate in a particular manner, whereby the instructions stored in the computer readable memory are Create an article of manufacture that includes instruction means that implement the functions specified in one or more of the flows in the flowcharts and/or in one or more of the blocks in the block diagrams.

これらのコンピュータプログラム命令はコンピュータ又は他のプログラマブル信号処理装置にロードすることにより、コンピュータ実行処理を生成するように、コンピュータ又は他のプログラマブル装置において一連の動作ステップを実行させるようにしてもよく、それにより、コンピュータ又は他のプログラマブル装置において実行される命令は、フローチャートの一つ又は複数のフロー及び/又はブロック図の一つ又は複数のブロックにおいて指定された機能を実現するためのステップを提供する。 These computer program instructions may be loaded into a computer or other programmable signal processing device to cause the computer or other programmable device to perform a series of operational steps to produce a computer-implemented process. Accordingly, instructions executed on a computer or other programmable device provide steps for implementing the functionality specified in one or more flows of the flowcharts and/or one or more blocks of the block diagrams.

以上は本開示の好適な実施例に過ぎず、本開示の保護範囲を限定するためのものではない。 The above are only preferred embodiments of the present disclosure, and are not intended to limit the protection scope of the present disclosure.

本開示の実施例は団霧認識方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム製品を提供し、前記方法は、目標場面の場面画像を取得するステップと、場面画像に対して特徴抽出を行い、全局特徴情報を得るステップと、全局特徴情報に対して分類処理を行い、場面画像内の団霧及び団霧に対応する団霧レベルを決定するステップと、を含む。本開示の実施例により提供される技術的解決手段は、画像の全局的な深層特徴を抽出し、団霧を表す情報の有効性を向上させ、画像内の団霧認識に無関係な情報の干渉を低減し、団霧認識の正確性が向上する。 Embodiments of the present disclosure provide a fog cloud recognition method and apparatus, an electronic device, a storage medium and a computer program product, the method comprising obtaining a scene image of a target scene and performing feature extraction on the scene image. , obtaining global feature information, and performing a classification process on the global feature information to determine fog and fog level corresponding to the fog in the scene image. The technical solution provided by the embodiments of the present disclosure is to extract the global depth features of the image, improve the effectiveness of the information representing fog coagulation, and prevent the interference of information irrelevant to fog coagulation recognition in the image. is reduced and the accuracy of cloud cluster recognition is improved.

Claims (17)

目標場面の場面画像を取得するステップと、
前記場面画像に対して特徴抽出を行い、全局特徴情報を得るステップと、
前記全局特徴情報に対して分類処理を行い、前記場面画像内の団霧及び前記団霧に対応する団霧レベルを決定するステップと、を含む、団霧認識方法。
obtaining a scene image of a target scene;
performing feature extraction on the scene image to obtain global feature information;
performing a classification process on the global feature information to determine fog in the scene image and a fog level corresponding to the fog.
前記場面画像に対して特徴抽出を行い、全局特徴情報を得る前に、
前記場面画像に対して画像前処理を行い、処理済み画像を得るステップをさらに含み、
対応的に、前記場面画像に対して特徴抽出を行い、全局特徴情報を得るステップは、
前記処理済み画像に対して特徴抽出を行い、前記全局特徴情報を得るステップを含む、
請求項1に記載の方法。
Before performing feature extraction on the scene image to obtain global feature information,
further comprising performing image preprocessing on the scene image to obtain a processed image;
Correspondingly, the step of performing feature extraction on the scene image to obtain global feature information includes:
performing feature extraction on the processed image to obtain the global feature information;
The method of claim 1.
前記場面画像に対して画像前処理を行い、処理済み画像を得るステップは、
前記場面画像に対して画素サンプリングを行い、目標サイズのサンプリング画像を得るステップと、
前記サンプリング画像を正規化処理し、前記処理済み画像を得るステップと、を含む、
請求項2に記載の団霧認識方法。
performing image preprocessing on the scene image to obtain a processed image,
pixel sampling the scene image to obtain a sampled image of a target size;
normalizing the sampled image to obtain the processed image;
The method for recognizing fog cloud according to claim 2.
前記全局特徴情報に対して分類処理を行い、前記場面画像内の団霧及び前記団霧に対応する団霧レベルを決定するステップは、
前記全局特徴情報に対して平均プーリングを行い、全局平均特徴情報を得るステップと、
前記全局平均特徴情報を分類し、前記団霧及び前記団霧レベルを決定するステップと、を含む、
請求項1から3のいずれか1項に記載の団霧認識方法。
performing a classification process on the global feature information to determine fog in the scene image and a fog level corresponding to the fog;
performing average pooling on the all-station feature information to obtain all-station average feature information;
classifying the global mean feature information to determine the fog and the fog level;
The fog cloud recognition method according to any one of claims 1 to 3.
前記場面画像内の団霧及び前記団霧に対応する団霧レベルを決定した後に、
予め設定された団霧レベルと視程範囲との対応関係に基づき、前記団霧レベルに対応する第1視程範囲を取得するステップと、
前記第1視程範囲が予め設定された視程範囲より低い場合、前記団霧レベルに対応する第1警報情報を取得するステップと、
前記第1警報情報を出力するステップと、をさらに含む、
請求項1から4のいずれか1項に記載の団霧認識方法。
After determining a fog in the scene image and a fog level corresponding to the fog,
obtaining a first visibility range corresponding to the fog level based on a preset correspondence relationship between the fog level and the visibility range;
obtaining first alarm information corresponding to the fog level if the first visibility range is lower than a preset visibility range;
and outputting the first alarm information.
The fog cloud recognition method according to any one of claims 1 to 4.
前記場面画像は複数の時刻における複数の画像を含み、前記団霧レベルは前記複数の画像に対応する複数のレベルを含み、前記場面画像内の団霧及び前記団霧に対応する団霧レベルを決定した後に、
前記複数のレベルと前記複数の時刻とが正の相関である場合、第2警報情報を取得するステップと、
前記目標場面内の警報注意喚起機器を取得するステップと、
前記第2警報情報を前記警報注意喚起機器に送信するステップと、をさらに含む、
請求項1から5のいずれか1項に記載の団霧認識方法。
the scene image includes a plurality of images at a plurality of times; the fog level includes a plurality of levels corresponding to the plurality of images; After deciding
obtaining second alarm information if the plurality of levels and the plurality of times are positively correlated;
obtaining an alert reminder device within the target scene;
sending the second alert information to the alert reminder device;
The fog cloud recognition method according to any one of claims 1 to 5.
前記場面画像は複数の時刻における複数の画像を含み、前記団霧レベルは前記複数の画像に対応する複数のレベルを含み、前記場面画像内の団霧及び前記団霧に対応する団霧レベルを決定した後に、
前記複数のレベルを統計し、統計結果を得るステップと、
前記統計結果に基づき、前記目標場面の団霧発生頻度を決定するステップと、をさらに含む
請求項1から5のいずれか1項に記載の団霧認識方法。
the scene image includes a plurality of images at a plurality of times; the fog level includes a plurality of levels corresponding to the plurality of images; After deciding
Statisticalizing the plurality of levels to obtain statistical results;
6. The method according to any one of claims 1 to 5, further comprising: determining the frequency of occurrence of fog for the target scene based on the statistical results.
目標場面の場面画像を取得するように構成される画像取得モジュールと、
前記場面画像に対して特徴抽出を行い、全局特徴情報を得るように構成される特徴抽出モジュールと、
前記全局特徴情報に対して分類処理を行い、前記場面画像内の団霧及び前記団霧に対応する団霧レベルを決定するように構成される分類処理モジュールと、を含む、団霧認識装置。
an image capture module configured to capture a scene image of a target scene;
a feature extraction module configured to perform feature extraction on the scene image to obtain global feature information;
a classification processing module configured to perform a classification process on the global feature information to determine fog in the scene image and a fog level corresponding to the fog.
画像処理モジュールをさらに含み、
前記画像処理モジュールは、前記場面画像に対して画像前処理を行い、処理済み画像を得るように構成され、
対応的に、前記特徴抽出モジュールは、具体的には、前記処理済み画像に対して特徴抽出を行い、前記全局特徴情報を得るように構成される
請求項8に記載の団霧認識装置。
further comprising an image processing module;
the image processing module is configured to perform image pre-processing on the scene image to obtain a processed image;
Correspondingly, the feature extraction module is specifically configured to perform feature extraction on the processed image to obtain the global feature information.
前記画像処理モジュールは、具体的には、前記場面画像に対して画素サンプリングを行い、目標サイズのサンプリング画像を得て、前記サンプリング画像を正規化処理し、前記処理済み画像を得るように構成される
請求項9に記載の団霧認識装置。
The image processing module is specifically configured to perform pixel sampling on the scene image to obtain a sampled image of a target size, and normalize the sampled image to obtain the processed image. The fog recognition device according to claim 9.
前記分類処理モジュールは、具体的には、前記全局特徴情報に対して平均プーリングを行い、全局平均特徴情報を得て、前記全局平均特徴情報を分類し、前記団霧及び前記団霧レベルを決定するように構成される
請求項8から10のいずれか1項に記載の団霧認識装置。
Specifically, the classification processing module performs average pooling on the all-station feature information to obtain all-station average feature information, classifies the all-station average feature information, and determines the fog cloud and the fog cloud level. 11. A fog recognition device according to any one of claims 8 to 10, configured to:
情報出力モジュールをさらに含み、
前記情報出力モジュールは、予め設定された団霧レベルと視程範囲との対応関係に基づき、前記団霧レベルに対応する第1視程範囲を取得し、前記第1視程範囲が予め設定された視程範囲より低い場合、前記団霧レベルに対応する第1警報情報を取得し、前記第1警報情報を出力するように構成される
請求項8から11のいずれか1項に記載の団霧認識装置。
further comprising an information output module;
The information output module obtains a first visibility range corresponding to the fog level based on a correspondence relationship between a preset fog level and a visibility range, and the first visibility range is the preset visibility range. 12. A fog integrator recognition device according to any one of claims 8 to 11, configured to obtain first alarm information corresponding to said fog integrator level if lower, and to output said first alarm information.
前記場面画像は複数の時刻における複数の画像を含み、前記団霧レベルは前記複数の画像に対応する複数のレベルを含み、
前記情報出力モジュールは、前記複数のレベルと前記複数の時刻とが正の相関である場合、第2警報情報を取得し、前記目標場面内の警報注意喚起機器を取得し、前記第2警報情報を前記警報注意喚起機器に送信するように構成される
請求項8から12のいずれか1項に記載の団霧認識装置。
the scene image includes a plurality of images at a plurality of times, the fog level includes a plurality of levels corresponding to the plurality of images;
The information output module obtains second alarm information when the plurality of levels and the plurality of times are positively correlated, obtains an alarm alerting device in the target scene, and obtains the second alarm information to the alerting device.
統計処理モジュールをさらに含み、前記場面画像は複数の時刻における複数の画像を含み、前記団霧レベルは前記複数の画像に対応する複数のレベルを含み、
前記統計処理モジュールは、前記複数のレベルを統計し、統計結果を得て、前記統計結果に基づき、前記目標場面の団霧発生頻度を決定するように構成される
請求項8から12のいずれか1項に記載の団霧認識装置。
further comprising a statistical processing module, wherein the scene images include a plurality of images at a plurality of times, the fog level includes a plurality of levels corresponding to the plurality of images;
13. The statistic processing module is configured to statisticize the plurality of levels, obtain a statistic result, and determine an agglomeration frequency of the target scene based on the statistic result. 2. The fog recognition device according to item 1.
プロセッサ、メモリ及び通信バスを含む電子機器であって、
前記通信バスは、前記プロセッサと前記メモリの間の接続通信を実現するように構成され、
前記プロセッサは、前記メモリに記憶されている団霧認識プログラムを実行することにより、請求項1-7のいずれか1項に記載の団霧認識方法を実現するように構成される、電子機器。
An electronic device comprising a processor, memory and a communication bus,
the communication bus is configured to provide connection communication between the processor and the memory;
An electronic device, wherein the processor is configured to implement the method according to any one of claims 1-7, by executing a fog confluence recognition program stored in the memory.
1つ又は複数のプロセッサに実行されることにより、請求項1-7のいずれか1項に記載の団霧認識方法を実現可能な1つ又は複数のプログラムが記憶されている、コンピュータ可読記憶媒体。 A computer-readable storage medium storing one or more programs capable of implementing the method for recognizing fog condensation according to any one of claims 1 to 7 by being executed by one or more processors. . コンピュータで実行されると、前記コンピュータに請求項1-7のいずれか1項に記載の方法を実行させるコンピュータプログラム又は命令を含む、コンピュータプログラム製品。 A computer program product comprising a computer program or instructions which, when run on a computer, causes said computer to perform the method of any one of claims 1-7.
JP2022513667A 2020-07-17 2021-05-18 Fog Recognition Method and Apparatus, Electronic Device, Storage Medium and Computer Program Product Pending JP2022545962A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010699922.1A CN111783732A (en) 2020-07-17 2020-07-17 Group mist identification method and device, electronic equipment and storage medium
CN202010699922.1 2020-07-17
PCT/CN2021/094385 WO2022012149A1 (en) 2020-07-17 2021-05-18 Agglomerate fog recognition method and apparatus, electronic device, storage medium, and computer program product

Publications (1)

Publication Number Publication Date
JP2022545962A true JP2022545962A (en) 2022-11-01

Family

ID=72763612

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022513667A Pending JP2022545962A (en) 2020-07-17 2021-05-18 Fog Recognition Method and Apparatus, Electronic Device, Storage Medium and Computer Program Product

Country Status (4)

Country Link
JP (1) JP2022545962A (en)
KR (1) KR20220041892A (en)
CN (1) CN111783732A (en)
WO (1) WO2022012149A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111783732A (en) * 2020-07-17 2020-10-16 上海商汤智能科技有限公司 Group mist identification method and device, electronic equipment and storage medium
CN112686105B (en) * 2020-12-18 2021-11-02 云南省交通规划设计研究院有限公司 Fog concentration grade identification method based on video image multi-feature fusion
CN112816483A (en) * 2021-03-05 2021-05-18 北京文安智能技术股份有限公司 Group fog recognition early warning method and system based on fog value analysis and electronic equipment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014164375A (en) * 2013-02-22 2014-09-08 Pioneer Electronic Corp Information processor, information processing system and information processing method, and program for information processor
CN108846324A (en) * 2018-05-28 2018-11-20 中用科技有限公司 A kind of road group mist detection method based on image
CN109961070A (en) * 2019-03-22 2019-07-02 国网河北省电力有限公司电力科学研究院 The method of mist body concentration is distinguished in a kind of power transmission line intelligent image monitoring
CN110598613A (en) * 2019-09-03 2019-12-20 长安大学 Expressway agglomerate fog monitoring method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102779349B (en) * 2012-06-30 2015-02-18 东南大学 Foggy day detecting method based on image color spatial feature
US9305339B2 (en) * 2014-07-01 2016-04-05 Adobe Systems Incorporated Multi-feature image haze removal
CN105303844B (en) * 2015-10-26 2017-09-12 南京本来信息技术有限公司 Night expressway fog automatic detection device and its detection method based on laser
CN109683209A (en) * 2018-12-27 2019-04-26 吉林省气象服务中心 The monitoring method and monitoring system of group's mist
CN110378865A (en) * 2019-04-28 2019-10-25 湖南师范大学 A kind of greasy weather visibility intelligence hierarchical identification method and system under complex background
CN111783732A (en) * 2020-07-17 2020-10-16 上海商汤智能科技有限公司 Group mist identification method and device, electronic equipment and storage medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014164375A (en) * 2013-02-22 2014-09-08 Pioneer Electronic Corp Information processor, information processing system and information processing method, and program for information processor
CN108846324A (en) * 2018-05-28 2018-11-20 中用科技有限公司 A kind of road group mist detection method based on image
CN109961070A (en) * 2019-03-22 2019-07-02 国网河北省电力有限公司电力科学研究院 The method of mist body concentration is distinguished in a kind of power transmission line intelligent image monitoring
CN110598613A (en) * 2019-09-03 2019-12-20 长安大学 Expressway agglomerate fog monitoring method

Also Published As

Publication number Publication date
WO2022012149A1 (en) 2022-01-20
KR20220041892A (en) 2022-04-01
CN111783732A (en) 2020-10-16

Similar Documents

Publication Publication Date Title
CN109255352B (en) Target detection method, device and system
CN109508688B (en) Skeleton-based behavior detection method, terminal equipment and computer storage medium
JP2022545962A (en) Fog Recognition Method and Apparatus, Electronic Device, Storage Medium and Computer Program Product
WO2019233266A1 (en) Image processing method, computer readable storage medium and electronic device
EP3579180A1 (en) Image processing method and apparatus, electronic device and non-transitory computer-readable recording medium for selective image enhancement
CN108256404B (en) Pedestrian detection method and device
WO2019233263A1 (en) Method for video processing, electronic device and computer-readable storage medium
JP7266668B2 (en) Video object fast detection method, apparatus, server and storage medium
CN108875540B (en) Image processing method, device and system and storage medium
WO2021022983A1 (en) Image processing method and apparatus, electronic device and computer-readable storage medium
CN110580428A (en) image processing method, image processing device, computer-readable storage medium and electronic equipment
CN110097050B (en) Pedestrian detection method, device, computer equipment and storage medium
US20140064626A1 (en) Adaptive image processing apparatus and method based in image pyramid
CN110633665B (en) Identification method, device and storage medium
WO2022121130A1 (en) Power target detection method and apparatus, computer device, and storage medium
WO2023082453A1 (en) Image processing method and device
CN110765903A (en) Pedestrian re-identification method and device and storage medium
WO2023093151A1 (en) Image screening method and apparatus, electronic device, and storage medium
CN116186770A (en) Image desensitizing method, device, electronic equipment and storage medium
CN111435437A (en) PCB pedestrian re-recognition model training method and PCB pedestrian re-recognition method
CN108229281B (en) Neural network generation method, face detection device and electronic equipment
CN113052139A (en) Deep learning double-flow network-based climbing behavior detection method and system
WO2018113206A1 (en) Image processing method and terminal
CN110428402B (en) Image tampering identification method and device, computer equipment and storage medium
CN114926348B (en) Device and method for removing low-illumination video noise

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220228

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221220

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230711