JP2022526207A - Monitoring methods and systems, electronic devices and storage media - Google Patents

Monitoring methods and systems, electronic devices and storage media Download PDF

Info

Publication number
JP2022526207A
JP2022526207A JP2021536787A JP2021536787A JP2022526207A JP 2022526207 A JP2022526207 A JP 2022526207A JP 2021536787 A JP2021536787 A JP 2021536787A JP 2021536787 A JP2021536787 A JP 2021536787A JP 2022526207 A JP2022526207 A JP 2022526207A
Authority
JP
Japan
Prior art keywords
target
region
detection result
detection
strategy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2021536787A
Other languages
Japanese (ja)
Inventor
方志▲軍▼
李若岱
▲羅▼彬
田士民
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Sensetime Technology Co Ltd
Original Assignee
Shenzhen Sensetime Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Sensetime Technology Co Ltd filed Critical Shenzhen Sensetime Technology Co Ltd
Publication of JP2022526207A publication Critical patent/JP2022526207A/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01KMEASURING TEMPERATURE; MEASURING QUANTITY OF HEAT; THERMALLY-SENSITIVE ELEMENTS NOT OTHERWISE PROVIDED FOR
    • G01K13/00Thermometers specially adapted for specific purposes
    • G01K13/20Clinical contact thermometers for use with humans or animals
    • G01K13/223Infrared clinical thermometers, e.g. tympanic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Processing (AREA)
  • Radiation Pyrometers (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

本願の実施例は、監視方法及びシステム、電子機器並びに記憶媒体に関する。前記方法は、可視光画像に対してターゲット領域認識を行い、ターゲット対象が位置する第1領域及び所定部位が位置する第2領域を得ることと、第1領域の寸法、及び赤外画像における、第1領域に対応する第3領域に基づいて、ターゲット対象に対して生体検出を行い、生体検出結果を得ることと、生体検出結果が生体である場合、第1領域に対して身分認識処理を行い、身分情報を得、赤外画像における、第2領域に対応する第4領域に対して、温度検出を行い、温度情報を得ることと、温度情報が所定の閾値以上である場合、身分情報に基づいて、第1早期警報情報を生成することと、を含む。The embodiments of the present application relate to monitoring methods and systems, electronic devices and storage media. In the above method, the target region is recognized for the visible light image to obtain the first region where the target target is located and the second region where the predetermined portion is located, the dimensions of the first region, and the infrared image. Based on the third region corresponding to the first region, the biological detection result is obtained by performing the biological detection on the target target, and when the biological detection result is a living body, the identification processing is performed on the first region. The identification information is obtained, and the temperature is detected for the fourth region corresponding to the second region in the infrared image to obtain the temperature information. When the temperature information is equal to or higher than a predetermined threshold value, the identification information is obtained. Includes generating first early warning information based on.

Description

(関連出願の相互参照)
本願は、2020年3月13日にに提出された、出願番号が202010177537.0である中国特許出願に基づく優先権を主張し、該中国特許出願の全内容が参照として本願に組み込まれる。
(Mutual reference of related applications)
The present application claims priority based on the Chinese patent application with application number 20100177357.0 filed on 13 March 2020, the entire contents of which are incorporated herein by reference.

本願は、コンピュータビジョン技術分野に関し、監視方法及びシステム、電子機器並びに記憶媒体に関する。 The present application relates to the field of computer vision technology, and relates to monitoring methods and systems, electronic devices and storage media.

呼吸器ウイルス感染症集団発生の管理予防において、早期発見、早期隔離は、最も原始的で極めて効果的な措置である。早期発見は、含む医療診断手段で、不審者を早期発見することであり、ここで、体温検出を含んでもよい。早期隔離は、ウィルス保有者と他人との接触を減少させ、交差感染のリスクを減少させることであり、ここで、非接触式体温検出、マスク装着などの措置を含んでもよい。 Early detection and quarantine are the most primitive and extremely effective measures in the management and prevention of outbreaks of respiratory viral infections. Early detection is a medical diagnostic instrument that includes early detection of a suspicious person, which may include body temperature detection. Early quarantine is to reduce contact between the virus carrier and others and reduce the risk of cross-infection, which may include measures such as non-contact temperature detection, masking and the like.

関連技術において、体温計、サーモグラフィ画像などの方式で体温検出を行うことができるが、体温検出プロセスは、煩わしく、交通流が大きい場所に適応しにくく、且つ、発熱症状を有する感染が疑われる症例を検出した場合、感染が疑われる症例の身元情報を検証しにくい。 In related techniques, body temperature can be detected by methods such as thermometers and thermographic images, but the body temperature detection process is cumbersome, difficult to adapt to places with large traffic flows, and cases where infection with fever is suspected. If detected, it is difficult to verify the identity of suspected cases.

本願の実施例は、監視方法及びシステム、電子機器並びに記憶媒体を提供する。 The embodiments of the present application provide monitoring methods and systems, electronic devices and storage media.

本願の実施例の一態様によれば、監視方法を提供する。前記方法は、監視領域の可視光画像に対してターゲット領域認識を行い、前記可視光画像におけるターゲット対象が位置する第1領域及び前記ターゲット対象の所定部位が位置する第2領域を得ることと、前記第1領域の寸法情報、及び前記監視領域の赤外画像における、前記第1領域に対応する第3領域に基づいて、前記ターゲット対象に対して生体検出を行い、生体検出結果を得ることと、生体検出結果が生体である場合、前記第1領域に対して身分認識処理を行い、前記ターゲット対象の身分情報を得、前記赤外画像における、前記第2領域に対応する第4領域に対して、温度検出処理を行い、前記ターゲット対象の温度情報を得ることと、前記温度情報が所定の温度閾値以上である場合、前記ターゲット対象の身分情報に基づいて、第1早期警報情報を生成することと、を含む。 According to one embodiment of the present application, a monitoring method is provided. In the method, target area recognition is performed on a visible light image in a monitoring area to obtain a first region in which the target target is located and a second region in which a predetermined portion of the target target is located in the visible light image. Based on the dimensional information of the first region and the third region corresponding to the first region in the infrared image of the monitoring region, the biological detection is performed on the target target and the biological detection result is obtained. When the biological detection result is a living body, the first region is subjected to identification processing to obtain the identification information of the target target, and the fourth region corresponding to the second region in the infrared image is obtained. The temperature detection process is performed to obtain the temperature information of the target target, and when the temperature information is equal to or higher than a predetermined temperature threshold, the first early warning information is generated based on the identification information of the target target. Including that.

本願の実施例の監視方法によれば、赤外画像に基づいて、生体検出及び温度検出を行うことができ、画像におけるターゲット対象の体温を迅速に検出することができ、体温検出効率を向上させ、交通流が大きい場所に適用可能である。また、可視光画像により、ターゲット対象の身分情報を認識することで、感染が疑われる症例の身分情報の決定に寄与し、防疫効率を向上させることができる。 According to the monitoring method of the embodiment of the present application, biological detection and temperature detection can be performed based on an infrared image, the body temperature of the target target in the image can be quickly detected, and the body temperature detection efficiency is improved. , Applicable to places with large traffic flow. In addition, by recognizing the identification information of the target target by the visible light image, it is possible to contribute to the determination of the identification information of the case suspected of being infected and improve the epidemic prevention efficiency.

可能な実現形態において、前記第1領域の寸法情報、及び前記赤外画像における、前記第1領域に対応する第3領域に基づいて、前記ターゲット対象に対して生体検出を行い、生体検出結果を得ることは、前記第1領域の寸法情報に基づいて、前記ターゲット対象と、前記可視光画像を取得する画像取得装置と、の距離を決定することと、前記距離に基づいて、生体検出策略を決定することと、可視光画像における、前記第1領域の位置に基づいて、前記赤外画像において前記第3領域の位置を決定することと、前記生体検出策略に基づいて、赤外画像における前記第3領域に対して生体検出処理を行い、前記生体検出結果を得ることと、を含む。 In a possible embodiment, biometric detection is performed on the target target based on the dimensional information of the first region and the third region corresponding to the first region in the infrared image, and the biological detection result is obtained. To obtain, determine the distance between the target object and the image acquisition device that acquires the visible light image based on the dimensional information of the first region, and based on the distance, obtain a biological detection strategy. Determining, determining the position of the third region in the infrared image based on the position of the first region in the visible light image, and determining the position in the infrared image based on the biodetection strategy. The third region includes performing a biological detection process and obtaining the biological detection result.

このような方式で、第1領域の寸法に基づいて生体検出策略を決定し、生体検出策略に基づいて生体検出を行うことができ、等温分析を利用して、遠赤外画像における生体検出の精度を向上させることができる。 With such a method, a biological detection strategy can be determined based on the dimensions of the first region, and biological detection can be performed based on the biological detection strategy. Isothermal analysis can be used to detect biological detection in a far-infrared image. The accuracy can be improved.

可能な実現形態において、前記距離に基づいて、前記生体検出策略を決定することは、前記距離が第1距離閾値以上である場合、前記生体検出策略を、人体形態に基づいた生体検出策略として決定することと、前記距離が第2距離閾値以上であって前記第1距離閾値未満である場合、前記生体検出策略を、頭頸部形態に基づいた生体検出策略として決定することと、前記距離が前記第2距離閾値未満である場合、前記生体検出策略を、顔形態に基づいた生体検出策略として決定することと、のうちの1つを含む。 In a possible implementation, determining the biodetection strategy based on the distance means determining the biodetection strategy as a biodetection strategy based on the human body morphology when the distance is greater than or equal to the first distance threshold. When the distance is equal to or greater than the second distance threshold and is less than the first distance threshold, the biological detection strategy is determined as the biological detection strategy based on the head and neck morphology, and the distance is the distance. When it is less than the second distance threshold, the biodetection strategy includes determining the biodetection strategy as a biodetection strategy based on the face morphology.

可能な実現形態において、前記生体検出策略に基づいて、前記第3領域に対して生体検出処理を行い、前記生体検出結果を得ることは、前記生体検出策略に基づいて前記第3領域に対して形態検出処理を行い、形態検出結果を得ることと、前記形態検出結果が生体形態である場合、前記第3領域における顔領域に対して等温分析処理を行い、等温分析結果を得ることと、前記生体検出策略に基づいて、形態検出結果の第1重み及び前記等温分析結果の第2重みを決定することと、前記第1重み、前記第2重み、前記形態検出結果及び前記等温分析結果に基づいて、前記生体検出結果を決定することと、を含む。 In a possible implementation, the biodetection process is performed on the third region based on the biodetection strategy, and the biodetection result is obtained on the third region based on the biodetection strategy. The morphological detection process is performed to obtain a morphological detection result, and when the morphological detection result is a biological morphology, an isothermal analysis process is performed on the face region in the third region to obtain an isothermal analysis result. Based on the biological detection strategy, the first weight of the morphology detection result and the second weight of the isothermal analysis result are determined, and based on the first weight, the second weight, the morphology detection result, and the isothermal analysis result. The present invention includes determining the biological detection result.

可能な実現形態において、前記方法は、生体検出結果が生体である場合、前記第1領域内に所定のターゲットが含まれるかどうかを検出し、前記第1検出結果を得ることであって、前記所定のターゲットは、顔の一部領域を遮蔽する物品を含む、ことを更に含み、生体検出結果が生体である場合、前記第1領域に対して身分認識処理を行い、前記ターゲット対象の身分情報を得ることは、生体検出結果が生体である場合、前記第1検出結果に基づいて、前記第1領域に対して身分認識処理を行い、前記ターゲット対象の身分情報を得ることを含む。 In a possible embodiment, the method is to detect whether a predetermined target is included in the first region and obtain the first detection result when the biological detection result is a living body. The predetermined target further includes an article that shields a part of the face, and when the biological detection result is a living body, the first region is subjected to the identification processing, and the identification information of the target target is performed. Obtaining includes the case where the living body detection result is a living body, the identification processing is performed on the first region based on the first detection result, and the identification information of the target target is obtained.

このような方式により、所定のターゲットが存在するかどうかに基づいて、身分認識方法を選択することができ、身分認識の正確度を向上させることができる。 By such a method, the identification method can be selected based on whether or not a predetermined target exists, and the accuracy of identification can be improved.

可能な実現形態において、前記第1領域内に所定のターゲットが含まれるかどうかを検出し、前記第1検出結果を得ることは、前記第1領域における顔領域に対して検出処理を行い、前記顔領域の特徴欠損結果を決定することと、前記特徴欠損結果が所定の特徴欠損である場合、前記顔領域内に所定のターゲットが含まれるかどうかを検出し、前記第1検出結果を得ることと、を含む。 In a possible embodiment, detecting whether or not a predetermined target is included in the first region and obtaining the first detection result is performed by performing a detection process on the face region in the first region. To determine the feature defect result of the face region, and if the feature defect result is a predetermined feature defect, detect whether or not a predetermined target is included in the face region, and obtain the first detection result. And, including.

可能な実現形態において、前記第1検出結果に基づいて、前記第1領域に対して身分認識処理を行い、前記ターゲット対象の身分情報を得ることは、前記第1検出結果が、前記所定のターゲットが存在しないことである場合、前記第1領域における顔領域に対して第1身分認識処理を行い、前記ターゲット対象の身分情報を得ることと、前記第1検出結果が、前記所定のターゲットが存在することである場合、前記第1領域における顔領域に対して第2身分認識処理を行い、前記ターゲット対象の身分情報を得ることであって、前記第2身分認識処理における顔の遮蔽されていない領域の特徴の重みは、第1身分認識処理における対応する領域の特徴の重みより大きい、ことと、のうちの1つを含む。 In a possible implementation, the first detection result is the predetermined target when the identification processing is performed on the first region based on the first detection result and the identification information of the target target is obtained. When is not present, the first identification process is performed on the face region in the first region to obtain the identification information of the target target, and the first detection result is that the predetermined target exists. In the case of doing so, the second identification processing is performed on the face region in the first region to obtain the identification information of the target target, and the face is not shielded in the second identification processing. The weight of the feature of the region is larger than the weight of the feature of the corresponding region in the first identification process, and includes one of the following.

可能な実現形態において、前記方法は、前記第1検出結果が、前記所定のターゲットが存在しないことである場合、第2早期警報情報を生成することを更に含む。 In a possible embodiment, the method further comprises generating a second early warning information if the first detection result is the absence of the predetermined target.

可能な実現形態において、前記方法は、前記ターゲット対象の性別情報を取得することと、前記性別情報に基づいて、前記所定の温度閾値を決定することと、を更に含む。 In a possible embodiment, the method further comprises acquiring the gender information of the target object and determining the predetermined temperature threshold based on the gender information.

可能な実現形態において、前記方法は、前記第1領域又は前記第3領域の位置情報、前記ターゲット対象の温度情報及び前記ターゲット対象の身分情報を前記可視光画像及び/又は赤外画像と重畳処理し、検出画像を得ることを更に含む。 In a possible embodiment, the method superimposes the position information of the first region or the third region, the temperature information of the target target, and the identification information of the target target on the visible light image and / or the infrared image. And further include obtaining a detected image.

本願の実施例の一態様によれば、監視システムを提供する。前記監視システムは、可視光画像取得部分と、赤外画像取得部分と、処理部分と、を備え、前記処理部分は、可視光画像取得部分により取得された監視領域の可視光画像に対してターゲット領域認識を行い、前記可視光画像におけるターゲット対象が位置する第1領域及び前記ターゲット対象の所定部位が位置する第2領域を得、前記第1領域の寸法情報、及び赤外画像取得部分により取得された赤外画像における、前記第1領域に対応する第3領域に基づいて、前記ターゲット対象に対して生体検出を行い、生体検出結果を得、生体検出結果が生体である場合、前記第1領域に対して身分認識処理を行い、前記ターゲット対象の身分情報を得、前記赤外画像における、前記第2領域に対応する第4領域に対して、温度検出処理を行い、前記ターゲット対象の温度情報を得、前記温度情報が所定の温度閾値以上である場合、前記ターゲット対象の身分情報に基づいて、第1早期警報情報を生成するように構成される。 According to one embodiment of the present application, a monitoring system is provided. The monitoring system includes a visible light image acquisition portion, an infrared image acquisition portion, and a processing portion, and the processing portion targets the visible light image in the monitoring region acquired by the visible light image acquisition portion. Region recognition is performed to obtain a first region in which the target target is located in the visible light image and a second region in which a predetermined portion of the target target is located, and the second region is acquired by the dimensional information of the first region and the infrared image acquisition portion. Based on the third region corresponding to the first region in the obtained infrared image, biological detection is performed on the target target to obtain a biological detection result, and when the biological detection result is a living body, the first The region is subjected to identification processing to obtain the identification information of the target target, and the fourth region corresponding to the second region in the infrared image is subjected to temperature detection processing to obtain the temperature of the target target. When information is obtained and the temperature information is equal to or higher than a predetermined temperature threshold, the first early warning information is generated based on the identification information of the target target.

可能な実現形態において、前記処理部分は更に、前記第1領域の寸法情報に基づいて、前記ターゲット対象と、前記可視光画像を取得する画像取得装置と、の距離を決定し、前記距離に基づいて、生体検出策略を決定し、可視光画像における、前記第1領域の位置に基づいて、前記赤外画像において前記第3領域の位置を決定し、前記生体検出策略に基づいて、赤外画像における前記第3領域に対して生体検出処理を行い、前記生体検出結果を得るように構成される。 In a possible embodiment, the processing portion further determines the distance between the target object and the image acquisition device that acquires the visible light image based on the dimensional information of the first region, and is based on the distance. The biometric detection strategy is determined, the position of the third region in the infrared image is determined based on the position of the first region in the visible light image, and the infrared image is determined based on the biometric detection strategy. The third region in the above is subjected to a biological detection process, and the biological detection result is obtained.

可能な実現形態において、前記処理部分は更に、前記距離が第1距離閾値以上である場合、前記生体検出策略を、人体形態に基づいた生体検出策略として決定し、又は、前記距離が第2距離閾値以上であって前記第1距離閾値未満である場合、前記生体検出策略を、頭頸部形態に基づいた生体検出策略として決定し、又は、前記距離が前記第2距離閾値未満である場合、前記生体検出策略を、顔形態に基づいた生体検出策略として決定するように構成される。 In a possible embodiment, the processing portion further determines the biodetection strategy as a biodetection strategy based on human morphology when the distance is greater than or equal to the first distance threshold, or the distance is the second distance. If it is greater than or equal to the threshold and less than the first distance threshold, the biodetection strategy is determined as a biodetection strategy based on head and neck morphology, or if the distance is less than the second distance threshold, the biodetection strategy is determined. The biodetection strategy is configured to be determined as a biodetection strategy based on face morphology.

可能な実現形態において、前記処理部分は更に、前記生体検出策略に基づいて前記第3領域に対して形態検出処理を行い、形態検出結果を得、前記形態検出結果が生体形態である場合、前記第3領域における顔領域に対して等温分析処理を行い、等温分析結果を得、前記生体検出策略に基づいて、形態検出結果の第1重み及び前記等温分析結果の第2重みを決定し、前記第1重み、前記第2重み、前記形態検出結果及び前記等温分析結果に基づいて、前記生体検出結果を決定するように構成される。 In a possible implementation, the processed portion further performs morphological detection processing on the third region based on the biological detection strategy to obtain a morphological detection result, and when the morphological detection result is a biological morphology, the above. An isothermal analysis process is performed on the face region in the third region to obtain an isothermal analysis result, and the first weight of the morphological detection result and the second weight of the isothermal analysis result are determined based on the biological detection strategy. It is configured to determine the biological detection result based on the first weight, the second weight, the morphological detection result and the isothermal analysis result.

可能な実現形態において、前記処理部分は更に、生体検出結果が生体である場合、前記第1領域内に所定のターゲットが含まれるかどうかを検出し、前記第1検出結果を得るように構成され、前記所定のターゲットは、顔の一部領域を遮蔽する物品を含み、前記処理部分は更に、生体検出結果が生体である場合、前記第1検出結果に基づいて、前記第1領域に対して身分認識処理を行い、前記ターゲット対象の身分情報を得るように構成される。 In a possible embodiment, the processing portion is further configured to detect if a predetermined target is included in the first region and obtain the first detection result when the biological detection result is a living body. The predetermined target includes an article that shields a partial region of the face, and the processed portion further relates to the first region based on the first detection result when the biological detection result is a living body. It is configured to perform identification processing and obtain identification information of the target target.

可能な実現形態において、前記処理部分は更に、前記第1領域における顔領域に対して検出処理を行い、前記顔領域の特徴欠損結果を決定し、前記特徴欠損結果が所定の特徴欠損である場合、前記顔領域内に所定のターゲットが含まれるかどうかを検出し、前記第1検出結果を得るように構成される。 In a possible implementation, the processed portion further performs detection processing on the face region in the first region to determine a feature defect result of the face region, and the feature defect result is a predetermined feature defect. , It is configured to detect whether or not a predetermined target is included in the face region and obtain the first detection result.

可能な実現形態において、前記処理部分は更に、前記第1検出結果が、前記所定のターゲットが存在しないことである場合、前記第1領域における顔領域に対して第1身分認識処理を行い、前記ターゲット対象の身分情報を得、又は、前記第1検出結果が、前記所定のターゲットが存在することである場合、前記第1領域における顔領域に対して第2身分認識処理を行い、前記ターゲット対象の身分情報を得るように構成され、前記第2身分認識処理における顔の遮蔽されていない領域の特徴の重みは、第1身分認識処理における対応する領域の特徴の重みより大きい。 In a possible implementation, the processing portion further performs a first identification process on the face region in the first region when the first detection result is that the predetermined target does not exist. When the identification information of the target target is obtained or the first detection result is that the predetermined target exists, the face region in the first region is subjected to the second identification processing, and the target target is subjected to the second identification processing. The weight of the feature of the unobstructed region of the face in the second identity recognition process is larger than the weight of the feature of the corresponding region in the first identity recognition process.

可能な実現形態において、前記処理部分は更に、前記第1領域又は前記第3領域の位置情報、前記ターゲット対象の温度情報及び前記ターゲット対象の身分情報を前記可視光画像及び/又は赤外画像と重畳処理し、検出画像を得るように構成される。 In a possible embodiment, the processing portion further combines the position information of the first or third region, the temperature information of the target target, and the identification information of the target target with the visible light image and / or the infrared image. It is configured to superimpose and obtain a detected image.

可能な実現形態において、前記処理部分は更に、前記ターゲット対象の性別情報を取得し、前記性別情報に基づいて、前記所定の温度閾値を決定するように構成される。 In a possible implementation, the processing portion is further configured to acquire the gender information of the target and determine the predetermined temperature threshold based on the gender information.

可能な実現形態において、前記処理部分は更に、前記第1検出結果が、前記所定のターゲットが存在しないことである場合、第2早期警報情報を生成するように構成される。 In a possible implementation, the processing portion is further configured to generate a second early warning information if the first detection result is the absence of the predetermined target.

本願の実施例の一態様によれば、電子機器を提供する。前記電子機器は、プロセッサと、プロセッサによる実行可能な命令を記憶するように構成されるメモリと、を備え、前記プロセッサは、上記監視方法を実行するように構成される。 According to one embodiment of the present application, an electronic device is provided. The electronic device comprises a processor and a memory configured to store instructions that can be executed by the processor, the processor being configured to perform the monitoring method.

本願の実施例の一態様によれば、コンピュータ可読記憶媒体を提供する。前記コンピュータ可読記憶媒体にコンピュータプログラム命令が記憶されており、前記コンピュータプログラム命令は、プロセッサにより実行される時にプロセッサに上記監視方法を実現させる。 According to one embodiment of the present application, a computer-readable storage medium is provided. A computer program instruction is stored in the computer-readable storage medium, and the computer program instruction causes the processor to realize the monitoring method when executed by the processor.

本願の一態様によれば、コンピュータプログラムを提供する。前記コンピュータプログラムは、コンピュータ可読コードを含み、前記コンピュータ可読コードが電子機器で実行されると、前記電子機器におけるプロセッサに、上記監視方法を実行させる。 According to one aspect of the present application, a computer program is provided. The computer program includes a computer-readable code, and when the computer-readable code is executed in the electronic device, the processor in the electronic device is made to execute the monitoring method.

上記の一般的な説明及び後述する細部に関する説明は、例示及び説明のためのものに過ぎず、本願の実施例を限定するものではないことが理解されるべきである。 It should be understood that the general description above and the detailed description described below are for illustration and illustration purposes only and are not intended to limit the embodiments of the present application.

本願の他の特徴及び態様は、下記の図面に基づく例示的な実施例の詳細な説明を参照すれば明らかになる。 Other features and embodiments of the present application will become apparent with reference to the detailed description of exemplary embodiments based on the drawings below.

本願の実施例による画像処理方法を示すフローチャートである。It is a flowchart which shows the image processing method by the Example of this application. 本願の実施例による生体検出を示す概略図である。It is a schematic diagram which shows the biological detection by the Example of this application. 本願の実施例による身分認識処理を示す概略図である。It is a schematic diagram which shows the identification process by an Example of this application. 本願の実施例による監視方法の適用を示す概略図である。It is a schematic diagram which shows the application of the monitoring method by the Example of this application. 本願の実施例による監視方法の適用を示す概略図である。It is a schematic diagram which shows the application of the monitoring method by the Example of this application. 本願の実施例による監視システムを示すブロック図である。It is a block diagram which shows the monitoring system by the Example of this application. 本願の実施例による電子機器を示すブロック図である。It is a block diagram which shows the electronic device by an Example of this application. 本願の実施例による電子機器を示すブロック図である。It is a block diagram which shows the electronic device by an Example of this application.

ここで添付した図面は、明細書に引き入れて本明細書の一部分を構成し、本願の実施例に適合する実施例を示し、かつ、明細書とともに本願の実施例の技術的解決手段を解釈することに用いられる。 The drawings attached herein constitute a part of the present specification by drawing into the specification, show an embodiment conforming to the embodiment of the present application, and interpret the technical solution of the embodiment of the present application together with the specification. Used for.

以下、図面を参照しながら本願の種々の例示的な実施例、特徴及び態様を詳しく説明する。図面における同一の符号は、同一または類似する機能を有する要素を示す。図面は、実施例の種々の態様を示しているが、特別な説明がない限り、必ずしも比率どおりの図面ではない。 Hereinafter, various exemplary embodiments, features and embodiments of the present application will be described in detail with reference to the drawings. The same reference numerals in the drawings indicate elements having the same or similar functions. The drawings show various embodiments of the embodiments, but the drawings are not necessarily in proportion to each other unless otherwise specified.

ここで使用した「例示的」という用語は「例、実施例として用いられるか、または説明のためのものである」ことを意味する。ここで、「例示的なもの」として説明される如何なる実施例は、他の実施例より好適または有利であると必ずしも解釈されるべきではない。 The term "exemplary" as used herein means "as an example, as an example, or for illustration purposes". Here, any embodiment described as "exemplary" should not necessarily be construed as more suitable or advantageous than other embodiments.

本明細書において、用語「及び/又は」は、関連対象の関連関係を説明するためのものであり、3通りの関係が存在することを表す。例えば、A及び/又はBは、Aのみが存在すること、AとBが同時に存在すること、Bのみが存在するという3つの場合を表す。また、本明細書において、用語「少なくとも1つ」は、複数のうちのいずれか1つ又は複数のうちの少なくとも2つの任意の組み合わせを表す。例えば、A、B、Cのうちの少なくとも1つを含むことは、A、B及びCからなる集合から選ばれるいずれか1つ又は複数の要素を含むことを表す。 As used herein, the term "and / or" is used to describe the relationship of a related object and indicates that there are three types of relationships. For example, A and / or B represent three cases: that only A exists, that A and B exist at the same time, and that only B exists. Also, as used herein, the term "at least one" refers to any one of a plurality or any combination of at least two of the plurality. For example, including at least one of A, B, and C means containing any one or more elements selected from the set consisting of A, B, and C.

なお、本願をより良く説明するために、以下の具体的な実施形態において具体的な細部を多く記載した。当業者は、これら具体的な詳細に関わらず、本開示は同様に実施可能であると理解すべきである。本発明の主旨を明確にするために、一部の実例において、当業者に熟知されている方法、手段、素子及び回路については詳しく説明しないことにする。 In addition, in order to better explain the present application, many specific details have been described in the following specific embodiments. Those skilled in the art should understand that this disclosure is similarly feasible, regardless of these specific details. In order to clarify the gist of the present invention, in some examples, methods, means, elements and circuits familiar to those skilled in the art will not be described in detail.

図1は、本願の実施例による画像処理方法を示すフローチャートである。図1に示すように、前記方法は以下を含む。 FIG. 1 is a flowchart showing an image processing method according to an embodiment of the present application. As shown in FIG. 1, the method includes:

ステップS11において、監視領域の可視光画像に対してターゲット領域認識を行い、前記可視光画像におけるターゲット対象が位置する第1領域及び前記ターゲット対象の所定部位が位置する第2領域を得る。 In step S11, the target region is recognized for the visible light image of the monitoring region, and a first region in which the target target is located in the visible light image and a second region in which the predetermined portion of the target target is located are obtained.

ステップS12において、前記第1領域の寸法情報、及び前記監視領域の赤外画像における、前記第1領域に対応する第3領域に基づいて、前記ターゲット対象に対して生体検出を行い、生体検出結果を得る。 In step S12, biological detection is performed on the target target based on the dimensional information of the first region and the third region corresponding to the first region in the infrared image of the monitoring region, and the biological detection result is obtained. To get.

ステップS13において、生体検出結果が生体である場合、前記第1領域に対して身分認識処理を行い、前記ターゲット対象の身分情報を得、前記赤外画像における、前記第2領域に対応する第4領域に対して、温度検出処理を行い、前記ターゲット対象の温度情報を得る。 In step S13, when the biological detection result is a living body, the first region is subjected to identification processing, the identification information of the target target is obtained, and the fourth region corresponding to the second region in the infrared image is obtained. A temperature detection process is performed on the region to obtain temperature information of the target target.

ステップS14において、前記温度情報が所定の温度閾値以上である場合、前記ターゲット対象の身分情報に基づいて、第1早期警報情報を生成する。 In step S14, when the temperature information is equal to or higher than a predetermined temperature threshold value, the first early warning information is generated based on the identification information of the target target.

本願の実施例の監視方法によれば、赤外画像に基づいて、生体検出及び温度検出を行うことができ、画像におけるターゲット対象の体温を迅速に検出することができ、体温検出効率を向上させ、交通流が大きい場所に適用可能である。また、可視光画像により、ターゲット対象の身分情報を認識することで、感染が疑われる症例の身分情報の決定に寄与し、防疫効率を向上させることができる。 According to the monitoring method of the embodiment of the present application, biological detection and temperature detection can be performed based on an infrared image, the body temperature of the target target in the image can be quickly detected, and the body temperature detection efficiency is improved. , Applicable to places with large traffic flow. In addition, by recognizing the identification information of the target target by the visible light image, it is possible to contribute to the determination of the identification information of the case suspected of being infected and improve the epidemic prevention efficiency.

可能な実現形態において、前記監視方法は、端末装置及び他の処理装置により実行されてもよい。ここで、端末装置は、ユーザ装置(User Equipment:UE)、携帯機器、ユーザ端末、端末、セルラー電話、コードレス電話機、パーソナルデジタルアシスタント(Personal Digital Assistant:PDA)、ハンドヘルドデバイス、コンピューティングデバイス、車載機器、ウェアラブル機器などであってもよい。他の処理装置は、サーバ又はクラウドサーバであってもよい。可能な実現形態において、該監視方法は、プロセッサによりメモリに記憶されているコンピュータ可読命令を呼び出すことで実現することができる。 In a possible implementation, the monitoring method may be performed by a terminal device and other processing devices. Here, the terminal device includes a user device (User Equipment: UE), a mobile device, a user terminal, a terminal, a cellular telephone, a cordless telephone, a personal digital assistant (PDA), a handheld device, a computing device, and an in-vehicle device. , It may be a wearable device or the like. The other processing device may be a server or a cloud server. In a possible embodiment, the monitoring method can be implemented by calling a computer-readable instruction stored in memory by a processor.

可能な実現形態において、前記監視方法は、フロント監視機器に適用されてもよい。例えば、フロント監視機器は、プロセッサ、カメラなどのコンポーネントを一体化した機器であってもよい。プロセッサにより、カメラなどのコンポーネントを制御し、監視領域の画像を取得し、プロセッサにより、前記監視方法を実行することができる。可能な実現形態において、前記監視方法は、サーバ(例えば、監視方法を実行するプロセッサはサーバに位置し、プロセッサとカメラなどのコンポーネントは一体にパッケージングされておらず、監視領域及びバックエンドプロセッサに分布し、監視システムを構成する)にも適用可能である。サーバ、監視領域のカメラにより撮られた画像を受信し、該画像に対して前記監視方法を実行することができる。 In a possible implementation, the monitoring method may be applied to front monitoring equipment. For example, the front monitoring device may be a device that integrates components such as a processor and a camera. The processor can control components such as cameras, acquire images in the surveillance area, and the processor can execute the surveillance method. In a possible embodiment, the monitoring method is in a server (eg, the processor performing the monitoring method is located on the server, the processor and components such as the camera are not packaged together, and are in the monitoring area and backend processor. It is also applicable to (distribute and configure a monitoring system). An image taken by a server or a camera in a monitoring area can be received, and the monitoring method can be executed on the image.

可能な実現形態において、前記プロセッサは、システムオンチップ(System on a Chip:SoC)であってもよい。前記カメラは、赤外画像を取得するための赤外カメラと、可視光画像を取得するためのカメラと、を含んでもよい。可能な実現形態において、酸化バナジウム非冷却赤外線焦点面検出器などの特殊のセンサにより、空間光信号を捕捉することができる。該センサは、遠赤外カメラに適用され、生命光線を取得し、温度監視を行うことができる。 In a possible implementation, the processor may be a System on a Chip (SoC). The camera may include an infrared camera for acquiring an infrared image and a camera for acquiring a visible light image. In a possible embodiment, a special sensor such as a vanadium oxide uncooled infrared focal plane detector can capture the spatial optical signal. The sensor can be applied to a far-infrared camera to acquire life rays and monitor the temperature.

可能な実現形態において、カメラは、監視領域のビデオを撮ることができる。該ビデオのビデオフレームは、可視光画像及び赤外画像である。赤外カメラ及び可視光カメラは、近接する位置に設けられてもよい。例えば、赤外カメラ及び可視光カメラは、隣接するように設けられてもよく、並列して設けられてもよい。又は、2つのカメラを一体化してもよい。本願の実施例は、設置方式を限定しない。従って、2つのカメラが同一の時刻で撮った画像において、各ターゲット対象の位置は近似する。つまり、可視光画像及び対応する赤外画像における、同一のターゲット対象の位置偏差が小さく、且つ該偏差は、2つのカメラの位置関係に基づいて補正されてもよい。例えば、可視光画像における第1領域(即ち、ターゲット対象が位置する領域)の位置に基づいて、赤外画像における、該ターゲット対象が位置する第3領域の位置を決定することができる。 In a possible embodiment, the camera can capture video in the surveillance area. The video frame of the video is a visible light image and an infrared image. The infrared camera and the visible light camera may be provided in close proximity to each other. For example, the infrared camera and the visible light camera may be provided adjacent to each other or may be provided in parallel. Alternatively, the two cameras may be integrated. The embodiments of the present application do not limit the installation method. Therefore, in the images taken by the two cameras at the same time, the positions of the target objects are similar. That is, the positional deviation of the same target object in the visible light image and the corresponding infrared image is small, and the deviation may be corrected based on the positional relationship between the two cameras. For example, based on the position of the first region (that is, the region where the target target is located) in the visible light image, the position of the third region where the target target is located can be determined in the infrared image.

可能な実現形態において、カメラにより撮られた画像に、画像品質が低いことがある。例えば、結像ボケ、焦点距離誤差、カメラが汚染されるか又は遮蔽されるなどの状況がある。まず、画像に対して、画像品質の検出を行うことができる。例えば、可視光画像に対して画像品質検出を行うことができる。例えば、可視光画像のテクスチャ、境界の鮮明度を検出することができる。鮮明度が鮮明度閾値以上である場合、画像品質が高いと認められ、次の位置検出などの処理を行うことができる。鮮明度が鮮明度閾値未満である場合、画像品質が低いと認められ、該可視光画像及び該可視光画像に対応する赤外画像を同時に削除することができる。 In a possible embodiment, the image taken by the camera may have poor image quality. For example, there are situations such as image blur, focal length error, and camera contamination or occlusion. First, the image quality can be detected for the image. For example, image quality detection can be performed on a visible light image. For example, the texture of a visible light image and the sharpness of a boundary can be detected. When the sharpness is equal to or higher than the sharpness threshold value, it is recognized that the image quality is high, and processing such as the next position detection can be performed. When the sharpness is less than the sharpness threshold, it is recognized that the image quality is low, and the visible light image and the infrared image corresponding to the visible light image can be deleted at the same time.

可能な実現形態において、ステップS11において、可視光画像に対してターゲット領域認識を行い、ターゲット対象が位置する第1領域を得ることができる。前記第1領域は、ターゲット対象の顔領域及び/又はターゲット対象の人体領域であってもよい。該処理により、ターゲット対象が位置する第1領域の位置座標、又は、第1領域を含む検出枠の位置座標を得ることができる。 In a possible implementation, in step S11, the target region can be recognized with respect to the visible light image, and the first region in which the target target is located can be obtained. The first region may be a face region of the target target and / or a human body region of the target target. By the process, the position coordinates of the first region where the target target is located or the position coordinates of the detection frame including the first region can be obtained.

可能な実現形態において、温度検出過程において、額などの領域の温度を測定することができる。例えば、赤外画像の画素値により、額領域の温度を決定し、更に、ターゲット対象の体温を得ることができる。従って、可視光画像において、所定の部位(例えば、額などの領域)が位置する第2領域を検出し、更に、赤外画像における、所定部位が位置する第4領域を決定することができる。赤外画像の画素値と温度との対応関係を事前確立し、更に、第4領域における画素値に基づいて、ターゲット対象の体温を決定することができる。 In a possible implementation, the temperature of a region such as the forehead can be measured during the temperature detection process. For example, the temperature of the forehead region can be determined from the pixel value of the infrared image, and the body temperature of the target can be obtained. Therefore, it is possible to detect a second region in which a predetermined portion (for example, a region such as a forehead) is located in a visible light image, and further determine a fourth region in which a predetermined portion is located in an infrared image. The correspondence between the pixel value of the infrared image and the temperature can be established in advance, and the body temperature of the target target can be determined based on the pixel value in the fourth region.

可能な実現形態において、生体は、生命徴候を有する人体で表現される、生物学的活性を有して実に存在する生物モダリティである。プロテーゼは、生体が有する生物学的特徴をまねて製作された、生体と類似したモデル(例えば、写真、マスク、ヘッドギアなど)である。一般的には、生体検出過程において、顔の近赤外画像を用いて生体検出を行う。これは、主に、近赤外光下で、例えば、オプティカルフロー、テクスチャ、色などの特徴相違点のような、生体の結像特徴とプロテーゼの結像特徴との相違点に基づいて、生体とプロテーゼを区分する。しかしながら、温度監視過程において、遠赤外カメラにより撮られた赤外画像は、遠赤外画像(即ち、生命光線に基づいた画像)であり、一般的に用いられる近赤外画像ではないため、ターゲット対象が位置する第1領域の寸法に基づいて、生体検出策略を決定し、生体検出の正確度を向上させることができる。 In a possible embodiment, the organism is a biological modality that is biologically active and is represented by the human body with signs of life. A prosthesis is a model similar to a living body (for example, a photograph, a mask, headgear, etc.), which is made by imitating the biological characteristics of a living body. Generally, in the biological detection process, biological detection is performed using a near-infrared image of the face. It is based primarily on the differences between the imaging features of the organism and the imaging features of the prosthesis, primarily under near-infrared light, such as feature differences such as optical flow, texture, and color. And the prosthesis. However, in the temperature monitoring process, the infrared image taken by the far-infrared camera is a far-infrared image (that is, an image based on a life ray), not a commonly used near-infrared image. Based on the dimensions of the first region where the target target is located, the biodetection strategy can be determined and the accuracy of biodetection can be improved.

可能な実現形態において、ステップS12は、前記第1領域の寸法情報に基づいて、前記ターゲット対象と、前記可視光画像を取得する画像取得装置と、の距離を決定することと、前記距離に基づいて、生体検出策略を決定することと、可視光画像における、前記第1領域の位置に基づいて、前記赤外画像において前記第3領域の位置を決定することと、前記生体検出策略に基づいて、赤外画像における前記第3領域に対して生体検出処理を行い、前記生体検出結果を得ることと、を含んでもよい。 In a possible embodiment, step S12 determines the distance between the target object and the image acquisition device that acquires the visible light image based on the dimensional information of the first region, and is based on the distance. Based on the determination of the biological detection strategy, the determination of the position of the third region in the infrared image based on the position of the first region in the visible light image, and the determination of the biological detection strategy. , The third region in the infrared image may be subjected to a biological detection process to obtain the biological detection result.

可能な実現形態において、第1領域は、可視光画像における、ターゲット対象が位置する領域である。例えば、ターゲット対象の顔領域であってもよい。該領域の寸法は、ターゲット対象と前記可視光画像を取得する画像取得装置(可視光カメラ)との距離に負に相関してもよい。つまり、該領域の寸法は大きいほど、前記距離は小さくなる。該領域の寸法は、小さいほど、前記距離は大きくなる。更に、生体は、特有の生命徴候として赤外画像(例えば、生命光線に基づいた遠赤外画像)で表される。人体の血管は、体(例えば、人体、顔、頸肩などの部位)に広がっているが、ターゲット対象と可視光画像における位置が近いことに応答して、可視光画像に一部の体のみを呈示する。例えば、顔、頭頸などのみを呈示するが、顔特徴はより明瞭である。距離が遠いほど、その顔特徴量は、少なくなり、人体特徴量は、多くなる。異なる特徴に基づいて、異なる生体検出策略を組み合わせ、生体検出の正確率を向上させ、異なる距離での使用に適する。 In a possible implementation, the first region is the region in the visible light image where the target object is located. For example, it may be a face area to be targeted. The dimensions of the region may negatively correlate with the distance between the target object and the image acquisition device (visible light camera) that acquires the visible light image. That is, the larger the size of the region, the smaller the distance. The smaller the size of the region, the larger the distance. Further, the living body is represented by an infrared image (for example, a far-infrared image based on a life ray) as a peculiar sign of life. The blood vessels of the human body extend to the body (for example, parts of the human body, face, neck and shoulders, etc.), but in response to the close position of the target object in the visible light image, only a part of the body is shown in the visible light image. Present. For example, only the face, head and neck, etc. are presented, but the facial features are clearer. The farther the distance, the smaller the facial features and the larger the human body features. Based on different characteristics, different biodetection strategies can be combined to improve the accuracy of biodetection and make it suitable for use at different distances.

画像における基準寸法と基準距離との対応関係を事前確立し、ターゲット対象が位置する領域の寸法と基準寸法との比例関係及び基準距離に基づいて、ターゲット対象とカメラとの距離を決定することができる。 It is possible to pre-establish the correspondence between the reference dimension and the reference distance in the image, and determine the distance between the target object and the camera based on the proportional relationship between the dimension of the area where the target target is located and the reference dimension and the reference distance. can.

図2は、本願の実施例による生体検出を示す概略図である。図2に示すように、第1領域の寸法情報に基づいて、ターゲット対象とカメラとの距離を決定し、距離に基づいて生体検出策略を選択することができる。可視光画像における第1領域に基づいて、赤外画像における対応する第3領域を決定することができる。例えば、前記第1領域は、可視光画像におけるターゲット対象Aの顔領域であると(例えば、ターゲット対象Aがカメラに近く、ターゲット対象Aの顔領域のみを撮影することができる)、第3領域は、赤外画像におけるターゲット対象Aの顔領域である。第1領域は、可視光画像におけるターゲット対象Bの頭頸領域であると(例えば、ターゲット対象Bの顔及び肩頸部領域又は上半身領域などを撮影することができる)、第3領域は、赤外画像におけるターゲット対象Bの頭頸領域である。第1領域は、可視光画像におけるターゲット対象Cの顔領域であると(例えば、ターゲット対象Cがカメラに遠く、ターゲット対象Cの人体領域を撮影することができる)、第3領域は、赤外画像におけるターゲット対象Cの人体領域である。 FIG. 2 is a schematic diagram showing biological detection according to the embodiment of the present application. As shown in FIG. 2, the distance between the target target and the camera can be determined based on the dimensional information of the first region, and the biological detection strategy can be selected based on the distance. Based on the first region in the visible light image, the corresponding third region in the infrared image can be determined. For example, if the first region is the face region of the target target A in the visible light image (for example, the target target A is close to the camera and only the face region of the target target A can be photographed), the third region. Is the face region of the target target A in the infrared image. When the first region is the head and neck region of the target target B in the visible light image (for example, the face and shoulder neck region or the upper body region of the target target B can be photographed), the third region is the infrared region. It is the head and neck region of the target object B in the image. When the first region is the face region of the target target C in the visible light image (for example, the target target C is far from the camera and the human body region of the target target C can be photographed), the third region is infrared. It is a human body region of the target target C in the image.

可能な実現形態において、前記ターゲット対象の距離に基づいて、生体検出策略を決定することは、前記距離が第1距離閾値以上である場合、前記生体検出策略を、人体形態に基づいた生体検出策略として決定することと、前記距離が第2距離閾値以上であって前記第1距離閾値未満である場合、前記生体検出策略を、頭頸部形態に基づいた生体検出策略として決定することと、前記距離が前記第2距離閾値未満である場合、前記生体検出策略を、顔形態に基づいた生体検出策略として決定することと、のうちの1つを含む。 In a possible implementation, determining a biodetection strategy based on the distance of the target object means that if the distance is greater than or equal to the first distance threshold, the biodetection strategy is based on the human morphology. When the distance is equal to or greater than the second distance threshold and is less than the first distance threshold, the biological detection strategy is determined as a biological detection strategy based on the head and neck morphology, and the distance is determined. Is less than the second distance threshold, the biodetection strategy includes determining the biodetection strategy as a face morphology-based biodetection strategy.

可能な実現形態において、第1距離閾値及び第2距離閾値は、カメラ検出領域の範囲、焦点距離などのパラメータによって決まってもよい。例えば、ターゲット対象とカメラとの距離が第1距離閾値以上である場合、カメラにより撮られた画面に、ターゲット対象の全身、又は大部の体が含まれてもよい。従って、人体形態に基づいた生体検出策略を選択することができる。ターゲット対象とカメラとの距離が第1距離閾値未満であって第2距離閾値以上である場合、カメラにより撮られた画面に、ターゲット対象の全身が含まれることが不可能であるが、ターゲット対象の顔及び肩頸領域が含まれる、従って、頭頸部形態に基づいた生体検出策略を選択することができる。ターゲット対象とカメラとの距離が第2閾値未満である場合、カメラにより撮られた画面に、ターゲット対象の顔領域のみが含まれる。従って、顔形態に基づいた生体検出策略を選択することができる。 In a possible implementation, the first distance threshold and the second distance threshold may be determined by parameters such as the range of the camera detection area and the focal length. For example, when the distance between the target object and the camera is equal to or greater than the first distance threshold value, the screen captured by the camera may include the whole body or most of the body of the target object. Therefore, it is possible to select a biological detection strategy based on the human body morphology. When the distance between the target and the camera is less than the first distance threshold and greater than or equal to the second distance threshold, it is impossible for the screen captured by the camera to include the whole body of the target, but the target is targeted. Face and shoulder neck areas are included, and thus biodetection strategies based on head and neck morphology can be selected. When the distance between the target target and the camera is less than the second threshold value, the screen captured by the camera includes only the face area of the target target. Therefore, it is possible to select a biological detection strategy based on the face morphology.

可能な実現形態において、可視光画像における、前記第1領域の位置に基づいて、前記赤外画像において、前記第3領域の位置を決定する。例において、可視光画像に1つ又は複数のターゲット対象が含まれてもよい。つまり、1つ又は複数の第1領域を含む。赤外カメラと可視光カメラとの位置関係、及び第1領域の位置に基づいて、赤外画像における、第3領域の位置を決定することができる。 In a possible embodiment, the position of the third region in the infrared image is determined based on the position of the first region in the visible light image. In the example, the visible light image may include one or more target objects. That is, it includes one or more first regions. The position of the third region in the infrared image can be determined based on the positional relationship between the infrared camera and the visible light camera and the position of the first region.

可能な実現形態において、赤外カメラは、画像特徴を検出するための近赤外画像を取得するために用いられず、生命光線を検出するための遠赤外画像を取得するために用いられるため、遠赤外画像において、ターゲット対象が位置する第3領域を直接的に検出する正確率が低い可能性がある。また、複数のターゲット対象が存在する場合、赤外画像において、ターゲット対象が位置する第3領域を直接的に検出すると、各第3領域と可視光画像における各第1領域との対応関係を明確にすることが困難である。従って、可視光画像における第1領域の位置及び上記2つのカメラ間の位置関係に基づいて、第1領域に対応する第3領域の位置を取得することができる。同様に、可視光画像における第2領域の位置により、赤外画像における、対応する第4領域の位置を取得することができる。 In a possible embodiment, the infrared camera is not used to obtain a near-infrared image for detecting image features, but is used to obtain a far-infrared image for detecting life rays. In a far-infrared image, the accuracy rate for directly detecting the third region where the target target is located may be low. In addition, when there are a plurality of target targets, if the third region in which the target target is located is directly detected in the infrared image, the correspondence between each third region and each first region in the visible light image is clarified. It is difficult to do. Therefore, the position of the third region corresponding to the first region can be acquired based on the position of the first region in the visible light image and the positional relationship between the two cameras. Similarly, the position of the second region in the visible light image can be used to obtain the position of the corresponding fourth region in the infrared image.

可能な実現形態において、生体検出策略を決定した後、選択された生体検出策略を利用して、赤外画像における第3領域に対して生体検出処理を行うことができる。前記生体検出策略に基づいて、前記第3領域に対して生体検出処理を行い、前記生体検出結果を得ることは、前記生体検出策略に基づいて前記第3領域に対して形態検出処理を行い、形態検出結果を得ることと、前記形態検出結果が生体形態である場合、前記第3領域における顔領域に対して等温分析処理を行い、等温分析結果を得ることと、前記生体検出策略に基づいて、形態検出結果の第1重み及び前記等温分析結果の第2重みを決定することと、前記第1重み、前記第2重み、前記形態検出結果及び前記等温分析結果に基づいて、前記生体検出結果を決定することと、を含む。 In a possible implementation, after determining a biodetection strategy, the selected biodetection strategy can be used to perform biodetection processing on a third region in an infrared image. To obtain the biological detection result by performing the biological detection process on the third region based on the biological detection strategy, the morphological detection process is performed on the third region based on the biological detection strategy. Obtaining a morphological detection result, and when the morphological detection result is a biological morphology, an isothermal analysis process is performed on the face region in the third region to obtain an isothermal analysis result, and based on the biological detection strategy. , The biological detection result based on the determination of the first weight of the morphological detection result and the second weight of the isothermal analysis result, and the first weight, the second weight, the morphological detection result and the isothermal analysis result. To determine and include.

可能な実現形態において、生体検出策略に基づいて、第3領域に対して形態検出を行うことができる。 In a possible implementation, morphology detection can be performed on the third region based on the biological detection strategy.

可能な実現形態において、人体形態に基づいた生体検出策略において、第3領域にターゲット対象の顔領域及び人体領域が含まれてもよい。人体特徴量が多い。ニューラルネットワークなどの方式で特徴抽出処理を行い、人体特徴量を取得して形態検出処理を行い、ターゲット対象の人体形態が生体形態であるかどうかを判定することができる(例えば、ターゲット対象の姿勢、動作、形状などの特徴に基づいて、ターゲット対象の形態が生体形態であるかどうかを判定することができる)。 In a possible implementation, the third region may include a target face region and a human body region in a biological detection strategy based on human morphology. There are many features of the human body. It is possible to perform feature extraction processing by a method such as a neural network, acquire a human body feature amount, perform morphological detection processing, and determine whether or not the human body morphology of the target target is a biological morphology (for example, the posture of the target target). , Motion, shape, and other characteristics can be used to determine whether the target morphology is a biological morphology).

可能な実現形態において、頭頸部形態に基づいた生体検出策略において、第3領域にターゲット対象の顔及び肩頸部領域、又は上半身領域が含まれてもよい。ニューラルネットワークなどの方式で特徴抽出処理を行い、顔及び肩頸部領域特徴量を取得して形態検出処理を行い、ターゲット対象の頭頸部形態が生体形態であるかどうかを判定することができる(例えば、ターゲット対象の姿勢、動作、形状などの特徴に基づいて、ターゲット対象の形態が生体形態であるかどうかを判定することができる)。 In a possible implementation, in a biodetection strategy based on head and neck morphology, the third region may include a target target face and shoulder neck region, or upper body region. It is possible to perform feature extraction processing by a method such as a neural network, acquire facial and shoulder-neck region feature quantities, perform morphological detection processing, and determine whether the head and neck morphology of the target target is a biological morphology (). For example, it can be determined whether or not the morphology of the target object is a biological morphology based on features such as the posture, movement, and shape of the target object).

可能な実現形態において、顔形態に基づいた生体検出策略において、第3領域にターゲット対象の顔領域が含まれてもよい。人体特徴量が少なく、顔特徴量が多い。ニューラルネットワークなどの方式で特徴抽出処理を行い、顔領域特徴量を取得して形態検出処理を行い、ターゲット対象の顔形態が生体形態であるかどうかを判定することができる(例えば、ターゲット対象の表情、テクスチャなどの特徴に基づいて、ターゲット対象の形態が生体形態であるかどうかを判定することができる)。 In a possible implementation, the third region may include a target face region in a biodetection strategy based on face morphology. The amount of human body features is small, and the amount of facial features is large. It is possible to perform feature extraction processing by a method such as a neural network, acquire facial area feature quantities and perform morphological detection processing, and determine whether or not the facial morphology of the target target is a biological morphology (for example, of the target target). Whether or not the morphology of the target target is a biological morphology can be determined based on features such as facial expressions and textures).

可能な実現形態において、上記形態検出処理の形態検出結果は、スコア形式の結果であってもよい。例えば、形態検出のスコアが第1スコア閾値以上である場合、形態検出結果が生体形態であると認められる。本願の実施例は、形態検出結果の形式を限定しない。 In a possible implementation, the form detection result of the form detection process may be a score format result. For example, when the morphology detection score is equal to or higher than the first score threshold value, the morphology detection result is recognized as a biological morphology. The embodiments of the present application do not limit the format of the morphological detection result.

可能な実現形態において、前記形態検出結果が生体形態である場合、前記第3領域における顔領域に対して等温分析処理を行い、等温分析結果を得る。 In a possible implementation, when the morphology detection result is a biological morphology, an isothermal analysis process is performed on the face region in the third region to obtain an isothermal analysis result.

可能な実現形態において、等温分析により、顔領域が生体であるかどうかを決定することができる。例えば、ターゲット対象の真実の顔は、均一な血管分布を有する。ターゲット対象がマスク、ヘッドギアなどのプロテーゼを装着していると、プロテーゼに血管分布がないため、その等温線と真実の顔の等温線は異なり、等温分析により、顔領域が生体であるかどうかを決定することができる。 In a possible implementation, isothermal analysis can determine whether the facial region is a living body. For example, the true face of the target has a uniform vascular distribution. When the target is wearing a prosthesis such as a mask or headgear, the isotherm is different from the isotherm of the true face because there is no blood vessel distribution in the prosthesis. Can be decided.

可能な実現形態において、等温分析結果は、スコア形式の結果であってもよい。例えば、等温分析のスコアが第2スコア閾値以上である場合、等温分析結果が生体であると認められる。本願の実施例は、等温分析結果の形式を限定しない。 In a possible implementation, the isothermal analysis result may be a score format result. For example, when the score of the isothermal analysis is equal to or higher than the second score threshold value, the result of the isothermal analysis is recognized as a living body. The embodiments of the present application do not limit the format of the isothermal analysis result.

可能な実現形態において、異なる生体検出策略において、顔領域の特徴量が占める割合は異なる(例えば、人体形態に基づいた生体検出策略において、第3領域に顔領域及び人体領域が含まれ、顔領域が占める割合は小さい。顔形態に基づいた生体検出策略において、第3領域に顔領域のみが含まれ、顔領域が占める割合は大きい)。生体検出策略に基づいて、形態検出結果の第1重み及び等温分析結果の第2重みを決定することができる。 In a possible implementation, the features of the face region occupy different proportions in different biodetection strategies (eg, in a biodetection strategy based on human morphology, the third region includes the face region and the human body region, and the face region. In the biometric detection strategy based on the face morphology, only the face region is included in the third region, and the proportion occupied by the face region is large). Based on the biological detection strategy, the first weight of the morphological detection result and the second weight of the isothermal analysis result can be determined.

例えば、人体形態に基づいた生体検出策略において、顔領域が占める割合は小さいため、顔領域に基づいた等温分析結果の第2重みは小さくてもよく、形態検出結果の第1重みは大きくてもよい。例えば、顔形態に基づいた生体検出策略において、顔領域が占める割合は大きいため、顔領域に基づいた等温分析結果の第2重みは、大きくてもよく、形態検出結果の第1重みは小さくてもよい。例えば、頭頸部形態に基づいた生体検出策略において、第2重みと第1重みは、近いか又は等しい。本願の実施例は、第1重み及び第2重みの値を限定しない。 For example, in the biological detection strategy based on the human body morphology, since the proportion occupied by the face region is small, the second weight of the isothermal analysis result based on the face region may be small, and the first weight of the morphology detection result may be large. good. For example, in a biodetection strategy based on face morphology, the proportion occupied by the face region is large, so that the second weight of the isothermal analysis result based on the face region may be large, and the first weight of the morphology detection result is small. May be good. For example, in a biodetection strategy based on head and neck morphology, the second weight and the first weight are close or equal. The embodiments of the present application do not limit the values of the first weight and the second weight.

可能な実現形態において、第1重み及び第2重みに基づいて、形態検出結果及び等温分析結果に対してそれぞれ加重加算処理を行い、生体検出結果を得ることができる。可能な実現形態において、生体検出結果は、スコア形式の結果であってもよい。生体検出結果が生体スコア閾値以上である場合、ターゲット対象が生体であると認められる。生体検出結果が生体スコア閾値未満である場合、ターゲット対象がプロテーゼ又は非人体であると認められ、後続の処理を行う必要がない。 In a possible implementation, the morphological detection result and the isothermal analysis result can be weighted and added based on the first weight and the second weight, respectively, to obtain a biological detection result. In a possible embodiment, the biodetection result may be a score format result. If the biological detection result is equal to or higher than the biological score threshold, it is recognized that the target target is a biological body. If the biological detection result is less than the biological score threshold, it is recognized that the target is a prosthesis or a non-human body, and no further processing is required.

このような方式により、第1領域の寸法により、生体検出策略を決定し、生体検出策略に基づいて、生体検出を行うことができ、等温分析により、遠赤外画像における生体検出の正確度を向上させることができる。 By such a method, a biological detection strategy can be determined based on the dimensions of the first region, and biological detection can be performed based on the biological detection strategy. Isothermal analysis can be used to determine the accuracy of biological detection in a far-infrared image. Can be improved.

可能な実現形態において、ステップS13において、ターゲット対象が生体である場合、ターゲット対象に対して身分認識処理を行う。可能な実現形態において、医療施設(例えば、病院、手術室など)又は集団発生期間の公共場所において、一般的には、防護用具(例えば、マスク、ゴーグル用など)を装着する必要がある。しかしながら、装着した後、顔領域をある程度遮蔽する。従って、ターゲット対象がマスクなどの所定の物品を装着しているかどうかを監視し、検出結果に基づいて、身分認識の方式を決定する必要がある。 In a possible implementation, in step S13, when the target target is a living body, an identification process is performed on the target target. In possible embodiments, it is generally necessary to wear protective equipment (eg, for masks, goggles, etc.) in medical facilities (eg, hospitals, operating rooms, etc.) or public places during outbreaks. However, after wearing, it shields the face area to some extent. Therefore, it is necessary to monitor whether or not the target target is wearing a predetermined item such as a mask, and determine the identification method based on the detection result.

図3は、本願の実施例による身分認識処理を示す概略図である。前記方法は、生体検出結果が生体である場合、前記第1領域内に所定のターゲットが含まれるかどうかを検出し、前記第1検出結果を得ることであって、前記所定のターゲットは、顔の一部領域を遮蔽する物品を含む、ことを更に含む。前記第1検出結果は、ターゲット対象が、マスクなどの顔領域を遮蔽できる物品を装着しているかどうかである。更に、第1検出結果に基づいて身分認識を行うことができる。ステップS13は、生体検出結果が生体である場合、前記第1検出結果に基づいて、前記第1領域に対して身分認識処理を行い、前記ターゲット対象の身分情報を得ることを含む。 FIG. 3 is a schematic diagram showing an identification process according to an embodiment of the present application. The method is to detect whether or not a predetermined target is included in the first region when the biological detection result is a living body, and obtain the first detection result. The predetermined target is a face. It further includes, including articles that shield a part of the area of. The first detection result is whether or not the target target is wearing an article such as a mask that can shield the face area. Further, the identity recognition can be performed based on the first detection result. Step S13 includes performing an identification process on the first region based on the first detection result when the biological detection result is a living body, and obtaining the identification information of the target target.

可能な実現形態において、まず、ターゲット対象の顔に所定のターゲット(例えば、マスクなどの物品)が存在するかどうかを決定することができる。前記第1領域内に所定のターゲットが含まれるかどうかを検出し、前記第1検出結果を得ることは、前記第1領域における顔領域に対して検出処理を行い、前記顔領域の特徴欠損結果を決定することと、前記特徴欠損結果が所定の特徴欠損である場合、前記顔領域内に所定のターゲットが含まれるかどうかを検出し、前記第1検出結果を得ることと、を含む。 In a possible implementation, it is possible to first determine if a predetermined target (eg, an article such as a mask) is present on the face of the target target. To detect whether or not a predetermined target is included in the first region and obtain the first detection result is to perform a detection process on the face region in the first region and obtain a feature defect result of the face region. The present invention includes determining whether or not a predetermined target is included in the face region when the feature defect result is a predetermined feature defect, and obtaining the first detection result.

可能な実現形態において、ニューラルネットワークにより、第1領域における顔領域に対して検出処理を行うことができる。例えば、畳み込みニューラルネットワークにより、顔領域の特徴マップを取得することができる。ターゲット対象が、マスクなどの顔領域を遮蔽できる物品(所定のターゲット)を装着している場合、顔領域の特徴マップに特徴欠損がある。例えば、ターゲット対象がマスクを装着していると、ターゲット対象の口鼻部の特徴を検出できない。つまり、口鼻部特徴が欠損する。ターゲット対象がサングラスを装着していると、眼部特徴を検出できない。つまり、眼部特徴が欠損する。 In a possible implementation, the neural network can perform detection processing on the face region in the first region. For example, a convolutional neural network can be used to acquire a feature map of the face region. When the target target is wearing an article (predetermined target) that can shield the face area such as a mask, there is a feature defect in the feature map of the face area. For example, if the target target is wearing a mask, the characteristics of the mouth and nose of the target target cannot be detected. That is, the mouth and nose features are lost. If the target is wearing sunglasses, eye features cannot be detected. That is, the eye features are lost.

可能な実現形態において、所定の特徴(例えば、口鼻部特徴又は眼部特徴など)が欠損する場合、ターゲット対象は、マスク、サングラスなどの物品を装着している可能性があり、更なる検出を行うこともできる。例えば、畳み込みニューラルネットワークなどの方法で、ターゲット対象の顔にマスクなどの所定のターゲットが存在するかどうかを監視することができる。例えば、マスクの形状、テクスチャなどの特徴を検出し、マスクなどの物品を認識し、ターゲット対象が手で顔を遮蔽するか又は他人により遮蔽されることを排除することができる。 In a possible implementation, if a given feature (eg, a snout feature or an eye feature, etc.) is missing, the target subject may be wearing an article such as a mask, sunglasses, etc. for further detection. Can also be done. For example, it is possible to monitor whether or not a predetermined target such as a mask is present on the face of the target target by a method such as a convolutional neural network. For example, it is possible to detect features such as the shape and texture of a mask, recognize an article such as a mask, and prevent the target object from shielding the face by hand or being shielded by another person.

可能な実現形態において、所定の特徴(例えば、口鼻部特徴又は眼部特徴など)が欠損しない(つまり、顔特徴が完備している)場合、マスクなどの所定のターゲットが存在しない。例えば、監視領域が病院などの医療施設又は集団発生期間の公共場所であると、マスクを装着しないことは不正行為である可能性がある。前記方法は、前記第1検出結果が、前記所定のターゲットが存在しないことである場合、第2早期警報情報を生成することを更に含む。更に、警報デバイス又はディスプレイにより、第2警報情報を出力し、マスクを装着することをターゲット対象にリマインドすることができる。例えば、警報デバイスは、オーディオ、警報灯などのデバイスを含んでもよい。これは、音声又は光などの方式で第2早期警報情報を出力することができる。又は、ディスプレイに、該ターゲット対象がマスクを装着していないという情報を表示することができる。本願の実施例は、第2早期警報情報の出力方式を限定しない。 In a possible embodiment, if a given feature (eg, a nose feature or an eye feature, etc.) is not missing (ie, complete with facial features), then there is no given target, such as a mask. For example, if the surveillance area is a medical facility such as a hospital or a public place during an outbreak, not wearing a mask can be fraudulent. The method further comprises generating a second early warning information if the first detection result is the absence of the predetermined target. Further, the alarm device or the display can output the second alarm information and remind the target to wear the mask. For example, the alarm device may include devices such as audio and alarm lights. This can output the second early warning information by a method such as voice or light. Alternatively, the display can display information that the target target is not wearing a mask. The embodiment of the present application does not limit the output method of the second early warning information.

可能な実現形態において、第1検出結果(即ち、ターゲット対象が、顔を遮蔽できる物品を装着しているかどうか)に基づいて、身分認識方法を決定することもできる。前記第1検出結果に基づいて、前記第1領域に対して身分認識処理を行い、前記ターゲット対象の身分情報を得ることは、前記第1検出結果が、前記所定のターゲットが存在しないことである場合、前記第1領域における顔領域に対して第1身分認識処理を行い、前記ターゲット対象の身分情報を得ることと、前記第1検出結果が、前記所定のターゲットが存在することである場合、前記第1領域における顔領域に対して第2身分認識処理を行い、前記ターゲット対象の身分情報を得ることであって、前記第2身分認識処理における顔の遮蔽されていない領域の特徴の重みは、第1身分認識処理における対応する領域の特徴の重みより大きい、ことと、のうちの1つを含む。 In a possible implementation, the identification method can also be determined based on the first detection result (ie, whether the target target is wearing an article capable of shielding the face). The identification processing is performed on the first region based on the first detection result to obtain the identification information of the target target, that is, the first detection result does not have the predetermined target. In this case, when the first identification processing is performed on the face region in the first region to obtain the identification information of the target target, and the first detection result is that the predetermined target exists. The second identification processing is performed on the face region in the first region to obtain the identification information of the target target, and the weight of the feature of the unshielded region of the face in the second identification processing is , Is greater than the weight of the feature of the corresponding region in the first identity recognition process, and includes one of the following.

可能な実現形態において、ニューラルネットワークを用いて身分認識処理を行うことができる。ここで、第1身分認識処理に用いられるニューラルネットワークは、第2身分認識処理に用いられるニューラルネットワークと異なる。例において、ターゲット対象の顔領域の一部が遮蔽され、且つ遮蔽されていない領域のみが身分認識に用いられる場合、ニューラルネットワーク訓練過程において、遮蔽されていない領域が占める重みは大きい。例えば、ニューラルネットワークのアテンションメカニズムを遮蔽されていない領域の特徴に集中させ、遮蔽されていない領域の特徴を利用して身分認識を行う。 In a possible implementation, the identification process can be performed using a neural network. Here, the neural network used for the first identity recognition process is different from the neural network used for the second identity recognition process. In the example, when a part of the face area of the target target is shielded and only the unshielded area is used for the identification, the weight occupied by the unshielded area is large in the neural network training process. For example, the attention mechanism of the neural network is concentrated on the characteristics of the unshielded region, and the identification is recognized by using the characteristics of the unshielded region.

可能な実現形態において、ターゲット対象の顔領域が遮蔽されていないと、顔領域の特徴がいずれも身分認識処理に適用可能である場合、ニューラルネットワークは、顔領域の全ての特徴に基づいて身分認識を行うことができる。 In a possible implementation, the neural network will perform identity recognition based on all features of the face region if any features of the face region are applicable to the identity recognition process if the target face region is not occluded. It can be performed.

例えば、ターゲット対象がマスクを装着していると、ニューラルネットワークは、眼部及び眉部の特徴のみを取得できる場合(口鼻部特徴が欠損する)、ニューラルネットワークは、訓練において、眼部及び眉部特徴の重みを追加し、眼部及び眉部特徴に基づいて、身分認識を行うことができる。ターゲット対象がマスクを装着しておらず、ニューラルネットワークは、顔領域の全ての特徴を取得できる場合、ニューラルネットワークは、顔領域の全ての特徴に基づいて、身分認識を行うことができる。 For example, if the target is wearing a mask and the neural network can only acquire eye and eyebrow features (missing mouth and nose features), the neural network will in training the eye and eyebrows. The weight of the part feature can be added, and the identification can be performed based on the eye part and eyebrow part features. If the target target is not wearing a mask and the neural network can acquire all the features of the face region, the neural network can perform identity recognition based on all the features of the face region.

例えば、ニューラルネットワークは、眼部及び眉部特徴とデータベースにおける参照特徴(眼部及び眉部の参照特徴)との類似度を決定し、類似度が類似度閾値以上である参照特徴に対応する身分情報をターゲット対象の身分情報と決定することができる。同様に、ニューラルネットワークは、顔特徴とデータベースにおける参照特徴(顔参照特徴)との類似度を決定し、類似度が類似度閾値以上である参照特徴に対応する身分情報をターゲット対象の身分情報と決定することができる。 For example, the neural network determines the similarity between the eye and eyebrow features and the reference features in the database (eye and eyebrow reference features), and the status corresponding to the reference features whose similarity is greater than or equal to the similarity threshold. The information can be determined as the identity information of the target target. Similarly, the neural network determines the degree of similarity between the face feature and the reference feature (face reference feature) in the database, and sets the identification information corresponding to the reference feature whose similarity is equal to or higher than the similarity threshold as the target identification information. Can be decided.

例えば、データベースに、ターゲット対象との類似度が類似度閾値以上である参照特徴が存在しない(つまり、ターゲット対象は、データベースにおける既存の身分情報にいずれも合致しない)場合、ターゲット対象の特徴をデータベースに記憶し、ターゲット対象に身分識別子(例えば、身分番号など)を追加することができる。本願の実施例は、身分認識の方法を限定しない。 For example, if the database does not have a reference feature whose similarity to the target is greater than or equal to the similarity threshold (that is, the target does not match any of the existing identification information in the database), then the feature of the target is databased. It is possible to add an identification identifier (for example, an identification number) to the target target. The embodiments of the present application do not limit the method of identification.

このような方式により、所定のターゲットが存在するかどうかに基づいて、身分認識方法を選択し、身分認識の正確度を向上させることができる。 By such a method, it is possible to select an identification method based on the presence or absence of a predetermined target and improve the accuracy of identification recognition.

可能な実現形態において、ターゲット対象の性別を認識することもできる。可能な実現形態において、男性の平均体温と女性の平均体温とは、一定の差異を有する。従って、性別によって、異なる所定の温度閾値を設定することができる。例えば、女性の平均体温が男性よりも0.3℃高い。温度監視において、性別に基づいて、所定の温度閾値を設定することができる。例えば、男性が37℃であり、女性が37.3℃である。前記方法は、前記ターゲット対象の性別情報を取得することと、前記性別情報に基づいて、前記所定の温度閾値を決定することと、を更に含む。 It is also possible to recognize the gender of the target in a possible implementation. In a possible implementation, there is a certain difference between the average body temperature of men and the average body temperature of women. Therefore, different predetermined temperature thresholds can be set depending on the gender. For example, the average body temperature of women is 0.3 ° C higher than that of men. In temperature monitoring, a predetermined temperature threshold can be set based on gender. For example, males have a temperature of 37 ° C and females have a temperature of 37.3 ° C. The method further includes acquiring the gender information of the target target and determining the predetermined temperature threshold value based on the gender information.

可能な実現形態において、ターゲット対象の顔特徴に基づいて、ターゲット対象の性別情報を判定することができる。例えば、ターゲット対象がマスクを装着していない場合、ターゲット対象の顔の全ての特徴に基づいて、ターゲット対象の性別を決定することができる。ターゲット対象がマスクを装着している場合、ターゲット対象の眼部及び眉部特徴に基づいて、ターゲット対象の性別を決定することができる。又は、ターゲット対象の顔特徴又は眼部及び眉部特徴がデータベースにおける参照特徴に合致する場合、データベースにおける参照特徴に対応する身分情報に記録されている性別に基づいて、ターゲット対象の性別を決定することができる。本願の実施例は、性別の決定方法を限定しない。 In a possible implementation, the gender information of the target target can be determined based on the facial features of the target target. For example, if the target is not wearing a mask, the gender of the target can be determined based on all the features of the target's face. When the target target wears a mask, the gender of the target target can be determined based on the eye and eyebrow characteristics of the target target. Alternatively, if the facial features or eye and eyebrow features of the target match the reference features in the database, the gender of the target is determined based on the gender recorded in the identity information corresponding to the reference features in the database. be able to. The embodiments of the present application do not limit the method of determining gender.

可能な実現形態において、性別情報に基づいて、所定の温度閾値を決定することができる。例えば、女性の平均体温は男性の平均体温より高い。従って、女性の所定の温度閾値は、男性の所定の温度閾値より高くてもよい。本願の実施例は、所定の温度閾値の決定方法を限定しない。 In a possible implementation, a predetermined temperature threshold can be determined based on gender information. For example, the average body temperature of women is higher than the average body temperature of men. Therefore, the predetermined temperature threshold for women may be higher than the predetermined temperature threshold for men. The embodiments of the present application do not limit the method for determining a predetermined temperature threshold.

可能な実現形態において、ステップS13において、赤外画像における所定の部位(例えば、額)が位置する第4領域(可視光画像における所定の部位が位置する第2領域に対応する)に対して温度検出処理を行い、ターゲット対象の温度情報(例えば、体温)を決定することもできる。例えば、赤外画像における画素点の画素値は、色温値を表すことができる。色温値を利用してターゲット対象の額領域の温度を決定することができる。本願の実施例は、温度情報の決定方式を限定しない。 In a possible embodiment, in step S13, the temperature is relative to a fourth region (corresponding to a second region in the visible light image where a predetermined portion is located) where a predetermined portion (eg, forehead) is located in the infrared image. It is also possible to perform a detection process and determine the temperature information (for example, body temperature) of the target target. For example, the pixel value of a pixel point in an infrared image can represent a color temperature value. The color temperature value can be used to determine the temperature of the target forehead area. The embodiments of the present application do not limit the determination method of temperature information.

可能な実現形態において、ステップS14において、前記温度情報が所定の温度閾値以上である場合、前記ターゲット対象の身分情報に基づいて、第1早期警報情報を生成する。例えば、集団発生期間において、発熱は、感染が疑われる症例に属し、症状が発生したターゲット対象を重点的に監視することができる。検出によれば、ターゲット対象の体温が所定の温度閾値以上である場合、ターゲット対象に発熱症状があると認められる。ターゲット対象の身分情報に基づいて第1早期警報情報を生成することができる。例えば、該ターゲット対象を重点的に監視するために、ディスプレイにターゲット対象の身分情報及び体温を表示することができる。又は、オーディオなどのデバイスにより第1早期警報情報を出し、ターゲット対象に注目するか又はターゲット対象に対して隔離などの処理を行うように防疫者に提示する。本願の実施例は、第1早期警報情報の出力方式を限定しない。 In a possible implementation, in step S14, when the temperature information is equal to or higher than a predetermined temperature threshold value, the first early warning information is generated based on the identification information of the target target. For example, during an outbreak period, fever belongs to a suspected case of infection and the targeted subject with symptoms can be monitored intensively. According to the detection, when the body temperature of the target target is equal to or higher than a predetermined temperature threshold value, it is recognized that the target target has a fever symptom. The first early warning information can be generated based on the identification information of the target target. For example, in order to intensively monitor the target target, the identification information and the body temperature of the target target can be displayed on the display. Alternatively, the first early warning information is issued by a device such as audio, and the epidemic prevention person is presented to pay attention to the target target or to perform processing such as isolation for the target target. The embodiment of the present application does not limit the output method of the first early warning information.

可能な実現形態において、前記方法は、前記第1領域又は前記第3領域の位置情報、前記ターゲット対象の温度情報及び前記ターゲット対象の身分情報を前記可視光画像及び/又は赤外画像と重畳処理し、検出画像を得ることを更に含む。 In a possible embodiment, the method superimposes the position information of the first region or the third region, the temperature information of the target target, and the identification information of the target target on the visible light image and / or the infrared image. And further include obtaining a detected image.

可能な実現形態において、ディスプレイにより、可視光画像及び/又は赤外画像を表示し、可視光画像及び/又は赤外画像におけるターゲット対象の位置で、ターゲット対象の身分情報及び/又は温度情報を表示することができる。例えば、ターゲット対象の身分情報及び/又は温度情報を可視光画像におけるターゲット対象が位置する第1領域に重畳することができる。つまり、第1領域に、ターゲット対象の身分情報及び/又は温度情報を表示する。同様に、赤外画像の第3領域に、ターゲット対象の身分情報及び/又は温度情報を表示することができる。本願の実施例は、表示方式を限定しない。 In a possible embodiment, the display displays a visible light image and / or an infrared image and displays the identity information and / or temperature information of the target object at the position of the target object in the visible light image and / or the infrared image. can do. For example, the identification information and / or the temperature information of the target object can be superimposed on the first region where the target object is located in the visible light image. That is, the identification information and / or the temperature information of the target target is displayed in the first area. Similarly, the identification information and / or the temperature information of the target target can be displayed in the third region of the infrared image. The embodiments of the present application do not limit the display method.

本願の実施例の監視方法によれば、第1領域の寸法により、生体検出策略を決定し、生体検出策略に基づいて生体検出を行うことができる。等温分析により、遠赤外画像における生体検出精度を向上させ、所定のターゲットが存在するかどうかに基づいて身分認識方法を選択し、身分認識の正確度を向上させることができる。更に、所定の部位に対して温度検出を行い、検出画像におけるターゲット対象の体温を迅速に検出することができ、体温検出効率を向上させ、交通流が大きい場所に適用可能である。また、可視光画像により、ターゲット対象の身分情報を認識することで、感染が疑われる症例の身分情報の決定に寄与し、防疫効率を向上させることができる。 According to the monitoring method of the embodiment of the present application, the biological detection strategy can be determined based on the dimensions of the first region, and the biological detection can be performed based on the biological detection strategy. Isothermal analysis can improve the accuracy of biological detection in far-infrared images, select an identity recognition method based on the presence or absence of a predetermined target, and improve the accuracy of identity recognition. Further, it is possible to detect the temperature of a predetermined part and quickly detect the body temperature of the target target in the detected image, improve the body temperature detection efficiency, and can be applied to a place where the traffic flow is large. In addition, by recognizing the identification information of the target target by the visible light image, it is possible to contribute to the determination of the identification information of the case suspected of being infected and improve the epidemic prevention efficiency.

図4A及び図4Bは、本願の実施例による監視方法の適用を示す概略図である。図4Aに示すように、前記監視方法は、監視領域を監視するシステムに適用可能である。該監視システムは、生命光線を収集して赤外画像を取得する赤外カメラ1と、可視光画像を取得するための可視光カメラ2と、プロセッサ3(例えば、システムオンチップSoC)と、を備えてもよい。該システムは、光照射条件が悪い環境で用いられる補光ユニット4、可視光画像、赤外画像及び/又は早期警報情報を表示するためのディスプレイ5、早期警報情報、温度情報などの情報を伝送するための通信ユニット6、早期警報情報を出力するための警報ユニット7、及び命令を入力するためのインタラクションユニット8などを更に備えてもよい。 4A and 4B are schematic views showing the application of the monitoring method according to the embodiment of the present application. As shown in FIG. 4A, the monitoring method is applicable to a system for monitoring a monitoring area. The monitoring system includes an infrared camera 1 that collects life rays and acquires an infrared image, a visible light camera 2 for acquiring a visible light image, and a processor 3 (for example, a system-on-chip SoC). You may prepare. The system transmits information such as a supplementary light unit 4 used in an environment with poor light irradiation conditions, a display 5 for displaying a visible light image, an infrared image and / or early warning information, early warning information, and temperature information. A communication unit 6 for outputting an early alarm information, an alarm unit 7 for outputting early alarm information, an interaction unit 8 for inputting an instruction, and the like may be further provided.

可能な実現形態において、図4Bに示すように、赤外カメラ1及び可視光カメラ2は、監視領域のビデオフレームを撮ることができる。例えば、可視光画像AF(AF1-AF25)及び赤外画像BF(BF1-BF25)を撮ることができる。また、可視光画像AF及び赤外画像に対して位置補正を行うことができる。つまり、可視光画像AFにおける第1領域の位置に基づいて赤外画像BFにおける第3領域の位置を決定することができる。 In a possible embodiment, as shown in FIG. 4B, the infrared camera 1 and the visible light camera 2 can capture video frames in the surveillance area. For example, a visible light image AF (AF1-AF25) and an infrared image BF (BF1-BF25) can be taken. In addition, position correction can be performed on the visible light image AF and the infrared image. That is, the position of the third region in the infrared image BF can be determined based on the position of the first region in the visible light image AF.

可能な実現形態において、プロセッサ3は、可視光画像AFに対して画像品質検出を行うことができる。例えば、可視光画像のテクスチャ、境界の鮮明度を検出し、画像品質が低い可視光画像及び対応する赤外画像を削除する。更に、可視光画像にターゲット対象が存在しない場合、該可視光画像及び対応する赤外画像を削除する。例えば、監視領域に人間がいないと、該可視光画像及び対応する赤外画像を削除することもできる。 In a possible embodiment, the processor 3 can perform image quality detection on the visible light image AF. For example, it detects the texture of the visible light image, the sharpness of the boundary, and deletes the visible light image with low image quality and the corresponding infrared image. Further, if there is no target target in the visible light image, the visible light image and the corresponding infrared image are deleted. For example, if there is no human in the surveillance area, the visible light image and the corresponding infrared image can be deleted.

可能な実現形態において、プロセッサ3は、可視光画像AFに対して位置検出処理を行い、ターゲット対象が位置する第1領域を得ることができ、ターゲット対象の額が位置する第2領域を得ることもできる。可視光画像における、第1領域及び第2領域の位置に基づいて、赤外画像における、ターゲット対象が位置する第3領域の位置及び赤外画像におけるターゲット対象が位置する第4領域の位置を決定することができる。 In a possible implementation, the processor 3 can perform position detection processing on the visible light image AF to obtain a first region in which the target target is located, and obtain a second region in which the forehead of the target target is located. You can also. Based on the positions of the first and second regions in the visible light image, the position of the third region in which the target target is located in the infrared image and the position of the fourth region in which the target target is located in the infrared image are determined. can do.

可能な実現形態において、プロセッサ3は、第1領域の寸法に基づいて、ターゲット対象とカメラとの距離を決定し、距離に基づいて、生体検出策略を決定することができる。 In a possible implementation, the processor 3 can determine the distance between the target and the camera based on the dimensions of the first region and determine the biodetection strategy based on the distance.

可能な実現形態において、ターゲット対象の距離が第1距離閾値以上である場合、生体検出策略を、人体形態に基づいた生体検出策略として決定する。赤外画像における第3領域に対して形態検出を行い、形態検出スコアを得ることができる。赤外画像における顔領域に対して等温分析を行い、等温分析スコアを得ることができる。更に、人体形態に基づいた生体検出策略に基づいて、形態検出スコアに、大きい第1重みを割り当て、等温分析スコアに、小さい第2重みを割り当て、加重加算を行った後、生体検出結果を得ることができる。 In a possible implementation, if the distance of the target target is greater than or equal to the first distance threshold, the biodetection strategy is determined as the biodetection strategy based on the human body morphology. The morphology detection can be performed on the third region in the infrared image, and the morphology detection score can be obtained. An isothermal analysis score can be obtained by performing an isothermal analysis on the face region in the infrared image. Further, based on the biological detection strategy based on the human body morphology, a large first weight is assigned to the morphological detection score, a small second weight is assigned to the isothermal analysis score, weighted addition is performed, and then the biological detection result is obtained. be able to.

可能な実現形態において、ターゲット対象の距離が第1距離閾値未満であって第2距離閾値以上である場合、生体検出策略を、頭頸部形態に基づいた生体検出策略として決定する。赤外画像における第3領域に対して形態検出を行い、形態検出スコアを得ることができる。赤外画像における顔領域に対して等温分析を行い、等温分析スコアを得ることができる。更に、頭頸部形態に基づいた生体検出策略に基づいて、形態検出スコアと等温分析スコアに、近い重みを割り当て、加重加算を行った後、生体検出結果を得ることができる。 In a possible implementation, if the distance of the target target is less than the first distance threshold and greater than or equal to the second distance threshold, the biodetection strategy is determined as the biodetection strategy based on the head and neck morphology. The morphology detection can be performed on the third region in the infrared image, and the morphology detection score can be obtained. An isothermal analysis score can be obtained by performing an isothermal analysis on the face region in the infrared image. Further, based on the biometric detection strategy based on the head and neck morphology, close weights are assigned to the morphological detection score and the isothermal analysis score, weighted addition is performed, and then the biometric detection result can be obtained.

可能な実現形態において、ターゲット対象の距離が第2距離閾値未満である場合、生体検出策略を、顔形態に基づいた生体検出策略として決定する。赤外画像における第3領域に対して形態検出を行い、形態検出スコアを得ることができる。赤外画像における顔領域に対して等温分析を行い、等温分析スコアを得ることができる。更に、顔形態に基づいた生体検出策略に基づいて、形態検出スコアに、小さい第1重みを割り当て、等温分析スコアに、大きい第2重みを割り当て、加重加算を行った後、生体検出結果を得ることができる。 In a possible implementation, if the distance of the target target is less than the second distance threshold, the biodetection strategy is determined as the biodetection strategy based on the face morphology. The morphology detection can be performed on the third region in the infrared image, and the morphology detection score can be obtained. An isothermal analysis score can be obtained by performing an isothermal analysis on the face region in the infrared image. Further, based on the biometric detection strategy based on the face morphology, a small first weight is assigned to the morphological detection score, a large second weight is assigned to the isothermal analysis score, weighted addition is performed, and then the biometric detection result is obtained. be able to.

可能な実現形態において、プロセッサ3は、可視光画像の第1領域において、ターゲット対象がマスクを装着しているかどうかを検出し、ターゲット対象がマスクを装着していない場合、第2早期警報情報を生成し、ディスプレイ5により、第2早期警報情報を表示し、又は、警報ユニット7により、第2早期警報情報を再生することができる。 In a possible embodiment, the processor 3 detects in the first region of the visible light image whether the target target is wearing a mask and, if the target target is not wearing a mask, provides second early warning information. The second early warning information can be displayed by the generation and the display 5, or the second early warning information can be reproduced by the warning unit 7.

可能な実現形態において、プロセッサ3は、ターゲット対象がマスクを装着しているかどうかに基づいて、身分認識方法を決定することができる。例えば、ターゲット対象がマスクを装着していない場合、ターゲット対象の全ての顔特徴をデータベースにおける参照特徴と比較することで、ターゲット対象の身分情報を決定することができる。ターゲット対象がマスクを装着している場合、ターゲット対象の眼部及び眉部特徴をデータベースにおける参照特徴と比較することで、ターゲット対象の身分情報を決定することができる。更に、第2早期警報情報は、ターゲット対象の身分情報を更に含んでもよい。例えば、ディスプレイ5に、XXX(姓名)がマスクを装着していないなどを表示することができる。 In a possible implementation, the processor 3 can determine the identity recognition method based on whether the target object is wearing a mask. For example, when the target target does not wear a mask, the identification information of the target target can be determined by comparing all the facial features of the target target with the reference features in the database. When the target target wears a mask, the identification information of the target target can be determined by comparing the eye and eyebrow features of the target target with the reference features in the database. Further, the second early warning information may further include the identification information of the target target. For example, it is possible to display on the display 5 that XXX (first and last name) is not wearing a mask.

可能な実現形態において、プロセッサ3は、、ターゲット対象の性別を認識することができる。例えば、ターゲット対象の顔特徴に基づいて、ターゲット対象の性別を認識することができ、又は、ターゲット対象の身分情報に基づいて、ターゲット対象の性別を取得することができる。更に、ターゲット対象の性別に基づいて、男性ターゲットの所定の温度閾値及び女性ターゲットの所定の温度閾値をそれぞれ決定することができる。又は、インタラクションユニット8により所定の温度閾値を入力することもできる。本願の実施例は、所定の温度閾値の設定方式を限定しない。 In a possible implementation, the processor 3 can recognize the gender of the target target. For example, the gender of the target target can be recognized based on the facial features of the target target, or the gender of the target target can be acquired based on the identification information of the target target. Further, a predetermined temperature threshold of the male target and a predetermined temperature threshold of the female target can be determined based on the gender of the target target. Alternatively, a predetermined temperature threshold value can be input by the interaction unit 8. The embodiment of the present application does not limit the setting method of the predetermined temperature threshold value.

可能な実現形態において、第4領域(即ち、赤外画像における、額が位置する領域)に対して温度監視を行い、ターゲット対象の体温を得ることができる。体温が所定の温度閾値を超える場合、プロセッサ3は、第1早期警報情報を生成することができる。また、ディスプレイ5により第1早期警報情報を表示する。又は、警報ユニット7により、第1早期警報情報を再生する。更に、発熱症状があるターゲット対象の身分情報、体温及びカメラの位置情報(即ち、発熱症状があるターゲット対象の出現位置)を、通信ユニット6によりバックエンドデータベース又はサーバに伝送する。これにより、感染が疑われる症例に対する追跡及び感染が疑われる症例の活動軌跡の決定を容易にする。 In a possible implementation, the temperature of the fourth region (that is, the region where the forehead is located in the infrared image) can be monitored to obtain the body temperature of the target target. If the body temperature exceeds a predetermined temperature threshold, the processor 3 can generate the first early warning information. In addition, the first early warning information is displayed on the display 5. Alternatively, the alarm unit 7 reproduces the first early alarm information. Further, the identification information, the body temperature, and the position information of the camera of the target target having the fever symptom (that is, the appearance position of the target target having the fever symptom) are transmitted to the back-end database or the server by the communication unit 6. This facilitates follow-up for suspected cases and determination of activity trajectories for suspected cases.

可能な実現形態において、ターゲット対象の身分情報及び体温を可視光画像における第1領域又は赤外画像における第3領域に重畳し、ディスプレイ5に表示することができる。これにより、監視領域における各ターゲット対象の温度情報及び身分情報を直観的に観測し、重畳した画像を記憶することもできる。 In a possible embodiment, the identity information and body temperature of the target object can be superimposed on the first region in the visible light image or the third region in the infrared image and displayed on the display 5. This makes it possible to intuitively observe the temperature information and identity information of each target in the monitoring area and store the superimposed image.

可能な実現形態において、前記監視方法は、可視光画像及び赤外画像を用いることで温度監視を行うことができ、カメラのハードウェアコストを減少させ、データ処理負荷を低減させることもできる。また、各ターゲット対象がマスクを装着しているかどうかを監視することができる。医療施設の監視又は防疫監視などの分野に適用可能である。本願の実施例は、前記監視方法の適用分野を限定しない。 In a possible embodiment, the monitoring method can monitor the temperature by using a visible light image and an infrared image, can reduce the hardware cost of the camera, and can also reduce the data processing load. It is also possible to monitor whether each target is wearing a mask. It can be applied to fields such as medical facility monitoring or epidemic prevention monitoring. The embodiments of the present application do not limit the application fields of the monitoring method.

図5は、本願の実施例による監視システムを示すブロック図である。図5に示すように、前記システムは、赤外画像取得部分11と、可視光画像取得部分12と、処理部分13と、を備え、
前記処理部分13は、
可視光画像取得部分12により取得された監視領域の可視光画像に対してターゲット領域認識を行い、前記可視光画像におけるターゲット対象が位置する第1領域及び前記ターゲット対象の所定部位が位置する第2領域を得、
前記第1領域の寸法情報、及び赤外画像取得部分11により取得された赤外画像における、前記第1領域に対応する第3領域に基づいて、前記ターゲット対象に対して生体検出を行い、生体検出結果を得、
生体検出結果が生体である場合、前記第1領域に対して身分認識処理を行い、前記ターゲット対象の身分情報を得、前記赤外画像における、前記第2領域に対応する第4領域に対して、温度検出処理を行い、前記ターゲット対象の温度情報を得、
前記温度情報が所定の温度閾値以上である場合、前記ターゲット対象の身分情報に基づいて、第1早期警報情報を生成するように構成される。
FIG. 5 is a block diagram showing a monitoring system according to an embodiment of the present application. As shown in FIG. 5, the system includes an infrared image acquisition portion 11, a visible light image acquisition portion 12, and a processing portion 13.
The processing portion 13 is
Target area recognition is performed on the visible light image of the monitoring area acquired by the visible light image acquisition portion 12, and the first region in which the target target is located in the visible light image and the second region in which the predetermined portion of the target target is located. Get the area,
Based on the dimensional information of the first region and the third region corresponding to the first region in the infrared image acquired by the infrared image acquisition portion 11, the living body is detected for the target target. Get the detection result
When the biological detection result is a living body, the first region is subjected to identification processing to obtain the identification information of the target target, and the fourth region corresponding to the second region in the infrared image is obtained. , Temperature detection processing is performed to obtain temperature information of the target target.
When the temperature information is equal to or higher than a predetermined temperature threshold value, the first early warning information is generated based on the identification information of the target target.

可能な実現形態において、前記処理部分13は、プロセッサ(例えば、図4Aにおけるプロセッサ3)を備えてもよく、赤外画像取得部分11は、赤外カメラ(例えば、図4Aにおける赤外カメラ1)を備えてもよく、可視光画像取得部分12は、可視光カメラ(例えば、図4Aにおける可視光カメラ2)を備えてもよい。 In a possible implementation, the processing portion 13 may include a processor (eg, processor 3 in FIG. 4A) and the infrared image acquisition portion 11 may include an infrared camera (eg, infrared camera 1 in FIG. 4A). The visible light image acquisition portion 12 may include a visible light camera (for example, the visible light camera 2 in FIG. 4A).

可能な実現形態において、前記処理部分は更に、
前記第1領域の寸法情報に基づいて、前記ターゲット対象と、前記可視光画像を取得する画像取得装置と、の距離を決定し、
前記距離に基づいて、生体検出策略を決定し、
可視光画像における、前記第1領域の位置に基づいて、前記赤外画像において前記第3領域の位置を決定し、
前記生体検出策略に基づいて、赤外画像における前記第3領域に対して生体検出処理を行い、前記生体検出結果を得るように構成される。
In a possible implementation, the processing portion further
Based on the dimensional information of the first region, the distance between the target object and the image acquisition device that acquires the visible light image is determined.
Based on the distance, determine a biodetection strategy and
Based on the position of the first region in the visible light image, the position of the third region in the infrared image is determined.
Based on the biometric detection strategy, the biometric detection process is performed on the third region in the infrared image, and the biometric detection result is obtained.

可能な実現形態において、前記処理部分は更に、
前記距離が第1距離閾値以上である場合、前記生体検出策略を、人体形態に基づいた生体検出策略として決定し、又は、
前記距離が第2距離閾値以上であって前記第1距離閾値未満である場合、前記生体検出策略を、頭頸部形態に基づいた生体検出策略として決定し、又は、
前記距離が前記第2距離閾値未満である場合、前記生体検出策略を、顔形態に基づいた生体検出策略として決定するように構成される。
In a possible implementation, the processing portion further
When the distance is equal to or greater than the first distance threshold, the biological detection strategy is determined as a biological detection strategy based on the human body morphology, or
If the distance is greater than or equal to the second distance threshold and less than the first distance threshold, the biodetection strategy is determined as a biodetection strategy based on head and neck morphology, or
When the distance is less than the second distance threshold, the biodetection strategy is configured to be determined as a biodetection strategy based on face morphology.

可能な実現形態において、前記処理部分は更に、
前記生体検出策略に基づいて前記第3領域に対して形態検出処理を行い、形態検出結果を得、
前記形態検出結果が生体形態である場合、前記第3領域における顔領域に対して等温分析処理を行い、等温分析結果を得、
前記生体検出策略に基づいて、形態検出結果の第1重み及び前記等温分析結果の第2重みを決定し、
前記第1重み、前記第2重み、前記形態検出結果及び前記等温分析結果に基づいて、前記生体検出結果を決定するように構成される。
In a possible implementation, the processing portion further
A morphological detection process was performed on the third region based on the biological detection strategy, and a morphological detection result was obtained.
When the morphological detection result is a biological morphology, an isothermal analysis process is performed on the face region in the third region to obtain an isothermal analysis result.
Based on the biological detection strategy, the first weight of the morphological detection result and the second weight of the isothermal analysis result are determined.
It is configured to determine the biological detection result based on the first weight, the second weight, the morphological detection result, and the isothermal analysis result.

可能な実現形態において、前記処理部分は更に、
生体検出結果が生体である場合、前記第1領域内に所定のターゲットが含まれるかどうかを検出し、前記第1検出結果を得るように構成され、前記所定のターゲットは、顔の一部領域を遮蔽する物品を含み、
前記処理部分は更に、
生体検出結果が生体である場合、前記第1検出結果に基づいて、前記第1領域に対して身分認識処理を行い、前記ターゲット対象の身分情報を得るように構成される。
In a possible implementation, the processing portion further
When the biological detection result is a living body, it is configured to detect whether or not a predetermined target is included in the first region and obtain the first detection result, and the predetermined target is a partial region of the face. Including articles that shield
The processed portion is further
When the living body detection result is a living body, it is configured to perform the identification processing on the first region based on the first detection result and obtain the identification information of the target target.

可能な実現形態において、前記処理部分は更に、
前記第1領域における顔領域に対して検出処理を行い、前記顔領域の特徴欠損結果を決定し、
前記特徴欠損結果が所定の特徴欠損である場合、前記顔領域内に所定のターゲットが含まれるかどうかを検出し、前記第1検出結果を得るように構成される。
In a possible implementation, the processing portion further
The face region in the first region is subjected to detection processing, and the feature defect result of the face region is determined.
When the feature defect result is a predetermined feature defect, it is configured to detect whether or not a predetermined target is included in the face region and obtain the first detection result.

可能な実現形態において、前記処理部分は更に、
前記第1検出結果が、前記所定のターゲットが存在しないことである場合、前記第1領域における顔領域に対して第1身分認識処理を行い、前記ターゲット対象の身分情報を得、又は、
前記第1検出結果が、前記所定のターゲットが存在することである場合、前記第1領域における顔領域に対して第2身分認識処理を行い、前記ターゲット対象の身分情報を得るように構成され、前記第2身分認識処理における顔の遮蔽されていない領域の特徴の重みは、第1身分認識処理における対応する領域の特徴の重みより大きい。
In a possible implementation, the processing portion further
When the first detection result is that the predetermined target does not exist, the first identification process is performed on the face region in the first region to obtain the identification information of the target target, or
When the first detection result is that the predetermined target exists, the face region in the first region is configured to perform the second identification processing to obtain the identification information of the target target. The weight of the feature of the unshielded region of the face in the second identity recognition process is larger than the weight of the feature of the corresponding region in the first identity recognition process.

可能な実現形態において、前記処理部分は更に、
前記第1領域又は前記第3領域の位置情報、前記ターゲット対象の温度情報及び前記ターゲット対象の身分情報を前記可視光画像及び/又は赤外画像と重畳処理し、検出画像を得るように構成される。
In a possible implementation, the processing portion further
It is configured to superimpose the position information of the first region or the third region, the temperature information of the target target, and the identification information of the target target on the visible light image and / or the infrared image to obtain a detected image. To.

可能な実現形態において、前記処理部分は更に、
前記ターゲット対象の性別情報を取得し、
前記性別情報に基づいて、前記所定の温度閾値を決定するように構成される。
In a possible implementation, the processing portion further
Acquire the gender information of the target target and
It is configured to determine the predetermined temperature threshold value based on the gender information.

可能な実現形態において、前記処理部分は更に、
前記第1検出結果が、前記所定のターゲットが存在しないことである場合、第2早期警報情報を生成するように構成される。
In a possible implementation, the processing portion further
If the first detection result is that the predetermined target does not exist, it is configured to generate a second early warning information.

本願の実施例で提供される上記各方法の実施例は、原理や論理から逸脱しない限り、互いに組み合わせることで組み合わせた実施例を構成することができ、紙数に限りがあるため、本願の実施例において逐一説明しないことは理解されるべきである。 The embodiments of the above methods provided in the embodiments of the present application can be combined with each other as long as they do not deviate from the principle or logic, and the number of papers is limited. It should be understood that the examples do not explain one by one.

なお、本願の実施例は、監視システム、電子機器、コンピュータ可読記憶媒体、プログラムを更に提供する。上記はいずれも、本願で提供されるいずれか1つの監視方法を実現させるためのものである。対応する技術的解決手段及び説明は、方法に関連する記述を参照されたい。ここで、詳細な説明を省略する。 The embodiments of the present application further provide a monitoring system, an electronic device, a computer-readable storage medium, and a program. All of the above are for realizing any one of the monitoring methods provided in the present application. See the description related to the method for the corresponding technical solutions and explanations. Here, a detailed description will be omitted.

実施形態の上記方法において、各ステップの記述順番は、具体的な実行順番は、厳しい実行順番を意味して実施プロセスを何ら限定するものではなく、各ステップの具体的な実行順番はその機能及び可能な内在的論理により決まることは、当業者であれば理解すべきである。 In the above method of the embodiment, the description order of each step does not mean that the specific execution order means a strict execution order, and the specific execution order of each step is its function and. Those skilled in the art should understand that it is determined by possible intrinsic logic.

幾つかの実施例において、本願の実施例で提供される装置における機能及びモジュールは、上記方法の実施例に記載の方法を実行するために用いられ、具体的な実現形態は上記方法の実施例の説明を参照されたい。簡潔化を図るために、ここで、詳細な説明を省略する。 In some embodiments, the functions and modules in the apparatus provided in the embodiments of the present application are used to carry out the method described in the embodiment of the above method, and the specific embodiment is the embodiment of the above method. Please refer to the explanation of. For the sake of brevity, detailed description is omitted here.

本願の実施例はコンピュータ可読記憶媒体を更に提供する。該コンピュータ可読記憶媒体にはコンピュータプログラム命令が記憶されており、前記コンピュータプログラム命令がプロセッサにより実行されると、プロセッサに上記方法を実現させる。コンピュータ可読記憶媒体は不揮発性コンピュータ可読記憶媒体であってもよい。 The embodiments of the present application further provide a computer-readable storage medium. A computer program instruction is stored in the computer-readable storage medium, and when the computer program instruction is executed by the processor, the processor realizes the above method. The computer-readable storage medium may be a non-volatile computer-readable storage medium.

本願の実施例は電子機器を更に提供する。該電子機器は、プロセッサと、プロセッサによる実行可能な命令を記憶するように構成されるメモリと、を備え、前記プロセッサは、上記方法を実行するように構成される。 The embodiments of the present application further provide electronic devices. The electronic device comprises a processor and a memory configured to store instructions that can be executed by the processor, the processor being configured to perform the method.

本願の実施例は、コンピュータプログラム製品を更に提供する。前記コンピュータプログラム製品は、コンピュータ可読コードを含み、コンピュータ可読コードが機器で実行されると、機器におけるプロセッサは、上記いずれか1つの実施例で提供される監視方法を実現させるための命令を実行する。 The embodiments of the present application further provide computer program products. The computer program product includes a computer-readable code, and when the computer-readable code is executed in the device, the processor in the device executes an instruction for realizing the monitoring method provided in any one of the above embodiments. ..

本願の実施例は、もう1つのコンピュータプログラム製品を更に提供する。前記コンピュータプログラム製品は、コンピュータ可読命令を記憶するように構成され、命令が実行されると、コンピュータに、上記いずれか1つの実施例で提供される監視方法の操作を実行させる。 The embodiments of the present application further provide another computer program product. The computer program product is configured to store a computer-readable instruction, and when the instruction is executed, causes the computer to perform an operation of the monitoring method provided in any one of the above embodiments.

電子機器は、端末、サーバ又は他の形態の機器として提供されてもよい。 The electronic device may be provided as a terminal, a server or other form of device.

図6は、一例示的な実施例による電子機器800を示すブロック図である。例えば、電子機器800は、携帯電話、コンピュータ、デジタル放送端末、メッセージング装置、ゲームコンソール、タブレットデバイス、医療機器、フィットネス機器、パーソナルデジタルアシスタントなどの端末であってもよい。 FIG. 6 is a block diagram showing an electronic device 800 according to an exemplary embodiment. For example, the electronic device 800 may be a terminal such as a mobile phone, a computer, a digital broadcasting terminal, a messaging device, a game console, a tablet device, a medical device, a fitness device, or a personal digital assistant.

図6を参照すると、電子機器800は、処理コンポーネント802、メモリ804、電源コンポーネント806、マルチメディアコンポーネント808、オーディオコンポーネント810、入力/出力(Input/Output:I/O)インタフェース812、センサコンポーネント814及び通信コンポーネント816のうちの1つ又は複数を備えてもよい。 Referring to FIG. 6, the electronic device 800 includes processing component 802, memory 804, power supply component 806, multimedia component 808, audio component 810, input / output (I / O) interface 812, sensor component 814 and It may include one or more of the communication components 816.

処理コンポーネント802は一般的には、電子機器800の全体操作を制御する。例えば、表示、通話呼、データ通信、カメラ操作及び記録操作に関連する操作を制御する。処理コンポーネント802は、指令を実行するための1つ又は複数のプロセッサ820を備えてもよい。それにより上記方法の全て又は一部のステップを実行する。なお、処理コンポーネント802は、他のユニットとのインタラクションのために、1つ又は複数のモジュールを備えてもよい。例えば、処理コンポーネント802はマルチメディアモジュールを備えることで、マルチメディアコンポーネント808と処理コンポーネント802とのインタラクションに寄与する。 The processing component 802 generally controls the overall operation of the electronic device 800. For example, it controls operations related to display, call call, data communication, camera operation and recording operation. The processing component 802 may include one or more processors 820 for executing instructions. Thereby, all or part of the steps of the above method are performed. Note that the processing component 802 may include one or more modules for interaction with other units. For example, the processing component 802 includes a multimedia module, which contributes to the interaction between the multimedia component 808 and the processing component 802.

メモリ804は、各種のデータを記憶することで電子機器800における操作をサポートするように構成される。これらのデータの例として、電子機器800上で操作れる如何なるアプリケーション又は方法の命令、連絡先データ、電話帳データ、メッセージ、イメージ、ビデオ等を含む。メモリ804は任意のタイプの揮発性または不揮発性記憶装置、あるいはこれらの組み合わせにより実現される。例えば、スタティックランダムアクセスメモリ(SRAM)、電気的消去可能なプログラマブル読み出し専用メモリ(EEPROM)、電気的に消去可能なプログラマブル読出し専用メモリ(EPROM)、プログラマブル読出し専用メモリ(PROM)、読出し専用メモリ(ROM)、磁気メモリ、フラッシュメモリ、磁気もしくは光ディスクを含む。 The memory 804 is configured to support operations in the electronic device 800 by storing various types of data. Examples of these data include instructions, contact data, phonebook data, messages, images, videos, etc. of any application or method that can be operated on the electronic device 800. Memory 804 is realized by any type of volatile or non-volatile storage device, or a combination thereof. For example, static random access memory (SRAM), electrically erasable programmable read-only memory (EEPROM), electrically erasable programmable read-only memory (EPROM), programmable read-only memory (PROM), read-only memory (ROM). ), Magnetic memory, flash memory, magnetic or optical disk.

電源コンポーネント806は電子機器800の様々なユニットに電力を提供する。電源コンポーネント806は、電源管理システム、1つ又は複数の電源、及び電子機器800のための電力生成、管理、分配に関連する他のユニットを備えてもよい。 The power component 806 powers various units of the electronic device 800. The power component 806 may include a power management system, one or more power sources, and other units involved in power generation, management, and distribution for the electronic device 800.

マルチメディアコンポーネント808は、上記電子機器800とユーザとの間に出力インタフェースを提供するためのスクリーンを備える。幾つかの実施例において、スクリーンは、液晶ディスプレイ(Liquid Crystal Display:LCD)及びタッチパネル(TouchPanel:TP)を含む。スクリーンは、タッチパネルを含むと、タッチパネルとして実現され、ユーザからの入力信号を受信する。タッチパネルは、タッチ、スライド及びパネル上のジェスチャを感知する1つ又は複数のタッチセンサを備える。上記タッチセンサは、タッチ又はスライド動作の境界を感知するだけでなく、上記タッチ又はスライド操作に関連する持続時間及び圧力を検出することもできる。幾つかの実施例において、マルチメディアコンポーネント808は、フロントカメラ及び/又はリアカメラを備える。電子機器800が、撮影モード又はビデオモードのような操作モードであれば、フロントカメラ及び/又はリアカメラは外部からのマルチメディアデータを受信することができる。各フロントカメラ及びリアカメラは固定した光学レンズシステム又は焦点及び光学ズーム能力を持つものであってもよい。 The multimedia component 808 includes a screen for providing an output interface between the electronic device 800 and the user. In some embodiments, the screen includes a liquid crystal display (LCD) and a touch panel (Touch Panel: TP). When the screen includes a touch panel, it is realized as a touch panel and receives an input signal from the user. The touch panel comprises one or more touch sensors that sense touches, slides and gestures on the panel. The touch sensor can not only detect the boundary of the touch or slide motion, but also detect the duration and pressure associated with the touch or slide operation. In some embodiments, the multimedia component 808 comprises a front camera and / or a rear camera. If the electronic device 800 is in an operating mode such as a shooting mode or a video mode, the front camera and / or the rear camera can receive multimedia data from the outside. Each front and rear camera may have a fixed optical lens system or focal and optical zoom capabilities.

オーディオコンポーネント810は、オーディオ信号を出力及び/又は入力するように構成される。例えば、オーディオコンポーネント810は、マイクロホン(Microphone:MIC)を備える。電子機器800が、通話モード、記録モード及び音声識別モードのような操作モードであれば、マイクロホンは、外部からのオーディオ信号を受信するように構成される。受信したオーディオ信号を更にメモリ804に記憶するか、又は通信コンポーネント816を経由して送信することができる。幾つかの実施例において、オーディオコンポーネント810は、オーディオ信号を出力するように構成されるスピーカーを更に備える。 The audio component 810 is configured to output and / or input an audio signal. For example, the audio component 810 includes a microphone (MIC). If the electronic device 800 is in an operating mode such as a call mode, a recording mode and a voice recognition mode, the microphone is configured to receive an audio signal from the outside. The received audio signal can be further stored in memory 804 or transmitted via the communication component 816. In some embodiments, the audio component 810 further comprises a speaker configured to output an audio signal.

I/Oインタフェース812は、処理コンポーネント802と周辺インタフェースモジュールとの間のインタフェースを提供する。上記周辺インタフェースモジュールは、キーボード、クリックホイール、ボタン等であってもよい。これらのボタンは、ホームボダン、ボリュームボタン、スタートボタン及びロックボタンを含むが、これらに限定されない。 The I / O interface 812 provides an interface between the processing component 802 and the peripheral interface module. The peripheral interface module may be a keyboard, a click wheel, a button, or the like. These buttons include, but are not limited to, a home button, a volume button, a start button and a lock button.

センサコンポーネント814は、1つ又は複数のセンサを備え、電子機器800のために様々な状態の評価を行うように構成される。例えば、センサコンポーネント814は、電子機器800のオン/オフ状態、ユニットの相対的な位置決めを検出することができる。例えば、上記ユニットが電子機器800のディスプレイ及びキーパッドである。センサコンポーネント814は電子機器800又は電子機器800における1つのユニットの位置の変化、ユーザと電子機器800との接触の有無、電子機器800の方位又は加速/減速及び電子機器800の温度の変動を検出することもできる。センサコンポーネント814は近接センサを備えてもよく、いかなる物理的接触もない場合に周囲の物体の存在を検出するように構成される。センサコンポーネント814は、Complementary Metal Oxide Semiconductor:相補型金属酸化膜半導体)又はCCD(Charge Coupled Device:電荷結合素子)画像センサのような光センサを備えてもよく、結像に適用されるように構成される。幾つかの実施例において、該センサコンポーネント814は、加速度センサ、ジャイロセンサ、磁気センサ、圧力センサ又は温度センサを備えてもよい。 The sensor component 814 comprises one or more sensors and is configured to perform various state assessments for the electronic device 800. For example, the sensor component 814 can detect the on / off state of the electronic device 800 and the relative positioning of the unit. For example, the unit is a display and a keypad of an electronic device 800. The sensor component 814 detects a change in the position of one unit in the electronic device 800 or the electronic device 800, the presence or absence of contact between the user and the electronic device 800, the orientation or acceleration / deceleration of the electronic device 800, and the temperature fluctuation of the electronic device 800. You can also do it. The sensor component 814 may include a proximity sensor and is configured to detect the presence of surrounding objects in the absence of any physical contact. The sensor component 814 may include an optical sensor such as a Complementary Metal Oxide Semiconductor or CCD (Charge Coupled Device) image sensor and is configured to be applied for imaging. Will be done. In some embodiments, the sensor component 814 may include an accelerometer, gyro sensor, magnetic sensor, pressure sensor or temperature sensor.

通信コンポーネント816は、電子機器800と他の機器との有線又は無線方式の通信に寄与するように構成される。電子機器800は、WiFi、2G(2-Generation wireless telephone technology:第2世代移動通信技術)又は3G(3-Generation wireless telephone technology:第3世代移動通信技術)、又はそれらの組み合わせのような通信規格に基づいた無線ネットワークにアクセスできる。一例示的な実施例において、通信コンポーネント816は放送チャネルを経由して外部放送チャネル管理システムからの放送信号又は放送関連する情報を受信する。一例示的な実施例において、上記通信コンポーネント816は、近接場通信(Near Field Communication:NFC)モジュールを更に備えることで近距離通信を促進する。例えば、NFCモジュールは、無線周波数識別(Radio Frequency Identification:RFID)技術、赤外線データ協会(Infrared Data Association:IrDA)技術、超広帯域(Ultra Wide Band:UWB)技術、ブルートゥース(登録商標)(Bluetooth(登録商標):BT)技術及び他の技術に基づいて実現される。 The communication component 816 is configured to contribute to wired or wireless communication between the electronic device 800 and other devices. The electronic device 800 is a communication standard such as WiFi, 2G (2-Generation wireless telephone technology: 2nd generation mobile communication technology) or 3G (3-Generation wireless telephone technology: 3rd generation mobile communication technology), or a combination thereof. You can access the wireless network based on. In an exemplary embodiment, the communication component 816 receives broadcast signals or broadcast-related information from an external broadcast channel management system via the broadcast channel. In an exemplary embodiment, the communication component 816 further comprises a Near Field Communication (NFC) module to facilitate short-range communication. For example, NFC modules include Radio Frequency Identification (RFID) technology, Infrared Data Association (IrDA) technology, Ultra Wide Band (UWB) technology, Bluetooth® (registered trademark) (Blue). Trademark): Realized based on BT) technology and other technologies.

例示的な実施例において、電子機器800は、1つ又は複数の特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、デジタル信号プロセッサ(Digital Signal Process:DSP)、デジタル信号処理機器(Digital Signal Process Device:DSPD)、プログラマブルロジックデバイス(Programmable Logic Device:PLD)、フィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA)、コントローラ、マイクロコントローラ、マイクロプロセッサ又は他の電子素子により実現され、上記方法を実行するように構成されてもよい。 In an exemplary embodiment, the electronic device 800 is one or more application specific integrated circuits (ASICs), a digital signal processor (DSP), a digital signal processing device (Digital Signal Process). Implemented by a Device (DSPD), Programmable Logic Device (PLD), Field Programmable Gate Array (FPGA), controller, microcontroller, microprocessor or other electronic element to perform the above method. It may be configured as follows.

例示的な実施例において、コンピュータプログラム命令を記憶したメモリ804のような不揮発性コンピュータ可読記憶媒体を更に提供する。上記コンピュータプログラム命令は、電子機器800のプロセッサ820により実行され上記方法を完了する。 In an exemplary embodiment, further provided is a non-volatile computer readable storage medium, such as memory 804, which stores computer program instructions. The computer program instruction is executed by the processor 820 of the electronic device 800 to complete the method.

図7は、一例示的な実施例による電子機器1900を示すブロック図である。例えば、電子機器1900は、サーバとして提供されてもよい。図7を参照すると、電子機器1900は、処理コンポーネント1922を備える。それは、1つ又は複数のプロセッサ、及びメモリ1932で表されるメモリリソースを更に備える。該メモリリースは、アプリケーションプログラムのような、処理コンポーネント1922により実行される命令を記憶するためのものである。メモリ1932に記憶されているアプリケーションプログラムは、それぞれ一組の命令に対応する1つ又は1つ以上のモジュールを含んでもよい。なお、処理コンポーネント1922は、命令を実行して、上記方法を実行するように構成される。 FIG. 7 is a block diagram showing an electronic device 1900 according to an exemplary embodiment. For example, the electronic device 1900 may be provided as a server. Referring to FIG. 7, the electronic device 1900 comprises a processing component 1922. It further comprises one or more processors and a memory resource represented by memory 1932. The memory lease is for storing instructions executed by the processing component 1922, such as an application program. The application program stored in memory 1932 may include one or more modules, each corresponding to a set of instructions. The processing component 1922 is configured to execute the instruction and execute the above method.

電子機器1900は、電子機器1900の電源管理を実行するように構成される電源コンポーネント1926と、電子機器1900をネットワークに接続するように構成される有線又は無線ネットワークインタフェース1950と、入力出力(I/O)インタフェース1958と、を更に備えてもよい。電子機器1900は、Windows(登録商標) ServerTM、Mac OS XTM、Unix(登録商標)、Linux(登録商標)、FreeBSDTM又は類似したものような、メモリ1932に記憶されているオペレーティングシステムを実行することができる。 The electronic device 1900 comprises a power supply component 1926 configured to perform power management of the electronic device 1900, a wired or wireless network interface 1950 configured to connect the electronic device 1900 to a network, and input / output (I / O). O) Interface 1958 may be further provided. The electronic device 1900 may run an operating system stored in memory 1932, such as Windows® ServerTM, Mac OS XTM, Unix®, Linux®, FreeBSDTM or the like. can.

例示的な実施例において、例えば、コンピュータプログラム命令を含むメモリ1932のような不揮発性コンピュータ可読記憶媒体を更に提供する。上記コンピュータプログラム命令は、電子機器1900の処理コンポーネント1922により実行されて上記方法を完了する。 In an exemplary embodiment, further provided is a non-volatile computer readable storage medium such as memory 1932 containing computer program instructions. The computer program instruction is executed by the processing component 1922 of the electronic device 1900 to complete the method.

本願は、システム、方法及び/又はコンピュータプログラム製品であってもよい。コンピュータプログラム製品は、コンピュータ可読記憶媒体を備えてもよく、プロセッサに本願の各態様を実現させるためのコンピュータ可読プログラム命令がそれに記憶されている。 The present application may be a system, method and / or computer program product. The computer program product may include a computer-readable storage medium, in which the computer-readable program instructions for realizing each aspect of the present application are stored in the processor.

コンピュータ可読記憶媒体は、命令実行装置に用いられる命令を保持又は記憶することができる有形装置であってもよい。コンピュータ可読記憶媒体は、例えば、電気記憶装置、磁気記憶装置、光記憶装置、電磁記憶装置、半導体記憶装置又は上記の任意の組み合わせであってもよいが、これらに限定されない。コンピュータ可読記憶媒体のより具体的な例(非網羅的なリスト)は、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(Random Access Memory:RAM)、読み出し専用メモリ(Read Only Memory:ROM)、消去可能なプログラマブル読み出し専用メモリ(Electrical Programmable Read Only Memory:EPROM又はフラッシュ)、スタチックランダムアクセスメモリ(Static Random Access Memory:SRAM)、ポータブルコンパクトディスク読み出し専用メモリ(Compact Disk-Read Only Memory:CD-ROM)、デジタル多目的ディスク(Digital Video Disc:DVD)、メモリスティック、フレキシブルディスク、命令が記憶されているパンチカード又は凹溝内における突起構造のような機械的符号化装置、及び上記任意の適切な組み合わせを含む。ここで用いられるコンピュータ可読記憶媒体は、電波もしくは他の自由に伝搬する電磁波、導波路もしくは他の伝送媒体を通って伝搬する電磁波(例えば、光ファイバケーブルを通過する光パルス)、または、電線を通して伝送される電気信号などの、一時的な信号それ自体であると解釈されるべきではない。 The computer-readable storage medium may be a tangible device capable of holding or storing instructions used in the instruction execution device. The computer-readable storage medium may be, for example, an electric storage device, a magnetic storage device, an optical storage device, an electromagnetic storage device, a semiconductor storage device, or any combination of the above, but is not limited thereto. More specific examples (non-exhaustive lists) of computer-readable storage media are portable computer disks, optical discs, random access memory (RAM), read-only memory (Read Only Memory: ROM), and erasable. Programmable Read-Only Memory (Electrical Program Read Only Memory: EPROM or Flash), Static Random Access Memory (SRAM), Portable Compact Disk Read-Only Memory (Compact Disk-Read Only Memory) Includes a multipurpose disc (Digital Video Disc: DVD), a memory stick, a flexible disc, a punch card in which instructions are stored, or a mechanical coding device such as a protrusion structure in a groove, and any suitable combination described above. The computer-readable storage medium used herein is a radio wave or other freely propagating electromagnetic wave, an electromagnetic wave propagating through a waveguide or other transmission medium (eg, an optical pulse passing through an optical fiber cable), or through an electric wire. It should not be construed as a temporary signal itself, such as an electrical signal being transmitted.

ここで説明されるコンピュータ可読プログラム命令を、コンピュータ可読記憶媒体から各コンピューティング/処理装置にダウンロードすることができるか、又は、インターネット、ローカルエリアネットワーク、ワイドエリアネットワーク及び/又は無線ネットワークのようなネットワークを経由して外部コンピュータ又は外部記憶装置にダウンロードすることができる。ネットワークは、伝送用銅線ケーブル、光ファイバー伝送、無線伝送、ルータ、ファイアウォール、交換機、ゲートウェイコンピュータ及び/又はエッジサーバを含んでもよい。各コンピューティング/処理装置におけるネットワークインターフェースカード又はネットワークインタフェースは、ネットワークからコンピュータ可読プログラム命令を受信し、該コンピュータ可読プログラム命令を転送し、各コンピューティング/処理装置におけるコンピュータ可読記憶媒体に記憶する。 The computer-readable program instructions described herein can be downloaded from a computer-readable storage medium to each computing / processing device, or networks such as the Internet, local area networks, wide area networks and / or wireless networks. It can be downloaded to an external computer or an external storage device via. The network may include copper cables for transmission, fiber optic transmission, wireless transmission, routers, firewalls, switches, gateway computers and / or edge servers. The network interface card or network interface in each computing / processing device receives computer-readable program instructions from the network, transfers the computer-readable program instructions, and stores them in a computer-readable storage medium in each computing / processing device.

本願の実施例の操作を実行するように構成されるコンピュータプログラム命令は、アセンブラ命令、命令セットアーキテクチャ(Instruction Set Architecture:ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又は1つ又は複数のプログラミング言語で記述されたソースコード又はターゲットコードであってもよい。前記プログラミング言語は、Smalltalk、C++などのようなオブジェクト指向プログラミング言語と、「C」プログラミング言語又は類似したプログラミング言語などの従来の手続型プログラミング言語とを含む。コンピュータ可読プログラム命令は、ユーザコンピュータ上で完全に実行してもよいし、ユーザコンピュータ上で部分的に実行してもよいし、独立したソフトウェアパッケージとして実行してもよいし、ユーザコンピュータ上で部分的に実行してリモートコンピュータ上で部分的に実行してもよいし、又はリモートコンピュータ又はサーバ上で完全に実行してもよい。リモートコンピュータの場合に、リモートコンピュータは、任意の種類のネットワーク(ローカルエリアネットワーク(local area network:LAN)又はワイドエリアネットワーク(Wide Area Network:WAN)を含む)を通じてユーザのコンピュータに接続するか、または、外部のコンピュータに接続することができる(例えばインターネットサービスプロバイダを用いてインターネットを通じて接続する)。幾つかの実施例において、コンピュータ可読プログラム命令の状態情報を利用して、プログラマブル論理回路、フィールドプログラマブルゲートアレイ(FPGA)又はプログラマブル論理アレイ(Programmable Logic Array:PLA)のような電子回路をカスタマイズする。該電子回路は、コンピュータ可読プログラム命令を実行することで、本願の実施例の各態様を実現させることができる。 The computer program instructions configured to perform the operations of the embodiments of the present application are assembler instructions, instruction set architecture (ISA) instructions, machine instructions, machine-dependent instructions, microcodes, firmware instructions, state setting data. , Or source code or target code written in one or more programming languages. The programming language includes object-oriented programming languages such as Smalltalk, C ++, and conventional procedural programming languages such as "C" programming languages or similar programming languages. Computer-readable program instructions may be executed entirely on the user computer, partially on the user computer, as a separate software package, or partially on the user computer. It may be executed partially on the remote computer, or it may be executed completely on the remote computer or the server. In the case of a remote computer, the remote computer connects to or connects to the user's computer through any type of network, including a local area network (LAN) or a wide area network (Wide Area Network: WAN). , Can connect to an external computer (eg, connect through the internet using an internet service provider). In some embodiments, the state information of computer-readable program instructions is used to customize electronic circuits such as programmable logic circuits, field programmable gate arrays (FPGAs) or programmable logic arrays (PLAs). The electronic circuit can realize each aspect of the embodiment of the present application by executing a computer-readable program instruction.

ここで、本願の実施例の方法、装置(システム)及びコンピュータプログラム製品のフローチャート及び/又はブロック図を参照しながら、本願の各態様を説明する。フローチャート及び/又はブロック図の各ブロック及びフローチャート及び/又はブロック図における各ブロックの組み合わせは、いずれもコンピュータ可読プログラム命令により実現できる。 Here, each aspect of the present application will be described with reference to the flowcharts and / or block diagrams of the methods, devices (systems) and computer program products of the embodiments of the present application. Each block of the flowchart and / or the block diagram and each combination of the blocks in the flowchart and / or the block diagram can be realized by a computer-readable program instruction.

これらのコンピュータ可読プログラム命令は、汎用コンピュータ、専用コンピュータまたはその他プログラマブルデータ処理装置のプロセッサに提供でき、それによって機器を生み出し、これら命令はコンピュータまたはその他プログラマブルデータ処理装置のプロセッサにより実行されると、フローチャート及び/又はブロック図における1つ又は複数のブロック中で規定している機能/操作を実現する装置を生み出した。これらのコンピュータ可読プログラム命令をコンピュータ可読記憶媒体に記憶してもよい。これらの命令によれば、コンピュータ、プログラマブルデータ処理装置及び/又は他の装置は特定の方式で動作する。従って、命令が記憶されているコンピュータ可読記憶媒体は、フローチャート及び/又はブロック図おける1つ又は複数のブロック中で規定している機能/操作を実現する各態様の命令を含む製品を備える。 These computer-readable program instructions can be provided to the processor of a general purpose computer, dedicated computer or other programmable data processing device, thereby creating a device, and when these instructions are executed by the processor of the computer or other programmable data processing device, the flowchart. And / or created a device that realizes the functions / operations specified in one or more blocks in the block diagram. These computer-readable program instructions may be stored in a computer-readable storage medium. According to these instructions, computers, programmable data processing devices and / or other devices operate in a particular manner. Accordingly, a computer-readable storage medium in which instructions are stored comprises a product comprising instructions of each aspect that realizes a function / operation defined in one or more blocks in a flow chart and / or a block diagram.

コンピュータ可読プログラム命令をコンピュータ、他のプログラマブルデータ処理装置又は他の装置にロードしてもよい。これにより、コンピュータ、他のプログラマブルデータ処理装置又は他の装置で一連の操作の工程を実行して、コンピュータで実施されるプロセスを生成する。従って、コンピュータ、他のプログラマブルデータ処理装置又は他の装置で実行される命令により、フローチャート及び/又はブロック図における1つ又は複数のブロック中で規定している機能/操作を実現させる。 Computer-readable program instructions may be loaded into a computer, other programmable data processing device, or other device. This causes a computer, other programmable data processing device, or other device to perform a series of steps of operation to create a process performed on the computer. Therefore, an instruction executed by a computer, another programmable data processing device, or another device realizes a function / operation specified in one or more blocks in a flowchart and / or a block diagram.

図面におけるフローチャート及びブック図は、本願の複数の実施例によるシステム、方法及びコンピュータプログラム製品の実現可能なアーキテクチャ、機能および操作を例示するものである。この点で、フローチャート又はブロック図における各ブロックは、1つのモジュール、プログラムセグメント又は命令の一部を表すことができる。前記モジュール、、プログラムセグメント又は命令の一部は、1つまたは複数の所定の論理機能を実現するための実行可能な命令を含む。いくつかの取り替えとしての実現中に、ブロックに表記される機能は図面中に表記される順序と異なる順序で発生することができる。例えば、二つの連続するブロックは実際には基本的に並行して実行でき、場合によっては反対の順序で実行することもでき、これは関係する機能から確定する。ブロック図及び/又はフローチャートにおける各ブロック、及びブロック図及び/又はフローチャートにおけるブロックの組み合わせは、所定の機能又は操作を実行するための専用ハードウェアベースシステムにより実現するか、又は専用ハードウェアとコンピュータ命令の組み合わせにより実現することができる。 The flowcharts and book diagrams in the drawings exemplify the feasible architectures, functions and operations of the systems, methods and computer program products according to the plurality of embodiments of the present application. In this regard, each block in the flowchart or block diagram can represent part of a module, program segment or instruction. Some of the modules, program segments or instructions include executable instructions to implement one or more predetermined logical functions. During implementation as some replacement, the functions shown in the blocks can occur in a different order than shown in the drawing. For example, two consecutive blocks can actually be executed essentially in parallel, and in some cases in reverse order, which is determined by the functions involved. Each block in the block diagram and / or flowchart, and the combination of blocks in the block diagram and / or flowchart, is realized by a dedicated hardware-based system for performing a predetermined function or operation, or a dedicated hardware and a computer instruction. It can be realized by the combination of.

該コンピュータプログラム製品は、ハードウェア、ソフトウェア又はその組み合わせにより実現してもよい。本願の実施例の1つの実施形態において、前記コンピュータプログラム製品は、コンピュータ記憶媒体として表現してもよい。もう1つの実施形態において、コンピュータプログラム製品は、例えばソフトウェア開発キット(Software Development Kit:SDK)などのソフトウェア製品として表現してもよい。 The computer program product may be realized by hardware, software or a combination thereof. In one embodiment of the embodiments of the present application, the computer program product may be represented as a computer storage medium. In another embodiment, the computer program product may be expressed as a software product such as, for example, a software development kit (SDK).

以上は本発明の各実施例を説明したが、前記説明は例示的なものであり、網羅するものではなく、且つ開示した各実施例に限定されない。説明した各実施例の範囲と趣旨から脱逸しない場合、当業者にとって、多くの修正及び変更は容易に想到しえるものである。本明細書に用いられる用語の選択は、各実施例の原理、実際の応用、或いは市場における技術の改善を最もよく解釈すること、或いは他の当業者が本明細書に開示された各実施例を理解できることを目的とする。 Although each embodiment of the present invention has been described above, the above description is exemplary, not exhaustive, and is not limited to the disclosed examples. Many modifications and changes are readily conceivable to those skilled in the art, provided that they do not deviate from the scope and intent of each of the embodiments described. The choice of terminology used herein is to best interpret the principles, practical applications, or technical improvements in the market of each example, or each of the examples disclosed herein by those of ordinary skill in the art. The purpose is to be able to understand.

上記の一般的な説明及び後述する細部に関する説明は、例示及び説明のためのものに過ぎず、本願の実施例を限定するものではないことが理解されるべきである。
例えば、本願は以下の項目を提供する。
(項目1)
監視方法であって、
監視領域の可視光画像に対してターゲット領域認識を行い、前記可視光画像におけるターゲット対象が位置する第1領域及び前記ターゲット対象の所定部位が位置する第2領域を得ることと、
前記第1領域の寸法情報、及び前記監視領域の赤外画像における、前記第1領域に対応する第3領域に基づいて、前記ターゲット対象に対して生体検出を行い、生体検出結果を得ることと、
生体検出結果が生体である場合、前記第1領域に対して身分認識処理を行い、前記ターゲット対象の身分情報を得、前記赤外画像における、前記第2領域に対応する第4領域に対して、温度検出処理を行い、前記ターゲット対象の温度情報を得ることと、
前記温度情報が所定の温度閾値以上である場合、前記ターゲット対象の身分情報に基づいて、第1早期警報情報を生成することと、を含む、監視方法。
(項目2)
前記第1領域の寸法情報、及び前記赤外画像における、前記第1領域に対応する第3領域に基づいて、前記ターゲット対象に対して生体検出を行い、生体検出結果を得ることは、
前記第1領域の寸法情報に基づいて、前記ターゲット対象と、前記可視光画像を取得する画像取得装置と、の距離を決定することと、
前記距離に基づいて、生体検出策略を決定することと、
可視光画像における、前記第1領域の位置に基づいて、前記赤外画像において前記第3領域の位置を決定することと、
前記生体検出策略に基づいて、赤外画像における前記第3領域に対して生体検出処理を行い、前記生体検出結果を得ることと、を含むことを特徴とする
項目1に記載の方法。
(項目3)
前記距離に基づいて、前記生体検出策略を決定することは、
前記距離が第1距離閾値以上である場合、前記生体検出策略を、人体形態に基づいた生体検出策略として決定することと、
前記距離が第2距離閾値以上であって前記第1距離閾値未満である場合、前記生体検出策略を、頭頸部形態に基づいた生体検出策略として決定することと、
前記距離が前記第2距離閾値未満である場合、前記生体検出策略を、顔形態に基づいた生体検出策略として決定することと、のうちの1つを含むことを特徴とする
項目2に記載の方法。
(項目4)
前記生体検出策略に基づいて、前記第3領域に対して生体検出処理を行い、前記生体検出結果を得ることは、
前記生体検出策略に基づいて前記第3領域に対して形態検出処理を行い、形態検出結果を得ることと、
前記形態検出結果が生体形態である場合、前記第3領域における顔領域に対して等温分析処理を行い、等温分析結果を得ることと、
前記生体検出策略に基づいて、形態検出結果の第1重み及び前記等温分析結果の第2重みを決定することと、
前記第1重み、前記第2重み、前記形態検出結果及び前記等温分析結果に基づいて、前記生体検出結果を決定することと、を含むことを特徴とする
項目2に記載の方法。
(項目5)
前記方法は、
前記生体検出結果が生体である場合、前記第1領域内に所定のターゲットが含まれるかどうかを検出し、前記第1検出結果を得ることであって、前記所定のターゲットは、顔の一部領域を遮蔽する物品を含む、ことを更に含み、
前記第1領域に対して身分認識処理を行い、前記ターゲット対象の身分情報を得ることは、
前記第1検出結果に基づいて、前記第1領域に対して身分認識処理を行い、前記ターゲット対象の身分情報を得ることを含むことを特徴とする
項目1に記載の方法。
(項目6)
前記第1領域内に所定のターゲットが含まれるかどうかを検出し、前記第1検出結果を得ることは、
前記第1領域における顔領域に対して検出処理を行い、前記顔領域の特徴欠損結果を決定することと、
前記特徴欠損結果が所定の特徴欠損である場合、前記顔領域内に所定のターゲットが含まれるかどうかを検出し、前記第1検出結果を得ることと、を含むことを特徴とする
項目5に記載の方法。
(項目7)
前記第1検出結果に基づいて、前記第1領域に対して身分認識処理を行い、前記ターゲット対象の身分情報を得ることは、
前記第1検出結果が、前記所定のターゲットが存在しないことである場合、前記第1領域における顔領域に対して第1身分認識処理を行い、前記ターゲット対象の身分情報を得ることと、
前記第1検出結果が、前記所定のターゲットが存在することである場合、前記第1領域における顔領域に対して第2身分認識処理を行い、前記ターゲット対象の身分情報を得ることであって、前記第2身分認識処理における顔の遮蔽されていない領域の特徴の重みは、第1身分認識処理における対応する領域の特徴の重みより大きい、ことと、のうちの1つを含むことを特徴とする
項目5に記載の方法。
(項目8)
前記方法は、
前記第1検出結果が、前記所定のターゲットが存在しないことである場合、第2早期警報情報を生成することを更に含むことを特徴とする
項目5に記載の方法。
(項目9)
前記方法は、
前記第1領域又は前記第3領域の位置情報、前記ターゲット対象の温度情報及び前記ターゲット対象の身分情報を前記可視光画像及び/又は赤外画像と重畳処理し、検出画像を得ることを更に含むことを特徴とする
項目1から8のうちいずれか一項に記載の方法。
(項目10)
監視システムであって、前記監視システムは、可視光画像取得部分と、赤外画像取得部分と、処理部分と、を備え、
前記処理部分は、
可視光画像取得部分により取得された監視領域の可視光画像に対してターゲット領域認識を行い、前記可視光画像におけるターゲット対象が位置する第1領域及び前記ターゲット対象の所定部位が位置する第2領域を得、
前記第1領域の寸法情報、及び赤外画像取得部分により取得された赤外画像における、前記第1領域に対応する第3領域に基づいて、前記ターゲット対象に対して生体検出を行い、生体検出結果を得、
前記生体検出結果が生体である場合、前記第1領域に対して身分認識処理を行い、前記ターゲット対象の身分情報を得、前記赤外画像における、前記第2領域に対応する第4領域に対して、温度検出処理を行い、前記ターゲット対象の温度情報を得、
前記温度情報が所定の温度閾値以上である場合、前記ターゲット対象の身分情報に基づいて、第1早期警報情報を生成するように構成される、監視システム。
(項目11)
前記処理部分は更に、
前記第1領域の寸法情報に基づいて、前記ターゲット対象と、前記可視光画像を取得する画像取得装置と、の距離を決定し、
前記距離に基づいて、生体検出策略を決定し、可視光画像における、前記第1領域の位置に基づいて、前記赤外画像において前記第3領域の位置を決定し、
前記生体検出策略に基づいて、赤外画像における前記第3領域に対して生体検出処理を行い、前記生体検出結果を得るように構成されることを特徴とする
項目10に記載のシステム。
(項目12)
前記処理部分は更に、
前記距離が第1距離閾値以上である場合、前記生体検出策略を、人体形態に基づいた生体検出策略として決定し、又は、
前記距離が第2距離閾値以上であって前記第1距離閾値未満である場合、前記生体検出策略を、頭頸部形態に基づいた生体検出策略として決定し、又は、
前記距離が前記第2距離閾値未満である場合、前記生体検出策略を、顔形態に基づいた生体検出策略として決定するように構成されることを特徴とする
項目11に記載のシステム。
(項目13)
前記処理部分は更に、
前記生体検出策略に基づいて前記第3領域に対して形態検出処理を行い、形態検出結果を得、
前記形態検出結果が生体形態である場合、前記第3領域における顔領域に対して等温分析処理を行い、等温分析結果を得、
前記生体検出策略に基づいて、形態検出結果の第1重み及び前記等温分析結果の第2重みを決定し、
前記第1重み、前記第2重み、前記形態検出結果及び前記等温分析結果に基づいて、前記生体検出結果を決定するように構成されることを特徴とする
項目11に記載のシステム。
(項目14)
前記処理部分は更に、
前記生体検出結果が生体である場合、前記第1領域内に所定のターゲットが含まれるかどうかを検出し、前記第1検出結果を得るように構成され、前記所定のターゲットは、顔の一部領域を遮蔽する物品を含み、
前記処理部分は更に、
前記第1検出結果に基づいて、前記第1領域に対して身分認識処理を行い、前記ターゲット対象の身分情報を得るように構成されることを特徴とする
項目10に記載のシステム。
(項目15)
前記処理部分は更に、
前記第1領域における顔領域に対して検出処理を行い、前記顔領域の特徴欠損結果を決定し、
前記特徴欠損結果が所定の特徴欠損である場合、前記顔領域内に所定のターゲットが含まれるかどうかを検出し、前記第1検出結果を得るように構成されることを特徴とする
項目14に記載のシステム。
(項目16)
前記処理部分は更に、
前記第1検出結果が、前記所定のターゲットが存在しないことである場合、前記第1領域における顔領域に対して第1身分認識処理を行い、前記ターゲット対象の身分情報を得、又は、
前記第1検出結果が、前記所定のターゲットが存在することである場合、前記第1領域における顔領域に対して第2身分認識処理を行い、前記ターゲット対象の身分情報を得るように構成され、前記第2身分認識処理における顔の遮蔽されていない領域の特徴の重みは、第1身分認識処理における対応する領域の特徴の重みより大きいことを特徴とする
項目14に記載のシステム。
(項目17)
前記処理部分は更に、
前記第1領域又は前記第3領域の位置情報、前記ターゲット対象の温度情報及び前記ターゲット対象の身分情報を前記可視光画像及び/又は赤外画像と重畳処理し、検出画像を得るように構成されることを特徴とする
項目10から16のうちいずれか一項に記載のシステム。
(項目18)
電子機器であって、
プロセッサと、
プロセッサによる実行可能な命令を記憶するように構成されるメモリと、を備え、
前記プロセッサは、項目1から9のうちいずれか一項に記載の方法を実行するように構成される、電子機器。
(項目19)
プロセッサにより実行されると、前記プロセッサに項目1から9のうちいずれか一項に記載の方法を実行させるためのコンピュータプログラム命令を記憶した、コンピュータ可読記憶媒体。
(項目20)
電子機器で実行されると、前記電子機器におけるプロセッサに、項目1から9のうちいずれか一項に記載の方法を実行させるためのコンピュータ可読コードを含む、コンピュータプログラム。
It should be understood that the general description above and the detailed description described below are for illustration and illustration purposes only and are not intended to limit the embodiments of the present application.
For example, the present application provides the following items.
(Item 1)
It ’s a monitoring method.
Target area recognition is performed on the visible light image of the monitoring area to obtain a first area in which the target target is located and a second area in which the predetermined portion of the target target is located in the visible light image.
Based on the dimensional information of the first region and the third region corresponding to the first region in the infrared image of the monitoring region, the biological detection is performed on the target target and the biological detection result is obtained. ,
When the biological detection result is a living body, the first region is subjected to identification processing to obtain the identification information of the target target, and the fourth region corresponding to the second region in the infrared image is obtained. , Performing temperature detection processing to obtain temperature information of the target,
A monitoring method comprising generating first early warning information based on the identity information of the target target when the temperature information is equal to or higher than a predetermined temperature threshold value.
(Item 2)
Based on the dimensional information of the first region and the third region corresponding to the first region in the infrared image, it is possible to perform biological detection on the target target and obtain a biological detection result.
To determine the distance between the target target and the image acquisition device that acquires the visible light image based on the dimensional information of the first region.
Determining a biodetection strategy based on the distance,
Determining the position of the third region in the infrared image based on the position of the first region in the visible light image.
Based on the biometric detection strategy, the biometric detection process is performed on the third region of the infrared image to obtain the biometric detection result.
The method according to item 1.
(Item 3)
Determining the biodetection strategy based on the distance
When the distance is equal to or greater than the first distance threshold value, the biological detection strategy is determined as a biological detection strategy based on the human body morphology.
When the distance is equal to or greater than the second distance threshold value and less than the first distance threshold value, the biological detection strategy is determined as a biological detection strategy based on the head and neck morphology.
When the distance is less than the second distance threshold, the biodetection strategy is determined as a biodetection strategy based on the face morphology, and is characterized by including one of the following.
The method described in item 2.
(Item 4)
Based on the biometric detection strategy, the biometric detection process may be performed on the third region to obtain the biometric detection result.
Based on the biological detection strategy, the morphological detection process is performed on the third region to obtain the morphological detection result.
When the morphological detection result is a biological morphology, an isothermal analysis process is performed on the face region in the third region to obtain an isothermal analysis result.
Determining the first weight of the morphological detection result and the second weight of the isothermal analysis result based on the biological detection strategy.
It is characterized by including determining the biological detection result based on the first weight, the second weight, the morphological detection result, and the isothermal analysis result.
The method described in item 2.
(Item 5)
The method is
When the biological detection result is a living body, it is to detect whether or not a predetermined target is included in the first region and obtain the first detection result, and the predetermined target is a part of the face. Including, further including, including articles that shield the area,
Performing the identification process on the first area and obtaining the identification information of the target target is not possible.
Based on the first detection result, the first region is subjected to identification processing, and the identification information of the target target is obtained.
The method according to item 1.
(Item 6)
It is possible to detect whether or not a predetermined target is included in the first region and obtain the first detection result.
The detection process is performed on the face region in the first region to determine the feature defect result of the face region.
When the feature defect result is a predetermined feature defect, it is characterized by detecting whether or not a predetermined target is included in the face region and obtaining the first detection result.
The method according to item 5.
(Item 7)
Based on the first detection result, it is possible to perform the identification processing on the first region and obtain the identification information of the target target.
When the first detection result is that the predetermined target does not exist, the first identification process is performed on the face region in the first region to obtain the identification information of the target target.
When the first detection result is that the predetermined target exists, the second identification process is performed on the face region in the first region to obtain the identification information of the target target. The feature of the unobstructed region of the face in the second identity recognition process is larger than the weight of the feature of the corresponding region in the first identity recognition process, and one of them is included. do
The method according to item 5.
(Item 8)
The method is
The first detection result further comprises generating a second early warning information when the predetermined target does not exist.
The method according to item 5.
(Item 9)
The method is
Further including superimposing the position information of the first region or the third region, the temperature information of the target target, and the identification information of the target target on the visible light image and / or the infrared image to obtain a detected image. Characterized by
The method according to any one of items 1 to 8.
(Item 10)
It is a monitoring system, and the monitoring system includes a visible light image acquisition portion, an infrared image acquisition portion, and a processing portion.
The processed part is
Target area recognition is performed on the visible light image of the monitoring area acquired by the visible light image acquisition portion, and the first area in which the target target is located and the second area in which the predetermined portion of the target target is located in the visible light image. And
Based on the dimensional information of the first region and the third region corresponding to the first region in the infrared image acquired by the infrared image acquisition portion, the biological detection is performed on the target target and the biological detection is performed. Get results,
When the biological detection result is a living body, the first region is subjected to identification processing to obtain the identification information of the target target, and the fourth region corresponding to the second region in the infrared image is obtained. Then, the temperature detection process is performed to obtain the temperature information of the target target.
A monitoring system configured to generate first early warning information based on the identity information of the target target when the temperature information is equal to or higher than a predetermined temperature threshold.
(Item 11)
The processed portion is further
Based on the dimensional information of the first region, the distance between the target object and the image acquisition device that acquires the visible light image is determined.
Based on the distance, the biological detection strategy is determined, and the position of the third region in the infrared image is determined based on the position of the first region in the visible light image.
Based on the biometric detection strategy, the third region in the infrared image is subjected to biometric detection processing, and the biometric detection result is obtained.
The system according to item 10.
(Item 12)
The processed portion is further
When the distance is equal to or greater than the first distance threshold, the biological detection strategy is determined as a biological detection strategy based on the human body morphology, or
If the distance is greater than or equal to the second distance threshold and less than the first distance threshold, the biodetection strategy is determined as a biodetection strategy based on head and neck morphology, or
When the distance is less than the second distance threshold, the biodetection strategy is configured to be determined as a biodetection strategy based on the face morphology.
The system according to item 11.
(Item 13)
The processed portion is further
A morphological detection process was performed on the third region based on the biological detection strategy, and a morphological detection result was obtained.
When the morphological detection result is a biological morphology, an isothermal analysis process is performed on the face region in the third region to obtain an isothermal analysis result.
Based on the biological detection strategy, the first weight of the morphological detection result and the second weight of the isothermal analysis result are determined.
It is characterized in that the biological detection result is determined based on the first weight, the second weight, the morphological detection result, and the isothermal analysis result.
The system according to item 11.
(Item 14)
The processed portion is further
When the biological detection result is a living body, it is configured to detect whether or not a predetermined target is included in the first region and obtain the first detection result, and the predetermined target is a part of the face. Including articles that shield the area
The processed portion is further
Based on the first detection result, the first region is subjected to an identification process to obtain the identification information of the target target.
The system according to item 10.
(Item 15)
The processed portion is further
The face region in the first region is subjected to detection processing, and the feature defect result of the face region is determined.
When the feature defect result is a predetermined feature defect, it is characterized in that it is configured to detect whether or not a predetermined target is included in the face region and obtain the first detection result.
Item 14. The system according to item 14.
(Item 16)
The processed portion is further
When the first detection result is that the predetermined target does not exist, the first identification process is performed on the face region in the first region to obtain the identification information of the target target, or
When the first detection result is that the predetermined target exists, the face region in the first region is configured to perform the second identification processing to obtain the identification information of the target target. The weight of the feature of the unshielded region of the face in the second identity recognition process is larger than the weight of the feature of the corresponding region in the first identity recognition process.
Item 14. The system according to item 14.
(Item 17)
The processed portion is further
It is configured to superimpose the position information of the first region or the third region, the temperature information of the target target, and the identification information of the target target on the visible light image and / or the infrared image to obtain a detected image. Characterized by
The system according to any one of items 10 to 16.
(Item 18)
It ’s an electronic device,
With the processor
With memory configured to store instructions that can be executed by the processor,
The processor is an electronic device configured to perform the method according to any one of items 1-9.
(Item 19)
A computer-readable storage medium that stores computer program instructions for causing the processor to execute the method according to any one of items 1 to 9, when executed by a processor.
(Item 20)
A computer program comprising a computer-readable code for causing a processor in the electronic device to perform the method according to any one of items 1 to 9, when executed in the electronic device.

Claims (20)

監視方法であって、
監視領域の可視光画像に対してターゲット領域認識を行い、前記可視光画像におけるターゲット対象が位置する第1領域及び前記ターゲット対象の所定部位が位置する第2領域を得ることと、
前記第1領域の寸法情報、及び前記監視領域の赤外画像における、前記第1領域に対応する第3領域に基づいて、前記ターゲット対象に対して生体検出を行い、生体検出結果を得ることと、
生体検出結果が生体である場合、前記第1領域に対して身分認識処理を行い、前記ターゲット対象の身分情報を得、前記赤外画像における、前記第2領域に対応する第4領域に対して、温度検出処理を行い、前記ターゲット対象の温度情報を得ることと、
前記温度情報が所定の温度閾値以上である場合、前記ターゲット対象の身分情報に基づいて、第1早期警報情報を生成することと、を含む、監視方法。
It ’s a monitoring method.
Target area recognition is performed on the visible light image of the monitoring area to obtain a first area in which the target target is located and a second area in which the predetermined portion of the target target is located in the visible light image.
Based on the dimensional information of the first region and the third region corresponding to the first region in the infrared image of the monitoring region, the biological detection is performed on the target target and the biological detection result is obtained. ,
When the biological detection result is a living body, the first region is subjected to identification processing to obtain the identification information of the target target, and the fourth region corresponding to the second region in the infrared image is obtained. , Performing temperature detection processing to obtain temperature information of the target,
A monitoring method comprising generating first early warning information based on the identity information of the target target when the temperature information is equal to or higher than a predetermined temperature threshold value.
前記第1領域の寸法情報、及び前記赤外画像における、前記第1領域に対応する第3領域に基づいて、前記ターゲット対象に対して生体検出を行い、生体検出結果を得ることは、
前記第1領域の寸法情報に基づいて、前記ターゲット対象と、前記可視光画像を取得する画像取得装置と、の距離を決定することと、
前記距離に基づいて、生体検出策略を決定することと、
可視光画像における、前記第1領域の位置に基づいて、前記赤外画像において前記第3領域の位置を決定することと、
前記生体検出策略に基づいて、赤外画像における前記第3領域に対して生体検出処理を行い、前記生体検出結果を得ることと、を含むことを特徴とする
請求項1に記載の方法。
Based on the dimensional information of the first region and the third region corresponding to the first region in the infrared image, it is possible to perform biological detection on the target target and obtain a biological detection result.
To determine the distance between the target target and the image acquisition device that acquires the visible light image based on the dimensional information of the first region.
Determining a biodetection strategy based on the distance,
Determining the position of the third region in the infrared image based on the position of the first region in the visible light image.
The method according to claim 1, further comprising performing a biological detection process on the third region of an infrared image based on the biological detection strategy to obtain the biological detection result.
前記距離に基づいて、前記生体検出策略を決定することは、
前記距離が第1距離閾値以上である場合、前記生体検出策略を、人体形態に基づいた生体検出策略として決定することと、
前記距離が第2距離閾値以上であって前記第1距離閾値未満である場合、前記生体検出策略を、頭頸部形態に基づいた生体検出策略として決定することと、
前記距離が前記第2距離閾値未満である場合、前記生体検出策略を、顔形態に基づいた生体検出策略として決定することと、のうちの1つを含むことを特徴とする
請求項2に記載の方法。
Determining the biodetection strategy based on the distance
When the distance is equal to or greater than the first distance threshold value, the biological detection strategy is determined as a biological detection strategy based on the human body morphology.
When the distance is equal to or greater than the second distance threshold value and less than the first distance threshold value, the biological detection strategy is determined as a biological detection strategy based on the head and neck morphology.
The second aspect of claim 2, wherein when the distance is less than the second distance threshold value, the biometric detection strategy is determined as a biometric detection strategy based on the face morphology, and one of the following is included. the method of.
前記生体検出策略に基づいて、前記第3領域に対して生体検出処理を行い、前記生体検出結果を得ることは、
前記生体検出策略に基づいて前記第3領域に対して形態検出処理を行い、形態検出結果を得ることと、
前記形態検出結果が生体形態である場合、前記第3領域における顔領域に対して等温分析処理を行い、等温分析結果を得ることと、
前記生体検出策略に基づいて、形態検出結果の第1重み及び前記等温分析結果の第2重みを決定することと、
前記第1重み、前記第2重み、前記形態検出結果及び前記等温分析結果に基づいて、前記生体検出結果を決定することと、を含むことを特徴とする
請求項2に記載の方法。
Based on the biometric detection strategy, the biometric detection process may be performed on the third region to obtain the biometric detection result.
Based on the biological detection strategy, the morphological detection process is performed on the third region to obtain the morphological detection result.
When the morphological detection result is a biological morphology, an isothermal analysis process is performed on the face region in the third region to obtain an isothermal analysis result.
Determining the first weight of the morphological detection result and the second weight of the isothermal analysis result based on the biological detection strategy.
The method according to claim 2, wherein the biological detection result is determined based on the first weight, the second weight, the morphological detection result, and the isothermal analysis result.
前記方法は、
前記生体検出結果が生体である場合、前記第1領域内に所定のターゲットが含まれるかどうかを検出し、前記第1検出結果を得ることであって、前記所定のターゲットは、顔の一部領域を遮蔽する物品を含む、ことを更に含み、
前記第1領域に対して身分認識処理を行い、前記ターゲット対象の身分情報を得ることは、
前記第1検出結果に基づいて、前記第1領域に対して身分認識処理を行い、前記ターゲット対象の身分情報を得ることを含むことを特徴とする
請求項1に記載の方法。
The method is
When the biological detection result is a living body, it is to detect whether or not a predetermined target is included in the first region and obtain the first detection result, and the predetermined target is a part of the face. Including, further including, including articles that shield the area,
Performing the identification process on the first area and obtaining the identification information of the target target is not possible.
The method according to claim 1, wherein the first region is subjected to an identification process based on the first detection result, and the identification information of the target target is obtained.
前記第1領域内に所定のターゲットが含まれるかどうかを検出し、前記第1検出結果を得ることは、
前記第1領域における顔領域に対して検出処理を行い、前記顔領域の特徴欠損結果を決定することと、
前記特徴欠損結果が所定の特徴欠損である場合、前記顔領域内に所定のターゲットが含まれるかどうかを検出し、前記第1検出結果を得ることと、を含むことを特徴とする
請求項5に記載の方法。
It is possible to detect whether or not a predetermined target is included in the first region and obtain the first detection result.
The detection process is performed on the face region in the first region to determine the feature defect result of the face region.
5. The feature claim 5 is characterized in that when the feature deficiency result is a predetermined feature deficiency, it is detected whether or not a predetermined target is included in the face region and the first detection result is obtained. The method described in.
前記第1検出結果に基づいて、前記第1領域に対して身分認識処理を行い、前記ターゲット対象の身分情報を得ることは、
前記第1検出結果が、前記所定のターゲットが存在しないことである場合、前記第1領域における顔領域に対して第1身分認識処理を行い、前記ターゲット対象の身分情報を得ることと、
前記第1検出結果が、前記所定のターゲットが存在することである場合、前記第1領域における顔領域に対して第2身分認識処理を行い、前記ターゲット対象の身分情報を得ることであって、前記第2身分認識処理における顔の遮蔽されていない領域の特徴の重みは、第1身分認識処理における対応する領域の特徴の重みより大きい、ことと、のうちの1つを含むことを特徴とする
請求項5に記載の方法。
Based on the first detection result, it is possible to perform the identification processing on the first region and obtain the identification information of the target target.
When the first detection result is that the predetermined target does not exist, the first identification process is performed on the face region in the first region to obtain the identification information of the target target.
When the first detection result is that the predetermined target exists, the second identification process is performed on the face region in the first region to obtain the identification information of the target target. The feature of the unobstructed region of the face in the second identity recognition process is larger than the weight of the feature of the corresponding region in the first identity recognition process, and one of them is included. The method according to claim 5.
前記方法は、
前記第1検出結果が、前記所定のターゲットが存在しないことである場合、第2早期警報情報を生成することを更に含むことを特徴とする
請求項5に記載の方法。
The method is
The method according to claim 5, further comprising generating a second early warning information when the first detection result is the absence of the predetermined target.
前記方法は、
前記第1領域又は前記第3領域の位置情報、前記ターゲット対象の温度情報及び前記ターゲット対象の身分情報を前記可視光画像及び/又は赤外画像と重畳処理し、検出画像を得ることを更に含むことを特徴とする
請求項1から8のうちいずれか一項に記載の方法。
The method is
Further including superimposing the position information of the first region or the third region, the temperature information of the target target, and the identification information of the target target on the visible light image and / or the infrared image to obtain a detected image. The method according to any one of claims 1 to 8, wherein the method is characterized by the above.
監視システムであって、前記監視システムは、可視光画像取得部分と、赤外画像取得部分と、処理部分と、を備え、
前記処理部分は、
可視光画像取得部分により取得された監視領域の可視光画像に対してターゲット領域認識を行い、前記可視光画像におけるターゲット対象が位置する第1領域及び前記ターゲット対象の所定部位が位置する第2領域を得、
前記第1領域の寸法情報、及び赤外画像取得部分により取得された赤外画像における、前記第1領域に対応する第3領域に基づいて、前記ターゲット対象に対して生体検出を行い、生体検出結果を得、
前記生体検出結果が生体である場合、前記第1領域に対して身分認識処理を行い、前記ターゲット対象の身分情報を得、前記赤外画像における、前記第2領域に対応する第4領域に対して、温度検出処理を行い、前記ターゲット対象の温度情報を得、
前記温度情報が所定の温度閾値以上である場合、前記ターゲット対象の身分情報に基づいて、第1早期警報情報を生成するように構成される、監視システム。
It is a monitoring system, and the monitoring system includes a visible light image acquisition portion, an infrared image acquisition portion, and a processing portion.
The processed part is
Target area recognition is performed on the visible light image of the monitoring area acquired by the visible light image acquisition portion, and the first area in which the target target is located and the second area in which the predetermined portion of the target target is located in the visible light image. And
Based on the dimensional information of the first region and the third region corresponding to the first region in the infrared image acquired by the infrared image acquisition portion, the biological detection is performed on the target target and the biological detection is performed. Get results,
When the biological detection result is a living body, the first region is subjected to identification processing to obtain the identification information of the target target, and the fourth region corresponding to the second region in the infrared image is obtained. Then, the temperature detection process is performed to obtain the temperature information of the target target.
A monitoring system configured to generate first early warning information based on the identity information of the target target when the temperature information is equal to or higher than a predetermined temperature threshold.
前記処理部分は更に、
前記第1領域の寸法情報に基づいて、前記ターゲット対象と、前記可視光画像を取得する画像取得装置と、の距離を決定し、
前記距離に基づいて、生体検出策略を決定し、可視光画像における、前記第1領域の位置に基づいて、前記赤外画像において前記第3領域の位置を決定し、
前記生体検出策略に基づいて、赤外画像における前記第3領域に対して生体検出処理を行い、前記生体検出結果を得るように構成されることを特徴とする
請求項10に記載のシステム。
The processed portion is further
Based on the dimensional information of the first region, the distance between the target object and the image acquisition device that acquires the visible light image is determined.
Based on the distance, the biological detection strategy is determined, and the position of the third region in the infrared image is determined based on the position of the first region in the visible light image.
The system according to claim 10, wherein a biometric detection process is performed on the third region of an infrared image based on the biometric detection strategy, and the biometric detection result is obtained.
前記処理部分は更に、
前記距離が第1距離閾値以上である場合、前記生体検出策略を、人体形態に基づいた生体検出策略として決定し、又は、
前記距離が第2距離閾値以上であって前記第1距離閾値未満である場合、前記生体検出策略を、頭頸部形態に基づいた生体検出策略として決定し、又は、
前記距離が前記第2距離閾値未満である場合、前記生体検出策略を、顔形態に基づいた生体検出策略として決定するように構成されることを特徴とする
請求項11に記載のシステム。
The processed portion is further
When the distance is equal to or greater than the first distance threshold, the biological detection strategy is determined as a biological detection strategy based on the human body morphology, or
If the distance is greater than or equal to the second distance threshold and less than the first distance threshold, the biodetection strategy is determined as a biodetection strategy based on head and neck morphology, or
The system according to claim 11, wherein when the distance is less than the second distance threshold value, the biometric detection strategy is configured to be determined as a biometric detection strategy based on the face morphology.
前記処理部分は更に、
前記生体検出策略に基づいて前記第3領域に対して形態検出処理を行い、形態検出結果を得、
前記形態検出結果が生体形態である場合、前記第3領域における顔領域に対して等温分析処理を行い、等温分析結果を得、
前記生体検出策略に基づいて、形態検出結果の第1重み及び前記等温分析結果の第2重みを決定し、
前記第1重み、前記第2重み、前記形態検出結果及び前記等温分析結果に基づいて、前記生体検出結果を決定するように構成されることを特徴とする
請求項11に記載のシステム。
The processed portion is further
A morphological detection process was performed on the third region based on the biological detection strategy, and a morphological detection result was obtained.
When the morphological detection result is a biological morphology, an isothermal analysis process is performed on the face region in the third region to obtain an isothermal analysis result.
Based on the biological detection strategy, the first weight of the morphological detection result and the second weight of the isothermal analysis result are determined.
11. The system according to claim 11, wherein the system is configured to determine the biological detection result based on the first weight, the second weight, the morphological detection result, and the isothermal analysis result.
前記処理部分は更に、
前記生体検出結果が生体である場合、前記第1領域内に所定のターゲットが含まれるかどうかを検出し、前記第1検出結果を得るように構成され、前記所定のターゲットは、顔の一部領域を遮蔽する物品を含み、
前記処理部分は更に、
前記第1検出結果に基づいて、前記第1領域に対して身分認識処理を行い、前記ターゲット対象の身分情報を得るように構成されることを特徴とする
請求項10に記載のシステム。
The processed portion is further
When the biological detection result is a living body, it is configured to detect whether or not a predetermined target is included in the first region and obtain the first detection result, and the predetermined target is a part of the face. Including articles that shield the area
The processed portion is further
The system according to claim 10, wherein an identification process is performed on the first region based on the first detection result, and the identification information of the target target is obtained.
前記処理部分は更に、
前記第1領域における顔領域に対して検出処理を行い、前記顔領域の特徴欠損結果を決定し、
前記特徴欠損結果が所定の特徴欠損である場合、前記顔領域内に所定のターゲットが含まれるかどうかを検出し、前記第1検出結果を得るように構成されることを特徴とする
請求項14に記載のシステム。
The processed portion is further
The face region in the first region is subjected to detection processing, and the feature defect result of the face region is determined.
14. Claim 14 is characterized in that when the feature defect result is a predetermined feature defect, it is configured to detect whether or not a predetermined target is included in the face region and obtain the first detection result. The system described in.
前記処理部分は更に、
前記第1検出結果が、前記所定のターゲットが存在しないことである場合、前記第1領域における顔領域に対して第1身分認識処理を行い、前記ターゲット対象の身分情報を得、又は、
前記第1検出結果が、前記所定のターゲットが存在することである場合、前記第1領域における顔領域に対して第2身分認識処理を行い、前記ターゲット対象の身分情報を得るように構成され、前記第2身分認識処理における顔の遮蔽されていない領域の特徴の重みは、第1身分認識処理における対応する領域の特徴の重みより大きいことを特徴とする
請求項14に記載のシステム。
The processed portion is further
When the first detection result is that the predetermined target does not exist, the first identification process is performed on the face region in the first region to obtain the identification information of the target target, or
When the first detection result is that the predetermined target exists, the face region in the first region is configured to perform the second identification processing to obtain the identification information of the target target. The system according to claim 14, wherein the weight of the feature of the unshielded region of the face in the second identity recognition process is larger than the weight of the feature of the corresponding region in the first identity recognition process.
前記処理部分は更に、
前記第1領域又は前記第3領域の位置情報、前記ターゲット対象の温度情報及び前記ターゲット対象の身分情報を前記可視光画像及び/又は赤外画像と重畳処理し、検出画像を得るように構成されることを特徴とする
請求項10から16のうちいずれか一項に記載のシステム。
The processed portion is further
It is configured to superimpose the position information of the first region or the third region, the temperature information of the target target, and the identification information of the target target on the visible light image and / or the infrared image to obtain a detected image. The system according to any one of claims 10 to 16, wherein the system is characterized by the above.
電子機器であって、
プロセッサと、
プロセッサによる実行可能な命令を記憶するように構成されるメモリと、を備え、
前記プロセッサは、請求項1から9のうちいずれか一項に記載の方法を実行するように構成される、電子機器。
It ’s an electronic device,
With the processor
With memory configured to store instructions that can be executed by the processor,
The processor is an electronic device configured to perform the method according to any one of claims 1-9.
プロセッサにより実行されると、前記プロセッサに請求項1から9のうちいずれか一項に記載の方法を実行させるためのコンピュータプログラム命令を記憶した、コンピュータ可読記憶媒体。 A computer-readable storage medium that, when executed by a processor, stores a computer program instruction for causing the processor to perform the method according to any one of claims 1 to 9. 電子機器で実行されると、前記電子機器におけるプロセッサに、請求項1から9のうちいずれか一項に記載の方法を実行させるためのコンピュータ可読コードを含む、コンピュータプログラム。 A computer program comprising a computer-readable code for causing a processor in the electronic device to perform the method according to any one of claims 1 to 9, when executed in the electronic device.
JP2021536787A 2020-03-13 2020-10-27 Monitoring methods and systems, electronic devices and storage media Ceased JP2022526207A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010177537.0A CN111414831B (en) 2020-03-13 2020-03-13 Monitoring method and system, electronic device and storage medium
CN202010177537.0 2020-03-13
PCT/CN2020/124151 WO2021179624A1 (en) 2020-03-13 2020-10-27 Monitoring method and system, electronic device, and storage medium

Publications (1)

Publication Number Publication Date
JP2022526207A true JP2022526207A (en) 2022-05-24

Family

ID=71493042

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021536787A Ceased JP2022526207A (en) 2020-03-13 2020-10-27 Monitoring methods and systems, electronic devices and storage media

Country Status (5)

Country Link
JP (1) JP2022526207A (en)
CN (1) CN111414831B (en)
SG (1) SG11202106842PA (en)
TW (1) TWI768641B (en)
WO (1) WO2021179624A1 (en)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111414831B (en) * 2020-03-13 2022-08-12 深圳市商汤科技有限公司 Monitoring method and system, electronic device and storage medium
CN112057074A (en) * 2020-07-21 2020-12-11 北京迈格威科技有限公司 Respiration rate measuring method, respiration rate measuring device, electronic equipment and computer storage medium
CN111985377A (en) * 2020-08-13 2020-11-24 深圳市商汤科技有限公司 Temperature measuring method and device, electronic equipment and storage medium
CN112131976B (en) * 2020-09-09 2022-09-16 厦门市美亚柏科信息股份有限公司 Self-adaptive portrait temperature matching and mask recognition method and device
CN112215113A (en) * 2020-09-30 2021-01-12 张成林 Face recognition method and device
CN112232186B (en) * 2020-10-14 2024-02-27 盈合(深圳)机器人与自动化科技有限公司 Epidemic prevention monitoring method and system
CN112287798A (en) * 2020-10-23 2021-01-29 深圳市商汤科技有限公司 Temperature measuring method and device, electronic equipment and storage medium
CN112525355A (en) * 2020-12-17 2021-03-19 杭州海康威视数字技术股份有限公司 Image processing method, device and equipment
CN112750278A (en) * 2021-01-18 2021-05-04 上海燊义环保科技有限公司 Full-intelligent network nursing system
CN112883856B (en) * 2021-02-05 2024-03-29 浙江华感科技有限公司 Monitoring method, monitoring device, electronic equipment and storage medium
CN113158877A (en) * 2021-04-16 2021-07-23 上海云从企业发展有限公司 Imaging deviation analysis and biopsy method, imaging deviation analysis and biopsy device, and computer storage medium
CN113496564A (en) * 2021-06-02 2021-10-12 山西三友和智慧信息技术股份有限公司 Park artificial intelligence management and control system
CN113420629B (en) * 2021-06-17 2023-04-28 浙江大华技术股份有限公司 Image processing method, device, equipment and medium
CN113420667B (en) * 2021-06-23 2022-08-02 工银科技有限公司 Face living body detection method, device, equipment and medium
CN113432720A (en) * 2021-06-25 2021-09-24 深圳市迈斯泰克电子有限公司 Temperature detection method and device based on human body recognition and temperature detection instrument
CN113687370A (en) * 2021-08-05 2021-11-23 上海炬佑智能科技有限公司 Detection method, detection device, electronic equipment and storage medium
CN113989695B (en) * 2021-09-18 2022-05-20 北京远度互联科技有限公司 Target tracking method and device, electronic equipment and storage medium
CN114166358B (en) * 2021-11-19 2024-04-16 苏州超行星创业投资有限公司 Robot inspection method, system, equipment and storage medium for epidemic prevention inspection
CN114427915A (en) * 2022-01-21 2022-05-03 深圳市商汤科技有限公司 Temperature control method, temperature control device, storage medium and electronic equipment
CN114894337B (en) * 2022-07-11 2022-09-27 深圳市大树人工智能科技有限公司 Temperature measurement method and device for outdoor face recognition
CN115471984B (en) * 2022-07-29 2023-09-15 青岛海尔科技有限公司 Method and device for executing alarm event, storage medium and electronic device
CN116849613B (en) * 2023-07-12 2024-07-26 北京鹰之眼智能健康科技有限公司 Trigeminal nerve functional state monitoring system
CN116628560A (en) * 2023-07-24 2023-08-22 四川互慧软件有限公司 Method and device for identifying snake damage case data based on clustering algorithm and electronic equipment
CN117297550B (en) * 2023-10-30 2024-05-03 北京鹰之眼智能健康科技有限公司 Information processing system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005100193A (en) * 2003-09-26 2005-04-14 King Tsushin Kogyo Kk Invasion monitoring device
JP2012235415A (en) * 2011-05-09 2012-11-29 Nec Software Kyushu Ltd Image processing system, febrile person identifying method, image processing apparatus, and control method and program thereof

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101793562B (en) * 2010-01-29 2013-04-24 中山大学 Face detection and tracking algorithm of infrared thermal image sequence
CN102622588B (en) * 2012-03-08 2013-10-09 无锡中科奥森科技有限公司 Dual-certification face anti-counterfeit method and device
CN102855496B (en) * 2012-08-24 2016-05-25 苏州大学 Block face authentication method and system
CN105912908A (en) * 2016-04-14 2016-08-31 苏州优化智能科技有限公司 Infrared-based real person living body identity verification method
CN106372601B (en) * 2016-08-31 2020-12-22 上海依图信息技术有限公司 Living body detection method and device based on infrared visible binocular images
US9693695B1 (en) * 2016-09-23 2017-07-04 International Business Machines Corporation Detecting oral temperature using thermal camera
CN107595254B (en) * 2017-10-17 2021-02-26 黄晶 Infrared health monitoring method and system
CN108288028A (en) * 2017-12-29 2018-07-17 佛山市幻云科技有限公司 Campus fever monitoring method, device and server
CN108710841B (en) * 2018-05-11 2021-06-15 杭州软库科技有限公司 Human face living body detection device and method based on MEMs infrared array sensor
CN110647955A (en) * 2018-06-26 2020-01-03 义隆电子股份有限公司 Identity authentication method
CN110411570B (en) * 2019-06-28 2020-08-28 武汉高德智感科技有限公司 Infrared human body temperature screening method based on human body detection and human body tracking technology
CN111414831B (en) * 2020-03-13 2022-08-12 深圳市商汤科技有限公司 Monitoring method and system, electronic device and storage medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005100193A (en) * 2003-09-26 2005-04-14 King Tsushin Kogyo Kk Invasion monitoring device
JP2012235415A (en) * 2011-05-09 2012-11-29 Nec Software Kyushu Ltd Image processing system, febrile person identifying method, image processing apparatus, and control method and program thereof

Also Published As

Publication number Publication date
SG11202106842PA (en) 2021-10-28
WO2021179624A1 (en) 2021-09-16
TW202134940A (en) 2021-09-16
TWI768641B (en) 2022-06-21
CN111414831B (en) 2022-08-12
CN111414831A (en) 2020-07-14

Similar Documents

Publication Publication Date Title
JP2022526207A (en) Monitoring methods and systems, electronic devices and storage media
CN105310659B (en) Apparatus and method for improving accuracy of contactless body temperature measurement
WO2020062969A1 (en) Action recognition method and device, and driver state analysis method and device
US9600993B2 (en) Method and system for behavior detection
WO2021031609A1 (en) Living body detection method and device, electronic apparatus and storage medium
EP3076382B1 (en) Method, apparatus and electronic device for display control
WO2017215224A1 (en) Fingerprint input prompting method and apparatus
CN110287671B (en) Verification method and device, electronic equipment and storage medium
KR20160024168A (en) Method for controlling display in electronic device and the electronic device
US20170006216A1 (en) Method and device for acquiring iris image
KR20160052309A (en) Electronic device and method for analysis of face information in electronic device
EP3467763A1 (en) Information processing device, information processing method, and recording medium
KR102206877B1 (en) Method and apparatus for displaying biometric information
US20190095746A1 (en) Method, device and non-transitory storage medium for processing clothes information
CN111095364A (en) Information processing apparatus, information processing method, and program
US20220351469A1 (en) Simulation Object Identity Recognition Method, Related Apparatus, and System
CN111984347B (en) Interactive processing method, device, equipment and storage medium
KR20150103927A (en) Method for displaying content and electronic device
CN110874905A (en) Monitoring method and device
JP2022512048A (en) Image processing methods and devices, electronic devices and storage media
CN113591701A (en) Respiration detection area determination method and device, storage medium and electronic equipment
JP2022548453A (en) Image segmentation method and apparatus, electronic device and storage medium
CN110826045B (en) Authentication method and device, electronic equipment and storage medium
CN109035136A (en) Image processing method and device, storage medium
CN112949568A (en) Method and device for matching human face and human body, electronic equipment and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210623

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220708

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220815

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221129

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20230324