JP2022552754A - IMAGE DETECTION METHOD AND RELATED DEVICE, DEVICE, STORAGE MEDIUM, AND COMPUTER PROGRAM - Google Patents

IMAGE DETECTION METHOD AND RELATED DEVICE, DEVICE, STORAGE MEDIUM, AND COMPUTER PROGRAM Download PDF

Info

Publication number
JP2022552754A
JP2022552754A JP2021564951A JP2021564951A JP2022552754A JP 2022552754 A JP2022552754 A JP 2022552754A JP 2021564951 A JP2021564951 A JP 2021564951A JP 2021564951 A JP2021564951 A JP 2021564951A JP 2022552754 A JP2022552754 A JP 2022552754A
Authority
JP
Japan
Prior art keywords
target
image
detected
feature
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021564951A
Other languages
Japanese (ja)
Inventor
ジャン シー
イエン イエン
Original Assignee
ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド filed Critical ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド
Publication of JP2022552754A publication Critical patent/JP2022552754A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

本願の実施例は画像検出方法及び関連装置、機器、並びに記憶媒体を開示し、前記画像検出方法は、検出対象目標を含む第1画像を取得するステップと、第1画像を検出し、第1画像の検出結果を得るステップであって、検出結果は第1画像内の検出対象目標が予め設定された物体に遮蔽されたか否かを含むステップと、検出結果に合致する所定操作を実行するステップと、を含む。Embodiments of the present application disclose an image detection method and related devices, equipment, and storage media, and the image detection method includes the steps of: acquiring a first image including a target to be detected; detecting the first image; a step of obtaining a detection result of the image, the detection result including whether or not the detection target in the first image is occluded by a preset object; and a step of executing a predetermined operation that matches the detection result. and, including.

Description

(関連出願の相互参照)
本願は出願番号が202011002322.1であり、出願日が2020年09月22日であり、発明の名称が「画像検出方法及び関連装置、機器、並びに記憶媒体」である中国特許出願に基づいて提出され、該中国特許出願の優先権を主張し、該中国特許出願の全てが参照によって本願に組み込まれる。
(Cross reference to related applications)
This application is filed based on a Chinese patent application with application number 202011002322.1, dated September 22, 2020, and titled "Image Detection Method and Related Apparatus, Apparatus, and Storage Medium" and claiming priority of the Chinese patent application, which is incorporated herein by reference in its entirety.

本願は画像処理の技術分野に関し、特に画像検出方法及び関連装置、機器、記憶媒体、並びにコンピュータプログラムに関する。 TECHNICAL FIELD The present application relates to the technical field of image processing, and more particularly to image detection methods and related devices, equipment, storage media, and computer programs.

現在、画像処理、特に画像内の目標に対する検出及び認識は、様々な応用シーンにおいて広く使用されている。顔を例にし、画像内の顔に対する検出及び認識は、金融、税関検査、政府、航空、電気、工場、教育、医療等の分野において広く使用されている。従来技術では撮影機器を用いて顔を含む画像又はビデオストリームを収集し、画像において顔を自動的に検出し、さらに検出された顔に対して顔認識を行い、認識結果に基づいて対応する処理を行う。 Currently, image processing, especially detection and recognition of targets in images, is widely used in various application scenes. Taking faces as an example, the detection and recognition of faces in images is widely used in fields such as finance, customs inspection, government, aviation, electricity, factories, education, and medicine. Conventional technology collects images or video streams that include faces using photographic equipment, automatically detects faces in the images, performs face recognition on the detected faces, and performs corresponding processing based on the recognition results. I do.

本願の実施例は少なくとも画像検出方法及び関連装置、機器、記憶媒体、並びにコンピュータプログラムを提供する。 Embodiments of the present application provide at least an image detection method and related apparatus, apparatus, storage medium, and computer program.

本願の実施例は画像検出方法を提供する。前記画像検出方法は、検出対象目標を含む第1画像を取得するステップと、第1画像を検出し、第1画像の検出結果を得るステップであって、検出結果は第1画像内の検出対象目標が予め設定された物体に遮蔽されたか否かを含むステップと、検出結果に合致する所定操作を実行するステップと、を含む。 Embodiments of the present application provide an image detection method. The image detection method includes acquiring a first image including a target to be detected, and detecting the first image to obtain a detection result of the first image, wherein the detection result is the target to be detected in the first image. including the steps of including whether the target is occluded by a preset object; and performing a predetermined operation in accordance with the detection result.

従って、検出対象目標を含む第1画像を検出して検出対象目標が遮蔽されたか否かの検出結果を得て、その後、検出結果に合致する所定操作を実行することで、検出対象目標が遮蔽されたか否かの判断を実現し、それにより検出結果に合致する後続の所定操作を実行することができ、画像内の検出対象目標の遮蔽状態に応じる柔軟な処理を実現する。 Therefore, by detecting the first image including the target to be detected, obtaining a detection result indicating whether or not the target to be detected is shielded, and then executing a predetermined operation that matches the detection result, the target to be detected is shielded. It is possible to determine whether or not the detection target has been detected, thereby performing a subsequent predetermined operation that matches the detection result, and to realize flexible processing according to the occlusion state of the target to be detected in the image.

いくつかの実施例において、検出結果はニューラルネットワークにより第1画像を検出して得られたものである。 In some embodiments, the detection result is obtained by detecting the first image with a neural network.

従って、事前に訓練されたニューラルネットワークによって検出することで、より正確な検出結果及びより速い検出速度が得られる。 Therefore, detecting by a pre-trained neural network provides more accurate detection results and faster detection speed.

いくつかの実施例において、検出結果に合致する所定操作を実行するステップは、検出対象目標が予め設定された物体に遮蔽されていない場合、第1リマインドを通知するステップを含み、第1リマインドは、予め設定された物体で検出対象目標を遮蔽するように通知するためのものである。 In some embodiments, performing the predetermined operation matching the detection result includes notifying a first reminder if the target to be detected is not obscured by a preset object, wherein the first reminder is , to notify the detection target to be shielded by a preset object.

従って、検出対象目標が遮蔽されていないときに第1リマインドを通知することで、検出対象目標が予め設定された物体に遮蔽されていない状況を適時に通知し、それによって、被通知者が対応する措置を適時に取ることができる。 Therefore, by notifying the first reminder when the target to be detected is not shielded, the situation in which the target to be detected is not shielded by a preset object is notified in a timely manner, thereby allowing the recipient to respond. can take timely action to

いくつかの実施例において、検出結果は、検出対象目標の予め設定された物体での遮蔽方式が所定遮蔽方式であるか否かをさらに含み、検出結果に合致する所定操作を実行するステップは、検出対象目標が予め設定された物体に遮蔽され、且つ遮蔽方式が所定遮蔽方式でない場合、第2リマインドを通知するステップを含み、第2リマインドは、予め設定された物体での遮蔽方式を調整するように通知するためのものである。 In some embodiments, the detection result further includes whether the shielding mode of the preset object of the target to be detected is a predetermined shielding mode, and performing a predetermined operation consistent with the detection result includes: If the target to be detected is occluded by the preset object and the occluder mode is not the predetermined occluder mode, notifying a second reminder, wherein the second reminder adjusts the occluded mode by the preset object. It is intended to notify

従って、遮蔽方式が正確でない場合、検出対象目標の遮蔽方式を適時に調整するように、第2リマインドを通知する。 Therefore, if the shielding method is not correct, a second reminder is sent to timely adjust the shielding method of the detected target.

いくつかの実施例において、検出結果に合致する所定操作を実行するステップは、検出対象目標が予め設定された物体に遮蔽された場合、第1画像から少なくとも検出対象目標の未遮蔽部分の第1特徴を、検出対象目標の認識待ち特徴として抽出するステップと、認識待ち特徴を利用して検出対象目標を認識し、認識結果を得るステップと、を含む。 In some embodiments, the step of performing the predetermined operation matching the detection result includes removing from the first image at least a first unoccluded portion of the target to be detected if the target to be detected is occluded by a preset object. Extracting features as recognition pending features of the target to be detected; and recognizing the target to be detected using the recognition pending features to obtain recognition results.

従って、検出対象目標が予め設定された物体に遮蔽された場合、未遮蔽部分の特徴を抽出して認識することで、検出対象目標の局所特徴に基づく認識を実現し、また、該局所特徴は遮蔽されていないため、検出対象目標を表すことができ、一定程度、認識の正確性が保証される。 Therefore, when the target to be detected is blocked by a preset object, by extracting and recognizing the features of the unshielded portion, recognition based on the local features of the target to be detected is realized, and the local features are Because it is not occluded, it can represent the target to be detected, which guarantees recognition accuracy to some extent.

いくつかの実施例において、第1画像から少なくとも検出対象目標の未遮蔽部分の第1特徴を、検出対象目標の認識待ち特徴として抽出するステップは、第1画像から検出対象目標の未遮蔽部分の第1特徴を抽出し、検出対象目標の被遮蔽部分の第2特徴を取得するステップと、第1特徴及び第2特徴を検出対象目標の認識待ち特徴とするステップと、を含む。 In some embodiments, extracting from the first image at least a first feature of the unobstructed portion of the target to be detected as a pending recognition feature of the target to be detected comprises: extracting a first feature to obtain a second feature of an occluded portion of the target to be detected; and taking the first feature and the second feature as recognition pending features of the target to be detected.

従って、検出対象目標の未遮蔽部分の特徴を採用する以外に、被遮蔽部分の特徴も採用し、これにより検出対象目標の特徴をさらに多様にすることができる。 Therefore, in addition to employing the features of the unshielded portion of the target to be detected, the features of the shielded portion are also employed, thereby further diversifying the features of the target to be detected.

いくつかの実施例において、検出対象目標の被遮蔽部分の第2特徴を取得するステップは、第1画像から被遮蔽部分の特徴を第2特徴として抽出するステップ、又は、被遮蔽部分の所定特徴を第2特徴として取得するステップであって、所定特徴は、少なくとも1つの参考特徴に基づいて得られた特徴を含み、各参考特徴は、被遮蔽部分が存在しない参考目標内の、被遮蔽部分に対応する領域から抽出して得られたものであるステップを含む。 In some embodiments, obtaining the second feature of the occluded portion of the target to be detected includes extracting the feature of the occluded portion from the first image as the second feature, or extracting the predetermined feature of the occluded portion as a second feature, wherein the predetermined features include features obtained based on at least one reference feature, each reference feature being an occluded portion within the reference target where no occluded portion exists. is obtained by extracting from the region corresponding to .

従って、被遮蔽部分の特徴特定方法については、被遮蔽部分の特徴を直接抽出してもよく、被遮蔽部分の特徴は一定程度、検出対象目標に応じて相違するため、この方法は認識の正確性を向上させることができ、又は、所定特徴を被遮蔽部分の特徴として取得してもよく、この方法は被遮蔽部分に対して特徴抽出を行う必要がなく、消費される処理リソースを節約し、処理効率を高めることができる。 Therefore, as for the method of specifying the features of the shielded portion, the feature of the shielded portion may be directly extracted. Alternatively, the predetermined feature may be obtained as the feature of the obscured portion, this method does not need to perform feature extraction on the obscured portion, saving processing resources to be consumed. , can increase the processing efficiency.

いくつかの実施例において、認識待ち特徴を利用して検出対象目標を認識し、認識結果を得るステップは、予め設定された目標が1つ含まれる場合、認識待ち特徴と予め設定された目標の予め記憶された特徴との第1類似度を取得し、第1類似度が第1所定条件を満たす場合、認識結果が検出対象目標の身元認証に成功したことを含むことを決定するステップと、予め設定された目標が複数含まれる場合、認識待ち特徴と各予め設定された目標の予め記憶された特徴との第2類似度をそれぞれ取得し、認識結果が、検出対象目標の身元を、第2所定条件を満たす第2類似度に対応する予め設定された目標の身元として特定することを含むことを決定するステップと、のうちの少なくとも1つを含む。 In some embodiments, the step of recognizing the target to be detected using the recognition pending feature and obtaining the recognition result includes combining the recognition pending feature and the preset target if one preset target is included. obtaining a first similarity measure with a pre-stored feature, and determining that if the first similarity measure satisfies a first predetermined condition, the recognition result includes successful identity verification of the target to be detected; If multiple preset targets are included, a second similarity between the feature waiting for recognition and the pre-stored feature of each preset target is obtained respectively, and the recognition result determines the identity of the target to be detected. 2 including identifying as a preset target identity corresponding to a second similarity measure that satisfies a predetermined condition.

従って、特定の予め設定された目標の予め記憶された特徴との第1類似度を計算するか、又は複数の予め設定された目標の予め記憶された特徴との類似度を計算することで、実際のシーンの要件に応じて検出対象目標を、特定のある予め設定された目標と比較するか、又はあるデータベース内の予め設定された目標と比較することができる。 Thus, by calculating a first similarity measure of a particular preset target with pre-stored features, or calculating similarity measures of a plurality of preset targets with pre-stored features, Depending on the requirements of the actual scene, the target to be detected can be compared to a specific pre-set target or to a pre-set target in some database.

いくつかの実施例において、前記画像検出方法は、第1所定条件は第1類似度が第1類似度閾値より大きいことを含むことと、第2所定条件は第2類似度が第2類似度閾値より大きいことを含むことと、のうちの少なくとも1つを含む。 In some embodiments, the image detection method includes: the first predetermined condition includes that the first similarity is greater than the first similarity threshold; and the second predetermined condition is that the second similarity is greater than the second similarity. including being greater than a threshold.

従って、異なるシーンにおいて第1類似度閾値をそれぞれ設定することで、より正確な認識結果が得られる。 Therefore, by setting the first similarity thresholds for different scenes, more accurate recognition results can be obtained.

いくつかの実施例において、前記画像検出方法は、認識待ち特徴が検出対象目標の被遮蔽部分の第2特徴を含む場合の第1類似度閾値を、認識待ち特徴が第2特徴を含まない場合の第1類似度閾値より小さくすることと、認識待ち特徴が第2特徴を含む場合の第2類似度閾値を、認識待ち特徴が第2特徴を含まない場合の第2類似度閾値より小さくすることと、のうちの少なくとも1つを含む。 In some embodiments, the image detection method sets the first similarity threshold when the feature to be recognized includes the second feature of the occluded portion of the target to be detected, and the similarity threshold when the feature to be recognized does not include the second feature. and making the second similarity threshold when the feature to be recognized includes the second feature smaller than the second similarity threshold when the feature to be recognized does not include the second feature and at least one of

従って、認識待ち特徴に第2特徴が含まれる場合、第2特徴が検出対象目標の被遮蔽部分のキーポイントの実特徴と相違し得るため、この場合に類似度閾値を適宜低下させれば認識の正確性を向上させることができる。 Therefore, when the second feature is included in the recognition waiting feature, the second feature may differ from the actual feature of the key point of the shielded portion of the target to be detected. can improve the accuracy of

いくつかの実施例において、認識待ち特徴と予め設定された目標の予め記憶された特徴との第1類似度を取得する前に、前記画像検出方法はさらに、アカウント登録要求に応答して、ユーザのアカウントを登録するステップと、ユーザを撮影して得られた少なくとも1つのフレームの第2画像から、所定品質要件を満たす第2画像を特定し、特定された第2画像からユーザの所定部位の特徴を抽出するステップと、所定部位の特徴とアカウントとを関連付け、所定部位の特徴を予め設定された目標の予め記憶された特徴として保存するステップと、を含む。 In some embodiments, prior to obtaining a first similarity measure between the features awaiting recognition and the pre-stored features of the preset target, the image detection method further comprises, in response to an account registration request, asking the user: a step of registering an account of; identifying a second image that satisfies a predetermined quality requirement from the second images of at least one frame obtained by photographing the user; extracting the features; associating the features of the given region with the account and storing the features of the given region as pre-stored features of a preset target.

従って、先に品質要件を満たす第2画像を特定して所定部位の特徴を抽出することで、より正確な特徴が抽出される。 Therefore, by first specifying the second image that satisfies the quality requirements and extracting the features of the predetermined part, more accurate features can be extracted.

いくつかの実施例において、検出対象目標が予め設定された物体に遮蔽された場合、第1画像から少なくとも検出対象目標の未遮蔽部分の第1特徴を抽出する前に、前記画像検出方法はさらに、検出対象目標を含む複数のフレームの第1画像から、所定品質要件を満たす第1画像を後続の特徴抽出用の第1画像として抽出するステップと、後続の特徴抽出用の第1画像を前処理するステップと、後続の特徴抽出用の第1画像に対して生体検出を行い、検出対象目標が生体である生体検出結果である場合、第1画像から少なくとも検出対象目標の未遮蔽部分の第1特徴を抽出するステップ及び後続のステップを実行することを決定するステップと、のうちの少なくとも1つを含む。 In some embodiments, if the target to be detected is occluded by a preset object, before extracting the first feature of at least the unoccluded portion of the target to be detected from the first image, the image detection method further comprises: extracting, as a first image for subsequent feature extraction, a first image that satisfies a predetermined quality requirement from first images of a plurality of frames including a target to be detected; and performing liveness detection on the first image for subsequent feature extraction, and if the detection target is a living body detection result, at least the unshielded portion of the detection target is detected from the first image. extracting one feature and deciding to perform subsequent steps.

従って、特徴抽出前に、まず前処理を行うことで、より正確な特徴を抽出し、検出対象目標が生体である場合のみに検出対象目標を認識することで、認識の安全性が向上し、一定程度、偽造物攻撃を防止することができる。 Therefore, by performing preprocessing before feature extraction, more accurate features can be extracted and the target to be detected can be recognized only when the target is a living body, thereby improving the safety of recognition. To some extent, counterfeit attacks can be prevented.

いくつかの実施例において、検出対象目標を含む複数のフレームの第1画像から、所定品質要件を満たす第1画像を後続の特徴抽出用の第1画像として特定するステップは、各フレームの第1画像の品質因子に基づき、各フレームの第1画像の対応する品質スコアを得るステップであって、第1画像の品質因子は、撮影デバイスに対する検出対象目標の姿勢情報、第1画像内の検出対象目標の大きさを表すためのパラメータ情報、第1画像の輝度情報のうちの少なくとも1つを含むステップと、品質スコアに基づき、所定品質要件を満たす第1画像を後続の特徴抽出用の第1画像として特定するステップであって、選択された第1画像の品質スコアは他の第1画像の品質スコアより高いステップと、を含む。 In some embodiments, identifying a first image for subsequent feature extraction from the first images of the plurality of frames containing the target to be detected that satisfies a predetermined quality requirement as the first image for subsequent feature extraction comprises: obtaining a corresponding quality score of the first image of each frame based on the quality factor of the image, the quality factor of the first image being pose information of the target to be detected relative to the imaging device; including at least one of parameter information for representing a target magnitude and luminance information of the first image; selecting the first image satisfying predetermined quality requirements based on the quality score as the first image for subsequent feature extraction; identifying as an image, wherein the selected first image has a higher quality score than the other first images.

従って、品質スコアが要件を満たす画像を特定して特徴抽出を行うことで、検出対象目標をさらに表すことができる特徴が抽出される。 Therefore, by identifying images whose quality scores meet the requirements and performing feature extraction, features are extracted that can further represent the detection target.

いくつかの実施例において、後続の特徴抽出用の第1画像を前処理するステップは、第1画像が複数の検出対象目標を含む場合、所定抽出要件を満たす検出対象目標の第1画像における目標領域を特定し、第1画像内の目標領域以外の画像部分を除去するステップ、及び/又は、第1画像内の検出対象目標の傾斜角度が所定角度より大きいことを検出し、検出対象目標の傾斜角度が所定角度以下になるように第1画像を回転するステップを含む。 In some embodiments, the step of preprocessing the first image for subsequent feature extraction includes detecting targets in the first image of targets of interest that meet predetermined extraction requirements if the first image includes a plurality of targets of interest. identifying a region and removing image portions other than the target region in the first image; Rotating the first image so that the tilt angle is less than or equal to the predetermined angle.

従って、第1画像に複数の検出対象目標が存在する場合、所定抽出要件を満たす検出対象目標のみを特定し、要件を満たさない検出対象目標を破棄することで、要件を満たさない検出対象目標が認識結果に与える影響が軽減され、次に、第1画像内の検出対象目標の傾斜角度が所定角度より大きい場合、検出対象目標の位置を正すことで、検出対象目標の傾斜による影響が軽減される。 Therefore, when a plurality of detection target targets exist in the first image, only the detection target that satisfies the predetermined extraction requirements is specified, and the detection target that does not satisfy the requirement is discarded, thereby eliminating the detection target that does not satisfy the requirement. If the tilt angle of the target to be detected in the first image is greater than the predetermined angle, the position of the target to be detected is corrected to reduce the effect of the tilt of the target to be detected. be.

いくつかの実施例において、所定抽出要件は検出対象目標の対応する領域の面積が他の検出対象目標の対応する領域の面積より大きいことを含み、他の検出対象目標は検出対象目標以外の目標を含む。 In some embodiments, the predetermined extraction requirement includes that the area of the corresponding region of the detectable target is greater than the area of the corresponding region of the other detectable target, and the other detectable target is a target other than the detectable target. including.

従って、検出対象目標の面積が大きいほど、抽出される特徴が正確であるため、面積がより大きい検出対象目標を選択することで、より正確な検出結果が得られる。 Therefore, the larger the area of the target to be detected, the more accurate the features to be extracted. Therefore, by selecting the target to be detected having a larger area, a more accurate detection result can be obtained.

いくつかの実施例において、検出対象目標は顔を含み、予め設定された物体はマスクを含む。 In some embodiments, the target to be detected includes a face and the preset object includes a mask.

従って、顔のマスク着用有無を判断し、対応する操作を実行し、例えば、顔にマスクが着用されていない場合又はマスクのかけ方が正確でない場合、対応するリマインドを通知することで、ユーザは適時に調整することができ、顔にマスクが着用されている場合、顔に対して認識等を行う。 Therefore, by determining whether the face is wearing a mask and performing corresponding operations, for example, if the face is not wearing a mask or the mask is not applied correctly, a corresponding reminder will be sent to the user. It can be adjusted in a timely manner and performs recognition etc. on the face when the mask is worn on the face.

本願の実施例は画像検出装置を提供する。前記画像検出装置は、検出対象目標を含む第1画像を取得するように構成される画像取得モジュールと、第1画像を検出し、第1画像の検出結果を得るように構成される目標検出モジュールであって、検出結果は第1画像内の検出対象目標が予め設定された物体に遮蔽されたか否かを含む目標検出モジュールと、検出結果に合致する所定操作を実行するように構成される操作実行モジュールと、を含む。 Embodiments of the present application provide an image sensing device. The image detection device includes an image acquisition module configured to acquire a first image including a target to be detected, and a target detection module configured to detect the first image and obtain a detection result of the first image. wherein the detection result includes whether or not the target to be detected in the first image is occluded by a preset object; and an operation configured to perform a predetermined operation consistent with the detection result. an execution module;

本願の実施例は電子機器を提供する。前記電子機器はメモリ及びプロセッサを含み、プロセッサは、上記画像検出方法を実現するように、メモリに記憶されたプログラム命令を実行するために用いられる。 An embodiment of the present application provides an electronic device. The electronic device includes a memory and a processor, and the processor is used to execute program instructions stored in the memory so as to implement the image detection method described above.

本願の実施例はプログラム命令が記憶されているコンピュータ可読記憶媒体を提供し、プログラム命令はプロセッサにより実行されると、上記画像検出方法を実現する。 Embodiments of the present application provide a computer-readable storage medium having program instructions stored therein which, when executed by a processor, implement the image detection method described above.

本願の実施例は、電子機器で実行されると、前記電子機器内のプロセッサに上記画像検出方法を実行させるためのコンピュータ可読コードを含むコンピュータプログラムを提供する。 An embodiment of the present application provides a computer program product comprising computer readable code for, when executed in an electronic device, causing a processor in the electronic device to perform the image detection method described above.

本願の実施例は画像検出方法及び関連装置、機器、記憶媒体、並びにコンピュータプログラムを提供し、検出対象目標を含む第1画像を検出して検出対象目標が遮蔽されたか否かを得て、その後、検出結果に合致する所定操作を実行することで、検出対象目標が遮蔽されたか否かを判断でき、それにより検出結果に合致する後続の所定操作を実行でき、画像内の検出対象目標の遮蔽状態に応じる柔軟な処理を実現する。 Embodiments of the present application provide an image detection method and related apparatus, equipment, storage medium, and computer program for detecting a first image containing a target to be detected to obtain whether the target to be detected is occluded, and then , by performing a predetermined operation that matches the detection result, it is possible to determine whether or not the target to be detected is occluded, thereby performing a subsequent predetermined operation that matches the detection result, and shielding the target to be detected in the image Realize flexible processing according to the state.

以上の一般説明と以下の詳細説明は解釈するための例示的なものに過ぎず、本願を制限しないことを理解すべきである。 It should be understood that the above general description and the following detailed description are merely illustrative for interpretation and are not limiting of the present application.

本願の実施例に係る画像検出方法の一実施例のフローチャートである。1 is a flowchart of one embodiment of an image detection method according to embodiments of the present application; 本願の実施例に係る画像検出方法の一実施例における第1画像の模式図である。FIG. 4 is a schematic diagram of a first image in one embodiment of an image detection method according to an embodiment of the present application; 本願の実施例に係る画像検出方法の一実施例における前処理後の第1画像の模式図である。FIG. 4 is a schematic diagram of a first image after preprocessing in one embodiment of an image detection method according to an embodiment of the present application; 本願の実施例に係る画像検出装置の一実施例の構成図である。1 is a configuration diagram of an example of an image detection apparatus according to an example of the present application; FIG. 本願の実施例に係る電子機器の一実施例の構成図である。1 is a configuration diagram of an example of an electronic device according to an example of the present application; FIG. 本願の実施例に係るコンピュータ可読記憶媒体の一実施例の構成図である。1 is a configuration diagram of an embodiment of a computer-readable storage medium according to an embodiment of the present application; FIG.

ここの図面は明細書に組み込まれて明細書の一部を構成し、これらの図面は本願に合致する実施例を示し、明細書と共に本願の技術的解決手段を説明するために用いられる。 The drawings herein are incorporated into and constitute a part of the specification, and the drawings show embodiments consistent with the present application and are used together with the specification to explain the technical solutions of the present application.

以下において、明細書の図面を参照し、本願の実施例の解決手段を詳細に説明する。 In the following, the solutions of the embodiments of the present application are described in detail with reference to the drawings of the specification.

以下の記述において、限定ではなく説明のために、特定のシステム構成、インタフェース、技術等の具体的な詳細を提供し、それによって本願に対する徹底的な理解を助ける。 In the following description, for purposes of explanation rather than limitation, specific details of particular system configurations, interfaces, techniques, etc. are provided to aid in a thorough understanding of the present application.

本明細書の用語の「及び/又は」は、関連対象の関連関係を記述するためのものに過ぎず、3種の関係が存在可能であることを示し、例えば、A及び/又はBは、Aが単独して存在し、AとBが同時に存在し、Bが単独して存在するという3種の場合を示してもよい。また、本明細書における文字「/」は、一般に、前後の関連する対象が「又は」の関係であることを示す。また、本明細書における「複数」は2つ又は2つ以上を意味する。また、本明細書の用語の「少なくとも1つ」は複数のうちのいずれか1つ又は複数のうちの少なくとも2つの任意の組み合わせを意味し、例えば、A、B、Cのうちの少なくとも1つは、A、B及びCからなる集合から選択されるいずれか1つ又は複数の要素を含むことを示してもよい。 The term "and/or" herein is only for describing a related relationship of related subjects and indicates that three types of relationships can exist, e.g., A and/or B are Three cases may be shown: A exists alone, A and B exist simultaneously, and B exists alone. Also, the character "/" in this specification generally indicates that the related objects before and after are in an "or" relationship. Also, "plurality" as used herein means two or more. Also, as used herein, the term "at least one" means any one of a plurality or any combination of at least two of a plurality, e.g., at least one of A, B, C may indicate that includes any one or more elements selected from the set consisting of A, B and C.

本願の実施例における画像検出方法は画像処理能力を備える機器に用いることができる。また、該機器は画像収集又はビデオ収集の機能を備えてもよく、例えば、該機器はカメラ等のような画像又はビデオ収集用のコンポーネントを含んでもよい。あるいは、該機器は他の機器とのデータ伝送又はデータ交換という方式で、他の機器から所要のビデオストリーム又は画像を取得したり、他の機器の記憶リソースから所要のビデオストリーム又は画像にアクセスしたりしてもよい。他の機器は画像収集又はビデオ収集の機能を備え、且つ該機器との通信接続を有し、例えば、該機器はブルートゥース、無線ネットワーク等の方式で他の機器とのデータ伝送又はデータ交換を行うことができ、本願の実施例はここで両者間の通信方式を限定せず、上記で挙げられたケースを含んでもよいが、それらに限定されない。一実施形態において、該機器は携帯電話、タブレット、インタラクティブスクリーン等を含んでもよく、ここでは限定しない。 The image detection methods in embodiments of the present application can be used in devices with image processing capabilities. The device may also have image or video gathering capabilities, for example, the device may include image or video gathering components such as cameras or the like. Alternatively, the device acquires the required video stream or image from the other device or accesses the required video stream or image from the storage resource of the other device by way of data transmission or data exchange with the other device. You can The other device has the function of image acquisition or video acquisition, and has a communication connection with the device, for example, the device performs data transmission or data exchange with other devices in the form of Bluetooth, wireless network, etc. and embodiments of the present application do not limit the communication schemes between the two here, and may include, but are not limited to, the cases listed above. In one embodiment, the device may include a mobile phone, tablet, interactive screen, etc., and is not limited here.

図1は、本願の実施例に係る画像検出方法の一実施例のフローチャートである。ここで、前記画像検出方法は電子機器により実行され、前記方法は以下のステップを含んでもよい。 FIG. 1 is a flowchart of one embodiment of an image detection method according to an embodiment of the present application. Here, the image detection method is performed by an electronic device, and the method may include the following steps.

ステップS11で、検出対象目標を含む第1画像を取得する。 At step S11, a first image including a target to be detected is acquired.

検出対象目標を含む第1画像は本機器のカメラを直接呼び出して収集された、目標対象を含む初期画像であってもよく、当然ながら、他の機器から取得された画像であってもよく、又はフレーム選択、輝度や解像度調整等を経た画像であってもよい。検出対象目標は顔、他の動物の顔面部又は四肢等を含んでもよい。従って、検出対象目標を含む第1画像を取得する方法は限定されない。他の機器とは、それぞれの中央処理ユニットに頼らなければ操作できない機器を指している。 the first image containing the target to be detected may be an initial image containing the target object collected by directly invoking the camera of the device, or may of course be an image acquired from another device; Alternatively, it may be an image that has undergone frame selection, luminance or resolution adjustment, or the like. Detectable targets may include faces, other animal facial parts or extremities, and the like. Therefore, the method of acquiring the first image including the target to be detected is not limited. Other devices refer to devices that cannot operate without relying on their respective central processing units.

ステップS12で、第1画像を検出し、第1画像の検出結果を得て、検出結果は第1画像内の検出対象目標が予め設定された物体に遮蔽されたか否かを含む。 In step S12, detecting the first image to obtain a detection result of the first image, the detection result including whether the target to be detected in the first image is blocked by a preset object.

予め設定された物体とは検出対象目標を遮蔽できるあらゆる物体を指しており、例えばマスク、マフラー、眼鏡又は腕、紙等の可視物体である。 A preset object refers to any object that can shield the target to be detected, such as a visible object such as a mask, a scarf, eyeglasses or an arm, paper, and the like.

第1画像を検出し、検出過程で第1画像に検出待ち画像が含まれるか否かを検出する必要があり、検出対象目標が存在する場合、検出対象目標が予め設定された物体に遮蔽されたか否かを判断する。検出対象目標が予め設定された物体に遮蔽されたか否かを判断する方法は、第1画像を検出する前に、まず遮蔽検出モデルを訓練し、第1画像を遮蔽検出モデル(例えば、遮蔽検出機能を備えるニューラルネットワークであってもよい)に入力することで、第1画像内の検出対象目標が予め設定された物体に遮蔽されたか否かを把握してもよい。当然ながら、いくつかの実施例において、検出対象目標が予め設定された物体に遮蔽されたか否かを判断する方法は、検出対象目標における所定の検出位置が遮蔽されたか否か、及び所定の検出位置を遮蔽する物体が予め設定された物体の条件を満たすか否かを判断してもよい。遮蔽物体及び所定の遮蔽物体の特徴を抽出し、類似度を判断することで、検出対象目標が遮蔽されたか否かを含む検出結果を得てもよい。 It is necessary to detect the first image, and in the detection process, it is necessary to detect whether or not the first image includes an image waiting for detection. determine whether or not A method for determining whether a target to be detected is occluded by a preset object is to first train an occlusion detection model before detecting the first image, and train the first image to an occlusion detection model (e.g., an occlusion detection model). It may be a neural network having a function), thereby grasping whether or not the target to be detected in the first image is blocked by a preset object. Of course, in some embodiments, the method of determining whether a target to be detected is occluded by a preset object includes whether a predetermined detection location on the target to be detected is occluded and whether a predetermined detection position is occluded. It may be determined whether or not the object blocking the position satisfies a preset object condition. A detection result including whether or not the target to be detected is shielded may be obtained by extracting features of the shielding object and a predetermined shielding object and determining the degree of similarity.

ステップS13で、検出結果に合致する所定操作を実行する。 In step S13, a predetermined operation matching the detection result is executed.

検出結果は、検出対象目標が遮蔽されたが、予め設定された物体に遮蔽されたわけではないこと、検出対象目標が予め設定された物体に遮蔽されたが、遮蔽方式が予め設定された方式ではないこと、検出対象目標が予め設定された物体に遮蔽され、しかも遮蔽方式が予め設定された方式と同じであること、又は検出対象目標が全く遮蔽されていないことであり得る。本願の実施例において、第1画像内の検出対象目標が予め設定された物体に遮蔽されたか否かの状況を考慮する。当然ながら、いくつかの実施例において、予め設定された物体をいかなる物体として設定してもよく、つまり、遮蔽検出モデルを採用し、検出対象目標が遮蔽されたことを判断できれば、対応する所定操作を実行する。所定操作は目標検出に関するいかなる操作、例えば認識等であってもよい。 The detection result indicates that the target to be detected was shielded, but not by a preset object, or that the target to be detected was shielded by a preset object, but the shielding method was set in advance. the target to be detected is obscured by a preset object and the occlusion method is the same as the preset method; or the target to be detected is not occluded at all. In the embodiments of the present application, the situation is considered whether the target to be detected in the first image is occluded by a preset object. Of course, in some embodiments, the preset object can be set as any object, that is, adopting the occlusion detection model, if it can be determined that the target to be detected is occluded, the corresponding predetermined operation to run. The predetermined operation may be any operation related to target detection, such as recognition.

上記解決手段は、検出対象目標を含む第1画像を検出して検出対象目標が遮蔽されたか否かを得て、その後、検出結果に合致する所定操作を実行することで、検出対象目標が遮蔽されたか否かの判断を実現し、それにより検出結果に合致する後続の所定操作を実行することができ、画像内の検出対象目標の遮蔽状態に応じる柔軟な処理を実現する。 The above solving means detects whether or not the detection target is shielded by detecting a first image including the detection target, and then executes a predetermined operation that matches the detection result, so that the detection target is shielded. It is possible to determine whether or not the detection target has been detected, thereby performing a subsequent predetermined operation that matches the detection result, and to realize flexible processing according to the occlusion state of the target to be detected in the image.

いくつかの実施例において、検出結果はニューラルネットワークにより第1画像を検出して得られたものである。第1画像を検出する前に、まず、予め設定された物体遮蔽モデルを訓練し、それによって、予め設定された物体遮蔽モデルが第1画像内の検出対象目標が予め設定された物体に遮蔽されたか否かを検出できる。予め設定された物体は1つであってもよく、複数、例えば2つ、3つの異なる物体であってもよく、予め設定された物体が複数であるならば、予め設定された物体遮蔽モデルは、検出対象目標が予め設定された物体に遮蔽されたか否かを判断できるとともに検出対象目標が所定のどの物体に遮蔽されたかを検出できる。検出対象目標は顔であってもよく、予め設定された物体はマスクであってもよい。それに応じて、予め設定された物体遮蔽モデルはマスク検出モデルである。マスク検出モデルは検出対象目標のマスク着用有無を検出でき、当然ながら、いくつかの実施例において、検出対象目標にマスクが着用されている場合、マスクのかけ方が正確であるか否かも検出できる。事前に訓練されたニューラルネットワークによって検出することで、より正確な検出結果及びより速い検出速度が得られる。 In some embodiments, the detection result is obtained by detecting the first image with a neural network. Before detecting the first image, a preset object occlusion model is first trained, so that the preset object occlusion model detects that the target to be detected in the first image is occluded by the preset object. can detect whether or not The preset object may be one, or it may be multiple, for example, two or three different objects, and if there are multiple preset objects, the preset object occlusion model is , it is possible to determine whether or not the target to be detected is shielded by a preset object, and to detect which predetermined object shielded the target to be detected. The target to be detected may be a face, and the preset object may be a mask. Accordingly, the preset object occlusion model is the mask detection model. The mask detection model can detect whether the detected target is wearing a mask and, of course, in some embodiments, if the detected target is wearing a mask, it can also detect whether the masking is correct. . Detecting by a pre-trained neural network provides more accurate detection results and faster detection speed.

検出対象目標が予め設定された物体に遮蔽されていない場合、第1リマインドを通知し、第1リマインドは、予め設定された物体で検出対象目標を遮蔽するように通知するためのものである。第1リマインドは、顔に枠を付けることを含む様々なリマインド形式を有してもよく、検出対象目標が予め設定された物体に遮蔽されていないことを検出すると、顔領域を枠の形で枠付け、このときの顔の枠付けは警告用の色、例えば赤色又は黄色を付けてもよく、第1リマインドは、顔の枠付けとリマインド文言との組み合わせであってもよく、リマインド文言は例えば「マスクを着用していないため、マスクを着用してください」であり、当然ながら、第1リマインドはリマインド音声又はリマインドランプ点滅等の形式であってもよく、明らかに、これらの形式は複数組み合わせて使用してもよく、単独で使用してもよく、ここでは限定しない。例えば、顔にマスクが着用されていないことをマスク検出モデルが検出した場合、該顔にマスクを着用して顔の口鼻を覆うことを通知するように第1リマインドを通知する。検出対象目標が遮蔽されていないときに第1リマインドを通知することで、検出対象目標が予め設定された物体に遮蔽されていない状況を適時に通知し、それによって、被通知者が対応する措置を適時に取ることができる。 If the target to be detected is not blocked by a preset object, a first reminder is sent, and the first reminder is for notifying that the target to be detected is blocked by the preset object. The first reminder may have various reminder forms, including framing the face, and when detecting that the target to be detected is not obstructed by a preset object, the face area is framed. Framed, the face framed at this time may be colored for warning, such as red or yellow, and the first reminder may be a combination of face framed and reminder wording, and the reminder wording is For example, "You are not wearing a mask, so please wear a mask." Of course, the first reminder may be in the form of a reminder voice or a blinking reminder lamp, etc. Obviously, these formats are multiple. They may be used in combination or alone and are not limited here. For example, if the mask detection model detects that no mask is being worn on the face, a first reminder to wear a mask on the face to cover the mouth and nose of the face is issued. By sending a first reminder when the target to be detected is not blocked, timely notification of the situation where the target to be detected is not blocked by a preset object, so that the notified person can take corresponding measures. can be taken in a timely manner.

いくつかの実施例において、検出結果は、検出対象目標の予め設定された物体での遮蔽方式が所定遮蔽方式であるか否かをさらに含む。予め設定された物体遮蔽モデルというニューラルネットワークを訓練する際に、訓練サンプルに所定遮蔽方式をラベル付けしてもよく、ここで所定遮蔽方式は正確な遮蔽方式であってもよく、これにより、検出対象目標が予め設定された物体に遮蔽されたことを検出した場合、予め設定された物体での遮蔽方式が所定遮蔽方式であるか否かを予め設定された物体遮蔽モデルが判断できるように、予め設定された物体遮蔽モデルを訓練する。検出対象目標が予め設定された物体に遮蔽され、且つ前記遮蔽方式が所定遮蔽方式でない場合、第2リマインドを通知する。第2リマインドは、予め設定された物体での遮蔽方式を調整するように通知するためのものである。例えば、検出対象目標が顔であり、予め設定された物体がマスクであり、所定遮蔽方式が正確なマスクのかけ方である。顔にマスクが着用されていることを検出した場合、マスクのかけ方が正確なマスクのかけ方であるか否かを判断し、正確でなければ、予め設定された物体による顔の遮蔽方式を調整することを通知するように第2リマインドを通知する。当然ながら、いくつかの実施例において、所定遮蔽方式は様々にしてもよく、例えば正確な遮蔽方式、第1誤り遮蔽方式、第2誤り遮蔽方式等が挙げられ、検出対象目標の予め設定された物体での遮蔽方式が第1誤り遮蔽方式であることを検出した場合、第1誤り遮蔽方式に対応するリマインドを通知し、検出対象目標の予め設定された物体での遮蔽方式が第2誤り遮蔽方式であることを検出した場合、第2誤り遮蔽方式に対応するリマインドを通知し、それによって、検出対象目標の遮蔽方式を正確な遮蔽方式に調整することを通知する。例えば、同様に検出対象目標が顔、予め設定された物体がマスクである場合、正確な遮蔽方式はマスクが鼻と口を共に覆うことであり、第1誤り遮蔽方式はマスクが鼻を覆っているが口を覆っていないことであり、第1誤り遮蔽方式に対応するリマインドは顔の口も共に覆うことを通知するものとなり、第2誤り遮蔽方式はマスクが口を覆っているが鼻を覆っていないことであり、第2誤り遮蔽方式に対応するリマインドは顔の鼻も共に覆うことを通知するものとなる。遮蔽方式が正確でない場合、検出対象目標の遮蔽方式を適時に調整するように、第2リマインドを通知する。第2リマインドの形式も第1リマインドの形式に類似し、顔の枠付けとリマインド文言との組み合わせ、及び顔の枠付けとリマインド音声との組み合わせ、又は単独のリマインド文言又は単独のリマインド音声又はリマインドランプの点滅等の形式にしてもよく、当然ながら、複数の異なる所定遮蔽方式が存在する場合、リマインド文言又は音声もそれに応じて複数設定され、例えば、所定遮蔽方式が第1誤り遮蔽方式であれば、リマインド文言は第1誤り遮蔽方式に対応付けられる。 In some embodiments, the detection result further includes whether the shielding mode of the preset object of the target to be detected is a predetermined shielding mode. When training a neural network called a preset object occlusion model, the training samples may be labeled with a predetermined occlusion scheme, where the predetermined occlusion scheme may be an accurate occlusion scheme, whereby the detection so that when it is detected that the target is blocked by a preset object, the preset object occlusion model can determine whether the occlusion method by the preset object is the predetermined occlusion method; Train a preset object occlusion model. If the target to be detected is blocked by a preset object and the blocking method is not the predetermined blocking method, a second reminder is sent. The second reminder is for notifying to adjust the shielding method with the preset object. For example, the target to be detected is a face, the preset object is a mask, and the predetermined masking method is an accurate masking method. When it detects that a mask is worn on the face, it determines whether the method of wearing the mask is correct. Send a second reminder to adjust. Of course, in some embodiments, the predetermined shielding scheme may vary, such as a precise shielding scheme, a first error shielding scheme, a second error shielding scheme, etc., and may be a predetermined number of targets to be detected. when detecting that the shielding method of the object is the first error shielding method, a reminder corresponding to the first error shielding method is sent, and the shielding method of the preset object of the detection target is the second error shielding method; If it detects that it is the correct shielding method, it will send a reminder corresponding to the second error shielding method, thereby notifying to adjust the shielding method of the target to be detected to the correct shielding method. For example, similarly if the target to be detected is a face and the preset object is a mask, the correct occlusion scheme is that the mask covers both the nose and mouth, and the first false occlusion scheme is that the mask covers the nose. the mask covers the mouth but does not cover the mouth. It is not covered, and the reminder corresponding to the second error masking scheme is to inform the nose of the face to be covered as well. If the shielding method is not correct, send a second reminder to timely adjust the shielding method of the target to be detected. The format of the second reminder is also similar to the format of the first reminder, a combination of face frame and reminder wording, a combination of face frame and reminder voice, or a single reminder wording or a single reminder voice or reminder It may be in the form of blinking a lamp, etc. Of course, if there are a plurality of different predetermined shielding methods, a plurality of reminder messages or voices may be set accordingly, for example, if the predetermined shielding method is the first error shielding method. For example, the reminder text is associated with the first error shielding scheme.

いくつかの実施例において、何らかの業務シーンで検出対象目標が予め設定された物体に遮蔽された場合、検出対象目標を認識する。別の業務シーンで、検出対象目標が予め設定された物体に遮蔽されていない場合、検出対象目標を認識せず、例えば、ある時期又は特殊の期間に高速列車又は航空機等の公共の場でマスクをかける必要がある場合、顔にマスクが着用されていないことを検出すると、顔に対して顔認識は行わず、マスクを着用していない顔は顔認識によって入場することができない。当然、業務シーンの要件によれば、検出対象目標が予め設定された物体に遮蔽されていないことを検出したとしても、検出対象目標を認識することができる。検出対象目標を認識するには、検出対象目標に対して特徴抽出を行う必要があるが、特徴抽出前に、検出対象目標を含む複数のフレームの第1画像から、所定品質要件を満たす第1画像を後続の特徴抽出用の第1画像として特定してもよい。所定品質要件を満たす第1画像を後続の特徴抽出用の第1画像として特定する方法は、各フレームの第1画像の品質因子に基づき、各フレームの第1画像の対応する品質スコアを得てもよく、第1画像の品質因子は、撮影デバイスに対する検出対象目標の姿勢情報、第1画像内の検出対象目標の大きさを表すためのパラメータ情報、第1画像の輝度情報のうちの少なくとも1つを含む。撮影デバイスに対する検出対象目標の姿勢情報は撮影デバイスに対する検出対象目標の角度情報であってもよい。ここの撮影デバイスに対する検出対象目標の角度情報は撮影時のレンズに対する検出対象目標の角度情報であってもよい。例えば、レンズを原点として、三次元座標系を構築し、レンズと地心との結線はX軸とし、レンズの直前に延在し且つX軸に垂直である線はY軸とし、X軸とY軸とに共に垂直である線はZ軸とする。三次元座標系は単に検出対象目標と撮影デバイスとの角度を表すためのものに過ぎず、いくつかの実施例において、三次元座標系の原点又は3つの方向は本願の実施例と異なって選択してもよい。角度はレンズに対するXYZ方向の角度に分けてもよく、例えば、検出対象目標がレンズの正面に向ける場合、XYZ方向の角度はいずれも0°(度)となり、検出対象目標の側面が第1画像収集コンポーネントの正面に向ける場合、第1画像収集コンポーネントに対する検出対象目標のX方向の角度は90°となり、Y方向の角度は0°となり、Z方向の角度も0°となり、ここで検出対象目標がX軸回りに90°回転したため、検出対象目標とX軸との角度、即ちX方向に対する検出対象目標の角度は、90°となる。当然、各方向の角度は小さいほど好適である。第1画像内の検出対象目標の大きさを表すためのパラメータ情報は検出対象目標が第1画像を占める面積の大きさを含み、面積の大きさは検出対象目標が第1画像を占める領域の大きさで表すことができる。当然、これは検出対象目標が第1画像内に完全に含まれることを前提としており、第1画像に検出対象目標の一部のみが含まれる場合、このフレームの第1画像において検出対象目標の大きさという品質因子に関するスコアが低くなる。第1画像の輝度情報は高いほど好適であるわけではなく、現在の時刻の自然光の輝度に近いほど好適であり、この品質因子のスコアもそれに伴い比較的高くなる。画像品質に対する上記3つの品質因子の影響度の関係に基づいて上記3つの品質因子が占める重みを設定する。例えば、角度の重みを0.4とし、残りの2つをそれぞれ0.3とし、当然、これは例に過ぎず、各品質因子間の重みは必要に応じて設定してもよく、且ついくつかの実施例において、この3つの品質因子以外に、さらに第1画像のボケ度等の要因を含んでもよく、画像品質に影響し得る要因であれば画像の品質スコアの計算に用いることができる。品質スコアが要件を満たす画像を選択して特徴抽出を行うことで、検出対象目標をさらに表すことができる特徴が抽出される。当然、重みの設定は実際の画像検出精度上の要件及び画像検出機器の処理能力、リソースの占有状況等を考慮してもよい。例えば、いくつかの実施例において、画像検出機器の処理能力が強く、占有されるリソースが少ない場合、複数の品質因子を考慮して品質スコアを計算してもよく、画像検出機器の処理能力が非常に低い場合、いくつかの品質因子を適宜用いて品質スコアを計算してもよく、例えば、各品質因子を計算するために必要な時間又は占有されるメモリ空間に応じて適切な品質因子を選択する。従って、いくつの品質因子を用いるか又はどの品質因子を用いるかについては、柔軟に選択できる。当然、いくつかの実施例において、低い品質スコア閾値を決定し、第1画像の品質スコアが品質スコア閾値より低くなれば、それを排除し、品質スコアが該品質スコア閾値より大きい第1画像を保持してもよい。 In some embodiments, the target to be detected is recognized when the target to be detected is blocked by a preset object in some business scene. In other business scenes, if the target to be detected is not shielded by a preset object, it will not recognize the target to be detected, such as high-speed trains or aircraft during certain times or special periods. When it is necessary to put on, if it is detected that the face is not wearing a mask, face recognition is not performed on the face, and the face not wearing the mask cannot enter by face recognition. Of course, according to business scene requirements, even if it is detected that the detection target is not shielded by a preset object, the detection target can be recognized. In order to recognize the target to be detected, it is necessary to perform feature extraction on the target to be detected. The image may be identified as the first image for subsequent feature extraction. A method of identifying a first image that satisfies predetermined quality requirements as a first image for subsequent feature extraction is based on a quality factor of the first image of each frame to obtain a corresponding quality score of the first image of each frame. Preferably, the quality factor of the first image is at least one of orientation information of the target to be detected with respect to the imaging device, parameter information for representing the size of the target to be detected in the first image, and luminance information of the first image. including one. The orientation information of the detection target with respect to the imaging device may be angle information of the detection target with respect to the imaging device. The angle information of the target to be detected with respect to the photographing device may be the angle information of the target to be detected with respect to the lens at the time of photographing. For example, a three-dimensional coordinate system is constructed with the lens as the origin, the line connecting the lens and the center of the earth is the X-axis, the line extending just before the lens and perpendicular to the X-axis is the Y-axis, and the X-axis is the X-axis. A line that is both perpendicular to the Y-axis is the Z-axis. The three-dimensional coordinate system is merely for representing the angle between the target to be detected and the imaging device. You may The angle may be divided into angles in the XYZ directions with respect to the lens. For example, when the target to be detected faces the front of the lens, the angles in the XYZ directions are all 0° (degrees), and the side surface of the target to be detected is the first image. When facing the front of the acquisition component, the detected target has an X angle of 90°, a Y angle of 0°, and a Z angle of 0° with respect to the first image acquisition component, where the detected target is rotated about the X axis by 90°, the angle between the target to be detected and the X axis, that is, the angle of the target to be detected with respect to the X direction is 90°. Naturally, the smaller the angle in each direction, the better. The parameter information for representing the size of the target to be detected in the first image includes the size of the area occupied by the target to be detected in the first image, and the size of the area is the size of the area occupied by the target to be detected in the first image. It can be expressed in terms of size. Of course, this assumes that the target to be detected is completely contained within the first image, and if the first image only partially contains the target to be detected, then in the first image of this frame the target to be detected is Lower scores for the size quality factor. The higher the brightness information of the first image, the better, but the closer to the brightness of the natural light at the current time, the better, and the score of this quality factor is accordingly relatively high. The weights of the three quality factors are set according to the relationship of the influence of the three quality factors on the image quality. For example, let the angle weight be 0.4 and the remaining two be 0.3 each, of course this is just an example, the weight between each quality factor may be set as desired, and as many In some embodiments, in addition to these three quality factors, further factors such as the degree of blurring of the first image may be included, and any factor that can affect the image quality can be used to calculate the quality score of the image. . By selecting images whose quality scores satisfy the requirements and performing feature extraction, features are extracted that can further represent the target to be detected. Of course, the setting of the weights may take into consideration the actual requirements for image detection accuracy, the processing capability of the image detection device, the occupation of resources, and the like. For example, in some embodiments, if the processing power of the image detection device is high and the resources occupied are low, the quality score may be calculated considering multiple quality factors, and the processing power of the image detection device is If very low, the quality score may be calculated using several quality factors accordingly, e.g., depending on the time required to calculate each quality factor or the memory space occupied. select. Thus, there is flexibility in choosing how many or which quality factors to use. Of course, in some embodiments, a lower quality score threshold is determined, and if the quality score of a first image falls below the quality score threshold, it is eliminated, and the first image with a quality score greater than the quality score threshold is discarded. may be retained.

いくつかの実施例において、第1画像に対して特徴抽出を行って認識する前に、後続の特徴抽出用の第1画像を前処理してもよい。前処理方法は、第1画像に複数の検出対象目標が含まれる場合、所定抽出要件を満たす検出対象目標の第1画像における目標領域を特定し、第1画像内の目標領域以外の画像部分を除去してもよい。ここの目標領域は1つの検出対象目標を含む領域であってもよい。つまり、第1画像に複数の検出対象目標が含まれる場合、完全な第1画像を認識するのではなく、所定抽出要件を満たす検出対象目標の目標領域のみを認識するため、一定程度、認識過程での他の検出対象目標によるノイズが低減され、それにより要件を満たさない検出対象目標が認識結果に与える影響が軽減される。所定抽出要件は検出対象目標の対応する領域の面積が他の検出対象目標の対応する領域の面積より大きいことであってもよく、他の検出対象目標は検出対象目標以外の目標を含む。第1画像に複数の検出対象目標が存在する場合、複数の検出対象目標が占める面積は一致しないことがあり、面積がより大きい検出対象目標は認識過程での認識率が比較的高いので、面積がより大きい検出対象目標を選択して認識する。面積が同じである複数の検出対象目標が存在する場合、中心が第1画像の中心により近い検出対象目標を認識してもよく、あるいは、別のいくつかの実施例において、全ての検出対象目標に対応する目標領域をそれぞれ取得して目標検出を行ってもよく、当然、後者に記載の全ての検出対象目標とは面積の大きさが共に1位となり、又は面積が共に所定の面積抽出閾値より大きい検出対象目標を指している。 In some embodiments, the first image may be preprocessed for subsequent feature extraction before performing feature extraction on the first image for recognition. In the preprocessing method, when a plurality of targets to be detected are included in the first image, a target region in the first image of the target to be detected that satisfies a predetermined extraction requirement is specified, and an image portion other than the target region in the first image is identified. may be removed. The target region here may be a region containing one target to be detected. In other words, when the first image contains a plurality of targets to be detected, the recognition process is limited to some extent in order to recognize only the target regions of the targets to be detected that satisfy the predetermined extraction requirements, rather than recognizing the complete first image. The noise due to other detectable targets in is reduced, thereby reducing the impact of detectable targets that do not meet the requirements on recognition results. The predetermined extraction requirement may be that the area of the corresponding region of the target to be detected is larger than the area of the corresponding region of the other target to be detected, and the other target to be detected includes targets other than the target to be detected. If there are multiple targets to be detected in the first image, the areas occupied by the multiple targets may not match. is selected and recognized. If there are multiple detectable targets with the same area, the detectable target whose center is closer to the center of the first image may be recognized, or in some other embodiments, all detectable targets Of course, the size of the area of all the targets to be detected described in the latter is ranked first, or both of the areas are the predetermined area extraction thresholds. Pointing at a larger detectable target.

いくつかの実施例において、第1画像に対して特徴抽出を行って認識する前に、後続の特徴抽出用の第1画像を前処理するステップは、第1画像内の検出対象目標の傾斜角度が所定角度より大きいことを検出し、検出対象目標の傾斜角度が所定角度以下になるように第1画像を回転するようにしてもよい。いくつかの実施例において、回転方法は第1画像全体を回転する以外に、検出対象目標、又は検出対象目標を含む目標領域のみを回転してもよく、従って、検出対象目標の位置を正す方法はここで限定しない。所定角度は時計回り又は反時計回り0°から180°以内であってもよく、本願の実施例では所定角度を0°にし、いくつかの実施例では所定角度は30°、35°等であってもよい。検出対象目標が所定角度で傾斜したか否かを判断する方法は、検出対象目標内の所定の第1キーポイントと所定の第2キーポイントとの結線と、垂直線との夾角を取得し、該夾角が所定角度より大きくなるか否かを判断し、大きくなる場合、該夾角が所定角度以下になり且つ回転後の所定の第1キーポイントが所定の第2キーポイントの上方に位置するように、第1画像を回転してもよく、ここの上方は第1画像の底辺に対して決定される。当然、傾斜角度は第1画像のある位置に対する検出対象目標の傾斜角度、例えば第1画像の中心に対する検出対象目標の傾斜角度であってもよい。当然、ここの所定角度は異なるシーンの要件に応じて設定してもよく、例えば検出対象目標の所在する領域が第1画像を占める面積に応じて決定してもよい。例えば、検出対象目標の所在する領域の面積が第1面積の所定値より大きくなる場合、所定角度を30°より大きくしてもよく、検出対象目標の所在する領域の面積が第2面積の所定値より小さくなる場合、所定角度を30°より小さくしてもよい。検出対象目標の所在する領域の面積が大きいほど検出対象目標の面積が大きくなり、つまり、検出対象目標が角度から受ける影響が小さくなるので、検出対象目標の傾斜角度に対する許容度が高くなり、逆に、検出対象目標が傾斜角度から受ける影響が大きくなるので、検出対象目標の傾斜角度に対する許容度が低くなる。当然、これは例に過ぎず、いくつかの実施例において、面積と所定角度との他の対応関係の設定等も可能であり、ここでは限定しない。 In some embodiments, before performing feature extraction on the first image for recognition, the step of preprocessing the first image for subsequent feature extraction includes: is greater than a predetermined angle, and the first image may be rotated so that the tilt angle of the target to be detected is less than or equal to the predetermined angle. In some embodiments, the rotation method may rotate the target of interest, or only the target region containing the target of interest, other than rotating the entire first image, thus repositioning the target of interest. is not limited here. The predetermined angle may be within 0° to 180° clockwise or counterclockwise, and in embodiments herein the predetermined angle is 0°, and in some embodiments the predetermined angle is 30°, 35°, etc. may A method for determining whether or not a target to be detected is inclined at a predetermined angle includes obtaining an included angle between a line connecting a predetermined first key point and a predetermined second key point in the target to be detected and a vertical line, determining whether the included angle is greater than a predetermined angle; if so, the included angle is less than or equal to the predetermined angle and the predetermined first keypoint after rotation is positioned above the predetermined second keypoint; Alternatively, the first image may be rotated, where the top is determined relative to the bottom of the first image. Of course, the tilt angle may also be the tilt angle of the target to be detected with respect to a position in the first image, eg the tilt angle of the target to be detected with respect to the center of the first image. Of course, the predetermined angle here may be set according to the requirements of different scenes, for example, it may be determined according to the area occupied by the area in which the target to be detected is located in the first image. For example, when the area of the region in which the target to be detected is located is larger than the predetermined value of the first area, the predetermined angle may be larger than 30°, and the area of the region in which the target to be detected is located is the predetermined value of the second area. If less than the value, the predetermined angle may be less than 30°. The larger the area of the region in which the target to be detected is located, the larger the area of the target to be detected. Furthermore, since the target to be detected is greatly affected by the tilt angle, the tolerance for the tilt angle of the target to be detected is reduced. Of course, this is only an example, and in some embodiments other correspondences between the area and the predetermined angle are possible, and are not limited here.

例えば、図2は、本願の実施例に係る画像検出方法の一実施例における第1画像の模式図であり、図3は本願の実施例に係る画像検出方法の一実施例における前処理後の第1画像の模式図である。図2に示すように、第1画像20内の検出対象目標21の下半部が予め設定された物体22に遮蔽され、且つ検出対象目標21が明らかに左に傾斜し、つまり、検出対象目標21の左上隅点(第1所定キーポイント)と左下隅点(第2所定キーポイント)とを結ぶ直線と、垂直線との夾角が30°であり、つまり、検出対象目標21の傾斜角度が所定角度0°より大きい30°であり、このとき第1画像20を右に、即ち時計回りに30°回転し、回転後の第1画像は図3に示されるとおりであり、図3内の検出対象目標21の左上隅点(第1所定キーポイント)と左下隅点(第2所定キーポイント)とを結ぶ直線と、垂直線との夾角が所定角度0°に等しい0°となる。 For example, FIG. 2 is a schematic diagram of the first image in one example of the image detection method according to the embodiment of the present application, and FIG. It is a schematic diagram of a first image. As shown in FIG. 2, the lower half of the target to be detected 21 in the first image 20 is blocked by the preset object 22, and the target to be detected 21 is clearly tilted to the left, that is, the target to be detected The included angle between the straight line connecting the upper left corner point (first predetermined key point) and the lower left corner point (second predetermined key point) of 21 and the vertical line is 30°. 30°, which is greater than the predetermined angle of 0°. At this time, the first image 20 is rotated to the right, that is, clockwise by 30°, and the first image after rotation is as shown in FIG. The included angle between the straight line connecting the upper left corner point (first predetermined key point) and the lower left corner point (second predetermined key point) of the detection target 21 and the vertical line is 0°, which is equal to the predetermined angle of 0°.

第1画像内の検出対象目標の傾斜角度が所定角度より大きい場合、検出対象目標の位置を正すことで、後続で検出対象目標に対して生体検出又は目標認識を行う過程で、検出対象目標の傾斜による影響が軽減される。 If the inclination angle of the detection target in the first image is greater than a predetermined angle, correcting the position of the detection target makes it possible to detect the detection target in the subsequent process of performing living body detection or target recognition on the detection target. The influence of inclination is reduced.

いくつかの実施例において、第1画像に対して特徴抽出を行って認識する前に、後続の特徴抽出用の第1画像に対して生体検出を行い、検出対象目標が生体である生体検出結果である場合、前記第1画像から少なくとも検出対象目標の未遮蔽部分の第1特徴を抽出するステップ及び後続のステップを実行することを決定してもよい。第1画像に複数の検出対象目標が存在する場合、面積が最も大きい検出対象目標を選択して生体検出を行う。検出対象目標に対応する目標領域を生体検出モデルに入力することで生体検出を行ってもよく、生体検出モデルは予め設定された物体に遮蔽された検出対象目標を含む複数の画像で訓練して得られたものである。検出対象目標が生体である場合のみに検出対象目標を認識することで、認識の安全性が向上し、一定程度、偽造物攻撃を防止することができる。 In some embodiments, before performing feature extraction on the first image and recognizing it, liveness detection is performed on the subsequent first image for feature extraction, and a liveness detection result in which the target to be detected is a living body. , it may be determined to perform the step of extracting from said first image at least a first feature of the unoccluded portion of the target to be detected and subsequent steps. When a plurality of detection target targets exist in the first image, the detection target target having the largest area is selected to perform living body detection. The liveness detection may be performed by inputting a target region corresponding to the target to be detected into a liveness detection model, and the liveness detection model is trained with a plurality of images including the target to be detected obscured by a preset object. It is obtained. By recognizing the target to be detected only when the target to be detected is a living body, the safety of recognition is improved, and counterfeit attacks can be prevented to some extent.

検出対象目標を認識するプロセスにおいて、まず第1画像から少なくとも検出対象目標の未遮蔽部分の第1特徴を、検出対象目標の認識待ち特徴として抽出する。第1特徴とは検出対象目標内の未遮蔽キーポイントの特徴を指している。第1画像から検出対象目標の未遮蔽部分の第1特徴を抽出し、検出対象目標の被遮蔽部分の第2特徴を取得し、第1特徴及び第2特徴を検出対象目標の認識待ち特徴としてもよい。ここの第2特徴は検出対象目標の被遮蔽部分のキーポイントの特徴である。被遮蔽部分の第2特徴の取得方法は2つにしてもよく、その1つは第1画像から被遮蔽部分の特徴を第2特徴として抽出することである。つまり、この部分が予め設定された物体に遮蔽されたが、未遮蔽として第1特徴を抽出する方法で遮蔽部分の第2特徴を抽出し、つまり、検出対象目標が予め設定された物体に遮蔽された否かにかかわらず、同じ処理メカニズムを採用し、言い換えれば、予め設定された物体に遮蔽されたか否かは特徴の抽出プロセスに影響しない。当然、いくつかの実施例において、検出対象目標を遮蔽する予め設定された物体がないとしても、この方法で検出対象目標内のキーポイントの特徴を抽出することができる。例えば、検出対象目標が顔、予め設定された物体がマスクである場合、第2特徴を抽出する方法は、顔がマスクに遮蔽されていないとして、顔における各キーポイントの特徴を抽出し、つまり、マスクを着用している顔及びマスクを着用していない顔に対して同じ処理メカニズムを採用し、言い換えれば、マスクの着用は特徴の抽出プロセスに影響しない。もう1つの方法は被遮蔽部分の所定特徴を第2特徴として取得することであり、所定特徴は少なくとも1つの参考特徴に基づいて得られた特徴であってもよく、各参考特徴は、被遮蔽部分が存在しない参考目標内の、被遮蔽部分に対応する領域から抽出して得られたものである。つまり、第1画像を認識する前に、まず被遮蔽部分のキーポイントに対して参考特徴を予め設定し、つまり、まず被遮蔽部分の特徴を補完する。例えば、被遮蔽部分が存在しない検出結果の検出対象目標内の対応する所定部位の特徴を予め複数抽出し、その後、抽出された複数の特徴の平均値を補完して物体に遮蔽された部分の参考特徴とし、ここでは予め設定された物体に遮蔽されていない検出結果の検出対象目標内の対応する所定部位の特徴を予め複数抽出し、その後、抽出された複数の特徴の平均値を補完して予め設定された物体に遮蔽された部分の参考特徴としてもよい。例えば、マスクを着用していない顔における対応する所定部位の特徴、即ち、鼻、口等のマスクをかけるべき部分の特徴を予め複数抽出し、抽出された複数の特徴の平均値を補完し、マスクに覆われる部分の所定の参考特徴とする。被遮蔽部分の特徴の特定方法については、被遮蔽部分の特徴を直接抽出してもよく、被遮蔽部分の特徴は一定程度、検出対象目標に応じて相違するため、この方法は認識の正確性を向上させることができ、又は、所定特徴を被遮蔽部分の特徴として取得してもよく、この方法は被遮蔽部分に対して特徴抽出を行う必要がなく、消費される処理リソースを低減し、処理効率を高めることができる。 In the process of recognizing the target to be detected, first, at least the first feature of the unoccluded portion of the target to be detected is extracted from the first image as a recognition waiting feature of the target to be detected. A first feature refers to a feature of an unoccluded keypoint within the detected target. Extracting a first feature of the unshielded portion of the detection target from the first image, obtaining a second feature of the shielded portion of the detection target, and using the first feature and the second feature as recognition waiting features of the detection target good too. The second feature here is the keypoint feature of the occluded portion of the detected target. There may be two methods for acquiring the second feature of the shielded portion, one of which is to extract the feature of the shielded portion from the first image as the second feature. That is, although this portion is blocked by a preset object, the second feature of the blocked portion is extracted by the method of extracting the first feature as unoccluded, that is, the detection target is blocked by the preset object. Whether occluded or not, the same processing mechanism is adopted, in other words, occluded by a preset object or not does not affect the feature extraction process. Of course, in some embodiments, even if there is no pre-set object occluding the target, this method can still extract keypoint features within the target. For example, if the target to be detected is a face and the preset object is a mask, the second feature extraction method assumes that the face is not occluded by the mask and extracts the features of each keypoint in the face, i.e. , adopts the same processing mechanism for mask-wearing and non-mask-wearing faces, in other words, wearing a mask does not affect the feature extraction process. Another method is to obtain a predetermined feature of the occluded portion as the second feature, the predetermined feature may be a feature obtained based on at least one reference feature, each reference feature being the occluded It is obtained by extracting from the area corresponding to the occluded part in the reference target where no part exists. That is, before recognizing the first image, the reference features are set in advance for the key points of the occluded portion, that is, the features of the occluded portion are complemented first. For example, a plurality of features of a predetermined portion corresponding to the detection result in which the shielded portion does not exist in the detection target are extracted in advance, and then the average value of the extracted plurality of features is interpolated to determine the portion shielded by the object. As a reference feature, a plurality of features of a predetermined portion corresponding to the detection target in the detection result that is not blocked by a preset object are extracted in advance, and then the average value of the extracted features is interpolated. may be used as a reference feature of a portion occluded by a preset object. For example, a plurality of features of the corresponding predetermined parts of the face not wearing a mask, that is, the features of the parts to be masked such as the nose and mouth are extracted in advance, and the average value of the extracted features is interpolated, A predetermined reference feature of the portion covered by the mask. As for the method of specifying the features of the shielded portion, the features of the shielded portion may be directly extracted. can be improved, or the predetermined feature may be obtained as a feature of the obscured portion, the method does not need to perform feature extraction on the obscured portion, reducing the processing resources consumed, Processing efficiency can be improved.

いくつかの実施例において、検出対象目標の認識待ち特徴を得た後、認識待ち特徴を利用して検出対象目標を認識する。認識のシーンは1:1のシーン、及び1:Nのシーンに分けることができ、1:1とは2つの特徴間の比較を指しており、1:Nとは1つの特徴と複数の特徴との比較を指している。1:1のシーンにおいて、即ち、予め設定された目標が1つ含まれる場合において、認識待ち特徴と予め設定された目標の予め記憶された特徴との第1類似度を取得し、第1類似度が第1所定条件を満たす場合、認識結果が検出対象目標の身元認証に成功したことを含むことを決定する。第1所定条件は第1類似度が第1類似度閾値より大きいことであってもよい。認識待ち特徴が検出対象目標の被遮蔽部分の第2特徴を含む場合の第1類似度閾値を、認識待ち特徴が第2特徴を含まない場合の第1類似度閾値より小さくする。認識待ち特徴に第2特徴が含まれる場合、第2特徴が検出対象目標の被遮蔽部分のキーポイントの実特徴と相違し得るため、この場合に類似度閾値を適宜低下させれば認識の正確性を向上させることができる。認識待ち特徴に第2特徴が含まれない場合、第1類似度閾値は、被遮蔽のキーポイントの数が検出対象目標のキーポイントの総数を占める比率に基づいて決定して選択してもよい。例えば、被遮蔽部分のキーポイントが検出対象目標のキーポイント総数の3分の1である場合、第1類似度閾値が未遮蔽の検出対象目標を認識する類似度閾値の3分の1であると決定してもよい。このとき、認識待ち特徴に第2特徴が含まれる場合、第1類似度閾値が認識待ち特徴に第2特徴が含まれない場合の第1類似度閾値より0.1小さく設定し、又は他の値で小さく設定してもよく、ここでは限定しない。例えば、未遮蔽の検出対象目標を認識する類似度閾値は0.6から1であってもよい。当然、これは例に過ぎず、いくつかの実施例において、認識待ち特徴が検出対象目標の被遮蔽部分の第2特徴を含む場合の第1類似度閾値は、認識待ち特徴が第2特徴を含まない場合の第1類似度閾値に等しくしてもよく、認識待ち特徴に第2特徴が含まれる場合、上記方法で実際の状況に応じて決定してもよい。 In some embodiments, after obtaining recognition-pending features of a target to be detected, the recognition-pending features are used to recognize the target to be detected. Scenes of recognition can be divided into 1:1 scenes and 1:N scenes, where 1:1 refers to the comparison between two features, and 1:N refers to the comparison between one feature and multiple features. refers to a comparison with In a 1:1 scene, i.e., when one preset target is included, obtain a first similarity between the feature to be recognized and the pre-stored feature of the preset target; If the degree satisfies a first predetermined condition, determine that the recognition result includes successful identity authentication of the target to be detected. The first predetermined condition may be that the first similarity is greater than a first similarity threshold. A first similarity threshold when the feature to be recognized includes the second feature of the occluded portion of the target to be detected is set smaller than the first similarity threshold when the feature to be recognized does not include the second feature. When the recognition waiting features include the second feature, the second feature may differ from the actual feature of the key point of the shielded portion of the target to be detected. can improve sexuality. If the features pending recognition do not include the second feature, the first similarity threshold may be determined and selected based on the ratio of the number of occluded keypoints to the total number of keypoints of the target to be detected. . For example, if the keypoints of the occluded portion are one-third of the total number of keypoints of the detected target, the first similarity threshold is one-third of the similarity threshold for recognizing the unoccluded detected target. may be determined. At this time, when the second feature is included in the recognition-waiting features, the first similarity threshold is set to be 0.1 smaller than the first similarity threshold when the recognition-waiting features do not include the second feature, or other It may be set to a smaller value, and is not limited here. For example, the similarity threshold for recognizing unoccluded targets of interest may be between 0.6 and 1. Of course, this is only an example, and in some embodiments, the first similarity threshold when the feature to be recognized includes a second feature of an occluded portion of the target to be detected is such that the feature to be recognized includes the second feature. It may be equal to the first similarity threshold if it is not included, and if the feature waiting to be recognized includes the second feature, the above method may be determined according to the actual situation.

いくつかの実施例において、認識待ち特徴と予め設定された目標の予め記憶された特徴との第1類似度を取得する前に、まずユーザアカウントと予め設定された目標の予め記憶された特徴とを関連付ける。その実施形態は以下のとおりである。アカウント登録要求に応答して、ユーザのアカウントを登録する。ここのアカウントは何らかの電子決済アカウントであってもよく、目標認識を行うことができるアプリケーションであれば、いずれもアカウント登録要求に応答して、ユーザのアカウントを登録することができる。ユーザは対応するアプリケーションにおいて携帯電話番号で登録でき、登録に成功した後、ユーザはユーザ名、パスワード等の情報を得る。ユーザを撮影して得られた少なくとも1つのフレームの第2画像から、所定品質要件を満たす第2画像を特定し、特定された第2画像からユーザの所定部位の特徴を抽出する。ここの所定部位は検出対象目標の所定部位と同じである。所定品質要件を満たす第2画像を選択するステップは、上記で所定品質要件を満たす第1画像を選択するステップと同じである。最後に、所定部位の特徴とアカウントとを関連付け、所定部位の特徴を予め設定された目標の予め記憶された特徴として保存する。つまり、ユーザの所定部位は予め設定された目標である。 In some embodiments, before obtaining a first degree of similarity between the awaiting recognition feature and the pre-stored features of the preset goal, the user account and the pre-stored features of the preset goal are first associate. Its embodiments are as follows. Register an account for a user in response to an account registration request. The account here may be any electronic payment account, and any application capable of target recognition may respond to an account registration request to register the user's account. The user can register with the mobile phone number in the corresponding application, and after the registration is successful, the user will get the information such as user name, password and so on. A second image that satisfies a predetermined quality requirement is specified from the second images of at least one frame obtained by photographing the user, and features of a predetermined part of the user are extracted from the specified second images. The predetermined portion here is the same as the predetermined portion of the target to be detected. The step of selecting the second image meeting the predetermined quality requirement is the same as the step of selecting the first image meeting the predetermined quality requirement above. Finally, the feature of the site is associated with the account, and the feature of the site is saved as a pre-stored feature of a preset target. That is, the predetermined site of the user is a preset target.

1:Nのシーンにおいて、即ち、予め設定された目標が複数含まれる場合において、認識待ち特徴と各予め設定された目標の予め記憶された特徴との第2類似度をそれぞれ取得し、認識結果が、検出対象目標の身元を、第2所定条件を満たす第2類似度に対応する予め設定された目標の身元として特定することを含むことを決定する。第2所定条件は第2類似度が第2類似度閾値より大きいことであってもよい。一般的には、ここでいう第2所定条件を満たすことは、第2類似度閾値より大きいことであるだけでなく、多くの場合、全ての第2類似度から、最大値を選択し、即ち、最大の第2類似度に対応する予め設定された目標の身元を検出対象目標の身元として選択する。認識待ち特徴が第2特徴を含む場合の第2類似度閾値を、認識待ち特徴が第2特徴を含まない場合の第2類似度閾値より小さくする。認識待ち特徴に第2特徴が含まれる場合、第2特徴が検出対象目標の被遮蔽部分のキーポイントの実特徴と相違し得るため、この場合に類似度閾値を適宜低下させれば認識の正確性を向上させることができる。第2類似度閾値の決定方法は第1類似度閾値の決定方法と同じである。 In a 1:N scene, i.e., when a plurality of preset targets are included, a second similarity between the recognition-waiting feature and the pre-stored feature of each preset target is obtained, respectively, and the recognition result is obtained. includes identifying the identity of the target to be detected as the identity of the preset target corresponding to the second similarity that satisfies the second predetermined condition. The second predetermined condition may be that the second similarity is greater than a second similarity threshold. In general, satisfying the second predetermined condition referred to here means not only being greater than the second similarity threshold, but in many cases, selecting the maximum value from all the second similarities, i.e., selecting the maximum value. , select the preset target identity corresponding to the largest second similarity as the identity of the target to be detected. A second similarity threshold when the features to be recognized include the second features is set smaller than a second similarity threshold when the features to be recognized do not include the second features. When the recognition waiting features include the second feature, the second feature may differ from the actual feature of the key point of the shielded portion of the target to be detected. can improve sexuality. The method for determining the second similarity threshold is the same as the method for determining the first similarity threshold.

1:Nは、複数の顔に関わるシーン、例えば、オフィスビル又は会社の出入口に顔認識ゲートが実装されているシーンであってもよく、このようなシーンにおいてビル又は会社の範囲内に、出入しようとする各人を登録し、顔ライブラリを形成する必要があり、登録された人がゲートの前に現れた時、ゲート上のカメラは顔を検出し、スナップ撮影し、スナップ撮影された顔を顔ライブラリ内のものと比較し、比較に成功したら、ゲートを開き、登録されていない人がゲートに現れた時、比較に成功せず、ゲートは応答しない。 1:N can be a scene involving multiple faces, for example, a scene in which face recognition gates are implemented at the doorway of an office building or company, and in such a scene, within the confines of the building or company, It is necessary to register each person to try and form a face library, when the registered person appears in front of the gate, the camera on the gate will detect the face, snap it, and snap the face to those in the face library, if the comparison is successful, open the gate, and when an unregistered person appears at the gate, the comparison is unsuccessful and the gate does not respond.

上記解決手段は、検出対象目標を含む第1画像を検出して検出対象目標が遮蔽されたか否かを得て、その後、検出結果に合致する所定操作を実行することで、検出対象目標が遮蔽されたか否かを判断でき、それにより検出結果に合致する後続の所定操作を実行でき、画像内の検出対象目標の遮蔽状態に応じる柔軟な処理を実現する。 The above solving means detects whether or not the detection target is shielded by detecting a first image including the detection target, and then executes a predetermined operation that matches the detection result, so that the detection target is shielded. It is possible to determine whether or not the object has been detected, thereby executing a subsequent predetermined operation that matches the detection result, and to realize flexible processing according to the occlusion state of the target to be detected in the image.

前記実施例に基づき、本願の実施例はさらに画像検出方法を提供する。前記画像検出方法は深層学習アルゴリズムに基づくモデル検出能力を利用したものであり、顔検証シーンから着手し、1:1及び1:Nのシーンにおける画像検出フローを実現するとともに、マスクの着用有無を検査する方法を提供し、及びマスクを着用している場合のプロセスにおける顔比較及び顔検索の実施形態を提供する。 Based on the above embodiments, embodiments of the present application further provide an image detection method. The image detection method uses the model detection ability based on the deep learning algorithm, starting from the face verification scene, realizing the image detection flow in the 1:1 and 1:N scenes, and detecting whether the mask is worn or not. We provide a method for inspecting and embodiments of face comparison and face search in the process when wearing a mask.

(1)顔検証シーンは主に1:1及び1:Nという2つのシーンを含む。 (1) Face verification scenes mainly include two scenes: 1:1 and 1:N.

例えば、決済シーンでの1:1とはリアルタイムにスナップ撮影した顔写真と、会員にバインドされたライブラリ画像との1:1の検証を行い、同一のユーザであると確認した場合、認証に成功する。また例えば、1:Nのシーンは顔検索に関わることが多く、例えばオフィスビル又は会社の出入口に顔認識ゲートが実装されているシーンが挙げられ、このようなシーンにおいてビル又は会社の範囲内に、出入しようとする各ユーザを登録し、顔ライブラリを形成する必要がある。ユーザがゲートの前に現れた時、ゲート上のカメラは顔を検出し、スナップ撮影し、スナップ撮影された顔を顔ライブラリ内の画像と比較し、比較に成功したら、ゲートを開き、比較が失敗したら、ゲートは応答せず、つまり、ゲートは閉じるままである。 For example, 1:1 in the payment scene means that 1:1 verification is performed between the face photo snapped in real time and the library image bound to the member, and if it is confirmed that it is the same user, authentication is successful. do. Also, for example, 1:N scenes often involve face retrieval, such as scenes in which face recognition gates are implemented at the entrances and exits of office buildings or companies. , it is necessary to register each user who wants to enter and exit, forming a face library. When the user appears in front of the gate, the camera on the gate detects the face, snaps it, compares the snapped face with the images in the face library, and if the comparison succeeds, opens the gate and the comparison takes place. If it fails, the gate does not respond, i.e. the gate remains closed.

いくつかの実施例において、1:1及び1:Nのいずれのシーンにおいても、生体であるかの防犯が必要である。例えば写真(人物を撮影して得られた写真、電子合成写真等)、覆面等によるダミー攻撃を防犯する必要がある。 In some embodiments, live crime prevention is necessary in both 1:1 and 1:N scenes. For example, it is necessary to prevent a dummy attack using a photograph (a photograph obtained by photographing a person, an electronic composite photograph, etc.), a mask, or the like.

(2)1:1のシーンでの画像検出方法は、以下のように実現してもよい。 (2) The image detection method for a 1:1 scene may be implemented as follows.

まず、ユーザはアカウント、例えば電子決済アカウントを有する。ユーザは前記電子決済アカウントに対応するアプリケーションシステムにおいて携帯電話番号で登録し、登録に成功した後、ユーザはユーザ名、パスワード等の情報を入手し、つまり、電子決済アカウントを得る。次に、前記アプリケーションシステムは何らかのイベントによって、顔のバインド操作を行うようにユーザを誘導し、ユーザが生体認証に成功したら、顔認識を行い、ビデオにおける顔の品質が顔収集の要件を満たす場合、ユーザの顔画像を収集する。撮影過程での最も品質が高い1つのフレームを選択してもよく、前記品質の評価基準は顔の角度、照明の強さ、顔の大きさ等の次元のうちの1つ又は複数を含む。 First, the user has an account, eg an electronic payment account. A user registers with a mobile phone number in the application system corresponding to said electronic payment account, and after successful registration, the user obtains information such as user name, password, etc., that is, obtains an electronic payment account. Then, the application system induces the user to perform a face binding operation by some event, and if the user passes the biometric authentication, performs face recognition, and if the quality of the face in the video meets the requirements of face collection. , to collect the user's facial image. A frame of the highest quality from the shooting process may be selected, and the quality criteria include one or more of the following dimensions: face angle, lighting intensity, face size, and the like.

収集されたユーザの顔画像を該アカウントと関連付けてもよく、具体的にはアカウントの識別子と関連付けて、顔ライブラリの比較画像とすることができる。ユーザがオンラインで支払う際に、注文が確認された後に決済段階に入り、このときユーザが顔画像のバインドを遂行し、顔決済を選択したならば、顔スナップ撮影の段階に入る。顔検出際にマスク着用の検査(即ち、顔属性検出)を行い、マスクが着用されている場合、後続のフローを継続し、マスクが着用されていない場合、音声再生又は文言表示等の方式でマスクをかけるようにユーザに通知してもよい。 The collected facial images of the user may be associated with the account, specifically with the identifier of the account, and may be comparison images in the face library. When the user pays online, the payment stage is entered after the order is confirmed, and if the user performs face image binding at this time and chooses face payment, the face snap shooting stage is entered. When the face is detected, the wearing of the mask is checked (that is, the face attribute is detected). If the mask is worn, the subsequent flow is continued. The user may be notified to wear a mask.

ユーザがマスクを着用している場合、顔検出を行い、撮影プロセスのこの期間内に、最も品質が高い1つのフレームを選択し、選択されたこの1つのフレームの画像に対して顔の位置合わせを行い(例えば顔に一定の傾斜角度が存在すれば、顔位置を正す)、位置合わせ後の顔画像に基づいて顔特徴値を抽出する。 If the user is wearing a mask, perform face detection, select one frame with the highest quality within this period of the imaging process, and align the face to the image of this selected frame. (for example, if the face has a certain tilt angle, the face position is corrected), and facial feature values are extracted based on the face image after alignment.

顔特徴値の抽出及び比較は2つの方法があり、1つ目はマスク部分を含む顔特徴値を抽出することであり、例えば、顔ライブラリの画像のうちのマスクを着用していない顔の特徴値をAとし、同様な方法でマスクを着用している顔に対して特徴抽出を行い、特徴値A1を抽出し、さらにマスクを着用している場合の特徴値A1とマスクを着用していない場合の特徴値Aの特徴ベクトルを比較する。2つ目はマスクから上の可視部分の顔特徴値を抽出することであり、全ての顔に128個のキーポイントがあり、マスクから上に64個のキーポイントがあると仮定すると、マスクから上の可視部分の64個のキーポイントから抽出された特徴値と、前記顔ライブラリの画像内の対応する64個のキーポイントから抽出された特徴値とを比較する。さらに、生成された特徴値と該ユーザの前記顔ライブラリ内の画像の特徴値とを比較し、比較閾値を超えた場合(例えば比較閾値は0.8とし、類似度が0.8を超えれば同一のユーザと見なす)、比較に成功し、顔検証フローを終了する。 There are two methods for extracting and comparing facial feature values. The first is to extract facial feature values that include masked parts, for example, facial features without a mask in images in the face library. Let A be the value, and perform feature extraction on the face wearing the mask in a similar manner to extract the feature value A1. Compare the feature vectors of the feature values A for the cases. The second is to extract the face feature values of the visible part above from the mask, assuming that there are 128 keypoints in every face and 64 keypoints above the mask, Compare the feature values extracted from the 64 keypoints of the visible part above with the feature values extracted from the corresponding 64 keypoints in the face library images. Further, the generated feature value is compared with the feature value of the image in the face library of the user, and if the comparison threshold is exceeded (for example, the comparison threshold is 0.8, and the same user), the comparison is successful and the face verification flow ends.

(3)1:Nのシーンでの画像検出方法は、以下のように実現してもよい。 (3) The image detection method for a 1:N scene may be implemented as follows.

まず、オフィスビルのスタッフ管理業務システムにおいて、ビルに入る権限を有する各ユーザの写真を入力し(ビルの通行シーンでの顔ライブラリの比較画像を形成する)、このとき前記顔ライブラリ内の画像とビルのユーザとは一対一の対応関係にある。次に、前記顔ライブラリ内の画像をゲートの顔認識機器とバインドして関連付け、それによって、ゲートの顔認識機器が前記顔ライブラリ内の画像を読み取ることができるようにする。スタッフがゲートを通過しようとする場合、ゲート上の顔認識機器は顔情報を検出すると、顔スナップ撮影状態に入る(このとき前記顔認識機器における撮影モジュールは常に起動されていてもよく、顔が追跡され、顔枠は常に顔の移動に追跡している)。 First, in an office building staff management business system, input a photo of each user who has the authority to enter the building (to form a comparison image of the face library in the passage scene of the building), and at this time, the image in the face library and the There is a one-to-one correspondence with the user of the building. The images in the face library are then bound and associated with the gate's face recognition device so that the gate's face recognition device can read the images in the face library. When the staff is about to pass through the gate, the face recognition device on the gate detects face information and enters the face snap shooting state (at this time, the shooting module in the face recognition device may always be activated, and the face is tracked, and the face frame always tracks the movement of the face).

続いて、顔検出際にマスク着用の検査(即ち、顔属性検出)を行い、検査結果によって操作を行い、具体的な操作内容は上記1:1のシーンでの記述内容を参照すればよい。 Subsequently, mask wearing inspection (ie, face attribute detection) is performed at the time of face detection, and operation is performed according to the inspection result.

1:Nのシーンでの顔特徴値の抽出及び検索も2つの方法があり、1つ目はマスク部分を含む顔特徴値を抽出することであり、前記顔ライブラリの比較画像のうちのA、B、C、D及びEという5つのマスクを着用していない顔の特徴値があると仮定すると、同様な方法でマスクを着用している顔に対して特徴抽出を行い、A1、B1、C1、D1及びE1という5つの特徴値を抽出し、マスクを着用している場合の特徴値A1を検索する際に、特徴値A1と特徴値Aの特徴ベクトルの距離が最も短い場合、対応する特徴値Aが検索できる。2つ目はマスクから上の可視部分の顔特徴値を抽出することであり、特徴値の生成という部分は上記1:1のシーンでの方法と同じであり、上記説明を参照すればよい。特徴値を生成した後、さらに生成された特徴値に対して、全ビルの全てのユーザの顔ライブラリの画像で顔特徴検索(1:Nの検索)を行い、比較閾値を超える特徴値が存在する場合、検索に成功したと見なす。検索に成功したら、顔認識機器が開き信号を伝送し、ゲートが開き、顔検証フローが終了する。 There are also two methods for extracting and searching facial feature values in a 1:N scene. Assuming that there are five face feature values B, C, D, and E that are not wearing a mask, feature extraction is performed on the face wearing a mask in a similar manner to obtain A1, B1, and C1 , D1 and E1, and searching for the feature value A1 when the mask is worn. A value A can be retrieved. The second is to extract the face feature values of the upper visible part from the mask, and the part of generating the feature values is the same as the method for the 1:1 scene, so please refer to the above description. After the feature values are generated, a facial feature search (1:N search) is performed on the generated feature values with the images of the face libraries of all users in all buildings, and there are feature values that exceed the comparison threshold. If so, consider the search successful. If the search is successful, the face recognition device opens and transmits a signal, the gate opens, and the face verification flow ends.

本願の実施例では、上記方法によって、顔認識前に、ユーザのマスク着用有無を検査しリマインドを通知し、及びユーザがマスクを着用している場合、正確な顔認識を行い、顔検証フローを完了することができ、通行の効率が大幅に向上し、マスクを外すことによるリスクが低減される。 In the embodiment of the present application, the above method checks whether the user is wearing a mask and notifies a reminder before face recognition. It can be completed, greatly improving the efficiency of passage and reducing the risk of removing the mask.

画像検出方法の実行主体は画像検出装置であってもよく、例えば、画像検出方法はユーザ側装置(User Equipment:UEと略称)、携帯機器、端末、セルラー電話、コードレス電話機、携帯情報端末(Personal Digital Assistant:PDAと略称)、携帯型デバイス、計算装置、車載装置、ウェアラブル装置等の端末装置又は他の処理装置により実行してもよい。いくつかの可能な実施形態において、該画像検出方法はプロセッサによりメモリに記憶されたコンピュータ可読命令を呼び出すことで実現してもよい。 The execution subject of the image detection method may be an image detection device. Digital Assistant: abbreviated as PDA), a portable device, a computing device, an in-vehicle device, a wearable device, or other terminal device or other processing device. In some possible embodiments, the image detection method may be implemented by a processor invoking computer readable instructions stored in memory.

図4は、本願の実施例に係る画像検出装置の一実施例の構成図である。画像検出装置40は画像取得モジュール41、目標検出モジュール42及び操作実行モジュール43を含む。画像取得モジュール41は検出対象目標を含む第1画像を取得するように構成され、目標検出モジュール42は第1画像を検出し、第1画像の検出結果を得るように構成され、検出結果は第1画像内の検出対象目標が予め設定された物体に遮蔽されたか否かを含み、操作実行モジュール43は、検出結果に合致する所定操作を実行するように構成される。 FIG. 4 is a configuration diagram of an embodiment of an image detection device according to an embodiment of the present application. The image detection device 40 includes an image acquisition module 41 , a target detection module 42 and an operation execution module 43 . The image acquisition module 41 is configured to acquire a first image including the target to be detected, the target detection module 42 is configured to detect the first image and obtain a detection result of the first image, the detection result is a first image. The operation execution module 43 is configured to execute a predetermined operation that matches the detection result, including whether the target to be detected in one image is blocked by a preset object.

上記解決手段は、検出対象目標を含む第1画像を検出して検出対象目標が遮蔽されたか否かを得て、その後、検出結果に合致する所定操作を実行することで、検出対象目標が遮蔽されたか否かを判断でき、それにより検出結果に合致する後続の所定操作を実行でき、画像内の検出対象目標の遮蔽状態に応じる柔軟な処理を実現する。 The above solving means detects whether or not the detection target is shielded by detecting a first image including the detection target, and then executes a predetermined operation that matches the detection result, so that the detection target is shielded. It is possible to determine whether or not the object has been detected, thereby executing a subsequent predetermined operation that matches the detection result, and to realize flexible processing according to the occlusion state of the target to be detected in the image.

いくつかの実施例において、検出結果は目標検出モジュール42がニューラルネットワークにより第1画像を検出して得たものである。 In some embodiments, the detection result is obtained by target detection module 42 detecting the first image with a neural network.

上記解決手段は、事前に訓練されたニューラルネットワークによって検出し、より正確な検出結果及びより速い検出速度が得られる。 The above solution detects by a pre-trained neural network, resulting in more accurate detection results and faster detection speed.

いくつかの実施例において、操作実行モジュール43が検出結果に合致する所定操作を実行するステップは、検出対象目標が予め設定された物体に遮蔽されていない場合、第1リマインドを通知するステップを含み、第1リマインドは、予め設定された物体で検出対象目標を遮蔽するように通知するためのものである。 In some embodiments, the operation executing module 43 performing the predetermined operation that matches the detection result includes sending a first reminder if the target to be detected is not obstructed by a preset object. , the first reminder is for notifying the target to be detected to be shielded by a preset object.

上記解決手段は、検出対象目標が遮蔽されていないときに第1リマインドを通知することで、検出対象目標が予め設定された物体に遮蔽されていない状況を適時に通知し、それによって、被通知者が対応する措置を適時に取ることができる。 The above solution notifies the first reminder when the target to be detected is not occluded, thereby timely notifying the situation that the target to be detected is not occluded by a preset object, thereby providing a notification the person can take corresponding measures in a timely manner.

いくつかの実施例において、検出結果は、検出対象目標の予め設定された物体での遮蔽方式が所定遮蔽方式であるか否かをさらに含み、操作実行モジュール43が検出結果に合致する所定操作を実行するステップは、検出対象目標が予め設定された物体に遮蔽され、且つ遮蔽方式が所定遮蔽方式でない場合、第2リマインドを通知するステップを含み、第2リマインドは、予め設定された物体での遮蔽方式を調整するように通知するためのものである。 In some embodiments, the detection result further includes whether the shielding method of the preset object of the target to be detected is a predetermined shielding method, and the operation execution module 43 performs a predetermined operation that matches the detection result. The executing step includes notifying a second reminder when the target to be detected is blocked by a preset object and the blocking method is not the predetermined blocking method, wherein the second reminder is performed by the preset object It is for notifying to adjust the shielding method.

上記解決手段は、遮蔽方式が正確でない場合、検出対象目標の遮蔽方式を適時に調整するように、第2リマインドを通知する。 The above solution sends a second reminder to timely adjust the shielding method of the detected target when the shielding method is not accurate.

いくつかの実施例において、操作実行モジュール43が検出結果に合致する所定操作を実行するステップは、検出対象目標が予め設定された物体に遮蔽された場合、第1画像から少なくとも検出対象目標の未遮蔽部分の第1特徴を、検出対象目標の認識待ち特徴として抽出するステップと、認識待ち特徴を利用して検出対象目標を認識し、認識結果を得るステップと、を含む。 In some embodiments, the step of the operation execution module 43 performing the predetermined operation that matches the detection result includes removing at least the undetected target from the first image when the target to be detected is blocked by a preset object. The method includes extracting a first feature of the occluded portion as a recognition-waiting feature of the detection target, and recognizing the detection target using the recognition-waiting feature to obtain a recognition result.

上記解決手段は、検出対象目標が予め設定された物体に遮蔽された場合、未遮蔽部分の特徴を抽出して認識することで、検出対象目標の局所特徴に基づく認識を実現し、また、該局所特徴は遮蔽されていないため、検出対象目標を表すことができ、一定程度、認識の正確性が保証される。 The above-described solution means realizes recognition based on local features of the detection target by extracting and recognizing the features of the unshielded portion when the detection target is blocked by a preset object. Since the local features are not occluded, they can represent the target to be detected, which guarantees recognition accuracy to some extent.

いくつかの実施例において、操作実行モジュール43が第1画像から少なくとも検出対象目標の未遮蔽部分の第1特徴を、検出対象目標の認識待ち特徴として抽出するステップは、第1画像から検出対象目標の未遮蔽部分の第1特徴を抽出し、検出対象目標の被遮蔽部分の第2特徴を取得するステップと、第1特徴及び第2特徴を検出対象目標の認識待ち特徴とするステップと、を含む。 In some embodiments, the step of extracting from the first image by the operation execution module 43 at least the first feature of the unoccluded portion of the target to be detected as a pending recognition feature of the target to be detected includes: extracting a first feature of the unshielded portion of the target to obtain a second feature of the shielded portion of the detection target; and using the first feature and the second feature as recognition waiting features of the detection target. include.

上記解決手段は、検出対象目標の未遮蔽部分の特徴を採用する以外に、被遮蔽部分の特徴も採用し、これにより検出対象目標の特徴をさらに多様にすることができる。 In addition to adopting the features of the unshielded portion of the target to be detected, the above solution also adopts the features of the shielded portion, thereby making it possible to further diversify the features of the target to be detected.

いくつかの実施例において、操作実行モジュール43が検出対象目標の被遮蔽部分の第2特徴を取得するステップは、第1画像から被遮蔽部分の特徴を第2特徴として抽出するステップ、又は、被遮蔽部分の所定特徴を第2特徴として取得するステップであって、所定特徴は、少なくとも1つの参考特徴に基づいて得られた特徴を含み、各参考特徴は、被遮蔽部分が存在しない参考目標内の、被遮蔽部分に対応する領域から抽出して得られたものであるステップを含む。 In some embodiments, the step of obtaining the second feature of the occluded portion of the target to be detected by the operation execution module 43 includes extracting the feature of the occluded portion from the first image as the second feature; obtaining predetermined features of the occluded portion as second features, the predetermined features including features obtained based on at least one reference feature, each reference feature within a reference target where no occluded portion is present; is obtained by extracting from the region corresponding to the shielded portion of .

上記解決手段は、被遮蔽部分の特徴特定方法については、被遮蔽部分の特徴を直接抽出してもよく、被遮蔽部分の特徴は一定程度、検出対象目標に応じて相違するため、この方法は認識の正確性を向上させることができ、又は、所定特徴を被遮蔽部分の特徴として取得してもよく、この方法は被遮蔽部分に対して特徴抽出を行う必要がなく、消費される処理リソースを節約し、処理効率を高めることができる。 With regard to the method of specifying the features of the shielded portion, the above solution means may directly extract the features of the shielded portion. The recognition accuracy can be improved, or the predetermined feature can be obtained as the feature of the occluded part, this method does not need to perform feature extraction on the occluded part, which consumes processing resources. can be saved and processing efficiency can be improved.

いくつかの実施例において、操作実行モジュール43が認識待ち特徴を利用して検出対象目標を認識し、認識結果を得るステップは、予め設定された目標が1つ含まれる場合、認識待ち特徴と予め設定された目標の予め記憶された特徴との第1類似度を取得し、第1類似度が第1所定条件を満たす場合、認識結果が検出対象目標の身元認証に成功したことを含むことを決定するステップと、予め設定された目標が複数含まれる場合、認識待ち特徴と各予め設定された目標の予め記憶された特徴との第2類似度をそれぞれ取得し、認識結果が、検出対象目標の身元を、第2所定条件を満たす第2類似度に対応する予め設定された目標の身元として特定することを含むことを決定するステップと、のうちの少なくとも1つを含む。 In some embodiments, the step of recognizing the target to be detected using the recognition pending feature by the operation execution module 43 and obtaining the recognition result includes using the recognition pending feature and the pre-recognition target when one preset target is included. Obtaining a first degree of similarity between a set target and a pre-stored feature, and if the first degree of similarity satisfies a first predetermined condition, the recognition result includes successful identity authentication of the target to be detected. determining, and if a plurality of preset targets are included, respectively obtaining a second similarity between the feature waiting for recognition and the pre-stored feature of each preset target, and the recognition result is the target to be detected; as a preset target identity corresponding to a second similarity that satisfies a second predetermined condition.

上記解決手段は、特定の予め設定された目標の予め記憶された特徴との第1類似度を計算するか、又は複数の予め設定された目標の予め記憶された特徴との類似度を計算することで、実際のシーンの要件に応じて検出対象目標を、特定のある予め設定された目標と比較するか、又はあるデータベース内の予め設定された目標と比較することができる。 The solution computes a first similarity measure of a particular preset target with pre-stored features, or computes a similarity measure of multiple preset targets with pre-stored features. Thus, the target to be detected can be compared with a specific pre-set target or with a pre-set target in some database according to the requirements of the actual scene.

いくつかの実施例において、第1所定条件は第1類似度が第1類似度閾値より大きいことを含み、第2所定条件は第2類似度が第2類似度閾値より大きいことを含む。 In some embodiments, the first predetermined condition includes a first similarity greater than a first similarity threshold and the second predetermined condition includes a second similarity greater than a second similarity threshold.

上記解決手段は、異なるシーンにおいて第1類似度閾値をそれぞれ設定することで、より正確な認識結果が得られる。 According to the above solution, a more accurate recognition result can be obtained by setting the first similarity threshold in different scenes.

いくつかの実施例において、認識待ち特徴が検出対象目標の被遮蔽部分の第2特徴を含む場合の第1類似度閾値は、認識待ち特徴が第2特徴を含まない場合の第1類似度閾値より小さく、認識待ち特徴が第2特徴を含む場合の第2類似度閾値を、認識待ち特徴が第2特徴を含まない場合の第2類似度閾値より小さくする。 In some embodiments, the first similarity threshold when the feature to be recognized includes the second feature of the occluded portion of the target to be detected is the first similarity threshold when the feature to be recognized does not include the second feature. smaller, making the second similarity threshold when the features to be recognized include the second features less than the second similarity threshold when the features to be recognized do not include the second features.

上記解決手段は、認識待ち特徴に第2特徴が含まれる場合、第2特徴が検出対象目標の被遮蔽部分のキーポイントの実特徴と相違し得るため、この場合に類似度閾値を適宜低下させれば認識の正確性を向上させることができる。 In the above solving means, when the second feature is included in the recognition waiting features, the second feature may be different from the actual feature of the key point of the shielded portion of the target to be detected. can improve recognition accuracy.

いくつかの実施例において、画像検出装置40は予め記憶モジュール(図示せず)をさらに含む。操作実行モジュール43が認識待ち特徴と予め設定された目標の予め記憶された特徴との第1類似度を取得する前に、予め記憶モジュールは、アカウント登録要求に応答して、ユーザのアカウントを登録し、ユーザを撮影して得られた少なくとも1つのフレームの第2画像から、所定品質要件を満たす第2画像を特定し、特定された第2画像からユーザの所定部位の特徴を抽出し、そして所定部位の特徴とアカウントとを関連付け、所定部位の特徴を予め設定された目標の予め記憶された特徴として保存するように構成される。 In some embodiments, image sensing device 40 further includes a pre-stored module (not shown). Before the operation execution module 43 obtains the first similarity between the recognition pending feature and the pre-stored feature of the preset target, the pre-storage module registers the user's account in response to the account registration request. identifying a second image that satisfies a predetermined quality requirement from at least one frame of a second image obtained by photographing the user; extracting features of a predetermined part of the user from the identified second image; It is configured to associate the feature of the given body part with an account and store the feature of the given body part as a pre-stored feature of a preset goal.

上記解決手段は、まず品質要件を満たす第2画像を特定して所定部位の特徴を抽出することで、より正確な特徴が抽出される。 The above solution first identifies the second image that satisfies the quality requirements and extracts the features of the predetermined part, thereby extracting more accurate features.

いくつかの実施例において、検出対象目標が予め設定された物体に遮蔽された場合、第1画像から少なくとも検出対象目標の未遮蔽部分の第1特徴を抽出する前に、操作実行モジュール43はさらに、検出対象目標を含む複数のフレームの第1画像から、所定品質要件を満たす第1画像を後続の特徴抽出用の第1画像として特定するステップと、後続の特徴抽出用の第1画像を前処理するステップと、後続の特徴抽出用の第1画像に対して生体検出を行い、検出対象目標が生体である生体検出結果である場合、第1画像から少なくとも検出対象目標の未遮蔽部分の第1特徴を抽出するステップ及び後続のステップを実行することを決定するステップと、のうちの少なくとも1つを実行するように構成される。 In some embodiments, if the target to be detected is occluded by a preset object, before extracting the first feature of at least the unoccluded portion of the target to be detected from the first image, the operation performing module 43 further: identifying a first image that satisfies a predetermined quality requirement as a first image for subsequent feature extraction from among first images of a plurality of frames including a target to be detected; and performing liveness detection on the first image for subsequent feature extraction, and if the detection target is a living body detection result, at least the unshielded portion of the detection target is detected from the first image. extracting one feature and deciding to perform subsequent steps.

上記解決手段は、特徴抽出前に、まず前処理を行うことで、より正確な特徴を抽出し、検出対象目標が生体である場合のみに検出対象目標を認識することで、認識の安全性が向上し、一定程度、偽造物攻撃を防止することができる。 The above solution means extracts more accurate features by first performing preprocessing before feature extraction, and recognizes the target to be detected only when the target to be detected is a living body, thereby increasing the safety of recognition. It can improve and, to some extent, prevent counterfeit attacks.

いくつかの実施例において、操作実行モジュール43が検出対象目標を含む複数のフレームの第1画像から、所定品質要件を満たす第1画像を後続の特徴抽出用の第1画像として特定するステップは、各フレームの第1画像の品質因子に基づき、各フレームの第1画像の対応する品質スコアを得るステップであって、第1画像の品質因子は、撮影デバイスに対する検出対象目標の位姿情報、第1画像内の検出対象目標の大きさを表すためのパラメータ情報、第1画像の輝度情報のうちの少なくとも1つを含むステップと、品質スコアに基づき、所定品質要件を満たす第1画像を後続の特徴抽出用の第1画像として特定するステップであって、選択された第1画像の品質スコアは他の第1画像の品質スコアより高いステップと、を含む。 In some embodiments, the operation execution module 43 identifying, from among the first images of the plurality of frames containing the detected target, the first image that satisfies a predetermined quality requirement as the first image for subsequent feature extraction comprises: obtaining a corresponding quality score of the first image of each frame based on the quality factor of the first image of each frame, wherein the quality factor of the first image is the orientation information of the target to be detected with respect to the imaging device; including at least one of parameter information representing the size of a target to be detected in one image and luminance information of the first image; identifying a first image for feature extraction, wherein the selected first image has a higher quality score than the other first images.

上記解決手段は、品質スコアが要件を満たす画像を特定して特徴抽出を行うことで、検出対象目標をさらに表すことができる特徴が抽出される。 The above solution identifies images whose quality scores meet the requirements and performs feature extraction to extract features that can further represent the target to be detected.

いくつかの実施例において、操作実行モジュール43が後続の特徴抽出用の第1画像を前処理するステップは、第1画像が複数の検出対象目標を含む場合、所定抽出要件を満たす検出対象目標の第1画像における目標領域を特定し、第1画像内の目標領域以外の画像部分を除去するステップ、及び/又は、第1画像内の検出対象目標の傾斜角度が所定角度より大きいことを検出し、検出対象目標の傾斜角度が所定角度より小さくなるまで第1画像を回転するステップを含む。 In some embodiments, the step of operation execution module 43 preprocessing the first image for subsequent feature extraction includes identifying targets of interest that meet predetermined extraction requirements if the first image includes multiple targets of interest. identifying a target region in the first image and removing image portions other than the target region in the first image; and/or detecting that the tilt angle of the detected target in the first image is greater than a predetermined angle and rotating the first image until the tilt angle of the target to be detected is less than a predetermined angle.

上記解決手段は、第1画像に複数の検出対象目標が存在する場合、所定抽出要件を満たす検出対象目標のみを特定し、要件を満たさない検出対象目標を破棄することで、要件を満たさない検出対象目標が認識結果に与える影響が軽減され、次に、第1画像内の検出対象目標の傾斜角度が所定角度より大きい場合、検出対象目標の位置を正すことで、検出対象目標の傾斜による影響が軽減される。 When a plurality of detection target targets exist in the first image, the above-described solution means identifies only the detection target that satisfies a predetermined extraction requirement, and discards the detection target that does not satisfy the requirement, thereby detecting the detection target that does not satisfy the requirement. The influence of the target on the recognition result is reduced, and if the inclination angle of the detection target in the first image is larger than a predetermined angle, the position of the detection target is corrected to reduce the influence of the inclination of the detection target. is reduced.

いくつかの実施例において、所定抽出要件は検出対象目標の対応する領域の面積が他の検出対象目標の対応する領域の面積より大きいことを含み、他の検出対象目標は検出対象目標以外の目標を含む。 In some embodiments, the predetermined extraction requirement includes that the area of the corresponding region of the detectable target is greater than the area of the corresponding region of the other detectable target, and the other detectable target is a target other than the detectable target. including.

上記解決手段は、検出対象目標の面積が大きいほど、抽出された特徴が正確であるため、面積がより大きい検出対象目標を選択することで、より正確な検出結果が得られる。 In the above solution, the larger the area of the target to be detected, the more accurate the extracted features. Therefore, by selecting the target to be detected having a larger area, a more accurate detection result can be obtained.

いくつかの実施例において、検出対象目標は顔を含み、予め設定された物体はマスクを含む。 In some embodiments, the target to be detected includes a face and the preset object includes a mask.

上記解決手段は、顔のマスク着用有無を判断し、対応する操作を実行し、例えば、顔にマスクが着用されていない場合又はマスクのかけ方が正確でない場合、対応するリマインドを通知することで、ユーザは適時に調整することができ、顔にマスクが着用されている場合、顔に対して認識等を行う。 The above solution is to determine whether the face is wearing a mask, perform the corresponding operation, for example, if the face is not wearing the mask or the mask is not applied correctly, the corresponding reminder is sent. , the user can timely adjust, perform recognition, etc. on the face if the mask is worn on the face.

上記解決手段は、検出対象目標を含む第1画像を検出して検出対象目標が遮蔽されたか否かを得て、その後、検出結果に合致する所定操作を実行することで、検出対象目標が遮蔽されたか否かを判断でき、それにより検出結果に合致する後続の所定操作を実行でき、画像内の検出対象目標の遮蔽状態に応じる柔軟な処理を実現する。 The above solving means detects whether or not the detection target is shielded by detecting a first image including the detection target, and then executes a predetermined operation that matches the detection result, so that the detection target is shielded. It is possible to determine whether or not the object has been detected, thereby executing a subsequent predetermined operation that matches the detection result, and to realize flexible processing according to the occlusion state of the target to be detected in the image.

図5は、本願の実施例に係る電子機器の一実施例の構成図である。電子機器50はメモリ51及びプロセッサ52を含み、プロセッサ52は、上記いずれかの画像検出方法の実施例におけるステップを実現するように、メモリ51に記憶されたプログラム命令を実行するために用いられる。一実施シーンにおいて、電子機器50は、マイクロコンピュータ、サーバを含んでもよいが、これらに限定されず、また、電子機器50はノートパソコン、タブレット等の携帯型デバイスを含んでもよく、ここでは限定しない。 FIG. 5 is a configuration diagram of an example of an electronic device according to an example of the present application. Electronic device 50 includes memory 51 and processor 52, and processor 52 is used to execute program instructions stored in memory 51 to implement the steps in any of the image detection method embodiments described above. In one implementation scene, the electronic device 50 may include, but is not limited to, a microcomputer, a server, and the electronic device 50 may include, but is not limited to, portable devices such as laptops and tablets. .

プロセッサ52は、上記いずれかの画像検出方法の実施例におけるステップを実現するように、それ自体及びメモリ51を制御するために用いられる。プロセッサ52は中央処理ユニット(Central Processing Unit:CPUと略称)と呼ばれてもよい。プロセッサ52は信号処理能力を有する集積回路チップであり得る。プロセッサ52は共通プロセッサ、デジタル信号プロセッサ(Digital Signal Processor:DSPと略称)、特定用途向け集積回路(Application Specific Integrated Circuit:ASICと略称)、フィールドプログラマブルゲートアレイ(Field-Programmable Gate Array:FPGAと略称)又は他のプログラマブル論理デバイス、離散ゲート又はトランジスタ論理デバイス、離散ハードウェアコンポーネント等であってもよい。共通プロセッサはマイクロプロセッサ又は任意の一般的なプロセッサ等であってもよい。また、プロセッサ52は集積回路チップにより共同で実現されてもよい。 Processor 52 is used to control itself and memory 51 to implement the steps in any of the image detection method embodiments described above. The processor 52 may be called a central processing unit (abbreviated as CPU). Processor 52 may be an integrated circuit chip having signal processing capabilities. The processor 52 is a common processor, a digital signal processor (abbreviated as DSP), an application specific integrated circuit (abbreviated as ASIC), and a field-programmable gate array (abbreviated as FPGA). or other programmable logic devices, discrete gate or transistor logic devices, discrete hardware components, or the like. The common processor may be a microprocessor or any common processor or the like. Processor 52 may also be co-embodied by an integrated circuit chip.

上記解決手段は、検出対象目標を含む第1画像を検出して検出対象目標が遮蔽されたか否かを得て、その後、検出結果に合致する所定操作を実行することで、検出対象目標が遮蔽されたか否かを判断でき、それにより検出結果に合致する後続の所定操作を実行でき、画像内の検出対象目標の遮蔽状態に応じる柔軟な処理を実現する。 The above solving means detects whether or not the detection target is shielded by detecting a first image including the detection target, and then executes a predetermined operation that matches the detection result, so that the detection target is shielded. It is possible to determine whether or not the object has been detected, thereby executing a subsequent predetermined operation that matches the detection result, and to realize flexible processing according to the occlusion state of the target to be detected in the image.

図6は、本願の実施例に係るコンピュータ可読記憶媒体の一実施例の構成図である。コンピュータ可読記憶媒体60にはプロセッサにより実行可能なプログラム命令61が記憶されており、プログラム命令61は上記いずれかの画像検出方法の実施例におけるステップを実現するために用いられる。 FIG. 6 is a configuration diagram of one embodiment of a computer-readable storage medium according to an embodiment of the present application. A computer-readable storage medium 60 stores processor-executable program instructions 61, which are used to implement steps in any of the image detection method embodiments described above.

上記解決手段は、検出対象目標を含む第1画像を検出して検出対象目標が遮蔽されたか否かを得て、その後、検出結果に合致する所定操作を実行することで、検出対象目標が遮蔽されたか否かを判断でき、それにより検出結果に合致する後続の所定操作を実行でき、画像内の検出対象目標の遮蔽状態に応じる柔軟な処理を実現する。 The above solving means detects whether or not the detection target is shielded by detecting a first image including the detection target, and then executes a predetermined operation that matches the detection result, so that the detection target is shielded. It is possible to determine whether or not the object has been detected, thereby executing a subsequent predetermined operation that matches the detection result, and to realize flexible processing according to the occlusion state of the target to be detected in the image.

いくつかの実施例において、本願の実施例は、電子機器で実行されると、前記電子機器内のプロセッサに上記方法を実行させるためのコンピュータ可読コードを含むコンピュータプログラムを提供する。 In some embodiments, embodiments of the present application provide a computer program product comprising computer readable code for causing a processor in an electronic device to perform the above method when executed in the electronic device.

いくつかの実施例において、本願の実施例により提供される装置に備えた機能又はモジュールは、上記方法実施例に記載の方法を実行するために用いられ、簡単化するために、その具体的な実施形態については上記方法実施例の説明を参照してよい。 In some embodiments, the functions or modules included in the apparatus provided by the embodiments of the present application are used to perform the methods described in the above method embodiments, and for the sake of simplicity, the specific For embodiments, reference may be made to the method example description above.

各実施例についての上記説明はそれぞれの実施例の相違点を強調する傾向にあり、簡単化するために、その同一又は類似の部分は相互に参照すればよい。 The above description of each embodiment tends to emphasize the differences between each embodiment, and for the sake of simplicity, identical or similar parts thereof may be referenced to each other.

本願により提供されるいくつかの実施例において、開示した方法及び装置は、他の形態で実現することができることを理解すべきである。例えば、上述した装置の実施形態は例示的なものに過ぎず、例えば、モジュール又はユニットの分割は、論理機能の分割に過ぎず、実際に実現時に別の形態で分割してもよく、例えば複数のユニット又はコンポーネントは組み合わせてもよく、又は別のシステムに統合してもよく、又はいくつかの特徴を省略もしくは実行しなくてもよい。一方、図示又は説明した相互の結合又は直接結合又は通信接続はいくつかのインタフェース、機器又はユニットを介した間接結合又は通信接続であり得、電気的、機械的又は他の形態であり得る。 It should be understood that in some of the embodiments provided by the present application, the disclosed method and apparatus may be embodied in other forms. For example, the embodiments of the apparatus described above are merely exemplary, for example, the division into modules or units is merely the division of logical functions, and may actually be divided in other forms when implemented, such as multiple units or components of may be combined or integrated into another system, or some features may be omitted or not performed. On the other hand, mutual couplings or direct couplings or communication connections shown or described may be indirect couplings or communication connections through some interface, device or unit, and may be electrical, mechanical or otherwise.

また、本願の各実施例における各機能ユニットは1つの処理ユニットに統合されてもよく、それぞれ独立して物理的に存在してもよく、2つ又は2つ以上で1つのユニットに統合されてもよい。上記統合されたユニットはハードウェアの形で実現してもよく、ソフトウェア機能ユニットの形で実現してもよい。統合されたユニットがソフトウェア機能ユニットの形式で実現され且つ独立した製品として販売又は使用される場合、コンピュータ可読記憶媒体に記憶されてもよい。このような見解をもとに、本願の実施例の技術的解決手段は実質的に又は従来技術に寄与する部分又は該技術的解決手段の全て又は一部がソフトウェア製品の形で実施することができ、該コンピュータソフトウェア製品は記憶媒体に記憶され、コンピュータ機器(パーソナルコンピュータ、サーバ、又はネットワーク機器等であってもよい)又はプロセッサ(Processor)に本願の実施例に係る各実施形態の方法の全て又は一部のステップを実行させる。前記記憶媒体は、USBメモリ、モバイルハードディスク、読み取り専用メモリ(Read-Only Memory:ROMと略称)、ランダムアクセスメモリ(Random Access Memory:RAMと略称)、磁気ディスクまたは光ディスク等のプログラムコードを記憶可能である様々な媒体を含む。 In addition, each functional unit in each embodiment of the present application may be integrated into one processing unit, may physically exist independently, or may be integrated into one unit by two or more. good too. The above integrated units may be implemented in the form of hardware or in the form of software functional units. When an integrated unit is implemented in the form of a software functional unit and sold or used as an independent product, it may be stored on a computer readable storage medium. Based on this view, the technical solutions of the embodiments of the present application may be implemented in the form of software products, or the part that contributes to the prior art, or all or part of the technical solutions may be implemented in the form of software products. The computer software product can be stored in a storage medium and executed in a computer device (which may be a personal computer, a server, a network device, etc.) or a processor to perform all of the methods of each embodiment according to the examples of the present application. Or execute some steps. The storage medium can store program codes such as USB memory, mobile hard disk, read-only memory (abbreviated as ROM), random access memory (abbreviated as RAM), magnetic disk or optical disk. Including a variety of media.

本願の実施例は画像検出方法及び関連装置、機器、記憶媒体、並びにコンピュータプログラムを提供し、前記方法は、検出対象目標を含む第1画像を取得するステップと、前記第1画像を検出し、前記第1画像の検出結果を得るステップであって、前記検出結果は、前記第1画像内の検出対象目標が予め設定された物体に遮蔽されたか否かを含むステップと、前記検出結果に合致する所定操作を実行するステップと、を含む。本願の実施例により提供される画像検出方法によれば、検出対象目標が遮蔽されたか否かを判断し、それにより検出結果に合致する後続の所定操作を実行することができ、画像内の検出対象目標の遮蔽状態に応じる柔軟な処理を実現する。 Embodiments of the present application provide an image detection method and associated apparatus, apparatus, storage medium, and computer program, the method comprising acquiring a first image including a target to be detected; detecting the first image; obtaining a detection result of the first image, wherein the detection result includes whether or not a target to be detected in the first image is occluded by a preset object; and performing a predetermined operation to. According to the image detection method provided by the embodiments of the present application, it is possible to determine whether the target to be detected is occluded, thereby performing a subsequent predetermined operation according to the detection result, and detecting in the image Realize flexible processing according to the occlusion state of the target.

Claims (20)

検出対象目標を含む第1画像を取得するステップと、
前記第1画像を検出し、前記第1画像の検出結果を得るステップであって、前記検出結果は、前記第1画像内の検出対象目標が予め設定された物体に遮蔽されたか否かを含むステップと、
前記検出結果に合致する所定操作を実行するステップと、を含む、画像検出方法。
acquiring a first image including a target to be detected;
detecting the first image to obtain a detection result of the first image, wherein the detection result includes whether or not a target to be detected in the first image is blocked by a preset object; a step;
and performing a predetermined operation that matches the detection result.
前記検出結果は、ニューラルネットワークにより前記第1画像を検出して得られたものである、請求項1に記載の方法。 2. The method of claim 1, wherein the detection result is obtained by detecting the first image with a neural network. 前記検出結果に合致する所定操作を実行するステップは、
前記検出対象目標が前記予め設定された物体に遮蔽されていない場合、第1リマインドを通知するステップを含み、前記第1リマインドは、前記予め設定された物体で前記検出対象目標を遮蔽するように通知するためのものである、
請求項1又は2に記載の方法。
The step of executing a predetermined operation that matches the detection result includes:
If the target to be detected is not occluded by the preset object, sending a first reminder, wherein the first reminder is to occlude the target to be detected by the preset object. for the purpose of notifying
3. A method according to claim 1 or 2.
前記検出結果は、前記検出対象目標の予め設定された物体での遮蔽方式が所定遮蔽方式であるか否かを含み、前記検出結果に合致する所定操作を実行するステップは、
前記検出対象目標が前記予め設定された物体に遮蔽され、且つ前記遮蔽方式が前記所定遮蔽方式でない場合、第2リマインドを通知するステップを含み、前記第2リマインドは、前記予め設定された物体での遮蔽方式を調整するように通知するためのものである
請求項1から3のいずれか1項に記載の方法。
The detection result includes whether or not a method of shielding a preset object of the target to be detected is a predetermined shield method, and the step of performing a predetermined operation that matches the detection result includes:
sending a second reminder when the target to be detected is blocked by the preset object and the blocking method is not the predetermined blocking method, wherein the second reminder is the preset object; 4. The method according to any one of claims 1 to 3, wherein the method is for notifying to adjust the shielding scheme of the .
前記検出結果に合致する所定操作を実行するステップは、
前記検出対象目標が前記予め設定された物体に遮蔽された場合、前記第1画像から少なくとも前記検出対象目標の未遮蔽部分の第1特徴を、前記検出対象目標の認識待ち特徴として抽出するステップと、
前記認識待ち特徴を利用して前記検出対象目標を認識し、認識結果を得るステップと、を含む
請求項1から4のいずれか1項に記載の方法。
The step of executing a predetermined operation that matches the detection result includes:
extracting at least a first feature of an unoccluded portion of the detection target from the first image as a recognition waiting feature of the detection target when the detection target is blocked by the preset object; ,
5. The method of any one of claims 1 to 4, comprising recognizing the detected target using the pending recognition feature to obtain a recognition result.
前記第1画像から少なくとも前記検出対象目標の未遮蔽部分の第1特徴を、前記検出対象目標の認識待ち特徴として抽出するステップは、
前記第1画像から前記検出対象目標の未遮蔽部分の第1特徴を抽出し、前記検出対象目標の被遮蔽部分の第2特徴を取得するステップと、
前記第1特徴及び第2特徴を前記検出対象目標の認識待ち特徴とするステップと、を含む
請求項5に記載の方法。
The step of extracting from the first image at least a first feature of an unoccluded portion of the target to be detected as a recognition pending feature of the target to be detected,
extracting a first feature of an unoccluded portion of the target to be detected from the first image and obtaining a second feature of an occluded portion of the target to be detected;
6. The method of claim 5, comprising making the first and second features a pending recognition feature of the target to be detected.
前記検出対象目標の被遮蔽部分の第2特徴を取得するステップは、
前記第1画像から前記被遮蔽部分の特徴を前記第2特徴として抽出するステップ、又は、
前記被遮蔽部分の所定特徴を前記第2特徴として取得するステップであって、前記所定特徴は、少なくとも1つの参考特徴に基づいて得られた特徴を含み、各前記参考特徴は、前記被遮蔽部分が存在しない参考目標内の、前記被遮蔽部分に対応する領域から抽出して得られたものであるステップを含む
請求項6に記載の方法。
The step of obtaining a second feature of an occluded portion of the target to be detected includes:
extracting the feature of the shielded portion from the first image as the second feature; or
obtaining predetermined features of the shielded portion as the second features, the predetermined features including features obtained based on at least one reference feature, each of the reference features corresponding to the shielded portion; is extracted from a region corresponding to the occluded portion in a reference target in which the is absent.
前記認識待ち特徴を利用して前記検出対象目標を認識し、認識結果を得るステップは、
予め設定された目標が1つ含まれる場合、前記認識待ち特徴と前記予め設定された目標の予め記憶された特徴との第1類似度を取得し、前記第1類似度が第1所定条件を満たす場合、前記認識結果が前記検出対象目標の身元認証に成功したことを含むことを決定するステップと、
前記予め設定された目標が複数含まれる場合、前記認識待ち特徴と各前記予め設定された目標の予め記憶された特徴との第2類似度をそれぞれ取得し、前記認識結果が、前記検出対象目標の身元を、第2所定条件を満たす第2類似度に対応する予め設定された目標の身元として特定することを含むことを決定するステップと、のうちの少なくとも1つを含む
請求項5から7のいずれか1項に記載の方法。
The step of recognizing the detection target using the recognition pending feature to obtain a recognition result includes:
if one preset target is included, obtain a first similarity between the recognition pending feature and a pre-stored feature of the preset target, wherein the first similarity satisfies a first predetermined condition; if so, determining that the recognition result includes successful identity authentication of the target to be detected;
when a plurality of the preset targets are included, obtaining a second similarity between the recognition-waiting feature and a pre-stored feature of each of the preset targets, and obtaining the recognition result as the target to be detected; as a preset target identity corresponding to a second similarity that satisfies a second predetermined condition. A method according to any one of
前記第1所定条件は前記第1類似度が第1類似度閾値より大きいことを含むことと、
前記第2所定条件は前記第2類似度が第2類似度閾値より大きいことを含むことと、のうちの少なくとも1つを含む
請求項8に記載の方法。
the first predetermined condition includes that the first similarity is greater than a first similarity threshold;
9. The method of claim 8, wherein the second predetermined condition includes at least one of: the second similarity measure is greater than a second similarity threshold value.
前記認識待ち特徴が前記検出対象目標の被遮蔽部分の第2特徴を含む場合の前記第1類似度閾値を、前記認識待ち特徴が前記第2特徴を含まない場合の前記第1類似度閾値より小さくすることと、
前記認識待ち特徴が前記第2特徴を含む場合の前記第2類似度閾値を、前記認識待ち特徴が前記第2特徴を含まない場合の前記第2類似度閾値より小さくすることと、のうちの少なくとも1つを含む
請求項9に記載の方法。
The first similarity threshold when the feature awaiting recognition includes the second feature of the shielded portion of the target to be detected is less than the first similarity threshold when the feature awaiting recognition does not include the second feature. to be smaller and
making the second similarity threshold when the feature awaiting recognition includes the second feature smaller than the second similarity threshold when the feature awaiting recognition does not include the second feature. 10. The method of claim 9, comprising at least one.
前記認識待ち特徴と前記予め設定された目標の予め記憶された特徴との第1類似度を取得する前に、さらに、
アカウント登録要求に応答して、ユーザのアカウントを登録するステップと、
前記ユーザを撮影して得られた少なくとも1つのフレームの第2画像から、所定品質要件を満たす前記第2画像を特定し、特定された前記第2画像から前記ユーザの所定部位の特徴を抽出するステップと、
前記所定部位の特徴と前記アカウントとを関連付け、前記所定部位の特徴を前記予め設定された目標の予め記憶された特徴として保存するステップと、を含む
請求項8から10のいずれか1項に記載の方法。
Before obtaining a first similarity between the awaiting recognition features and pre-stored features of the preset target, further comprising:
registering an account for the user in response to the account registration request;
Identifying the second image that satisfies a predetermined quality requirement from at least one frame of the second image obtained by photographing the user, and extracting features of a predetermined part of the user from the identified second image. a step;
associating the predetermined body features with the account and storing the predetermined site features as pre-stored features of the preset goal. the method of.
前記検出対象目標が前記予め設定された物体に遮蔽された場合、前記第1画像から少なくとも前記検出対象目標の未遮蔽部分の第1特徴を抽出する前に、さらに、
前記検出対象目標を含む複数のフレームの第1画像から、所定品質要件を満たす前記第1画像を後続の特徴抽出用の前記第1画像として特定するステップと、
後続の特徴抽出用の前記第1画像を前処理するステップと、
後続の特徴抽出用の前記第1画像に対して生体検出を行い、前記検出対象目標が生体である生体検出結果である場合、前記第1画像から少なくとも前記検出対象目標の未遮蔽部分の第1特徴を抽出するステップ及び後続のステップを実行することを決定するステップと、のうちの少なくとも1つを含む、
請求項5から11のいずれか1項に記載の方法。
When the target to be detected is occluded by the preset object, before extracting a first feature of at least an unoccluded portion of the target to be detected from the first image, further:
identifying, from among the first images of the plurality of frames containing the detected target, the first image that satisfies predetermined quality requirements as the first image for subsequent feature extraction;
preprocessing the first image for subsequent feature extraction;
Living body detection is performed on the first image for subsequent feature extraction, and when the detection target is a living body detection result, at least the first unshielded portion of the detection target is detected from the first image. extracting features and deciding to perform subsequent steps;
12. A method according to any one of claims 5-11.
前記検出対象目標を含む複数のフレームの第1画像から、所定品質要件を満たす前記第1画像を後続の特徴抽出用の前記第1画像として特定するステップは、
各フレームの前記第1画像の品質因子に基づき、各フレームの前記第1画像の対応する品質スコアを得るステップであって、前記第1画像の品質因子は、撮影デバイスに対する前記検出対象目標の姿勢情報、前記第1画像内の検出対象目標の大きさを表すためのパラメータ情報、前記第1画像の輝度情報のうちの少なくとも1つを含むステップと、
前記品質スコアに基づき、所定品質要件を満たす前記第1画像を後続の特徴抽出用の前記第1画像として特定するステップであって、前記選択された第1画像の前記品質スコアは他の前記第1画像の品質スコアより高いステップと、を含む
請求項12に記載の方法。
identifying, from among the first images of the plurality of frames containing the detected target, the first image that satisfies a predetermined quality requirement as the first image for subsequent feature extraction;
obtaining a corresponding quality score for the first image of each frame based on a quality factor of the first image of each frame, wherein the quality factor of the first image is an orientation of the target to be detected with respect to an imaging device; at least one of: information, parameter information representing the size of a target to be detected in said first image, and luminance information of said first image;
identifying, based on the quality scores, the first images that meet predetermined quality requirements as the first images for subsequent feature extraction, wherein the quality scores of the selected first images are equal to the quality scores of the other first images; a higher than one image quality score.
後続の特徴抽出用の前記第1画像を前処理するステップは、
前記第1画像が複数の前記検出対象目標を含む場合、所定抽出要件を満たす前記検出対象目標の前記第1画像における目標領域を特定し、前記第1画像内の前記目標領域以外の画像部分を除去するステップ、及び/又は、
前記第1画像内の前記検出対象目標の傾斜角度が所定角度より大きいことを検出し、前記検出対象目標の傾斜角度が前記所定角度以下になるように前記第1画像を回転するステップを含む
請求項12又は13に記載の方法。
Preprocessing the first image for subsequent feature extraction comprises:
when the first image includes a plurality of the detection targets, specifying a target region in the first image of the detection target satisfying a predetermined extraction requirement, and extracting an image portion other than the target region in the first image; removing and/or
detecting that the tilt angle of the detection target in the first image is greater than a predetermined angle, and rotating the first image so that the tilt angle of the detection target is equal to or less than the predetermined angle. 14. The method according to Item 12 or 13.
前記所定抽出要件は、前記検出対象目標の対応する領域の面積が他の検出対象目標の対応する領域の面積より大きいことを含み、前記他の検出対象目標は前記検出対象目標以外の目標を含む
請求項14に記載の方法。
The predetermined extraction requirement includes that the area of the corresponding region of the detection target is larger than the area of the corresponding region of another detection target, and the other detection target includes a target other than the detection target. 15. The method of claim 14.
前記検出対象目標は顔を含み、前記予め設定された物体はマスクを含む
請求項10に記載の方法。
11. The method of claim 10, wherein the target to be detected comprises a face and the preset object comprises a mask.
検出対象目標を含む第1画像を取得するように構成される画像取得モジュールと、
前記第1画像を検出し、前記第1画像の検出結果を得るように構成される目標検出モジュールであって、前記検出結果は、前記第1画像内の検出対象目標が予め設定された物体に遮蔽されたか否かを含む目標検出モジュールと、
前記検出結果に合致する所定操作を実行するように構成される操作実行モジュールと、を含む、画像検出装置。
an image acquisition module configured to acquire a first image including a target to be detected;
A target detection module configured to detect the first image and obtain a detection result of the first image, wherein the detection result is an object whose target to be detected in the first image is a preset object. a target detection module including occluded or not;
an operation execution module configured to execute a predetermined operation matching the detection result.
メモリ及びプロセッサを含み、前記プロセッサは、前記メモリに記憶されたプログラム命令を実行して、請求項1から16のいずれか1項に記載の方法を実現するために用いられる、電子機器。 17. An electronic device comprising a memory and a processor, said processor being used to execute program instructions stored in said memory to implement the method of any one of claims 1 to 16. プログラム命令が記憶されているコンピュータ可読記憶媒体であって、前記プログラム命令は、プロセッサに、請求項1から16のいずれか1項に記載の方法を実行させる、コンピュータ可読記憶媒体。 17. A computer readable storage medium having program instructions stored thereon, said program instructions causing a processor to perform the method of any one of claims 1 to 16. 電子機器で実行されると、前記電子機器内のプロセッサに請求項1から16のいずれか1項に記載の方法を実行させるためのコンピュータ可読コードを含む、コンピュータプログラム。 17. A computer program product comprising computer readable code for, when run on an electronic device, causing a processor in said electronic device to perform the method of any one of claims 1 to 16.
JP2021564951A 2020-09-22 2021-04-21 IMAGE DETECTION METHOD AND RELATED DEVICE, DEVICE, STORAGE MEDIUM, AND COMPUTER PROGRAM Pending JP2022552754A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202011002322.1 2020-09-22
CN202011002322.1A CN112115886A (en) 2020-09-22 2020-09-22 Image detection method and related device, equipment and storage medium
PCT/CN2021/088718 WO2022062379A1 (en) 2020-09-22 2021-04-21 Image detection method and related apparatus, device, storage medium, and computer program

Publications (1)

Publication Number Publication Date
JP2022552754A true JP2022552754A (en) 2022-12-20

Family

ID=73801500

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021564951A Pending JP2022552754A (en) 2020-09-22 2021-04-21 IMAGE DETECTION METHOD AND RELATED DEVICE, DEVICE, STORAGE MEDIUM, AND COMPUTER PROGRAM

Country Status (4)

Country Link
JP (1) JP2022552754A (en)
KR (1) KR20220042301A (en)
CN (1) CN112115886A (en)
WO (1) WO2022062379A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112115886A (en) * 2020-09-22 2020-12-22 北京市商汤科技开发有限公司 Image detection method and related device, equipment and storage medium
CN113158732A (en) * 2020-12-31 2021-07-23 深圳市商汤科技有限公司 Image processing method and related device
CN113065394B (en) * 2021-02-26 2022-12-06 青岛海尔科技有限公司 Method for image recognition of article, electronic device and storage medium
CN113449696B (en) * 2021-08-27 2021-12-07 北京市商汤科技开发有限公司 Attitude estimation method and device, computer equipment and storage medium
CN113792662B (en) * 2021-09-15 2024-05-21 北京市商汤科技开发有限公司 Image detection method, device, electronic equipment and storage medium
CN114955772A (en) * 2022-05-30 2022-08-30 阿里云计算有限公司 Processing method and device for electric vehicle

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007148872A (en) * 2005-11-29 2007-06-14 Mitsubishi Electric Corp Image authentication apparatus
JP2007280250A (en) * 2006-04-11 2007-10-25 Matsushita Electric Ind Co Ltd Face authentication system
JP2010262392A (en) * 2009-04-30 2010-11-18 Glory Ltd Image processor, image processing method and program for making computer execute the method
US20130247175A1 (en) * 2012-03-15 2013-09-19 Michael Christian Nechyba Facial feature detection
JP2014071680A (en) * 2012-09-28 2014-04-21 Secom Co Ltd Face authentication device
JP2017224186A (en) * 2016-06-16 2017-12-21 株式会社 日立産業制御ソリューションズ Security system
JP2020038731A (en) * 2019-12-12 2020-03-12 日本電気株式会社 Image recognition device, image recognition method, and image recognition program
JP2020052788A (en) * 2018-09-27 2020-04-02 キヤノン株式会社 Image processing system and method therefor, and program
CN111598065A (en) * 2020-07-24 2020-08-28 上海肇观电子科技有限公司 Depth image acquisition method, living body identification method, apparatus, circuit, and medium
CN111597910A (en) * 2020-04-22 2020-08-28 深圳英飞拓智能技术有限公司 Face recognition method, face recognition device, terminal equipment and medium

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140282269A1 (en) * 2013-03-13 2014-09-18 Amazon Technologies, Inc. Non-occluded display for hover interactions
CN105095829B (en) * 2014-04-29 2019-02-19 华为技术有限公司 A kind of face identification method and system
JP7015216B2 (en) * 2018-06-25 2022-02-02 株式会社日立製作所 Biometric program, biometric method
CN110110681A (en) * 2019-05-14 2019-08-09 哈尔滨理工大学 It is a kind of for there is the face identification method blocked
CN110826519B (en) * 2019-11-14 2023-08-18 深圳华付技术股份有限公司 Face shielding detection method and device, computer equipment and storage medium
CN111444862A (en) * 2020-03-30 2020-07-24 深圳信可通讯技术有限公司 Face recognition method and device
CN112115886A (en) * 2020-09-22 2020-12-22 北京市商汤科技开发有限公司 Image detection method and related device, equipment and storage medium

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007148872A (en) * 2005-11-29 2007-06-14 Mitsubishi Electric Corp Image authentication apparatus
JP2007280250A (en) * 2006-04-11 2007-10-25 Matsushita Electric Ind Co Ltd Face authentication system
JP2010262392A (en) * 2009-04-30 2010-11-18 Glory Ltd Image processor, image processing method and program for making computer execute the method
US20130247175A1 (en) * 2012-03-15 2013-09-19 Michael Christian Nechyba Facial feature detection
JP2014071680A (en) * 2012-09-28 2014-04-21 Secom Co Ltd Face authentication device
JP2017224186A (en) * 2016-06-16 2017-12-21 株式会社 日立産業制御ソリューションズ Security system
JP2020052788A (en) * 2018-09-27 2020-04-02 キヤノン株式会社 Image processing system and method therefor, and program
JP2020038731A (en) * 2019-12-12 2020-03-12 日本電気株式会社 Image recognition device, image recognition method, and image recognition program
CN111597910A (en) * 2020-04-22 2020-08-28 深圳英飞拓智能技术有限公司 Face recognition method, face recognition device, terminal equipment and medium
CN111598065A (en) * 2020-07-24 2020-08-28 上海肇观电子科技有限公司 Depth image acquisition method, living body identification method, apparatus, circuit, and medium

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
平野 晃昭 、外2名: ""眼鏡の着脱にロバストな高速顔画像同定方式"", 電気学会論文誌C, vol. 123, no. 7, JPN6023000541, 1 July 2003 (2003-07-01), JP, pages 1253 - 1263, ISSN: 0004966371 *

Also Published As

Publication number Publication date
CN112115886A (en) 2020-12-22
KR20220042301A (en) 2022-04-05
WO2022062379A1 (en) 2022-03-31

Similar Documents

Publication Publication Date Title
JP2022552754A (en) IMAGE DETECTION METHOD AND RELATED DEVICE, DEVICE, STORAGE MEDIUM, AND COMPUTER PROGRAM
KR102350507B1 (en) Access control method, access control device, system and storage medium
US10997809B2 (en) System and method for provisioning a facial recognition-based system for controlling access to a building
US11074436B1 (en) Method and apparatus for face recognition
WO2020135096A1 (en) Method and device for determining operation based on facial expression groups, and electronic device
US20090110248A1 (en) Face Recognition System
KR101241625B1 (en) Method, apparatus for informing a user of various circumstances of face recognition, and computer-readable recording medium for executing the method
CN108108711B (en) Face control method, electronic device and storage medium
WO2018192448A1 (en) People-credentials comparison authentication method, system and camera
US11651624B2 (en) Iris authentication device, iris authentication method, and recording medium
CN107844742B (en) Facial image glasses minimizing technology, device and storage medium
CN110442742A (en) Retrieve method and device, processor, electronic equipment and the storage medium of image
CN110612530A (en) Method for selecting a frame for use in face processing
CN109034029A (en) Detect face identification method, readable storage medium storing program for executing and the electronic equipment of living body
CN112560683A (en) Method and device for identifying copied image, computer equipment and storage medium
JP2007249587A (en) Authentication device, authentication method, authentication program and computer readable recording medium having the same recorded thereon
CN113837006A (en) Face recognition method and device, storage medium and electronic equipment
Jeny et al. Deep learning framework for face mask detection
CN111091047A (en) Living body detection method and device, server and face recognition equipment
US20230206688A1 (en) Information processing device, information processing method, and program
Schneider et al. Feature based face localization and recognition on mobile devices
Marciniak et al. Face recognition from low resolution images
CN110866508A (en) Method, device, terminal and storage medium for recognizing form of target object
CN109977835B (en) Facial image recognition method, device and equipment
WO2022140879A1 (en) Identity recognition method, terminal, server, and system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211102

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230808